Merci pour A2A.
Qui a créé la norme industrielle de 8 bits, 16 bits, 32 bits et 64 bits pour les ordinateurs ?
Au mauvais vieux temps, le mot octet signifiait la largeur de bit du processeur.
La communication par baudot était un octet de 5 bits. Certains des premiers ordinateurs reposaient sur des processeurs de 6 bits, et IBM avait même un processeur de 36 bits.
Sans m'enliser dans l'histoire, je soutiendrais que le format de 8 bits était surtout dû à la norme de communication convenue de l'ASCII (American Standard Code for Information Interchange). L'ASCII n'était défini que sur un maximum de 7 bits, mais le 8e bit était fréquemment utilisé pour la détection des erreurs. Un jeu ASCII étendu utilise les 8 bits.
Intel a produit le premier microprocesseur à 4 bits (4004) qui annonçait le développement de futurs processeurs qui doubleraient simplement la capacité de ceux qui les précédaient.
Quelque part dans tout cela, 8 bits sont devenus une pseudo-norme pour un octet. Sur la base de la définition précédente de l'octet, l'IBM PC en tant que machine 16 bits n'était en réalité qu'une machine 320kB, sauf qu'il n'était capable de décaler que 8 bits à la fois (en raison des limitations du processeur 8088), de sorte que 640kB en format 8 bits deviennent profondément ancrés.
Les machines à base de 8086 étaient capables de déplacer 16 bits à la fois, mais la mentalité 8 bits était déjà coincée. Comme 4, 8, 16, 32 et 64, sont des nombres soignés à base binaire, l'architecture de tels ordinateurs est grandement simplifiée. Certes, le PC original avait une mémoire vive de 9 bits, le 9e bit servant à la détection des erreurs dans les données de 8 bits. Sur de nombreuses machines modernes qui utilisent encore un bit de parité, le contrôleur de mémoire se fait passer pour le bit de parité plutôt que de le stocker et de le récupérer réellement.
La plupart des informations qui sont transmises sur Internet sont encore en paquets série de 8 bits. C'est le simple volume et la vitesse des données qui permettent à une machine à l'une ou l'autre extrémité de construire des ensembles de données de plus de 8 bits de large.
Cette logique suggère que la prochaine révolution informatique sera de 128 bits, mais aucun d'entre nous n'est susceptible de la voir à notre époque, car le 64 bits permet 18 Exaoctets d'informations qu'il est actuellement impossible de compresser dans un espace raisonnable sans tout faire frire.
Comme le déplacement des données par paquets de 8 bits est si fortement intégré dans nos systèmes, il n'y a aucune raison logique pour que quelqu'un continue à développer quelque chose qui ne soit pas basé sur un nombre dérivé binaire, sauf à titre de curiosité.
La question de l'utilisation de l'informatique dans le cadre d'un projet de développement d'un système de gestion de l'information est très importante.