Comment fonctionne le codage informatique ?


Comment fonctionne le codage

Alors, comment fonctionne le codage, en réalité ? La réponse courte est que l'écriture du code indique à l'ordinateur ce qu'il doit faire, mais ce n'est pas tout à fait aussi simple.


Voici la réponse plus longue. Un ordinateur ne peut comprendre que deux types distincts de données : on et off. En fait, un ordinateur n'est en réalité qu'une collection d'interrupteurs marche/arrêt (transistors). Tout ce qu'un ordinateur peut faire n'est rien d'autre qu'une combinaison unique de certains transistors allumés et de certains transistors éteints.

Le code binaire est la représentation de ces combinaisons sous forme de 1 et de 0, où chaque chiffre représente un transistor. Le code binaire est regroupé en octets, des groupes de 8 chiffres représentant 8 transistors. Par exemple, 11101001. Les ordinateurs modernes contiennent des millions, voire des milliards de transistors, ce qui signifie un nombre inimaginable de combinaisons.

Mais un problème se pose ici. Pour être capable d'écrire un programme informatique en tapant des milliards de 1 et de 0, il faudrait une matière grise surhumaine, et même dans ce cas, il vous faudrait probablement une vie ou deux pour l'écrire.

This is where programming languages come in…

Programming Languages

Here’s a simple example of some code:

  1. print 'Hello, world!' 

That line of code is written in the Python programming language. En termes simples, un langage de programmation (ou de codage) est un ensemble de règles syntaxiques qui définissent la façon dont le code doit être écrit et formaté.

Des milliers de langages de programmation différents nous permettent de créer des logiciels informatiques, des applications et des sites Web. Au lieu d'écrire du code binaire, ils nous permettent d'écrire du code qui est (relativement) facile à écrire, à lire et à comprendre. Chaque langage est accompagné d'un programme spécial qui se charge de traduire ce que nous écrivons en code binaire.