Codage numérique des nombres
La représentation de l’information.
Afin d’être exploitable, l’information doit être à la fois :
- signifiante (aspect )
- compréhensible (aspect ),
- perceptible (« audible », « visible », « mesurable », …).
Représenter l’information, c’est établir des relations entre le signifiant (ce qui a un sens) et le signifié (le support de l’information).
Supports physiques de l’information
Au sein des systèmes techniques, l’information est le plus souvent portée par des grandeurs électriques
intensité, fréquence, différence de potentiels…
Dans le cas de systèmes de communication, le support peut être des ondes électromagnétiques
lumière, ondes radio, …
ou des ondes sonores
ultrasons, …
L’information peut être stockée sur des supports magnétiques (bande magnétique, disque dur, …), des semi-conducteurs (mémoire flash, …) ou bien des supports chimiques (film photosensible, …), …
Représentation de l’information analogique
Les grandeurs électriques (intensité, fréquence, différence de potentiels…) sont utilisées comme supports pour transmettre des informations à une machine.
Chaque valeur de la grandeur électrique est mise en relation directe avec une valeur caractérisant une autre grandeur physique (température, pression, position, force, débit …)
Remarque : il existe une infinité de valeurs possibles pour représenter une information sur un support analogique.
Représentation de l’information logique
Les machines (calculateurs, mémoires, périphériques réseaux, …) traitent et mémorisent l’information au moyen de circuits logiques binaires car leurs entrées et sorties se caractérisent exclusivement par deux états : l’état logique bas et l’état logique haut.
Ceci s’explique par la technologie employée : les microprocesseurs sont constitués d’une multitude de composants électroniques que l’on appelle des transistors et qui ne peuvent prendre que deux états, bloqué ou saturé, et se comportent comme des interrupteurs. Ce sont des circuits logiques, le plus souvent à base de transistors, qui réalisent toutes les opérations dans les processeurs des machines …
En conséquence, le langage utilisé par les machines ne peut être construit qu’à partir d’un alphabet binaire constitué :
- d’un 0 (associé à l’état logique bas),
- et d’un 1 (associé à l’état logique haut).
(binary units)
Représentation de l’information numérique
Pour représenter des informations plus complexes (nombres, caractères, …) il est nécessaire d’utiliser plusieurs bits pour construire des mots.
Les informations sont souvent représentées en binaire sous la forme de mots dont le format est multiple d’un octet (8 bits, 16 bits, 32 bits …).
Un langage est constitué de trois éléments :
- un alphabet : ensemble fini de symboles,
- un lexique : ensemble de mots de format fixe ou variable auxquels un sens à été attribué (sémantique),
- une syntaxe : ensemble fini de règles qui fixent la manière d’ordonner les mots pour rendre le message signifiant.
Dans notre langue, nous associons des lettres pour construire des mots auxquels nous attribuons un sens.
L’utilisation de circuits logiques pour réaliser la structure matérielle des unités de traitement de l’information impose donc l’utilisation d’un langage utilisant exclusivement un alphabet très rudimentaire constitué des bits 0 et 1.
De même, une signification est donnée aux mots binaires par une opération appelée codage binaire de l’information. Le codage permet de donner un sens aux mots binaires. Dans les sciences de l’ingénieur, le codage permet de traduire une information d’un langage familier aux individus dans le langage binaire compréhensible par l’unité de traitement des machines.
Suite : les systèmes de numération
