Le codage binaire: le préquel de l’informatique

S’introduire en monde de l’informatique nécessite des préalables et des connaissances spécifiques. Le langage informatique est différent du langage ordinaire du fait de ses différents codages et appellations. Le codage binaire constitue un pré requis vital à cerner avant toute entrée dans le domaine. C’est un vocabulaire dont  tout intervenant informatique en est familier.

Présentation du codage binaire et de l’octet

codage-binaire.jpg

En informatique, la base du codage binaire consiste à indiquer par 1 ce qui est vrai et par 0 pour ce qui est faux. De l’autre côté, on désigne par le mot octet, par exemple, un groupement de 8 bits permettant le codage d’une information, des valeurs numériques ou encore des caractères. Ce même langage désigne aussi la capacité ou la vitesse à mémoriser ou la quantité de transfert d’information par seconde lors d’un transfert d’un support vers un autre. En quelque sorte, l’octet est l’outil servant à mesurer l’information. Il permet aussi de savoir la quantité d’information pouvant être supportée (sur un CD ou un flashdisc, ou encore sur un disque dur d’ordinateur). Il est parfois nécessaire de faire la différence entre octet et byte.

Les opérations et la base hexadécimale du codage binaire

la-base-hexadecimale-du-codage-binaire.jpg

En principe, un octet est constitué de 8 bits.  Faisant référence à un outil de mesure, 1 kilobit ou mille bits est de 125 octets. Diverses représentations peuvent être utilisé en calcul et codage binaire : soit par représentation de deux chiffres décimaux soit par 3 chiffres décimaux ou encore 4 chiffres décimaux. Dans ce dernier cas, on aura un groupe de 2 octets sur 16 bits. Ce type de calcul en codage binaire peut s’étaler jusqu’à 7 ou encore 9 chiffres décimaux. Une remarque à retenir est qu’en codage binaire, la lettre « o » est à éviter par souci de corrompre ou de le confondre avec le chiffre « 0 ».

 

Author: Axel Duval

Share This Post On