Système de numération

En général un système de numération est l’ensemble de symboles utilisés pour compter ainsi que la manière dont ils sont utilisés.

Nous, humains, du moins normaux, utilisons le système de numération décimal pour compter. L’ensemble des symboles utilisés en décimal est:

{0 ; 1 ; 2 ; 3 ; 4 ; 5 ; 6 ; 7 ; 8 ; 9}

Au total ça fait DIX symboles (d’où l’expression DECIMAL) en tenant compte du zéro qu’on a tendance à oublier ; on dira que ce système de numération utilise la base 10.

On appelle base, le nombre total de symboles différents qu’utilise un système de numération.
Le système de numération à base 2 ou binaire n’utilise que DEUX symboles : 0 et 1. Vous vous rappelez quand je vous disais que 0 était primordial en informatique ? Là, à lui seul, il représente 50% des symboles utilisés par le système binaire.

En décimal les symboles sont appelés des chiffres et plusieurs chiffres réunis forment un nombre tandis qu’en binaire chacun des symboles est appelé BIT (chiffre) et plusieurs bits forment un MOT (nombre).

Dans un ordinateur 0 ou 1 représente symboliquement une information bien déterminée ; 0 peut représenter une information comme : le circuit est ouvert et 1 l’information contraire. Le bit de l’anglais BInary digiT (Chiffre Binaire) représente donc une information. Techniquement l’information est quantitative, le bit noté « b » est l’ unité de mesure élémentaire de l’information tout comme le gramme (g), celle de la masse.
Ainsi le bit a des multiples :

Kilobit (Kb), Mégabit (Mb), Gigabits (Gb) etc… mais on utilise beaucoup plus l’octet comme unité de mesure de l’information.

1 octet = 8 bits (Et si on essayait de parler comme un PRO 😌, on dira un octet est égal à un mot de 8 bits)

Très souvent les gens croient que :

1 octet = 8 bits = 1 mot.

Ce n’est pas faux mais c’est « 1 mot » de 8 bits, tout comme 2 bits est « 1 mot » constitué de 2 bits. Comme nous l’avions dit récemment, 1 mot en binaire c’est plusieurs bits.

Et il y a une raison de préférer l’octet au bit. Prenons 2 ordinateurs, faisons executer un même travail au premier en bits et au second en octet :


Ordinateur 1 (instructions par bit)

Première instruction « 1 » = ferme le circuit principal;
Deuxieme instruction « 1 » = laisse passer une tension de 12 V;
Troisième instruction « 0 » = laisse ouvert le circuit secondaire;
Quatrième instruction « 0 » = magnétise le pôle sud du disque dur;

Ordinateur 2 (instructions par octet)

Première instruction « 00001100 » = accède au pôle sud du disque dur.

Vous voyez que le premier ordinateur execute le travail en traitant instruction par instruction une seule information (bit) alors que le second reçoit une donnée (en octet) renfermant toutes les informations (plusieurs bits) nécessaires pour effectuer le même travail en une seule instruction.
Un bit représente une seule et unique information alors qu’un mot représente plusieurs informations à la fois donc une donnée.
L’avantage de l’octet qui saute à l’œil est le gain de temps.
L’octet est encore appelé le Byte ; attention à ne pas le confondre au bit dans la prononciation. Byte se prononce « baïte » tandis que le bit se prononce « bite« . Encore un détails, le byte est noté « B » et le bit « b« 

1 Byte = 1 B = 1 octet = 8 bits =8 b

Il existe bien d’autres systèmes de numération dont la base octale (8 symboles « 0,1,2,3,4,5,6,7 ») et hexadécimale (16 symboles) pour ne citer que les fondamentaux, afin celles utilisées principalement en informatique.

Il y a quand même un petit souci avec le langage binaire ; si NORD est représenté par « 1 » et 5V aussi est représenté par « 1 », comment l’ordinateur arrive-t-il à savoir que le « 1 » signifie NORD et non 5V ou VERT ou OUI ou etc…?

Langage machine

De son vrai nom le langage binaire, c’est le seul langage compréhensible par l’ordinateur (côté matériel).
Le langage binaire est très simple comme moyen de communication, afin, pour une machine qui est tenue de demander ce qu’elle doit faire à chaqu’un de ses pas, à chacune de ses respirations, à chacun de ses clignement d’yeux… bon d’accord j’exagère un peu sur la métaphore mais l’ordinateur ne fait rien sans en avoir reçu l’ordre qui lui vient directement d’un programme informatique. Retenez qu’un programme est un ensemble d’instructions (ordres) que l’ordinateur interprète pour réaliser un travail.
C’est un ensemble de programmes qui forme un logiciel.


Voyons un peu comment l’ordinateur effectue une tache en étant intégralement guidé par un programme informatique :

Pour vous, nous avons enregistré une discussion entre un ordinateur et un de ses programmes :


 » Ordinateur : OUI ou NON ?
Programme : NON
Ordinateur : VRAI ou FAUX ?
Programme : VRAI
Ordinateur : NORD ou SUD ?
Programme : SUD
Ordinateur : OUVERT ou FERME ?
Programme : FERME
Ordinateur : 0 V ou 5 V ?
Programme : 5 V.

Fin de la discussion

L’utilisateur a peut-être fait un clic de souris sur « lire la vidéo » et notre précédent programme a traduit cette action en:

« NON-VRAI-SUD-FERME-5V ».

On remarque qu’il s’agit de 2 états à chaque fois (quelque chose et son contraire). L’ordinateur ne demandera jamais « ROUGE ou VERT » mais plutôt « ROUGE ou PAS ROUGE » ensuite « VERT ou PAS VERT ». Le fait de ne demander que 2 choses à chaque étape signifie qu’il n’y a que 2 possibilités à chaque fois ; et c’est ça le langage binaire.

Pour symboliser ces 2 états on utilise 2 symboles : ‘1’ et ‘0’ selon une logique et des règles établies :

• OUI est représenté par ‘1’ et NON par ‘0’.
• OUVERT est représenté par « 0 » et FERME « 1 »

Notre précédent programme serait alors « 01011 » en langage binaire.

En réalité dans un ordinateur, il n’y a pas de 0 et 1 qui courent dans tous les sens, ce n’est qu’une représentation symbolique des informations.
Ces informations sont par exemple des signaux électriques, rayonnements lumineux, magnétisation, etc…
S’il s’agissait d’une langue, l’alphabet aurait été composé de 0 et 1 mais là il s’agit beaucoup plus d’un système de numération.

BREF : En langage binaire, c’est ça ou ce n’est pas ça.

L’ordinateur en bref

C’est quoi un ordinateur ?

C’est une machine ;
C’est une machine électronique ;
C’est une machine programmable;

Même si ça en a l’air, mon intention n’était pas de former un escalier avec les 3 phrases précédentes mais plutôt de vous faire comprendre successivement ce que c’est qu’un ordinateur.

Vous vous dites sûrement et même fièrement que vous connaissez le sens du mot « machine » mais les choses deviennent très vite compliquées quand il s’agit d’utiliser des mots. Je vous en prie, essayez !
Pour faire simple, une machine est un ensemble formé par plusieurs éléments fonctionnant de manière collective dans le but de réaliser une tache. C’est une caractéristique bien connue d’un ordinateur qui est un assemblage de divers composants électroniques.

Le monstre de Frankenstein, vous connaissez ? C’est un monstre créé à partir de différentes parties des corps de plusieurs cadavres. Sachez qu’il n’a jamais existé et s’il avait réellement été créé, il n’aurait pu jamais ouvrir les yeux. Vous savez pourquoi ? Parce qu’il lui aurait manquer une âme.
Justement, dans le cadre d’un ordinateur, il ne s’agit pas que de matériel sinon il ne serait pas plus vivant qu’un cadavre. Pour cela les programmes dont il est équipé, lui servent d’âme.

L’ordinateur ne réfléchit pas, même pas par accident. L’ordinateur ne prend pas de décision tout seul. L’ordinateur obéit c’est tout. Elle ne sait que faire ce qu’on lui a dit de faire dès qu’il y aura lieu de le faire ; on dit qu’elle est programmée.
À qui obéit il ? À l’utilisateur de l’ordinateur me diriez-vous et vous n’auriez pas tort. Sauf que l’ordinateur ne parle ni Ewe, ni Kabyè, ni le langage gestuel ni aucun langage humain. Et si l’ordinateur inscrit la lettre « A » à l’écran dès qu’on appuie sur la touche « A » , c’est parce qu’il a fait ce qu’un programme informatique prévu à cet effet, lui a dit de faire.

De nos jours on arrive même à lui dire quoi faire en lui parlant.
Ceux qui mettent en place ces programmes servant d’intermédiaire entre l’Homme et la machine, sont appelés des programmeurs ou des développeurs. Ce ne sont pas des magiciens, tout le monde peut apprendre à coder ou développer (mettre au point) un programme informatique mais croyez-moi ce n’est pas toujours une partie de plaisir.

BREF : l’ordinateur est un ensemble formé de matériels et de programmes informatiques, le tout fonctionnant en étroite collaboration pour exécuter automatiquement les tâches que lui donne l’utilisateur.

L’informatique en bref

Dans le mot ‘informatique’, nous avons deux mots : INFORMAtion et automaTIQUE. Par déduction nous pouvons dire que l’informatique est un domaine d’activité qui traite le sujet sur l’automatisation du traitement de l’information. Ce n’est pas assez clair je sais mais vous allez comprendre dans les lignes qui suivront.

Avant de continuer il est indispensable de comprendre le mot INFORMATION en informatique.

Une information est un message permettant à l’ordinateur de savoir quoi faire. Par exemple quand vous appuyer sur une touche du clavier, l’ordinateur reçoit plusieurs « informations » :

  • 1ère information : une touche du clavier vient d’être appuyée;
  • 2ème information : la touche appuyée se situe sur la 5ème colonne de la 3ème ligne du clavier;
  • 3ème information : le caractère correspondant à la touche appuyée doit apparaitre sur l’écran. Bien entendu les informations ne circulent pas dans l’ordinateur en français, elles sont représentées sous une autre forme qu’on développera bientôt.

L’informatique est une science et une technique.

Une science parce qu’elle regroupe des connaissances, acquises grâce à des observations et expériences dans le domaine du traitement automatique de l’information.

Je vous arrête tout de suite, l’informatique n’est pas la science des ordinateurs, c’est plutôt la science de tout équipement électronique fonctionnement de façon automatique, euuh donc c’est aussi la science des ordinateurs.

Automatique ! C’est pour dire que l’équipement se débrouille tout seul comme un grand pour effectuer des opérations sur les informations qu’il reçoit pour ensuite rendre des résultats.

La partie technique de l’informatique met en application les théories de cette science.

Vous souvenez-vous de Pascaline ? Non, je ne parle pas de ma voisine mais de LA PASCALINE (première machine mécanique à calculer) de Blaise Pascal dont on avait parlé récemment ; elle donnait des résultats de calculs de façon automatique. Il s’agit bien de l’automatisation mais pas encore de l’informatique parce que c’était mécanique, contrairement à l’informatique qui s’appuie sur l’électronique.

La science Informatique permet de concevoir des matériels électroniques capable de fonctionner automatiquement mais pas que. Parce que cette science permet aussi de mettre au point des éléments incorporels pour exploiter les ressources du matériel : les programmes informatiques.

Un programme informatique traduit les ordres de l’utilisateur en langage machine afin que l’ordinateur puisse comprendre.

Si vous vous sentez perdu dans tout ce blablabla, sachez que c’est tout à fait normal. Essayez de relire et de relire et de relire et de rel… pour différencier le « A » du « B » parce qu’en informatique tout se confond facilement.

BREF : L’informatique, c’est comme un livre qui renferme les connaissances permettant de donner à une machine électronique, la capacité d’effectuer automatiquement des taches.

Historique

Ne prenez pas peur, je sais qu’on a tendance à trembler devant plein de dates associées à des évènements passés, surtout avec des personnes dont les noms sont imprononçables. C’est pour cela que nous n’aurons à survoler que quelques dates importantes qui ont influencé l’invention de l’ordinateur, de même il nous est quasiment impossible de retracer toute l’histoire. N’oubliez surtout pas que vous êtes là pour apprendre, et ce, avec plaisir.

L’ordinateur tel que nous le connaissons aujourd’hui fut possible grâce à des MILLIERS d’années de découvertes et d’inventions. Entre autres il nous a fallu combiner des techniques de l’électricité, l’électronique (numérique, analogique, de puissances), l’électrotechnique, l’électromagnétisme, la physique optique et bien d’autres mais l’une des plus importantes fut la découverte du nombre « ZERO ». Pas sa découverte mais plutôt sa prise en compte.
Ne riez pas c’est sérieux et un peu plus loin dans ce livre vous découvrirai le rôle incontournable de « ZERO » en INFORMATIQUE. Imaginez que vous avez cueilli cinq mangues, et qu’après avoir été au marché vous les avez toutes vendues et qu’ensuite vous comptabilisez le gain. Maintenant imaginez que vous voyez ZERO mangues sur le manguier, vous ne penseriez plus au marché ni au reste ; ce qui a fait que ZERO fut très longtemps ignoré.

Quelques importantes découvertes et invention qui ont rendu possible l’ordinateur :

Les cailloux

QUOI !!… Bon d’accord c’était pour rigoler un peu ; mais saviez-vous que le mot « calcul » vient du latin « calculus » qui signifie « caillou » ? C’est en raison du fait que la quasi-totalité des civilisations anciennes en ont utilisé pour compter au moins une fois dans le temps. J’aurais pu vous parler des bâtonnets que nous avions eu à utiliser au cours primaire mais si on ne doit retracer qu’une partie de l’histoire, autant bien choisir les épisodes qui riment avec les ordinateurs qui eux, ne savent que calculer.

Rappelons aussi que l’humanité a probablement dû commencer à compter avec les doigts de la main, ce qui expliquerait le pourquoi nous utilisons généralement dix symboles pour représenter n’importe quel nombre.


Le boulier

L’un des plus réussis en matière d’outils d’aide aux calculs fut le boulier. Le boulier est un ensemble formé de boules rangées sur des tiges, où les lignes représentent les unités, dizaines etc… et les colonnes représentent les chiffres. Son origine est incertaine vue ses multiples variantes, spécifiques à divers peuples à des époques différentes.



La règle à calcul

Il s’agit d’une règle constituée de réglettes graduées et mobiles que l’on pouvait glisser à gauche ou à droite selon l’opération de calcul à effectuer. Cette règle fonctionne selon les notions logarithmiques établies par John Neper en 1616 qui permettent la transformation d’un produit en somme et d’une division en différence. En effet elle permet d’effectuer des opérations arithmétiques de bases et complexes telles que la détermination de racines carrées, de cubique, de calculs logarithmiques ou trigonométriques. Ecoutez ceci : apparemment les ingénieurs de la NASA qui ont envoyé les premiers hommes sur la lune, ont eu à utiliser cette regle pour calculer certaines valeurs determinantes dans la construction de la fusée. Les logarithmes ont permis une avancée majeure des méthodes de calcul.


La pascaline

Il s’agit de la premiere machine-à-calculer mécanique créée par Blaise Pascal en 1642 alors qu’il n’avait que 19 ans. La Pascaline se résumait aux opérations d’addition et de soustraction et pourtant elle fut à l’origine de plusieurs machines à calculer révolutionnaires.

Gottfried Wilhelm Von Leibniz perfectionne en 1672 la Pascaline pour qu’elle puisse effectuer des multiplications et divisions. Son nom est assez bizarre (il ne l’a pas choisi non plus) mais il serait recommandé de retenir au moins « Leibniz » qui se prononce « Libnis » par signe de reconnaissance parce que c’est lui qui développe la théorie des opérations logiques selon laquelle toutes situations pourraient se traduire mathématiquement. Par ses travaux, Leibniz a prophétisé la venue des machines numériques que représentent la quasi-totalité des ordinateurs réalisés de nos jours.


La Machine Analytique

En 1834 Charles Babbage commença le développement de ce qui aurait pu être l’ancêtre incontesté des ordinateurs modernes, la machine analytique. Cette machine ne fut jamais achevée (par cause de manque de financement et surtout parce que Babbage était trop en avance sur son temps). Elle devrait d’après Babbage, etre capable de résoudre toutes sortes d’équations mathématiques en s’adaptant grâce à la programmation. C’est ce que l’on pouvait qualifier d’utopie à son époque, un rêve irréalisable. Et pourtant….

Au cours de la fabrication de cette machine, Ada Lovelace qui l’aidait sur ce projet, développe la notion de « programmation ». Elle fut la toute première programmeuse de l’histoire. Les idées de Babbage et Lovelace ouvrent la voie aux machines programmables.


Z3

Konrad Zuse invente en 1938 le Z3 (Zuse 3) le premier calculateur utilisant les principes du binaire au lieu du décimal. C’était un calculateur électromécanique.


ENIAC

En 1945, ENIAC fut d’après l’histoire le premier ordinateur entièrement électronique. Il a toujours impressionné bon nombre par sa gigantesque dimension. Il occupait une surface de 160 m2 et pesait 30 tonnes. ENIAC pouvait réaliser 100.000 additions en une seconde, c’est plutôt balaise hein ? Aujourd’hui les ordinateurs que nous tenons dans nos mains peuvent en effectuer jusqu’à 5 MILLIARDS et oui en une seconde, pas mal non ?


CIRCUITS INTEGRES

Grace à l’invention des transistors et plus tard des circuits intégrés qui sont une composition de plusieurs transistors et composants électroniques de base, les ordinateurs ont vu leurs tailles considérablement réduites. Déjà à l’époque, un circuit intégré bien emballé dans un boitier était appelé « processeur ». Les ordinateurs équipés de circuit intégré étaient alors appelés des mini-ordinateurs.


INTEL 4004

La société INTEL fabrique en 1971 le tout premier micro-processeur commercialisé, le 4004. Un micro-processeur est un circuit intégré d’une complexité extrêmement complexe et le 4004 ce boitier riquiqui à 16 pattes, était composé de 2300 transistors. De nos jours on est au dela, vraiment au-delà d’un milliard de transistor sur un microprocesseur ne dépassant 5cm2 de surface ; si vous me demandez comment est-ce possible ? je vous répondrai de la même manière qu’on m’a répondu : C’EST LA SCIENCE.

Pourquoi l’ordinateur ?

Pourquoi avons-nous créer l’ordinateur ?

NON ! Ce n’est pas parce que nos ancêtres voulaient jouer à des jeux-vidéos. C’était juste pour faire des calculs, et oui… des calculs du genre 1+1, mais des calculs bien plus complexes rassurez-vous.
L’ordinateur à la base n’était qu’une machine électronique capable d’effectuer des calculs.

Qu’est-ce qui a amené ce besoin d’inventer une machine à calculer ? Les gens ne savaient pas calculer en ce temps ?

A une époque les savants passaient des jours, des semaines voire des mois pour effectuer une opération de calculs, mais ce n’était pas le plus triste parce que très souvent ils finissaient avec des erreurs. C’était peut-être des savants mais ils demeuraient des humains ; c’est comme nous avons l’habitude de le dire : « l’humain est l’erreur » ; un instant… je crois plutôt que c’est l’inverse : « l’erreur est humaine ». Sauf que dans certains domaines tels que l’astronomie, la médecine, etc… les erreurs de calculs ne sont pas permises, pour le dosage d’une solution médicamenteuse par exemple. Alors, l’homme eu une idée de génie ; mettre au point quelque chose qui ferait le sale boulot à sa place. Et c’est ainsi que nous avons pensé à une machine capable non seulement d’effectuer des calculs en un temps record mais aussi et surtout de les effectuer sans erreur.

Mais encore plus en arrière dans le temps nous remarquons que les hommes principalement des commerçants ont eu à utiliser des outils pour palier le risque d’erreurs dans les calculs, le boulier par exemple.

En réalité tout débute à l’âge des Cro-Magnons ; s’il a fallu trouvez une solution pour éviter des erreurs de calculs c’est en partie parce qu’ils ont eu la bonne ou mauvaise idée d’élaborer la notion de chiffres (en gros, si vous êtes ou avez été le genre d’élèves qui déteste les mathématiques, c’est à vos ancêtres les Cro-Magnons que vous devriez vous en prendre et laissez les âmes de vos professeurs de mathématiques en paix) ; pourtant si les mathématiques existent c’est pour nous faciliter la vie. Les maths nous servent dans tous les domaines, on en fait permanament sans s’en rendre compte (à chacun de nos pas quand on marche, le cerveau effectue instantanément des millions de calculs pour trouver des valeurs qui serviront à savoir quels muscles il lui faut bouger, comment les bouger, à quelles distances, sous quels angles, à quelles vitesses, il doit au même moment calculer la quantité d’oxygène à attribuer, et des milliards d’autres calculs pour stabiliser le corps pendant les mouvements… Est-ce que vous l’avez une fois entendu se plaindre ???? Bon d’accord quelque fois et il l’exprime par la migraine.

Avant même les représentations graphiques des chiffres et des nombres, de nombreuses civilisations avaient instinctivement trouvé des moyens pour compter, ce qui leurs permettait par exemple de connaitre le nombre d’enfants qu’ils avaient (pour savoir si c’est suffisant pour aller construire leur propre village 🙃) etc…

Tandis que d’autres utilisaient des os pour compter, certains utilisaient des cailloux d’autres encore des métaux. De nos jours nous utilisons des symboles.


BREF : l’ordinateur fut créé afin de réaliser plus rapidement et sans erreurs des opérations de calculs. C’est après que ce sont ajoutés des fonctionnalités telles que le multimédia, le réseau etc…

Avant-propos

Le monde numérique, qu’est-ce que c’est ? C’est du monde de demain dont il s’agit, où les machines informatiques et intelligentes seront omniprésentes dans la vie quotidienne de chacun, pour soit nous assister, soit nous remplacer dans nos tâches. La seule vraie question serait de savoir si nous y serions tous préparés.

Dans 50 ans toutes les voitures se conduiront d’elles même et nos bon vieux Zémidjan-Mans perdront leur place face aux Zémidjan-Bots. Pire encore, certains politiciens seront des robots, vous imaginez ? Même humains, plusieurs sont déjà sans cœur. Il y aura aussi des bébés humanoïdes pour ceux qui auront les moyens de s’en offrir, ce qui donnerait des discussions du genre : « le fils du voisin a un crâne renforcé par un alliage de titane et il peut mémoriser la bible en une nuit grâce à une puce électronique implantée dans son cerveau ». Et je ne vous ai pas encore dit, nos maisons seront complètement autonomes et les bouteilles de bière viendront à nous toutes seules (au moins une chose de positive)😂 Ne soyez pas inquiètes les dammes, vos cheveux se tresseront tous seuls. Tout ça à cause ou grâce à l’INFORMATIQUE. Je m’appelle Omer Folly ANANOU, et si je mens, venez me retrouvez dans un demi-siècle pour me critiquer.

Aujourd’hui déjà presque toute chose inventée par l’homme rime avec le mot « informatique » et pourtant bon nombre se demande ce que c’est, réellement.
J’ai vu des étudiants fuirent les filières informatiques juste pour avoir entendu les mots : ALGÈBRE BOOLÉENNE. D’autres encore ne se sont pas aventurer dans la programmation informatique pour le simple fait qu’on leurs ait dit qu’ils seraient amenés à parler avec l’ordinateur de la façon suivante : #^ [a-z0-9. -]+@[a-z0-9.-]{2,}.[a-z]{2,4}$#. Aussi étrange que cela puisse paraître, ça a du sens et NON ce n’est pas un langage extraterrestre.

Ici nous ne voudrions effrayer personne avec le jargon parfois barbare de l’informatique ; ici nous allons vous faire découvrir ou redécouvrir un univers des plus fascinants, celui des ordinateurs plus précisément les micro-ordinateurs, en l’occurrence les PC ; ici nous allons partir de la base et quand je dis la base, c’est depuis la base.
Ne vous laissez pas intimider par les termes techniques de l’informatique car nous allons les expliquer de la manière la plus explicite que possible, croyez-moi, nous les décortiqueront, les disséqueront, les désosseront, les éplucheront, enfin bref… vous m’avez compris !

Soyez surs qu’à la fin de ce cours, vous serez capable de monter, démonter, dépanner, réparer un ordinateur selon que la panne soit d’origine matérielle ou logicielle et plus important encore, de COMPRENDRE le fonctionnement d’un ordinateur.

A la fin de chaque grande partie vous retrouverez une rubrique que j’ai nommé « BREF ». Ah oui, je suis trop inspiré, bon bref, il s’agira toujours d’un paragraphe de plus ou moins 3 lignes à travers lequel j’essayerai de résumer les chapitres.


Et si nous commencions avec un peu d’histoire.

Sachez que l’origine d’une chose et cette chose prouve que la chose existe.