Publié par : Claude Marchis | 19 avril 2013

La science l’information

Publication dans le Tarn Libre du 26 avril 2013

IBM360 (années 70)Aujourd’hui, le téléphone mobile et l’internet nous transmettent un foisonnement d’actualités, de messages, d’images, de sons de haute qualité, mais ces nouvelles pratiques devenues quotidiennes et banales ne doivent pas nous faire oublier le long chemin de conceptions théoriques, d’innovations technologiques, de négociations dans lequel se lancèrent les pionniers de la science de l’information avant de réaliser ce gigantesque et fabuleux réseau de communication du XXIe siècle. De tous temps l’homme a voulu échanger avec ses congénères. Les systèmes d’information à distance se développèrent, de l’utilisation de signaux de fumée des amérindiens à la grande innovation technique de communication que l’on doit à Graham Bell, l’inventeur officiel du téléphone en 1875. Bell eut l’idée de transférer sur une ligne métallique un signal électromagnétique en concordance avec les vibrations de la voix. Ensuite, l’homme fit appel à la puissance des machines, ces futurs ordinateurs aux capacités énormes, avec lesquels il devint nécessaire d’inventer un langage homme-machine, de mettre au point un système de codage de données et d’instructions, afin de leur transmettre des informations.

Le bit, élément fondamental de la numérisation

Le télégraphe Morse, au début du siècle dernier, connut une période héroïque . Utilisant des signaux qui avaient valeur de point ou de trait, ce télégraphe fut une des premières entreprises « modernes » de codification de caractères; le télex, avec un système de codage plus évolué, le code Beaudot, se maintint dans toutes les entreprises au-delà des années 70 en résistant à l’éclosion du fax, alors que les premiers ordinateurs ne disposaient à cette époque d’aucune fonctionnalité de messagerie. Ce furent les prémisses de l’information moderne avant qu’elle entre dans l’ère numérique dont le concept de base, le bit, ayant la valeur « booléenne » 0 ou 1, est l’élément fondamental, seules valeurs numériques comprises par « l’intelligence » de la machine . Contraction de « Binary Digit », le terme informatique bit , créé en 1948 par John Tuckey, fut popularisé dans les années 60 par un mathématicien, ingénieur, électricien américain, Claude Shannon, qui le conçut comme mesure élémentaire de l’information numérique. Le bit combine ne combine que deux états, 0 ou 1. Un bit peut définir deux caractères, avec deux bits 4 caractères, 3 bits 8 etc… Ainsi la codification des 26 caractères de l’alphabet nécessitent 5 bits. En réalité on utilise des tables de codage standardisées sur 8 bits, afin d’intégrer tous les caractères nécessaires à l’expression textuelle. Ce sont principalement l’ASCII ou l’EBCDIC, ce dernier élaboré par IBM dit Big Blue, constructeur américain d’ordinateurs dont l’immense centre de recherche permit incontestablement la réussite de l’informatique. Depuis on transmet aussi numériquement des images par décomposition de l’image en points codés numériquement ou des sons de qualité par échantillonnage.

Des instructions en langage machine

Ces données textes, images, sons, sont amenés par des canaux périphériques dans l’unité de traitement de la machine. L’ordinateur fonctionne par instructions. Chacune d’elles appelle un ensemble de fonctions codées en une suite de 0 et 1, seul langage compréhensible par l’ordinateur. Les plus usitées sont les fonctions logiques ET ou OU. Elles sont utilisées pour combiner des opérations de calcul sur des données numériques. C’est à partir de ces multiples fonctions, modélisées par l’algèbre de Boole, que les ingénieurs pionniers de l’informatique, réalisèrent les circuits dans des processeurs en y implantant des relais. Par convention, les relais sont ouverts (courant non passant) quand le signal aura la valeur 0 et fermés (courant passant) pour la valeur 1. Dans les années 60, les semi-conducteurs, diodes et transistors ont remplacé le relais, trop lents à commuter, trop volumineux, trop consommateurs d’énergie. La miniaturisation des procédés a permis la fabrication des circuits intégrés, ensembles de diodes et de transistors, chacun de ces circuits intégrés correspondant à des éléments réutilisables dans un processus logique. C’est à partir de ce jeu de construction, que les ingénieurs conçurent des processeurs puissants capables de réaliser des fonctions de plus en plus élaborées, avec une vitesse de calcul que seule une machine puisse prétendre. L’évolution technique en ce domaine n’est pas terminée et reste prometteuse grâce à l’apport, dans un futur proche, des nanotechnologies. Les adeptes de l’ordinateur portable n’ont pas fini d’être comblés. C. Marchis

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

Catégories

%d blogueurs aiment cette page :