Claude Shannon, un héritage au-delà du numérique

Scientifique majeur de la deuxième moitié du XXe siècle, Claude Shannon aura marqué son temps par sa théorie de la communication. Ses travaux ont initié une métamorphose numérique qui touche aujourd’hui nos sociétés à tous les niveaux. Alors que Shannon aurait eu 100 ans cette année, l’institut Henri Poincaré lui rend hommage avec un colloque du 26 au 28 octobre prochain. Olivier Rioul, chercheur à Télécom ParisTech, présentera lors de cet événement le personnage qu’était ce pionnier de la communication, et une partie de l’héritage qu’il laisse derrière lui.

 

Claude Elwood Shannon. Le nom est peu connu du grand public. Pourtant, si la révolution numérique que le monde traverse aujourd’hui devait avoir un père, ce serait sûrement cet homme, né en 1916 dans une petite ville du Michigan. Sa vie, qui s’est étendue jusqu’en 2001, a été peu médiatisée. Pas de superproduction hollywoodienne dédiée, comme pour Alan Turing. Pas non plus de mythification de sa personne par la sphère artistique comme l’a été la figure d’Einstein. « Shannon a eu une vie bien rangée, et c’est probablement cela qui explique que personne ne parle de lui » constate Olivier Rioul, chercheur à Télécom ParisTech en communications numériques.

Si sa vie n’a rien eu de particulièrement extraordinaire, les travaux de Claude Shannon sont en revanche passionnants à bien des égards. En 1948, il écrit un article intitulé Une théorie mathématique de la communication. « Sa publication vient comme une révolution dans le monde scientifique » assure Olivier Rioul. Dans cet article, Claude Shannon introduit la notion de bit d’information. Il y dessine également pour la première fois un schéma de canal de communication, rassemblant l’ensemble des parties prenantes dans la transmission d’un signal depuis sa source jusqu’à sa destination.

 

 

Premier schéma d'un canal de communication, publié par Claude Shannon en 1948.
Premier schéma d’un système de communication, publié par Claude Shannon en 1948. Il décrit le canal comme pouvant être « un câble coaxial, une bande de radiofréquence, un faisceau de lumière, etc. »

 

L’élément peut paraître anecdotique. Il a pourtant eu un impact bien au-delà du champ disciplinaire de Shannon. Le diagramme a inspiré des présentations de paradigmes en linguistique, pour représenter le déroulement d’un discours ; en psychologie, afin de mettre en avant les mécanismes de compréhension et de perception d’un message ; ou même en biologie, où il permet de détailler la transcription de l’ADN. L’engouement pour ce type de représentation schématique est tel qu’en 1956, dans une tribune intitulée The Bandwagon, Claude Shannon modère l’emballement général. Il y rappelle que ses travaux constituent avant tout une branche des mathématiques, et que sa théorie ne peut résoudre tous les problèmes dans toutes les disciplines.

 

Shannon et sa formule magique

Mais plus que le schéma du canal, c’est surtout une formule publiée dans le papier de 1948 qui marquera la communauté scientifique : C=W.log(1+SNR). Avec cette expression mathématique, Shannon définit la capacité maximale d’un canal de transmission, c’est à dire la quantité d’information qu’il est possible de transmettre de façon fiable. Il montre que cette capacité ne dépend que de la bande passante du canal et du rapport entre la puissance du signal émis et le bruit du canal. D’après ces résultats, tout canal possède donc une limite de débit, en-dessous de laquelle le message transmis de l’émetteur au destinataire n’est pas altéré.

« La force de Shannon, c’est d’avoir réussi à obtenir ce résultat de manière théorique » insiste Olivier Rioul. « Shannon ne donne pas la solution pour atteindre cette limite, mais il montre qu’elle existe, quel que soit le canal. » Il faudra attendre 43 ans et les travaux de Berrou, Glavieux et Thitimajshima en 1991 pour que la limite de Shannon soit pour la première fois approchée en pratique grâce à la mise au point des turbocodes.

À lire sur le blog : Quèsaco les turbocodes ?

 

Pour Olivier Rioul, l’histoire de cette formule est atypique, et fait l’objet de nombreuses approximations historiques. « Et puis les temps étaient mûrs. En 1948, année où Claude Shannon fait connaître ses résultats, sept autres scientifiques ont publié des formules analogues » pointe-t-il, s’appuyant sur des recherches menées avec José Carlos Magossi au sujet de l’histoire de cette formule.

Cependant, les résultats des pairs de Shannon sont parfois inexacts, parfois inspirés des travaux amonts de Shannon et donc peu originaux. Et puis tous baignent dans le même environnement, se fréquentent ou participent aux mêmes conférences. Tous, sauf Jacques Laplume, ingénieur français qui parviendra à une formule correcte et analogue à celle de Shannon quasiment en même temps. Mais il lui manquera l’apport colossal du reste de la théorie de Shannon pour entrer dans la postérité.

 

Pionnier des communications, mais pas que…

Si les travaux ses travaux sont à la source des communications numériques contemporaines, Claude Shannon a laissé derrière lui un héritage bien plus vaste que cela. En 1954, le psychologue comportemental Paul Fitts publie sa loi éponyme pour modéliser les mouvements humains. Dans son article scientifique, il cite explicitement le théorème de Shannon, renvoyant à sa formule de la capacité d’un canal. « Aujourd’hui, nous utilisons la formule de Fitts dans l’étude des interactions homme-machine » témoigne Olivier Rioul, lui-même ayant travaillé avec un thésard sur la réconciliation de cette loi avec la théorie de Shannon.

La portée des travaux de Shannon dépasse donc largement le cadre de la théorie de l’information et de la communication. Amoureux des jeux, il a mis au point l’une des premières machines à jouer aux échecs. Il est également l’un des pionniers de l’intelligence artificielle et du machine learning, avec une démonstration dès 1950 d’une souris robotisée capable d’apprendre à trouver son chemin dans un labyrinthe, et de se rappeler du trajet optimal.

 

Si la vie de Shannon n’a donc pas forcément été extraordinaire au sens littéral du terme, nul doute qu’il était un homme hors du commun. Quant à son manque de renommée – que le centenaire de sa naissance cherche à combler en cette année 2016 – lui-même déclarait de son vivant, au sujet de sa théorie de l’information : « Je ne pensais pas au début que cela aurait un énorme impact. J’appréciais travailler sur ces problèmes, comme j’ai apprécié travailler sur plein d’autres problèmes, sans aucune arrière-pensée financière, ou de gain sous la forme de célébrité. Et je pense que beaucoup de scientifiques ont cette approche, qu’ils travaillent parce qu’ils aiment le jeu. »

 

Le+bleuClaude Shannon, magicien des codes

 

Pour célébrer le centenaire de la naissance de Claude Shannon, l’Institut Henri Poincaré organise un colloqué dédié à la théorie de l’information, du 26 au 28 octobre. Il y sera question de l’héritage du mathématicien dans la recherche actuelle, et des pistes qui se dessinent pour le champ disciplinaire qu’il a fondé. L’Institut Mines-Télécom, partenaire de l’événement aux côtés du CNRS, de l’UPMC et du labex Carmin, y sera présent au travers des présentations de quatre chercheurs : Olivier Rioul, Vincent Gripon, Jean-Louis Dessalles et Gérard Battail.

Pour aller plus loin sur la vie et les travaux de Shannon, le CNRS propose un site retraçant le parcours de cet homme.

 

À lire également sur le blog

Théorie de la simplicité : apprendre la pertinence aux intelligences artificielles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *