LE DIRECT
ⓘ Publicité
Radio France ne vous demandera jamais de communiquer vos coordonnées bancaires.
la "souris électrique" avec une "super mémoire", invention de Claude Shannon

Claude Shannon et l'avènement du numérique

58 min
À retrouver dans l'émission

2016 est le centenaire de la naissance de Claude Shannon, qui fut l’un des responsables de la révolution numérique que nous vivons actuellement.

la "souris électrique" avec une "super mémoire", invention de Claude Shannon
la "souris électrique" avec une "super mémoire", invention de Claude Shannon Crédits : ZUMAPRESS - Maxppp

Nous fêtons, cette année, le centenaire de la naissance d’un extraordinaire excentrique. Celle du mathématicien et ingénieur Claude Shannon. Né dans le Michigan en 1916, Shannon est l’un des fondateurs essentiels de la révolution numérique, et de la naissance de l’informatique, avec ses alter ego ; Alan Turing et John von Neumann. Shannon est le premier qui emploie l’expression « théorie de l’information ». Cela en 1948, dans un article intitulé : « A Mathematical Theory of Communication ». La curiosité du mathématicien américain la porte vers des domaines, ou des objets, aussi divers que la science du codage des messages, la cryptographie. La construction de machines intelligentes. Comme cette souris mécanique, capable de retrouver son chemin dans un labyrinthe. Mais aussi le jonglage, voire la maîtrise de la moto. Monocycle qu’il utilise quand il se promène dans les couloirs du Massachusetts Institute of Technology.

Avec une définition de l’information réduite au choix entre deux options (oui/non, ouvert/fermé, pile/face, 0/1), Shannon invente son unité de mesure, le « bit », chiffre binaire aujourd’hui universellement utilisé. Mais aussi la formule destinée à calculer la quantité d’information. Elle repose sur la notion de probabilité (réduite à une sur deux), donc d’incertitude, de surprise, d’aléatoire. Le contenu ou le sens n’a pas grande place dans l’affaire : « ce qui est significatif, c’est la difficulté à transmettre le message d’un point à un autre », écrit Shannon. Bref, il a montré les limites ultimes de capacité de communication. Ces limites étant liées au « bruit », présent dans les canaux de transmission, en rapport avec les imperfections inéluctables de ces derniers.

En préambule à sa conférence intitulée Claude Shannon et l’avènement de l’ère numérique  (mercredi 13 avril à 18 h 30, Grand auditorium de la Bibliothèque François Mitterrand, Paris 13ème), Josselin Garnier, professeur attaché au Laboratoire de Probabilités et Modèles Aléatoires et au Laboratoire Jacques-Louis Lions de l'Université Paris-Diderot, nous explique en quoi Claude Shannon  a introduit le concept moderne de l’information.

Martin Andler, professeur au laboratoire de mathématique de Versailles,  nous présente l'ensemble des conférences organisées par la Bibliothèque nationale de France et la Société Mathématique de France sous le titre : Leçons de science : un texte, un mathématicien.

Bibliographie

L'information

L'informationCassini, 2015

Intervenants
  • mathématicien
  • Professeur à l'Université de Versailles St Quentin, co-responsable du pôle enseignement supérieur et recherche de Terra Nova.
L'équipe
Production
Réalisation
Avec la collaboration de
ⓘ Publicité
Radio France ne vous demandera jamais de communiquer vos coordonnées bancaires.

France Culture

est dans l'appli Radio France
Direct, podcasts, fictions

INSTALLER OBTENIR

Newsletter

Découvrez le meilleur de France Culture

S'abonner
À venir dans ... secondes ...par......