Janvier 2017

Né le 30 avril 1916 aux États-Unis, l’ingénieur et mathématicien Claude Shannon a amorcé la révolution numérique que nous vivons actuellement. Alan Turing, John von Neumann, et bien d’autres visionnaires ont conçu les premiers ordinateurs capables de traiter l’information. Shannon a introduit la théorie de l'information, indispensable à la transmission des signaux. Quel est son héritage et que devient celui-ci dans la recherche actuelle ?

➝ À l’occasion du centenaire de la naissance de Claude Shannon : Shannon100

➝ Un cycle organisé en partenariat avec l'Institut Henri Poincaré  (UPMC-CNRS)

1. Qu’est-ce qu’une information ?

Janvier 2017

En 1948, Shannon introduit les notions de quantité d’information, avec le bit (ou Binary Digit) et l’octet. Il fonde dans le même article une théorie mathématique de l’information. Quelles sont ses idées principales ?

Avec Josselin Garnier, mathématicien, professeur à l’université Paris-Diderot.

A écouter (53:27)
Chargement du média

2. La transmission des signaux à l’aune de la 5G

Janvier 2017

L’internet à très haut-débit, les objets connectés à bas débit, les réseaux énergétiquement efficaces... Toutes ces technologies reposent sur la transmission du signal telle que Shannon l'a théorisée. Quelles révolutions nous attendent après 2020 ?

Avec Mérouane Debbah, directeur du Mathematical and Algorithmic Sciences Lab, Huawei, France.

A écouter (1:45:14)
Chargement du média

3. Ce que la cryptologie doit à Shannon

Janvier 2017

Comment coder de manière sûre un message secret ? Les réponses sont contenues dans les idées de Claude Shannon sur l’information et sa transmission, que les mathématiques et la cryptologie ont beaucoup développées depuis.

Avec Bruno Martin, professeur d’informatique à l’université Nice Sophia Antipolis, chercheur au Laboratoire d’informatique, signaux et systèmes de Sophia Antipolis.

A écouter (1:28:24)
Chargement du média