Ouvert du mardi au samedi de 9h30 à 18het jusqu'à 19h le dimanche.
Mission spatiale
Danser, le cahier d'activités
Né le 30 avril 1916 aux États-Unis, l’ingénieur et mathématicien Claude Shannon a amorcé la révolution numérique que nous vivons actuellement. Alan Turing, John von Neumann, et bien d’autres visionnaires ont conçu les premiers ordinateurs capables de traiter l’information. Shannon a introduit la théorie de l'information, indispensable à la transmission des signaux. Quel est son héritage et que devient celui-ci dans la recherche actuelle ?
➝ À l’occasion du centenaire de la naissance de Claude Shannon : Shannon100
➝ Un cycle organisé en partenariat avec l'Institut Henri Poincaré (UPMC-CNRS)
En 1948, Shannon introduit les notions de quantité d’information, avec le bit (ou Binary Digit) et l’octet. Il fonde dans le même article une théorie mathématique de l’information. Quelles sont ses idées principales ?
Avec Josselin Garnier, mathématicien, professeur à l’université Paris-Diderot.
L’internet à très haut-débit, les objets connectés à bas débit, les réseaux énergétiquement efficaces... Toutes ces technologies reposent sur la transmission du signal telle que Shannon l'a théorisée. Quelles révolutions nous attendent après 2020 ?
Avec Mérouane Debbah, directeur du Mathematical and Algorithmic Sciences Lab, Huawei, France.
Comment coder de manière sûre un message secret ? Les réponses sont contenues dans les idées de Claude Shannon sur l’information et sa transmission, que les mathématiques et la cryptologie ont beaucoup développées depuis.
Avec Bruno Martin, professeur d’informatique à l’université Nice Sophia Antipolis, chercheur au Laboratoire d’informatique, signaux et systèmes de Sophia Antipolis.