Pour progresser dans la compréhension du monde, les scientifiques doivent parfois rompre avec les connaissances et idées reçues de leur temps.

 

Bachelard : penser les ruptures en sciences

Mardi 19 septembre 2017

Selon Gaston Bachelard, les sciences progressent surtout par des « ruptures épistémologiques ». Les géométries non-euclidiennes et la relativité d’Einstein illustrent ce modèle de révolution théorique.
Avec Vincent Bontems, chercheur au Laboratoire des recherches sur les sciences de la matière du Commissariat à l’énergie atomique et aux énergies alternatives (CEA).

Bachelard : penser les ruptures en science, par Vincent Bontems

Texte intégral de la conférence de Vincent Bontems (CEA / Mines ParisTech), donnée à l’auditorium de la Cité des sciences et de l’industrie, le 19 septembre 2017, dans le cadre du cycle « Quand la science se remet en question ».

Transcription faite par Taos Aït Si Slimane, corrigée et validée par l’auteur, Vincent Bontems


Bonjour à tous !

Merci d’être venus pour écouter une conférence de philosophie. Je vais vous parler d’un philosophe qui me tient à cœur, Gaston Bachelard.

On m’a demandé de réfléchir à la conception des ruptures en science selon Gaston Bachelard. C’est souvent l’un des éléments que l’on retient de son épistémologie, qui insiste sur la nécessité de ruptures, que l’on appelle parfois les ruptures épistémologiques. En son temps, cela représentait une vraie nouveauté.

Avant d’aborder le sujet, je vais vous présenter Gaston Bachelard. J’ai mis quelques dates principales de publication de ses ouvrages, notamment ceux que je vais citer au cours de mon exposé. Mais il est intéressant pour comprendre la trajectoire intellectuelle de Gaston Bachelard de rappeler aussi ce qu’a été sa vie.

Il est né en 1884, dans un village de Champagne qui est Bar-sur-Aube. Son père était cordonnier. Sa mère tenait un dépôt de tabac et journaux.

Souvent, je dis : 1884, c’est un an après 1883. Au-delà du truisme, c’est parce que 1883, c’est la mise en place d’un certain nombre de lois de Jules Ferry, sur l’enseignement public, laïc, gratuit et obligatoire. Cela va permettre l’ascension dans la société française, que l’on a appelée l’échelle républicaine, d’enfants issus des classes populaires, à travers l’enseignement, puis ensuite à travers le recrutement dans un certain nombre d’institutions, comme l’éducation nationale, le P et T, les Chemins de fer. C’est tout le mouvement de la IIIème République d’ascension méritocratique à travers le savoir dont Bachelard va être une figure exemplaire.

Il fait de très brillantes études dans son village, au Collège et au Lycée. Il va jusqu’au baccalauréat. A cette époque, il y a trois baccalauréats. Le plus prestigieux, qui fait la reproduction des élites, c’est le baccalauréat littéraire avec le grec et le latin. Il y a un deuxième baccalauréat pour la bourgeoisie, qui est le baccalauréat de médecine. Et enfin, il y a le baccalauréat qu’on va dire populaire, qui est celui qui fait des maths et des sciences naturelles. C’est celui-là que Bachelard va passer, autant par destination sociale que par goût.

Après, venant d’un milieu relativement modeste, il va prendre un emploi, c’est l’équivalent de nos surveillants d’aujourd’hui, il est répétiteur dans un lycée et prépare un concours de recrutement de la Fonction publique, qui sera celui des P et T. Il va le réussir et être nommé à Paris où il sera ambulateur. Ce n’est pas exactement un postier, c’est celui qui prend le courrier à partir du centre de tri et qui le distribue à l’endroit où le postier va le prendre pour faire sa tournée. Quand il est nommé à Paris, il en profite pour s’inscrire au cours du soir et continuer à se former en mathématiques, en astronomie, en chimie. Il va continuer ses études, et il obtiendra l’équivalent de 7 « capacités ».

Il va faire son service militaire dans les Dragons, période où il dira qu’il s’est ennuyé quand même. Ensuite, quand il revient, il se met à préparer un autre concours. Son ambition dans la vie c’est de devenir ingénieur des P et T. Il passe le concours et il est reçu troisième, mais cette année-là, au lieu d’avoir trois places il n’y a que deux places. Il n’est donc pas pris. Il obtient sa mise en disponibilité pour préparer à plein temps la prochaine édition, qui lieu en 1914.

En 1914, quand la guerre éclate, il ne bénéficie pas de la protection accordée aux fonctionnaires soutiens de famille qui sont en poste, il est appelé au front. Il se marie tout de suite avec une institutrice, d’un village juste à côté du sien, avec laquelle il s’est lié, puis il va au front. Il va passer trente-huit mois dans les tranchés. Son rôle, comme il était au P et T, si vous avez une idée dans les films du type qui porte un gros sac sur le dos et qui déroule un fil, qui fait une cible facile pour la ligne d’en face, c’est lui ! Il sera décoré parce qu’il aura notamment rétablie, dans la dernière semaine de la guerre, sous une pluie d’obus, pendant soixante-douze heures d’affilée, la communication entre les lignes. Il survie miraculeusement, heureusement pour lui et heureusement pour nous.

Et à quelque chose malheur est bon… La Guerre de 14-18, une énorme saignée dans la population française, plus d’un million de morts parmi les hommes français, et 75% de pertes chez les officiers. Or, Bachelard, parce que sa femme était tombée malade de la tuberculose, avait passé le concours de recrutement des officiers pendant la guerre, pour pouvoir avoir une meilleure paye et pourvoir compenser ses arrêts maladie. Il a survécu. 75% des officiers sont morts, et les officiers c’étaient très souvent des saint-cyriens, mais c’étaient aussi des normaliens, des polytechniciens. Autrement dit, toute l’intelligentsia française a été annihilée, balayée. Une génération entièrement saignée. Quand il revient de la guerre, il se présente au Ministère de l’éducation et il dit : moi, ce que j’aimerais faire, c’est enseigner. On lui dit : où vous voulez. Il dit : je veux être prof dans mon village. On lui dit : pas de problème. Et on lui fait tout enseigner. Il enseigne les sciences naturelles, c’est le poste qu’il a réclamé, mais on lui fait aussi enseigner, au début, l’histoire et la géographie, la philosophie. Il enseigne à peu près tout.

Comme c’est un travailleur acharné, et qu’il ne faut pas se décourager, il veut reprendre des études. Là, la difficulté c’est que pour faire des études de sciences il faut un minimum de matériel, et dans son village il n’y a pas ça. Donc, il décide de prolonger en philosophie. C’est cela qui est peut-être le plus important, c’est l’irruption sur la scène de la philosophie française de quelqu’un qui n’était pas destiné à être philosophe, qui n’est pas un héritier, en aucun cas, d’une tradition lettrée, mais quelqu’un qui va profondément marquer, notamment par son travail d’enseignant en physique et en chimie, et quelqu’un qui a une tête bien faite d’un point de vue mathématique. Il passe en un an l’équivalent de nôtre master, puis il s’inscrit en thèse.

En thèse, il va être avec deux personnages, dont là je n’aurai pas vraiment le temps de vous parler, qui sont intéressants eux aussi : Léon Brunschvicg et Abel Rey. Léon Brunschvicg, en un mot, c’est ce qu’on appelle un néokantien, c’est-à-dire quelqu’un qui s’est beaucoup inspiré de la philosophie de Kant mais c’est surtout un bon connaisseur des mathématiques, quelqu’un qui fait des études justement d’histoire des idées philosophiques en fonction de l’évolution de l’histoire des sciences déjà, et un idéaliste. Abel Rey, c’est un personnage encore plus étonnant, c’est quelqu’un qui se revendique de quelque chose qui sert souvent de repoussoir de nos jours, il se dit « scientiste ». C’est lui qui revendique ce terme. Il s’inscrit dans le sillage du positivisme d’Auguste Comte mais il va encore plus loin. Quand on lit Abel Rey, se pose même la question de savoir, puisqu’il n’y a de vérité que des vérités scientifiques, ce qui reste à faire à la philosophie ? Bachelard a choisi les deux personnages d’avant-guerre qui pouvaient guider une personnalité comme la sienne pour travailler sur les sciences.

Il va soutenir deux thèses de philosophie en 1927. L’Essai sur la connaissance approchée, dont je dirai un mot, recevra un prix de l’Académie. C’est déjà une œuvre magistrale, qui traite essentiellement de la science qu’il a apprise durant ses études, autrement dit la science classique, la science du XIXème siècle. Il a commencé à s’initier à la théorie de la relativité, à la mécanique des quanta, mais pour l’instant, il n’aborde que des problèmes issus du XIXème siècle. S’il ne fallait retenir qu’une seule idée de l’Essai sur la connaissance approchée, c’est précisément l’idée d’approximation. Vous avez probablement un souvenir d’élève où on vous avait donné un problème de physique, vous aviez trouvé la bonne équation, vous aviez mis les valeurs des variables, puis vous aviez tapé à la calculette, obtenu le résultat, puis vous avez noté le résultat, vous étiez content de vous, et le prof passe, il raye le résultat et vous met zéro. Vous lui dite que c’est pourtant le résultat exact, il vous dit : oui, mais le résultat n’était signifiant que deux chiffres après la virgule, et vous, vous m’en avez mis cinq. Cela n’a aucun sens, vous avez oublié que vous étiez en train de faire de la physique, vous avez fait des maths. Car un chiffre exact n’a de valeur que mathématique. Toutes les sciences de la nature sont des approximations. Donc, c’est une réflexion très méthodique sur l’approximation du côté expérimental et sur l’approximation du côté mathématique. C’est extrêmement profond philosophiquement parce que cela veut dire qu’au lieu de chercher un monde idéal qui corresponde exactement à une idéalité mathématique, avec Bachelard on se rend compte qu’on cherche toujours à connaître les choses à une certaine précision, à une certaine échelle, à une certaine résolution, selon une certaine approximation du réel. Et c’est l’approximation qui est en fin de compte la réalité la plus relationnelle et la plus profonde. C’est une première rupture avec la métaphysique des philosophes : les conditions réelles de la connaissance sont à la source de ce qui peut être appelé « réalité », pas l’inverse.

Ce qui fait la valeur de Bachelard, seconde rupture, c’est qu’il ne s’en tient pas là. Une fois qu’il a fait ce travail déjà considérable, il se remet à travailler, en apprenant la science qui se fait à son époque. Il rencontre Langevin, il s’initie à la théorie de la relativité, etc. Il écrit, dès 1929, La valeur inductive de la relativité, qui est l’un des premiers livres sur les théories d’Einstein. Il y en a eu d’autres avant mais pas forcément aussi clairvoyant. Il va continuer. Il va aussi intégrer la mécanique ondulatoire de Louis de Broglie, la mécanique matricielle de Heisenberg, la physique quantique de son époque. Il va faire une synthèse en 1934, qui est Le nouvel esprit scientifique, où il définit les conditions nouvelles de la recherche et de la science contemporaine. C’est une œuvre dont les principes inspirent encore les recherches que je peux mener aujourd’hui quand j’essaye d’expliciter des recherches scientifiques, que cela soit au CERN ou en astrophysique. Les principes qui sont exposées dans Le nouvel esprit scientifique sont toujours féconds. Ils sont toujours utiles, je dirais même qu’ils sont rarement dominés par l’ensemble non seulement du grand public, mais même de certains de mes confrères qui utilisent des formes d’approche de la science qui parfois me semblent datées et périmées au regard de cet effort intellectuel qui a été fourni dès les années trente.

Je mentionne en 1936 un article qui s’appelle « Le surrationalisme », qui de nos jours est réédité dans un recueil posthume, « L’engament rationaliste », parce que Bachelard y présente sa démarche en faveur des sciences aussi comme « progressiste » au sens fort du terme. Dans cet article, le mot « surrationalisme », formé par analogie avec le surréalisme, signifie une sorte d’agressivité de la raison, de turbulence qui recherche la rupture, qui n’est pas du tout conservatrice, qui ne se satisfait pas d’une raison ratiocinante qui ne ferait que rappeler des évidences déjà acquises, des savoirs qui seraient finalement des habitudes de la mémoire plus que le fruit d’une recherche permanente de réforme de l’entendement. En 1936, c’est publié dans une éphémère revue, Inquisition, qui était en soutien au Front populaire. Ce texte affirme la convergence de la nouveauté qu’apporte le surréalisme en art, les doctrines nouvelles pour la science, la relativité, la mécanique quantique, et puis un certain socialisme. A vrai dire, le nouvel esprit scientifique, NES, c’est aussi pensé par analogie avec la NEP de Lénine, avec cet assouplissement du dogmatisme marxiste qui permit de faire respirer la société soviétique et de redémarrer. Il y a véritablement là un progressisme dont la pointe est cet article de 1936.

En 1938, il publie un livre, qui est encore beaucoup pratiqué dans l’enseignement secondaire, l’un des plus connu, La formation de l’esprit scientifique. Je le mentionne parce que c’est là-dedans que l’on va trouver l’une des clefs pour comprendre comment fonctionne le progrès selon Bachelard, c’est la notion d’obstacle épistémologique. En 1938, Bachelard a quitté le lycée, il a accepté de prendre un poste de professeur à Dijon. Il va enseigner d’abord les lettres, ensuite la philosophie. Sa femme est morte depuis un moment. Il élève seul sa fille, et c’est l’une des raisons pour laquelle il rechigne un petit peu à reprendre des responsabilités plus importantes, il reste en province. On va lui proposer un poste à Paris, il va le refuser. Finalement, il montera à Paris en 1940, à la mort d’Abel Rey qui avait été son maître. Il monte à Paris pendant l’occupation. La défaite de la France avait été un choc pour lui, c’est l’une des rares fois où l’on a un témoignage du fait qu’il vacille, qu’il n’est pas capable de faire cours. Pendant la guerre il va écrire, en 1940, un dernier travail d’épistémologue avec ses notes, La philosophie du non. Mais, pendant la guerre, l’information scientifique ne circule plus, donc il est sevré de ce qui l’abreuve pour travailler. Et il va initier, ou prolonger, parce qu’il avait fait quelques incursions auparavant, une ligne de recherche qui est très intéressante mais dont on ne parlera pas aujourd’hui, qui est sur l’imaginaire, la poésie. Le Bachelard le plus connu dans le monde, c’est plutôt ce Bachelard de la poétique des éléments ou de La Poétique de l’espace, c’est-à-dire cette ligne de réflexion sur l’autre moitié de la vie humaine, sur la nuit. Il y a la moitié diurne, celle de l’éveil, qui demande de la concentration, de l’application, de la rigueur, durant laquelle il faut refouler les images faciles et les facilités du langage, les séductions. Puis, il y a ce côté où en fait on se prête à l’imagination, à la rêverie, et c’est durant la guerre qu’il va beaucoup travailler là-dessus avec des livres comme : L’Eau et les rêves : Essai sur l’imagination de la matière, par exemple qui est très connu.

Après la Deuxième Guerre mondiale, en 1945, c’est déjà un vieux monsieur, et ses alliés philosophiques ont disparus. Bachelard dans les années 30, c’est quelqu‘un qui fréquente des Italiens, comme Federigo Enriques, des Suisses, comme Ferdinand Gonseth, qui a de jeunes admirateurs extrêmement talentueux, comme Jean Cavaillès, comme Albert Lautman, et tous ces gens vont disparaitre pendant la guerre (à part Gonseth) : Jean Cavaillès, parce qu’il était résistant, Lautman, parce qu’il était juif, Brunschvicg, dans la clandestinité, Enriques, etc. Donc, le milieu intellectuel dans lequel il évolue a disparu, la science, elle, a progressé. Qu’à cela ne tienne, il va se remettre à l’étude, racheter des manuels… Et, vous trouverez, dès 1949, dans Le rationalisme appliqué, Bachelard citant les travaux de Richard Feynman, ce qui est tout à fait stupéfiant, c’est une vitesse d’intégration inouïe. En général, il faut vingt ans, au minimum de décalage entre un travail scientifique majeur et son intégration. Ce qui suppose aussi que dans Bachelard on a parfois l’intégration conjecturale, spéculative, de travaux qui n’ont pas été prolongés ou ont été démentis ensuite. On trouve ce bouillonnement intellectuel de la science se faisant, avec des intuitions géniales et aussi des conjonctures aventureuses. Et il va y avoir un festival de trois livres extrêmement importants : Le rationalisme appliqué, où il va nous donner un diagramme du spectre de la philosophie des sciences, et où il va penser la notion de rupture. Puis, L’activité rationaliste de la physique contemporaine, et ça, c’est un livre fabuleux, immaitrisable, d’une richesse inouïe, dans lequel on trouve thématisée quelque chose qu’il met en œuvre depuis longtemps, qui est le concept de récurrence, dont je vais vous parler. Puis, en 1953, Le matérialisme rationnel, qui sera le dernier livre de philosophie scientifique de Gaston Bachelard. Ensuite, il va continuer d’écrire, on ne s’arrête pas comme ça de travailler, mais sera dans la veine poétique et imaginaire.

Il meurt en 1962. Il aura été consacré par l’admission à l’Académie des sciences morales, il aura refusé, parce qu’il se trouvait trop vieux, un poste au Collège de France. Il aura été interviewé à la télé, une interview qui restera longtemps le spectacle le plus suivi à l’ORTF. C’était une personnalité immensément respectée et en même temps populaire, une incarnation du meilleur de l’esprit de la IIIème République française.

Maintenant, on va parler de la notion de rupture. Pour mettre les choses un peu en place, on peut avoir l’impression, en première approximation, que c’est un dilemme assez facile, une contradiction assez facile entre l’idée de continuité et de discontinuité. Les choses sont un peu plus complexes que ça. Il faudrait pour bien faire parler de toute une série de gens, refixer des positions dans le champ philosophique. Comme on n’a guère le temps, on va juste regarder deux positions un peu extrêmes pour situer les choses.

Dans la première moitié du XIXème siècle, il y a quelqu’un qui a une extrême importance, c’est Auguste Comte. Auguste Comte, c’est la philosophie positiviste. C’est un modèle qui non seulement sera très influent parmi les penseurs qui s’intéressent aux sciences mais aussi parmi les scientifiques. Cela faisait partie, on va dire, de la culture de l’honnête homme que de connaître quelques rudiments de positivisme jusqu’à la Seconde Guerre mondiale. L’une des leçons les plus emblématiques de la doctrine d’Auguste Comte, c’est « la loi des trois états » qui affirme que l’humanité, quand elle rencontre des phénomènes surprenants, pour lesquels elle ne s’explique pas d’où ils viennent, passe par trois étapes, psychologiques et historiques. Le premier état c’est l’état religieux. La première façon de rationnaliser un phénomène comme le fait que la foudre tombe souvent sur le même arbre, eh bien c’est de dire « Zeus a maudit la nymphe qui est dans cet arbre », donc inventer une cause surnaturelle, personnalisée. C’est là, un premier motif de rationalisation.

Dans un deuxième temps, il y a un travail d’abstraction du langage, qui passe notamment par l’introduction de la logique, et c’est ce qu’Auguste Comte appelle l’état métaphysique. Dans le stade métaphysique, on cherche une explication à travers l’attribution d’une cause logique, à travers un parallélisme entre les mots qui s’enchaînent pour exprimer le phénomène et ce qui est présupposé comme étant l’enchaînement de la cause et des effets physiques. On va dire qu’il y a une substance qui attire la foudre dans l’arbre. Puis, vient un troisième stade, qui est l’état positif (« positif » n’est pas opposé à négatif, mais à fictif, positif cela veut dire réel). Le positivisme consiste à rationaliser les phénomènes sans en chercher les causes mais en cherchant la loi d’évolution des phénomènes. On ne s’intéresse plus à essentialiser la cause, on observe juste le phénomène, on en mesure l’évolution, et on trouve une loi mathématique qui décrit cette évolution, et peut donc la prédire aussi. Je simplifie mais c’est cela la base de la méthode positiviste, et à partir de là on ne peut qu’aller en avançant. Toutefois, toutes les sciences ne commencent pas au même moment et elles n’avancent pas au même rythme. On a commencé par l’arithmétique il y a très longtemps, ensuite la géométrie, puis les premiers travaux de statique avec Archimède, puis le début de la mécanique, où en plus de l’étendue on a rajouté les forces, puis ensuite on va rajouter des affinités et on aura la chimie. Après la chimie on va étudier la matière vivante. Puis, parmi les animaux, il y aura une espèce un peu particulière, qui est l’espèce humaine, à laquelle on consacrera la « sociologie », et celle-ci nous expliquera pourquoi justement les sciences se sont développées ainsi.

Voilà un modèle encyclopédique assez classique dont le continuisme est complexifié par ce décalage entre les sciences. Mais Auguste Comte accomplit deux ruptures pertinentes par rapport à la philosophie antérieure : premièrement, il observe que la science est devenue une tâche collective. On ne peut plus croire être capable, comme Descartes, de réengendrer toute la science tout seul. La science est collective et elle est aussi appliquée, c’est-à-dire que Comte reconnaît le rôle des ingénieurs dans le fait que la science permet une action, une information du monde. La seconde rupture, dont Bachelard va tirer profit, c’est que Comte observe aussi qu’il arrive un moment où les sciences changent de présentation et de mode d’initiation. Jusqu’au XVIIIème siècle, quand vous vouliez être un géomètre, on vous faisait lire les œuvres des mathématiciens antérieurs. Il y avait évidemment les éléments d’Euclide, ensuite Apollonius, Apollodore, les travaux de Cardan, etc. Puis, il arrive un moment où l’on écrit des manuels. Et c’est très important pour Auguste Comte qu’il y ait une transition entre ce qu’il appelle l’ordre « historique » des connaissances, l’ordre dans lequel les connaissances sont apparues, et l’ordre « dogmatique », c’est-à-dire l’ordre dans lequel on les apprend quand on a su les synthétiser et les mettre dans un ordre démonstratif et pédagogique. Le manuel signe cette forme d’accession à la maturité pour toutes les disciplines (on peut tous réfléchir au fait qu’il n’existera jamais de manuel de philosophie de ce type). Cette réorganisation de la connaissance au cours du passage entre l’ordre historique et l’ordre dogmatique, c’est quelque chose dont Bachelard se souviendra.

Voyez : ce modèle continuiste d’Auguste Comte, où un progrès procède par accumulation des faits positifs, il suppose quand même déjà des réorganisations, donc un certain nombre de ruptures. En fait il n’y a jamais eu de doctrine suffisamment bête pour présenter la science comme un long fleuve tranquille.

Puis, d’un autre côté, il y a Thomas Kuhn, qui publie La structure des révolutions scientifiques, en 1962, c’est-à-dire précisément l’année où meurt Bachelard. On reprochera d’ailleurs à Kuhn de ne pas avoir rendu à César ce qui est à César, c’est-à-dire de ne pas avoir parlé ni de Bachelard ni d’un autre chercheur, Ludwik Fleck, qui avait des idées assez proches des siennes. L’idée de Kuhn, est qu’on peut parler de progrès cumulatif seulement durant des phases limitées où les chercheurs travaillent au sein de ce qu’il appelle un « paradigme », ou avec un « paradigme » parce que ce terme est ambivalent. Ce qui signifie qu’il y a un certain motif, une certaine structure, souvent mathématique, qui sert à décoder et à expliquer certains phénomènes et ensuite peut être appliquer, par analogie, à plein d’autres phénomènes et qu’ainsi un savant essaye de tout faire rentrer dans un même système. Vous pouvez penser par exemple à toute l’importance qu’a eu la découverte de loi de la gravitation universelle par Newton et du fait qu’ensuite on a cherché à trouver des lois d’attraction pour expliquer tout, y compris les phénomènes économiques ou électromagnétiques. Cela a été un grand moment de paradigme newtonien, dans l’école française de physique en particulier, et cela a donné lieu à un raffinement de la physique extrêmement puissant dans certains domaines : la mécanique, la dynamique ; et cela a donné lieu également à des impasses, il a fallu à un moment donné sortir de ce paradigme pour expliquer l’électromagnétisme. Dans cette perspective, pour Kuhn, comme un scientifique travaille dans un paradigme, il n’est pas capable de voir les choses autrement. Donc, il utilise un seul paradigme, tant que cela marche tant mieux, il accumule, il raffine, il élabore mais il y a des choses qui ne rentrent pas ou ne sont pas traitable par son paradigme, ce qu’il appelle des anomalies. En fait il va y avoir des phases que Kuhn appelle les phases de science « normale », des phases où la science fonctionne dans un paradigme relativement stable, puis il y a un moment où la science devient instable parce qu’il y a de plus en plus de gens qui sont à l’extérieur du paradigme et qui disent que ce n’est pas comme cela que ça marche, et parce qu’ils arrivent à expliquer des choses que le premier paradigme n’arrive pas à faire. Et là peut se produire une révolution, pour résoudre les anomalies et pour d’autres raisons. Le point décisif, selon Kuhn, c’est que la décision de changer de paradigme n’est pas liée à un arbitrage objectif tel qu’on pourrait peser dans une balance en mettant un plus et un moins. S’il y a une révolution scientifique, c’est qu’un paradigme en supplante un autre, résolvant certaines anomalies mais pouvant aussi être moins performant sur d’autres points. Entre la théorie du phlogistique et la chimie de Lavoisier, il y a ainsi une véritable rupture et le modèle de Kuhn est extrêmement convainquant. Pour Kuhn, il ne peut pas exister un méta-paradigme qui nous expliquerait la raison pour laquelle un paradigme en supplante un autre. Chacun est enfermé avec ses lunettes, il y a une imitation des points de vue qui font qu’il y a des victoires, des révolutions qui se produisent. Il est inutile de prétendre que le second paradigme, s’il retrouve des résultats du premier ou s’il l’englobe, a sauvé le premier paradigme. Par exemple, au sujet du rapport entre Newton et Einstein, il observe que même si l’on retrouve des formules de Newton comme des approximations (quand la vitesse du mobile est faible devant celle de la lumière) dans la théorie einsteinienne, elles n’ont néanmoins plus le même sens. Donc, il n’y a pas de traduction possible, sinon cela serait le même paradigme.

Voilà donc une conception discontinuiste de l’évolution des sciences et du progrès, qui présente des ruptures très franches, des révolutions, les phases révolutionnaires, et qui est, pour fixer les idées, l’antithèse en quelque sorte du relatif continuisme d’Auguste Comte.

Maintenant, ce que l’on va voir avec Bachelard, c’est que ces deux solutions sont peut-être un peu trop simplistes parce que, quand on fait une rupture, on fait une rupture par rapport à quelque chose, et quand il y a une révolution, il y a peut-être quand même un progrès objectif quand un paradigme en remplace un autre. Une théorie peut en surpasser une autre en fournissant des éléments de comparaison, qui nous permettent de recréer une continuité du progrès à travers les ruptures. Pour cela, il faut adopter une espèce de moteur à trois temps. Comte a trois « état » mais une fois atteint l’état positif, la science fonctionne en régime continu. Kuhn dispose, lui, en quelque sorte, d’un moteur à deux temps : phase normale, phase révolutionnaire. Bachelard, nous propose une valse conceptuelle à trois temps.
Le premier concept, c’est l’obstacle épistémologique.


L’obstacle épistémologie, c’est extrêmement important méthodologiquement. Cela repose sur une hypothèse de Bachelard qui est l’homologie entre les progrès fait par un esprit humain au niveau individuel, pédagogique, et au niveau collectif, historique. Quand Bachelard parle de la « formation de l’esprit scientifique », c’est à la fois la formation des têtes blondes qui apprennent les rudiments des sciences, et l’Humanité qui progresse dans son organisation de la communauté scientifiques. Qu’on soit un étudiant ou un chercheur dans un domaine de pointe, ce que demande Bachelard, c’est de comprendre qu’on n’est pas en train d’accumuler dans un récipient vide. La tête de l’élève n’est pas vide, elle est déjà pleine d’images, pleine de mots, et celle du chercheur aussi, elle est déjà remplie de toute une série de choses que l’on va appeler les obstacles épistémologiques, qui sont des choses qui nous arrêtent de penser, des réponses toutes faites, des évidences. Et il faut se méfier des évidences, de nos certitudes. On commence toujours par se tromper, c’est l’idée de Bachelard. Corrélativement, et c’est une idée très profonde aussi, la définition de la vérité que donne Bachelard, ce n’est pas un point à l’infini vers lequel on tendrait, c’est la somme des corrections, des rectifications de nos erreurs. Ce que fait le progrès c’est rectifier ce que l’on pensait, parce qu’on commençait toujours par se tromper. Donc, la somme des corrections de nos erreurs, c’est cela la vérité, pour Bachelard.

L’obstacle épistémologique que je vais vous présenter, il l’évoque dans son autre thèse de 1927, où il traite de la théorisation de la propagation thermique dans les solides, et il rappelle, au début du livre, que jusque dans l’Encyclopédie de d’Alembert, Diderot et des grands savants de l’époque - subsiste une définition de la chaleur et de la propagation de la chaleur tout à fait surprenante : on pense alors que la chaleur se propage de façon radiale mais préférentiellement de façon ascensionnelle. Bachelard observe qu’il n’y a pas d’expérience bien conduite qui peut induire cette pensée. Et il y a même une expérience très simple qui la met en défaut. Si vous prenez une source de chaleur pour chauffer une barre verticale (et que vous empêchez l’air chaud de remonter), vous observerez que la propagation de chaleur se fait de façon parfaitement symétrique. C’était donc très facile de savoir que c’était faux, pourtant cela reste là jusqu’en 1779. Il y a ici une espèce de mystère. Dans La formation de l’esprit scientifique, Bachelard va faire toute une tératologie de l’esprit scientifique avec des gens très importants, comme Benjamin Franklin ou Gay-Lussac, qui écrivent des sottises, parce qu’ils laissent le langage penser à leur place. Ils laissent nombre d’images, parfois inconscientes, faire les réponses avant même d’avoir bien formulé la question. L’une des choses qui peut expliquer cette prégnance de l’évidence que le mouvement de la chaleur est radial puis ascensionnel, c’est un phénomène intime, totalement universel et d’une importance affective primordiale pour tous les êtres humains : le feu de cheminée. Un feu de cheminée, vous en avez besoin pour vivre ! La flamme, de toute évidence, cela vous chauffe et cela monte dans la cheminée, il n’y a aucun doute, c’est une source de cette évidence. Et cette image, Bachelard la retrouve dans un livre qu’il a publié en parallèle avec La formation de l’esprit scientifique, qui est La psychanalyse du feu, c’est-à-dire la psychanalyse de la connaissance objective du feu. Il faut analyser précisément toutes ces images parce que le feu est un phénomène si important, si crucial dans l’hominisation et dans la civilisation humaine, que son image fait objectivement obstacle à une étude rationnelle des phénomènes thermiques. Dans ses ouvrages qui traitent des images, Bachelard quitte le « nous » objectif de l’esprit scientifique et livre quelques confidence sur le « je » de son expérience intime. Ce n’est pas l’expérimentation, c’est l’expérience vécue. Là, il y a une image du père qui est extrêmement intéressante. C’est dans un chapitre qui est consacré au « complexe de Prométhée ». Il y a des complexes de l’esprit, qui ne sont pas forcément des complexes négatifs, il peut y avoir des nœuds qui servent à des sublimations positives, qui permettent justement de nous entraîner à un comportement rationnel, qui aliment notre attitude de recherche scientifique. Le complexe de Prométhée, c’est celui de la désobéissance adroite. Bachelard n’avait pas le droit d’allumer le feu, il a fallu qu’il attende d’être chez lui pour avoir le droit de faire le feu dans sa cheminée, c’était un privilège du père. Comme Prométhée qui a volé le feu, on apprend à faire un feu en désobéissant, en volant une boîte d’allumettes, en allant faire un feu dans la forêt. Il y a donc une transgression, mais cette transgression est adroite. Il n’est pas question d’être un incendiaire et de mettre le feu à la forêt. Il est question de savoir, de tester son aptitude à faire un feu en désobéissant à la règle mais en réussissant quelque chose d’adroit. Eh bien, c’est tout à fait ce que Bachelard pense être l’une des attitudes fondamentales d’un chercheur en science, cette capacité à désobéir à la règle par habilité pour produire quelque chose de nouveau et de flamboyant. Et cela nous amène au deuxième concept : la rupture.



L’expression « rupture épistémologique » ne se trouve pas mot pour mot chez Bachelard mais tout le monde l’emploie. Même si le mot rupture ne se trouve pas non plus au tout début de son œuvre, le concept est là depuis le départ. L’idée de Bachelard est que contrairement à une longue tradition de philosophie, notamment anglo-saxonne et empiriste, qui prétend que la science est un raffinement du sens commun, la science pense contre le sens commun. Le sens commun a toujours tort, même quand il a raison, parce qu’il aura raison par hasard et pas pour les bonnes raisons. C’est pourquoi il faut toujours rompre avec le sens commun pour dépasser les obstacles épistémologiques. Mais on ne se débarrasse jamais complètement des obstacles, la rupture, ce n’est pas une fois pour toute. Les obstacles épistémologiques, il y en a eu au début de la science, quand il a fallu expulser les métaphores et passer à l’état positif, comme aurait dit Comte, mais une fois que l’on est installée dans une théorie scientifique, de nouveaux obstacles apparaissent. Car les résultats de cette théorie peuvent sédimenter comme des évidences, comme un dogme, un absolu. La science devient elle-même un obstacle pour quand on se heurte à de nouveaux phénomènes. Il y aura, par exemple, un approfondissement dans les échelles d’expérience ou un nouveau formalisme beaucoup plus complexe, et certains refuseront ces nouveautés parce qu’elles ne correspondent plus avec les évidences qui sont devenues le sens commun savant. L’obstacle épistémologique est de nouveau là et la rupture est donc toujours cet effort nécessaire aussi bien pour l’élève, qui apprend les rudiments, que pour le savant, qui se situe à la pointe de la recherche.

Ce que détecte Bachelard, c’est que précisément le modèle positiviste, dans lequel on repère un phénomène déjà là, on le mesure et on construit une description mathématique, une loi, eh bien justement, il est insuffisamment pour comprendre la science en train de se faire au XXème siècle. La science ne fonctionne plus comme cela. C’est pour cela qu’il proclame une rupture vers un nouvel « état » : il prend le modèle positiviste, avec ses trois états, et y ajoute un quatrième, un « nouvel esprit scientifique », qui change les règles du jeu. La science ne décrit plus, elle construit les phénomènes. L’observation ne fait pas comprendre le vol, on n’a pas réussi à faire voler un plus lourd que l’air en battant des ailes. Regarder les oiseaux cela nous a donné le désir de voler mais cela ne nous a pas donné la clef pour voler, la technique, il a fallu justement avoir un tout autre mode de raisonnement et de conception technique pour arriver à voler. Pour continuer à filer la métaphore avec la combustion, prenons l’exemple de l’ampoule électrique d’Edison : tous les modes d’éclairage antérieurs reposaient sur la combustion, le fait de faire brûler quelque chose. Or le fil électrique, l’ampoule incandescente à filament, eh bien, c’est précisément une technique de « non-combustion », si le filament brûle cela n’éclaire plus. Donc, il n’y a pas de véritables progrès que par rupture, ce qui veut dire que l’esprit quitte les évidences pour reconstruire sur de nouvelles bases, en se donnant à soi-même son axiomatique, qu’il cesse de se fier à ses premières observations pour mieux reconstruire. Il faut bien reformuler le problème pour trouver les bonnes réponses. Après, il faut évidemment raffiner : il va y avoir de petites et de grandes ruptures. Il y a une révision permanente des connaissances à la marge et il y a aussi des ruptures fondamentales qui rejaillissent sur le point de départ du raisonnement, sur les bases axiomatiques de la théorie. Ce qui nous amène au troisième point.

Jusque-là, on pourrait penser que Bachelard n’a fait que devancer Kuhn, mais il introduit un troisième concept fondamental, celui de « récurrence » qui permet de comprendre comment le progrès des sciences se poursuit de rupture en rupture.
Qu’est-ce qui se passe quand on est dans la situation révolutionnaire que décrit Kuhn ? Son modèle est quand même extrêmement brutal. Est-ce la même chose quand on passe de la phlogistique à la chimie de Lavoisier ou de la mécanique galiléo-newtonienne à la théorie de la relativité restreinte ? Est-ce qu’il y a une rupture totale de continuité quand ce sont les bases du raisonnement, les axiomes qui sont remis en cause ? Je continue de prendre des exemples dans le domaine de chaleur. Là ou Kuhn dira Lavoisier remplace entièrement ce qui se faisait avant, Bachelard dit que c’est plus compliqué que ça. Si l’on regarde les travaux qui ont été fait il y a longtemps par quelqu’un comme Joseph Black, qui travaillait sur une doctrine qui s’appelait le calorique, elle paraît de nos jours complètement fausse. Il faisait partie des gens qui se heurtaient à l’obstacle épistémologique du substantialisme. Des gens qui s’imaginaient que la chaleur était une substance. Mais il chauffait de la même façon des corps différents, et il regardait jusqu’à quel point un corps « emmagasine de la chaleur » avant de commencer à fondre, de se détruire, d’irradier, etc. Il en conclut que tous les corps n’absorbent pas la même quantité calorifique. Il avait ainsi défini ce qu’on appelle la « capacité thermique massique » aujourd’hui, à l’époque on appelait cela la « chaleur spécifique », parce que c’est specific heat, en anglais. L’idée de Bachelard est, quand il y a une transformation scientifique, certains savoirs sont, probablement, définitivement, périmés. On peut les oublier, ils font partie du passé révolu de l’esprit scientifique. Mais d’autres savoirs qui étaient présents, restent là, sont sanctionnés, ils font partie de l’histoire sanctionnée. Ils restent dans le présent de l’esprit scientifique. Certaines expériences que l’on peut faire en pensant au principe de relativité avec Galilée ont eu lieu il y a très longtemps mais pour quelqu’un qui n’a pas encore appris cela, ce sont des choses neuves, ce sont des choses présentes, qui sont encore contemporaines. Il y a une différence entre la simultanéité des événements et la contemporanéité. Il y a des choses qui sont très anciennes dans le passé mais qui sont encore contemporaines au niveau de l’esprit scientifique. Il y a des choses qui sont simultanées maintenant mais qui sont des idioties et qui sont déjà périmées, au moment où la personne en parle, elle est déjà un vieil idiot. C’est assez fin parce que cela nous montre que le calorique nous a légué la notion de chaleur spécifique qui est encore valable alors que la phlogistique, on peut l’oublier, cela reposait sur l’idée qu’il y avait un fluide qui avait une masse négative. Si je voulais me faire l’avocat du diable, je dirais que de Stahl, puisque c’est de lui qu’il s’agit, a quand même légué un principe qui reste valable :, il fut le premier a posé une équation chimique, le signe égal. Certes, il a mis dedans le phlogistique, et l’ontologie de Lavoisier va en faire table rase, mais le fait de dire que rien ne se crée, ni ne se détruit, c’est un principe de Stahl et il n’est pas faux, puisque Lavoisier l’a conservé. Vous voyez qu’en passant d’un paradigme à un autre tout n’est pas perdu, il y a des choses que l’on peut retrouver sanctionnées et les récupérer.


Ce principe de la récupération, Bachelard l’appelle « récurrence ». Par analogie avec la récurrence dans les mathématiques : quand on fait une démonstration, il y a des théorèmes de récurrence. Cela veut dire que si vous démonter qu’au stade zéro il y a quelque chose qui est vrai et qu’ensuite vous montrez que si c’est vrai au stade n cela sera vrai aussi au stade n+1, eh bien vous avez démontré que c’est vrai de zéro à l’infini, parce qu’on peut partir de zéro et chaque fois que l’on incrémente (1, 2, 3, etc.), c’est toujours vrai. Donc, la récurrence, pour Bachelard, c’est ce mouvement par lequel, quand on a fait un pas en avant, on se retourne et on voit mieux le passé, on l’éclaire mieux que le passé ne se comprenait lui-même. On récupère du passé ce qui est encore valable, on élimine le reste. Vous voyez pourquoi cela a un rapport avec ce que disait Auguste Comte à propos de l’ordre dogmatique qui n’est pas le même que l’ordre historique. On n’a pas découvert en premier les vérités premières, les vérités qui sont maintenant des axiomes.

Pour résumer, il y a l’obstacle, on se heurte à quelque chose sans même s’en rendre compte la plupart du temps. On doit s’abstraire et opérer une rupture, qui provoque une situation de crise parce que l’on perd ce que l’on avait bien établi, puis il y a, espérons-le, la récurrence qui transforme les normes scientifiques au nom même des valeurs qui avaient institué ces normes. Et cette dialectique de l’obstacle, de la rupture et ensuite de la récurrence, c’est le modèle du progrès chez Gaston Bachelard.

On voit la nécessité éducative de formuler une histoire récurrente, une histoire qu’on éclaire par la finalité du présent, une histoire qui part des certitudes du présent et découvre dans le passé les formations progressives de ses progrès.

Bachelard a aussi fait des travaux d’historien. Il n’ignore pas qu’il y a deux points de vue possibles. Il y a le point de vue que l’on est en train de décrire, ce point de vue récurrent, que les historiens appellent parfois « présentiste », parce qu’il juge du passé à la lumière du présent. Il y a un autre point de vue, que l’on pourrait dire « historiciste », parce qu’il se replace dans le référentiel historique d’origine. Le travail d’un bon historien des sciences est d’articuler ces deux points de vue. Si vous lisez certains livres d’histoire, vous trouverez des formules comme « il aurait dû savoir », et cet emploi du conditionnel qui se glisse sous la pointe avec un frisson d’uchronie, eh bien, c’est justement le point de vue présentiste qui éclaire subrepticement un point de vue historiciste. On présente l’état des connaissances à un moment donné, comment les gens se représentaient l’histoire et on dit : maintenant on sait que… On articule finement l’éclairage du passé par le présent avec l’idée aussi que parfois on doit justement comprendre, pour comprendre quels étaient les obstacles de ces gens, restituer ce qu’était le point de vue des acteurs en leur temps, qui est le point de vue des présentistes.

Le modèle bachelardien du progrès a un paradigme. Ce paradigme, c’est la découverte de la géométrie non-euclidienne. Dans La philosophie du non, le « non » vient de non-euclidien. Comment expliquer cela simplement ? Dans les éléments d’Euclide, on commence par une série d’axiomes, qui sont aussi des définitions, qui disent ce que c’est un point, une ligne, etc., qui sont autant de règles de construction. Mais il y en a une, le cinquième postulat, dont la formulation moderne est : « par un point extérieur à une droite, passe une et une seule parallèle ». Toutes les autres droites sont sécantes, mais celle-ci est non sécante à l’infini. La difficulté est que cela se présente un peu comme une définition, la définition de ce qu’est une parallèle, mais il y a une précision supplémentaire qui est : « une et une seule », et de cette précision il n’y a pas de démonstration. Donc, depuis l’Antiquité, il y a des gens qui se sont préoccupés de cela et qui ont essayé de démontrer le cinquième postulat d’Euclide. Parfois, ils ont cru y arriver parce qu’ils étaient partis, par exemple, de la somme des angles d’un triangle et qu’en fait ils se donnaient implicitement l’axiome à l’intérieur de ce qu’ils avaient choisi comme point de départ, donc ils le retrouvaient mais plutôt par analyse que par construction de concept. En fait, on n’y arrivait pas. C’était un vrai mystère et aussi, je dirais, un scandale parce que les éléments d’Euclide c’est précisément le modèle absolu du raisonnement a priori et rigoureux. A partir d’un certain moment, à la fin du XVIIème siècle, des géomètres vont essayer une démonstration par l’absurde. La démonstration par l’absurde, c’est tout simple : on va nier le postulat et on va en déduire les conséquences jusqu’à une contradiction flagrante et par conséquent on aura prouvé que le postulat est nécessairement vrai. Souvent, ils vont avoir l’impression d’y être parvenus, sauf qu’en réalité les contradictions auxquelles ils arrivent à exhiber sont des contradictions avec les résultats qu’on aurait obtenus si l’on avait admis le postulat. Par exemple, ils arrivent à la conclusion que la somme des angles d’un triangle n’est pas égale à 180°, donc c’est un problème. Mais en fait non, à l’intérieur de la logique de la démonstration il n’y avait pas de contradiction qui apparaissait. Le premier à se rendre compte que, du coup, on n’est pas en train de démontrer le cinquième postulat par l’absurde mais qu’on est en train de démontrer qu’une autre géométrie est possible, une géométrie non-euclidienne, c’est Lobatchewsky. Il était parti de l’idée que par un point on fait passer autant de droites non sécantes à une droite donnée. Il a mouliné et, à l’arrivée, il s’est rendu compte qu’il n’y avait aucune contradiction qui pointait à l’horizon, il a réalisé qu’en fait cela décrivait une nouvelle géométrie. Cela décrivait une géométrie hyperbolique. Sur une hyperbole, vous pouvez très bien imaginer un point et une droite, on n’appelle plus cela des droites mais des géodésiques, le plus court chemin pour aller d’un point vers un autre, on peut très bien imaginer ensuite un point distinct et des droites qui vont converger vers ce point puis divergent ensuite et qui ne se touchent qu’en ce point et qui ne sont pas sécantes à la première. Donc, il y a bien une infinité de droites non-sécantes et cela donne la géométrie hyperbolique.



Le travail ne s’est pas arrêté là. Il y a eu les travaux de Poincaré et Felix Klein, qui ont démontré qu’axiomatiquement elles étaient équivalentes, il n’y avait pas plus de choses dans une géométrie que dans l’autre. Puis, il y a eu le travail du très grand mathématicien allemand Bernhard Riemann, qui a trouvé une autre forme de géométrie non-euclidienne, la forme, pour ainsi dire, symétrique de la géométrie de Lobatchewsky ; il a dit : par un point, je ne fais passer aucune parallèle. Et ça, cela vous donne la géométrie sphérique, parce que sur une sphère, la géodésique, l’équivalent d’une droite, est définie par deux points diamétralement opposés, c’est un grand cercle, comme l’équateur sur la terre. Quand vous prenez de grands cercles, ils se coupent tous, donc vous ne pouvez pas avoir de parallèles, les choses qui ne se coupent pas ce ne sont pas plus des grands cercles, ce sont des équivalents de segments. Riemann montre donc qu’il y a une autre géométrie non-euclidienne, mais en plus il invente le concept de variété, le concept de courbure. Il arrive à penser que toutes les géométries sont définies par une certaine structure mathématique, la variété, et se différencient suivant la courbure du plan que l’on considère, de l’espace que l’on considère. Par conséquent, il y a des géométries qui correspondent à des courbures positives ou à des courbures négatives, et il va y avoir comme cas très particulier, la géométrie plate. Et ce cas très particulier de la géométrie plate, c’est la géométrie d’Euclide, celle qui se fait sur un plan.

On vient d’assister à une vraie révolution conceptuelle. Si vous y réfléchissez bien, on a fait exactement ce que Bachelard décrit. On a d’abord eu un obstacle, l’obstacle de l’évidence. C’était une évidence que la géométrie euclidienne était juste, que c’était la seule, la vraie, c’était l’espace naturel. Kant croyait avoir démontré, dans La critique de la raison pure, que c’était la seule forme de la spatialité, la forme transcendantale extérieure. C’était tellement évident qu’on s’est dit que l’on va le démontrer par l’absurde, il suffit de nier cette évidence pour tomber sur une absurdité. C’était donc une certitude ancrée. Et quand on a commencé à avoir les premiers résultats les géomètres ont été effarés. Certains ont cru perdre la raison, d’autres ont dit : oh là, là, cachons cette géométrie bombée que je ne saurais voir… Il y a eu vraiment un moment de panique quand on s’est aperçu qu’il y avait une autre géométrie, indépendante, tout aussi efficace. A ce moment-là, c’était la panique parce qu’on a deux fondements de la raison. La pensée est toujours prise dans une tension, dans une certaine souffrance, quand elle est obligée de faire un raisonnement dialectique entre plusieurs bases.

Puis, par approfondissement, on est arrivé au moment de récurrence. On est arrivé au moment où non seulement ce la géométrie euclidienne n’était plus évidente, mais on ne pouvait même plus dire qu’elle était différentes des géométries non-euclidiennes. Tout appartient à un même ensemble et il y a un cas particulier, sur lequel on était tombé en premier parce que c’était le plus évident quand on traçait les figures dans le sable. Une fois que l’on a pris la géométrie non-euclidienne, on comprend mieux la géométrie euclidienne qu’Euclide lui-même. Vous comprenez bien aussi que du coup, cette refondation montre le simplisme de Kuhn. Ce n’est pas un paradigme qui a remplacé un autre, ce n’est pas le non-euclidienne qui a remplacé l’euclidien. C’est un approfondissement de l’esprit scientifique qui vient de s’opérer, la révolution, c’est réellement une révolution. C’est une refondation récurrente de la science.

Peut-être que cela ne se passe pas toujours aussi bien dans toutes les disciplines et tout le temps, mais Bachelard est au courant. Il nous dit qu’il y a quelquefois où l’on n’assiste pas à cela. Mais il dit : c’est avec ce paradigme-là qu’il faut penser les progrès décisifs qui ont été réalisés à partir de 1905, sous l’impulsion d’Einstein, et qui ont donnés la théorie de la relativité, la mécanique quantique. Dans l’exposé d’aujourd’hui, je n’irai pas beaucoup sur la mécanique quantique. On peut dire que pour la mécanique quantique, c’est beaucoup plus complexe, parce qu’on ne peut pas prétendre que la récurrence a eu lieu de façon parfaite. Mais dans la relativité en revanche, on a un cas de récurrence exemplaire.



C’est vraiment un exemple emblématique que la réception bachelardienne d’Einstein. Dans La philosophie du non, Bachelard commence par dire, il est tout à fait exact, et en ce sens Kuhn n’aura pas tort, que l’on ne peut pas traduire une théorie dans l’autre. On est bien obligé d’admettre qu’il y a une rupture, on n’obtient pas la relativité einsteinienne en compliquant la relativité newtonienne. En réalité, on est obligé d’abandonner la relativité newtonienne et ses fondements pour reconstruire autre chose qui est quelque chose d’immensément neuf. C’est une innovation radicale, de rupture. Il y a bien un argument qui est amené ensuite, vous voyez la récurrence s’enclenche et le mot récurrence n’est pas prononcé, c’est après coup, quand on s’est installé d’emblée dans la pensée relativiste que l’on retrouve dans les calculs de la relativité, par des mutilations et des abandons les résultats numériques fournis par l’astronomie newtonienne. Les astronomes traitent avec la relativité einsteinienne certains phénomènes mais il y a des cas où ils n’en ont pas besoin. Ils peuvent faire des pas mal de calculs avec les approximations newtoniennes suffisamment précises et qui simplifient les calculs. Pourquoi peut-on prendre cette décision pragmatique ? Parce qu’il y a beaucoup de cas où la vitesse de ce que l’on est en train d’observer est très faible par rapport à la lumière. Donc, il y a des termes qui deviennent négligeables dans les transformations de Lorentz (même si c’est Poincaré qui a donné la formule exacte). Si, pour mesurer la distance « x’ » après un certain temps « t », quand le mobile se déplace à vitesse « v » et qu’il est parti de la position « x », eh bien si la vitesse au carré, « v2 », est négligeable devant la vitesse de la lumière au carré, « c2 », un certain terme devient négligeable et on se retrouve avec une formule qui correspond, si l’on supprime carrément le terme, à la formule qu’on appliquait déjà avec Galilée. Mais ce que nous fait comprendre Bachelard, c’est que cela reste quand-même une mutilation, un abandon pragmatique. La complication, elle est bien là. On a décidé de ne pas la regarder, mais dans l’édifice théorique einsteinien, il n’y a pas la formule de Galilée. Donc, d’une certaine manière, il est d’accord avec Kuhn qui dit : « quand on retrouve une formule antérieure, elle n’a pas le même sens qu’autrefois ». Mais Bachelard ajoute : « oui, mais ce n’est pas cela qui est important, ce qui est important, c’est bien la reformulation de ce qu’avaient élaboré Galilée, Newton et les autres, car on comprend que leurs formules étaient des versions dégénérées, simplifiées, simplistes. Ce n’est pas qu’ils étaient idiots, mais parce qu’ils étaient encore en train de regarder les phénomènes à une certaine échelle, avec certains instruments. En fait, avec la récurrence, on leur rend raison : ils ont fait l’effort de la raison. On les corrige au nom des mêmes valeurs que celles qui les ont poussées à élaborer cette formule. La relativité einsteinienne, c’est le moment où l’épistémologie de Bachelard démontre toute sa pertinence – le moment où sur la question théorique des ruptures, elle démontre sa supériorité par rapport au positivisme ou à l’incommensurabilisme de Kuhn.

Venons-en au présent. Je vous l’ai dit, je pense que l’épistémologie bachelardienne est toujours valable comme propédeutique pour aborder les problèmes actuels de la recherche, qu’elle reste toujours pertinente. Il y a beaucoup de penseurs qui feraient bien de prendre au sérieux les leçons d’épistémologie bachelardienne pour éviter d’arriver avec un esprit vieux, avec des concepts périmés, quand ils abordent les sciences. Par exemple, on ne devrait plus utiliser le modèle positiviste, avec sa description en langage mathématique de phénomènes mesurés préexistants, parce que la science contemporaine ne fonctionne plus du tout comme ça. Bachelard, lui, nous donne des clefs, en particulier dans Le Nouvel esprit scientifique et dans Le rationalisme applique.

Les deux concepts que je suis obligé de reprendre à Bachelard pour caractériser la science contemporaine sont « noumène » et « phénoménotechnique », deux termes qui peuvent paraître jargonneux mais qui ont le mérite d’inscrire dans la langue la nécessité de la rupture avec le sens commun. « Noumène », c’est un vieux mot grec, que l’on trouve déjà chez Platon, mais que l’on doit comprendre par décalage avec la définition qu’en donnait Kant. Kant opposait les « noumène », en tant que « choses en soi », aux les phénomènes, les choses pour un sujet. Pour Kant, le sujet n’a affaire qu’aux phénomènes, dans l’espace et le temps, les « noumènes » sont inconnaissables. Dans les formes a priori de la sensibilité, le temps et l’espace, nous ne connaissons que des phénomènes. Nous ne pouvons faire d’expérience que des choses qui se présentent comme des phénomènes dans l’espace et dans le temps. Ce que sont les choses en soi, nous ne pouvons l’apprendre qu’à travers les phénomènes. Pour Kant, le seul « noumène » dont nous pouvons faire l’expérience, mais qui n’est pas une expérience scientifique, c’est notre liberté, mais cela n’a rien à voir avec le sujet. Donc, le « noumène » est inconnaissable, voilà ce que dit Kant : il n’y a de connaissance que des phénomènes.

Que reprend Bachelard avec le terme « noumène » ? En mécanique quantique, on se rend compte que la structure mathématique de la théorie n’est pas du tout une « description » des phénomènes, c’est une structure mathématique qui induit et limite la possibilité d’actualiser certains phénomènes physiques. Il y a ce que Bachelard appelle une « valeur inductive » des mathématiques. L’un des plus beaux exemples, c’est la découverte de l’antimatière par Paul Dirac. En travaillant sur la mécanique quantique, ce mathématicien essayait de trouver un accord avec la relativité restreinte : que se passe-t-il si une particule quantique, un électron, se déplace à une vitesse proche de la lumière ? Oubliant pendant un moment ce que c’est qu’un électron et s’intéressant juste à l’équation de la propagation, il trouve un résultat et se dit à ce moment-là qu’il faut peut-être vérifier que cela correspond bien au cas de l’électron. Mais, en vérifiant que son équation marche avec un électron – c’était le cas, bravo ! – tout d’un coup il se rend compte que cela marche aussi avec une solution de signe inverse. Il se dit : mais qu’est-ce que c’est que cet électron avec une masse négative ? Je suis en train de retomber dans le phlogistique ! Qu’est-ce qu’une matière de masse négative ? Puis, il se dit : ah, c’est peut-être un trou au milieu de plein d’électrons, car si j’ai une mer d’électrons, un trou cela fait comme un truc positif au milieu d’un flux négatif. Puis, il se dit : mais non, ça n’a pas de masse, mais ça ne fait tout de même pas une masse négative ! Réfléchissant encore, il en arrive à penser qu’il doit exister une particule qui a la même masse que l’électron mais qui est de charge positive. Car la seule explication plausible de l’inversion du signe est la charge, pas la masse. Donc, un mathématicien se laissant seulement guider par ses équations conclut, sans aucune expérience concrète, qu’il faut qu’il existe un positon (ou positron, on dit les deux). Et deux ans plus tard, on obtient la création d’une paire particule-antiparticule.

L’équation de Dirac ce n’est pas une description en langage mathématique d’une observation. Il n’y a pas d’observation possible avant l’équation. Il a inventé, il a induit. C’est pour cela que Bachelard parle de valeur inductive. Cette valeur inductive, c’est comme une induction électromagnétique. Un aimant qui passe à travers une bobine induit un courant électrique. Un courant électrique induit un champ magnétique. Cela n’a rien à voir avec l’induction au sens de la logique. Bachelard montre que, dans la science contemporaine, les mathématiques sont une structuration de la réalité, ce sont des « noumènes ». Contrairement à ce que pensait Kant, ce qui est connaissable en mécanique quantique, c’est le noumène parce que c’est la structure mathématique de la théorie qui prescrit ce qui est observable. Les phénomènes, on les obtient comment ? On ne les obtient plus par des mesures sur des choses qui existent déjà, par des observations. On les obtient par des expérimentations, par des dispositifs expérimentaux qui créent le phénomène, qui sont des fabriques de phénomènes, comme on a eu la fabrique de la paire : particule-antiparticule. C’est pour cette raison que Bachelard forge le néologisme « phénoménotechnique » qui se comprend aussi par décalage. La « phénoménologie », c’est une description langagière des phénomènes pensés sur le modèle de la perception sensible, et Bachelard tient qu’elle ne sera plus jamais capable de rendre compte du travail scientifique, parce qu’on ne peut plus faire l’abstraction de la technique. Il y a un décentrement. Ce n’est pas le sujet perceptif, ce ne sont pas ses intuitions qui comptent. Il y a un décentrement à la fois à travers les mathématiques, qui rompent avec nos évidences premières, qui quittent la géométrie euclidienne, etc., et à travers les dispositifs phénoménotechniques qui créent les phénomènes, qui actualisent des potentialités que l’on avait jamais vu avant. À partir de ce qu’est prédit par la structure mathématique de la théorie, il y a cette induction de potentialité, et c’est cela que l’on quête dans la science contemporaine. Et ça, c’est encore vrai pour la quête du boson de Higgs au CERN dans le LHC.


Cette grosse machine, CMS, j’ai eu la chance de la visiter avant qu’on le ferme. C’est ce type de machine qui est nécessaire pour interagir avec le produit des collisions des faisceaux à très haute énergie : au cœur de ce détecteur, l’énergie cinétique des deux faisceaux de particules se transforme en une formidable énergie qui actualise des myriades de particules. Ces particules se désintègrent toutes très vite, il est hors de question de détecter directement un boson de Higgs, mais avec ses capteurs, répartis sur toutes ces couches différentes, ses trajectographes, ses calorimètres, etc., CMS recueille toute l’information possible sur les particules émises. On combine tout cela (en fait, on commence par éliminer 90% de l’information), puis on compare à des modèles statistiques (parce qu’on ne sait pas vraiment ce que l’on cherche). On sait qu’il faudrait un boson pour expliquer la masse de certaines particules, mais on n’a pas d’idée exacte de où il se situe lui-même en masse. Donc, on étudie tous les scénarios possibles, et deux ans plus tard, on voit sur la courbe une bosse. Et quand la bosse est assez haute, quand elle a 5 on dit : « ah, on a observé le boson de Higgs ! ». Et là, on retourne en arrière, on sort un cliché et on dit : « c’est la première fois qu’on a vu le boson de Higgs ». On n’a rien vu du tout ce jour-là ! Vous comprenez que l’observation est juste une déclaration à la fin, elle est entièrement rétrospective, entièrement récurrente. On n’est plus du tout dans la science positiviste du XIXème siècle où les observations précèdent le dégagement de lois grâce à une traduction mathématique. C’est même l’inverse ! Des modèles théoriques prédisent des virtualités qu’on essaye d’actualiser avec des dispositifs phénoménotechniques. Bien sûr, on souhaite aussi que la phénoménotechnique nous fasse découvrir des choses inexplicables et que la dialectique entre noumène et phénoménotechnique fonctionne dans les deux sens.

Certes, il y a des formes de scientificité différente maintenant, qui sont d’ailleurs souvent plus de la technologie, par exemple les nanotechnologies. Mais la phénoménotechnique serait quand même la porte d’entrée pour comprendre comment la raison s’y applique. Cela n’aurait peut-être plus la même portée de sublimation de la théorie.

Conclusions pour un philosophe qui s’intéresse aux sciences. Les mathématiques ne sont plus un langage de description mais bien la structure virtuelle dont on peut induire la possibilité de nouveaux phénomènes. On crée vraiment de la nouveauté, des phénomènes qui ont peut-être existés mais qu’on n’avait jamais observés à la surface de la terre, et qu’on ne pourrait jamais voir sans médiation technique. L’objet technique ne distord pas notre perception, il crée le phénomène. Il est notre unique moyen d’interagir avec ces échelles éloignées de la réalité. La technique n’est plus constituée seulement d’instruments de mesure appliqués aux phénomènes préexistants, mais d’instruments phénoménotechniques, de dispositifs de production de nouveaux phénomènes. En toute rigueur, il ne s’agit plus d’observer mais d’expérimenter.



La science du XXème siècle a opéré plusieurs ruptures d’échelle. La phénoménotechnique, ce sont toutes ces techniques qui interviennent, depuis l’échelle des molécules jusqu’à celle des particules élémentaires. Considérez que cela s’étend aussi aux grandes échelles parce que les messagers des structures à très grande échelle ce sont aussi des particules. Il y a bien des interactions avec la gravité, les ondes gravitationnelles qui sortaient mais cela demande aussi de la phénoménotechnique, le modèle n’est pas remis en cause pour autant.

J’arrive à ma conclusion. Les leçons que Bachelard a données peuvent servir au scientifique pour la compréhension de son propre travail, c’est une forme de réflexivité interne à l’esprit scientifique. Parfois, les scientifiques pensent à leur propre discipline avec une philosophie spontanée du savant, c’est-à-dire avec des outils philosophiques qu’ils ont appris eux-mêmes dans leur jeunesse, et ils sont en retard. Les philosophes étant en retard sur les scientifiques de leur temps, les outils sont très en retard sur ce qu’ils font eux-mêmes. Il n’est pas rare de voir encore des scientifiques penser mathématiquement de façon surationnaliste, c’est-à-dire être très en avance sur leur temps, à la pointe de la contemporanéité, et entendre les mêmes traduire dans un langage complètement archaïque, faux et mystifiant leur propres découvertes parce qu’ils ne disposent des concepts adéquats. Ainsi, il n’est pas rare d’entendre encore des scientifiques se référer à la méthode cartésienne, qu’il la connaisse ou pas d’ailleurs, alors que c’est le contraire de la méthode scientifique qu’ils emploient. La méthode cartésienne repose sur l’idée que l’on va faire ce doute hyperbolique, on va convoquer le malin génie, et quand on aura oublié tout ce que nos sens, le ouï-dire, etc., il nous restera quand même encore les mathématiques et puis là on va feindre qu’il existe un dieu mauvais pour nous dire que même les mathématiques sont fausses ; ça a l’air cohérent mais c’est une fable ; et à ce moment-là, résistera quand même quelque chose, un noyau de certitudes, un fondement absolu, cela sera le cogito : je pense donc je suis ; ce qui ne nous conduit pas bien loin, mais heureusement Dieu se ramène… Entendez bien qu’ici Dieu cela veut dire « conditions de possibilité de la connaissance », c’est normal que certains ecclésiastiques aient trouvé le Dieu de Descartes un peu douteux. Il assure : tout ce que tu penses avec les mathématiques, c’est vrai, tout ce que tu penseras à partir de ce moment en ayant choisi un point d’appui ferme et absolu qu’est le cogito, qui est une certitude, tu t’assureras de faire des transferts d’évidences bien solides, un peu comme dans une machine simple, on choisit un point d’accroche ensuite on a des poulies, on essaye de diminuer les frottements, on tire dessus, et tu vas produire une connaissance certaine : elle aura des racines métaphysiques et le tronc d’un arbre mathématique et les branches, ce seront la physique et les différentes sciences appliquées, l’optique, la médecine, les météores, etc. Et tout cela sera démontré une fois pour toute. On s’est soumis une fois au doute hyperbolique, et comme on a résisté, qu’on s’est purifié, on avance ! C’est peut-être le modèle le plus continu, mais ce n’est pas un modèle scientifique, c’est métaphysique. La science, ce n’est pas du tout comme cela que cela fonctionne !

La méthode scientifique est précisément une méthode non cartésienne. Car tout ce qui est une connaissance scientifique est révisable. La science ne peut pas avoir de dogme. Quand vous avez un problème, quand il y a une anomalie, la première chose est de vérifier que vous avez bien réalisé l’expérience. Puis, il faut vérifier que la méthode et le modèle que vous avez appliqués n’étaient pas faux. Si tout cela tient, il faut questionner la théorie, savoir si cela ne nécessite pas de la modifier. Puis, si cela tient encore, si vous n’arrivez toujours pas à résoudre le problème, il faut se demander si les bases de la théorie ne sont pas à remettre en cause. C’est ce qu’a fait Einstein. Il avait plusieurs raisons épistémologiques mais il y avait bien une anomalie avec le périhélie de Mercure avec l’expérience de Michelson-Morley sur la vitesse de la lumière qui était aberrante, il fallait résoudre un problème. Il y avait aussi et surtout le fait qu’il y avait une incompatibilité entre l’électromagnétisme et la mécanique. Toutes ces choses ensemble constituaient un faisceau d’anomalies. Einstein a fait quelque chose d’extraordinaire, il a remis en cause le fondement même de la connaissance qu’il avait apprise. Il n’y a que des génies qui opèrent des ruptures aussi profondes et trouvent des récurrences. Il n’a pas fait des ruptures en perdant le reste, pour cacher les problèmes. Il a fait une récurrence qui a englobé, qui a recréé tout l’horizon de ce que l’on a produit.

Vous sentez bien que le mot rupture suggère une forme de violence, ce n’est pas de la violence au sens physique bien évidemment, on est en plein dans la raison ; mais c’est la raison qui polémique avec elle-même ; c’est la violence de celui qui se fait violence pour prendre la bonne décision, pour rompre avec ses habitudes de pensée ; on peut même y voir une destruction créative, de l’innovation. Il faut bien détruire quelque chose pour construire quelque chose de neuf. « Toute découverte réelle détermine une méthode nouvelle. Elle doit ruiner une méthode préalable. » Cela veut dire que comme adversaire, si vous êtes un grand savant, un grand innovateur, un grand théoricien, un grand révolutionnaire, vous aurez les gens de votre métier, en tout cas un bon nombre qui ne voudront pas en démordre de ce qu’ils ont appris, de ce qu’ils tiennent pour vrai, de ce qu’ils ont construit comme évidence. Donc, il y aura une phase de combat parce que vous ruinez des certitudes auxquels vos collègues sont légitimement attachés. Si on rajoute une couche de Bourdieu, et il faut le faire, parce que Bachelard est au courant que la Cité scientifique est une organisation, c’est lui qui a nommé « l’union des travailleurs de la preuve », en comprenant qu’il y avait une organisation des institutions ; ce n’est pas désincarné la science de Bachelard ; donc il va bien y avoir des gens qui vont perdre tout leur capital symbolique, sauf s’ils se reforment, s’ils font l’effort de se remettre à l’école de la science nouvelle ; ce que Bachelard aura fait trois fois dans sa vie. Qui peut en dire autant ? « Dans le règne de la pensée, l’imprudence est une méthode. » Quand on vous dit d’être prudent en tant que chercheur, cela n’a pas de sens. Si vous manipulez un isotope dangereux, ok, mais ça, c’est pragmatique. Dans le règne de la pensée, non, soyez imprudents. Ne doutez pas de tout, tout le temps, ce n’est pas de ça qu’il s’agit. Osez douter des choses, même les plus fondamentales, c’est exigé par la vigilance épistémologique.

Justement, ce côté un peu aventureux, c’est quelque chose que Bachelard réfèrera souvent à Nietzche, pas le Nietzche de l’irrationalisme, mais un Nietzche très rationaliste qui combat la raison par la raison ; Bachelard reprend à Nietzche l’expression « tremblement de concepts », comme si la terre, le monde, les choses prenaient une autre structure du fait que l’on pose l’explication sur de nouvelles bases. Cela se trouve dans La dialectique philosophique des notions de la relativité, en 1949, autrement dit cela se trouve comme texte d’hommage pour le 75ème anniversaire d’Einstein, et Bachelard était le seul philosophe de langue française à être convié à cet évènement. En 1949, il n’est plus tout jeune.

Je termine sur le surrationalisme. « Il faut rendre à la raison humaine sa fonction de turbulence et d’agressivité. » C’est un message enthousiaste. Il n’y a pas de raison d’être, si on est authentiquement progressiste, sur des positions défensives. Il faut au contraire être fidèle à Gaston Bachelard, faire l’effort de venir à la rencontre de la science de notre temps, ne pas accepter les évidences, les idéologies. Je crois qu’à la prochaine séance vous aurez Françoise Combes, qui va vous parler d’un sujet qui n’est pas si neuf que cela, mais qui est toujours aussi controversé. De nos jours on a tendance, la plupart des scientifique, à prendre la matière noire pour l’hypothèse qui va de soi, et Françoise Combes, qui est professeure au Collège de France, elle, fait partie d’une famille de pensée qui dit : non, non, cela ne va pas du tout de soi qu’il faille accepter ce substantialisme, etc. Mais les résultats récents sur les ondes gravitationnelles remettent en cause l’hypothèse de la gravité modifiée qu’elle privilégie, donc elle doit elle-même se remettre en cause. Vous voyez que la raison polémique dont parlait Bachelard, ce n’est pas une vieillerie, cela existe toujours au présent. Il y a d’autres théoriciens qui sont engagés actuellement dans ces combats. C’est cela qui fait la vitalité, la turbulence et l’agressivité de la science contemporaine.

Je vous remercie pour votre écoute.

Anne Grange : Merci beaucoup pour ce brillant exposé. Je vais vous passer la parle. Si vous avez des questions, je vous demande de lever la main. Vous pouvez être turbulents mais pas agressifs.

Auditeur_1 : Bonjour ! Merci. Je voudrais juste, pour vérifier si j’ai bien compris, l’idée qu’il y a derrière le terme…

Vincent Bontems : Le concept.

Auditeur_1 : Voilà ! Finalement, c’est un peu l’idée qu’on ne valide pas un modèle parce qu’il permet d’expliquer mais parce qu’il permet de prédire et qu’on vérifie après.

Vincent Bontems : Je ne sais pas s’il faut opposer aussi nettement. Bachelard s’intéresse - on appelle cela des fois une épistémologie historique - aux phases de transformations des modèles. L’idée de la validation du modèle explicatif est aussi intéressante pour lui, il va beaucoup développer d’idées sur la vigilance épistémologique à l’intérieur du cerveau du chercheur quand il travaille à différents niveaux ; une espèce de récurrence interne, et qu’elle est homologue au fait de se présenter face à ses pairs. C’est-à-dire au fait qu’il y ait un jeu à la puissance multiple qui travaille dans le cerveau du chercheur, et qu’il travaille à différents étages, mais est-ce que la prédiction suffit ? La communauté scientifique correspond à une exigence qui est aussi d’expliquer. Cela dit, ce qui me passionne le plus, mon exposé était orienté sur l’idée de rupture et de progrès, ce sont les phases révolutionnaires – les phases de stabilité ne l’intéresse pas tant que ça, les phases d’adéquation des modèles n’intéresse pas Bachelard tant que ça – donc les moments où il y a des explications nouvelles qui entrent en jeu. Son insistance épistémologique porte plus là-dessus que sur un modèle de réfutabilité à la Popper. Après, ce que vous dites de la prédiction s’applique aussi à l’induction mathématique, il peut y avoir des phases où on neutralise la capacité du modèle à expliquer et on avance, pour ainsi dire, à l’aveuglette à l’intérieur des mathématiques, parce qu’on va neutraliser l’ontologie associé à un modèle, par exemple, et on va attendre de voir ce que cela donne avec les équations et ce que l’on peut observer. C’est le cas par exemple dans le très grand nombre de progrès qui ont été faits par transfert analogique d’équations d’un domaine à un autre, par analogie formelle. C’est le cas pour Einstein dans la mécanique quanta. Il prend une formule de thermodynamique, il la transfert au problème du corps noir, et c’est ça qui permet de faire émerger la constante de Planck. Dans ces cas-là, on se rend bien compte que le scientifique pendant un moment neutralise la capacité explicative, si j’ai bien compris ce que vous voulez dire par explication, parce que pour moi la capacité explicative, c’est quand on renvoie à une intuition de l’ontologie associé du phénomène qu’on est en train de modéliser. Mais peut-être que je me trompe et que ce n’est pas cela que vous vouliez dire. Si je me suis trompé, reformulez votre question. Dites-moi plutôt à quelle partie de l’exposé vous faisiez référence. Celui de la récurrence ?

Auditeur_1 : Non, non. C’était sur l’idée qui était cachée derrière… j’avais essayé de reformuler un peu ce que j’avais compris, pour vérifier que j’avais bien compris. Apparemment, non.

Vincent Bontems : Cela peut être un cas d’application, ce que vous dites.. Pour qu’on parle sérieusement, il faudrait savoir où votre question s’applique. Dans Le rationalisme appliqué, Bachelard dit qu’il y a comme des régions sur lesquelles on applique sa raison. Il y a un rationalisme régional, dispatché, et cela ne correspond pas purement à une discipline. Il y a un rationalisme nucléaire, un rationalisme électronique… Il y a différentes phases où là se met en place un modèle et il y a une dialectique entre l’explication et la capacité de prédiction. C’est vrai que comme j’ai accentué le fait qu’il y ait un privilège du futur, parce qu’on essaye, quand on est surrationaliste, d’anticiper les ruptures qui vont arriver, peut être que c’est cela qui vous fait dire que la prédiction est plus forte que l’explication. Mais ce n’est pas tout à fait exact. En revanche, on pourrait voir ça dans ce cadre-là, dans Le rationalisme appliqué. Il faudrait prendre des exemples parce qu’on ne peut pas parler en l’air des concepts, il faut les appliquer sur un cas.

Auditeur_2 : Bonjour ! Des fois, les gens ne savent pas prendre le virage, pour faire une belle découverte. Je citerais le cas d’Henri Moissan, Prix Nobel pour avoir isolé le premier le fluor, qui écrivait cependant la formule de l’eau HO, ce qui a traîné pendant longtemps.

Vincent Bontems : Oui, bien sûr, il y a tous ces phénomènes d’erreurs et de résistance mais ce qui est beau dans la science, c’est que parfois les scientifiques sont amenés à admettre les découvertes à leur cœur défendant. Vous savez pourquoi la constante de Planck s’appelle h ? A cause de Hilfe, qui veut dire « au secours » en allemand. Planck était un partisan de l’énergétisme et du continuisme absolu de la matière. Quand il est tombé sur sa constante, il n’était pas content du tout ! Il était persuadé qu’il avait fait une erreur, ensuite il était persuadé qu’on trouverait une solution. Et quand est venu lui rendre visite en lui disant : vous êtes un génie, vous méritez le prix Nobel pour avoir trouvé ça… Il a dit : non, non, c’est la pire chose que j’ai faite dans ma vie. Et pourtant il a amené une contribution tout à fait majeure et une rupture essentielle dans l’histoire des sciences.

Auditeur_2 : Un petit point de détail. L’administration que vous avez appelée P&T, pour Gaston Bachelard, s’appelait à l’époque PTT, elle ne s’est appelée P&T qu’en 1925 pour une vingtaine d’années.

Vincent Bontems : J’en doute, mais je vérifierai. Quand on est bachelardien, il faut toujours accepter les corrections. Je vérifierai parce que je me suis peut-être fié à une information de seconde main. Pour moi, il a fait partie des Postes et Télégraphes, vous n’avez forcément pas tort parce qu’il connecté les fils de téléphone juste avant la Première Guerre mondiale.

Auditeur_3 : Bonsoir Monsieur ! Merci pour votre exposé, passionnant. J’ai une question au regard des découvertes purement récentes, je voudrais notamment faire allusion au théorème de Fermat, où finalement on a mis je crois plus d’un siècle pour démontrer ce théorème, à partir finalement, comme vous l’avez mentionné, d’objets mathématiques qui ont été finalement mis au point plus tard. Je vais rebondir là-dessus parce qu’aujourd’hui on a, il me semble, 7 problèmes mathématiques mondiaux qui ne sont pas encore résolus. Je pense notamment à la turbulence sur laquelle j’ai travaillée et à laquelle je me suis intéressée, où l’on n’a pas les outils mathématiques, parce qu’on a à faire à des équations extrêmement compliquées. D’après vous, est-ce que scientifiquement le fait de tenter de démontrer un nouveau postulat, un nouveau théorème, ou un nouveau phénomène, va induire une autre approche des mathématiques, qui sont aujourd’hui inconnues ? Comment vous expliqueriez et comment vous voyez cet aspect-là ? Je pense notamment à ces deux aspects de Fermat, où on a été obligé de mettre au point de nouveaux principes mathématiques. Peut-être que d’autres approches mathématiques au regard de la turbulence, par exemple.

Merci.

Vincent Bontems : Oui, il peut y avoir une approche en mathématique qui a des affinités avec le bachelardisme pour avoir recours à une forme particulière de récurrence. Je me risque rarement à en parler, pour une raison simple, c’est que les mathématiques sont le domaine le plus puissant. C’est l’endroit où il y a le paysage le plus vaste et le plus varié de conception possible. Sur le théorème de Fermat, il faudrait demander l’avis d’un mathématicien historien. L’idée est, je crois, que Fermat n’avait pas la démonstration en tête quand il l’a dit, il croyait l’avoir (ou il a fait une blague), mais la complexité de la preuve par Wiles montre qu’elle était inaccessible à son époque. Ce que vous dites, c’est très juste mais comme vous le reliez au domaine des turbulences la question est de savoir est-ce que cette stratégie purement interne aux mathématiques peut résoudre un problème de physique. Souvent les mathématiques ont engendré des outils apparemment inutiles qui ont été retrouvés plus tard par les physiciens,. C’est un champ très, très vaste, je me suis un peu intéressé à des problèmes de turbulence qui ne sont pas forcément analogues, et c’est clairement des domaines où il faut être compétent. En gros, je ne peux même pas commencer à répondre à votre question, seulement à la comprendre, si nous travaillons ensemble à la reformuler. Il me faut un informateur, je ne suis pas assez comptent. Aujourd’hui, de toute évidence, ce que je vous ai donné comme épure, c’est un modèle qui, même si son paradigme c’est la généralisation de la géométrie non-euclidienne, demeure dans l’horizon d’attente de ce que doit être une théorie physique. Je ne sais pas jusqu’à quel point cela correspondrait à ce dont on est en train de parler, à propos des turbulences.

Désolée de ne pas pouvoir répondre mieux.

Auditrice_4 : Est-ce qu’on peut considérer comme des ruptures scientifiques, premièrement le théorème d’incertitudes de Gödel et deuxièmement la théorie du chaos ?

Vincent Bontems : Cela va être oui et peut-être. Oui, le théorème de Gödel, c’est absolument certain que c’est une rupture fondamentale et c’est très en affinité avec ce qu’on vient de voir. Le théorème de Gödel a cela de fabuleux qu’il met un terme au fantasme de l’auto-fondation absolue du système du savoir en même temps qu’il crée cette idée d’une connaissance toujours lacunaire, avec des énoncés indécidables. Le théorème de Gödel signe donc l’arrêt de mort d’une direction de pensée fondationiste : trouver un fondement absolu à partir duquel on pourrait tout démontrer… un néo-cartésianisme plutôt qu’un non cartésianisme. Ce n’est pas un hasard si la famille de pensée à laquelle appartient Bachelard et les gens que j’ai cités sont sceptiques vis-à-vis des programmes fondationistes et en particulier celui en mathématiques de Hilbert, ou vis-à-vis des néo-positivistes du Cercle de Vienne, qui propose un programme logiciste qui est tout aussi fondationiste. Il y a une très claire conscience chez Bachelard, Enriques, Gonseth, Cavaillès, qu’en science il n’y a pas de fondement absolu. La science se fonde en quelque sorte dans son mouvement vers l’avant et elle n’a pas à chercher un ensemble de certitudes stables et absolument consistantes. Si bien qu’un état d’incomplétudes, pour reprendre une analogie avec le théorème de Gödel, est l’état normal et préférable de la connaissance.

Je dirais qu’en plus de ça, il y a un travail de réforme de la logique, de la compréhension de ce que c’est que la logique, qui se prolonge dans les travaux de Paul Cohen sur le forcing, la démonstration de l’indépendance de l’axiome du continu, etc. Et toutes ces choses-là, participent du même horizon de pensée que la révolution du nouvel esprit scientifique. Oui, il y a une très grande affinité entre le théorème de Gödel et ce qu’on vient d’exposer. Il y aurait pleine de ramifications à exposer.

Sur la théorie du chaos, cela dépend de ce que vous mettez derrière cette appellation. C’est un terme qui apparaît je crois avec David Ruelle, et il y a plein d’autres termes qui apparaissent, qui sont très populaires et assez mal définis, comme « l’effet papillon », qui vient de Lorenz. Donc il faudrait préciser de quoi en parle pour essayer de délimiter la portée épistémologique et scientifique de ces travaux. Il est certain qu’il y a toute une série de choses qui sont faites dans les travaux de Poincaré sur les homoclines qui sont maintenant récupérées, je dirais de façon récurrente, rétrospective, par ce que l’on appelle la théorie du chaos. Il y a tout ce fond du domaine du chaos déterministe qui intéressait déjà Bachelard à son époque, même s’il ne connaissait pas cette expression. C’est dans le livre qui s’appelle L’activité rationaliste de la physique contemporaine. Il y a un assez beau chapitre qui commence par étudier un peu ce problème avant de poser des questions qui sont liées plus à la physique des particules. Donc, là, une fois de plus, c’est compliqué, cela me demanderait de travailler et je ne pourrais pas répondre en 5 minutes. Mais c’est une bonne question. La preuve, c’est que je ne peux pas y répondre, un peu comme la question du Monsieur sur la turbulence.

Auditrice_5 : Je voudrais revenir sur l’idée de progrès dans les paradigmes. En fait j’ai du mal à voir comment on peut vraiment parler de progrès alors qu’il n’y a pas de méta-paradigmes qui puissent juger objectivement l’idée de progrès parmi tous les paradigmes.

Vincent Bontems : Cela vient du fait qu’il faut remettre en cause finalement l’idée de Kuhn qu’il n’y a de progrès qu’au sein d’un paradigme fermé. En réalité, la recherche est à la fois plus souple, plus complexe, plus dialectique, et plus ouverte que ça. Dans la mesure où quand un chercheur cherche, il peut neutraliser tout ou partie de son… plutôt que paradigme, je vais prendre le terme de concept qui correspond mieux à ce que dit Bachelard. Donc il peut se situer ordinairement dans un référentiel théorique donné et avoir à un moment donné un référentiel de travail où il relâche, par exemple, tel ou tel des axiomes qu’il accepte en règle générale, il relâche des contraintes pour voir ce que cela fait. Autrement dit, ce que Kuhn dit à propos de la fermeture des paradigmes, c’est assez primitif par rapport au travail concret du scientifique, qui peut très bien transformer son référentiel, et qui, plus que ça, peut très bien se former en permanence un horizon d’ouverture, c’est-à-dire savoir que son référentiel est en état d’incomplétude et attendre justement l’information qui permettrait de changer de référentiel ou de savoir quelle partie de son référentiel il doit abandonner. Après, est-ce qu’on a vraiment besoin d’un méta-référentiel qui domine tout cela pour parler de progrès ? La réponse est non. On travaille dans l’histoire. Pour me moquer un peu de Kuhn, il y a un de ses élèves, Errol Morris, qui raconte une histoire qui s’appelle L’histoire du cendrier. Il disait : je suivais les cours de Kuhn, et je ne comprenais pas sa certitude sur l’incommensurabilité des paradigmes, puis à un moment donné je l’ai interrompu et j’ai dit : « il y a des paradigmes qui se succèdent, sans qu’on puisse jamais les comparer, et puis il y a Kuhn qui prend la place de Dieu pour décider qui est-ce qui gagne ». Kuhn fumait cigarette sur cigarette. Il a été si énervé par la remarque qu’il lui a balancé le cendrier à la figure. Ce qui l’a énervé, c’est que l’étudiant souligne que le refus de toute commensurabilité entre différents paradigmes était un dogme qui permettait d’asseoir son autorité plutôt qu’une hypothèse dont on pouvait étudier la validité. Dans l’idée qu’on aurait besoin d’un méta-paradigme se cache une exigence qui est impossible à satisfaire parce qu’elle n’est pas justifiée : finalement on se met dans une position de surplomb quasi divine, on ne cherche plus une fondation absolue mais un surplomb absolu qui nous permettrait d’arbitrer. Or cela ne se passe jamais comme ça. Cela passe précisément par les mécanismes de formation de référentiels qui eux vont avoir d’une part un domaine d’intelligibilité, une extension, une validité, une précision particulière et, d’autre part, une capacité d’expliquer les référentiels antérieurs par la récurrence. L’esprit scientifique comporte cette partie réflexive que Bachelard a analysée. Pour répondre à Kuhn, on a besoin en fait de répondre à Abel Rey. Abel Rey disait : maintenant, la science fait tout et elle interprète elle-même sa propre histoire, par conséquent il n’y a plus de place pour la philosophie. Kuhn dit quelque chose d’analogue mais discontinuiste, il dit qu’il n’y a que des paradigmes fermés, comme des bulles de savon, et qu’il n’y a pas d’interprétation de toutes ces bulles qui se succèdent. Ce que dit Bachelard, c’est qu’au contraire il y a des gestes philosophiques qui sont de tout temps (pas tout le temps !) à l’œuvre dans la science, et qui précisément sont ces changements de référentiels, où l’esprit scientifique est capable de voir dans son passé ce qui est périmé, ce qui est sanctionné, et quel est l’horizon surrationaliste d’ouverture vers le futur. Il n’y a donc pas un paradigme unique à un moment donné mais bien plusieurs référentiels capables de se transformer et de chercher des récurrences. Il y a des sous-référentiels qui sont des modifications, obtenus même par mutilations et abandons, on peut retrouver dans le présent des strates passées. Et grâce à l’attente surrationaliste de futures révolutions, on peut déjà commencer à douter du référentiel-paradigme dans lequel on se trouve. Ce qui important pour la philosophie des sciences ce n’est pas d’inventer un méta-référentiel qui jugerait tout cela d’un point en dehors de l’histoire, en surplomb, c’est de trouver une façon toujours plus juste de décrire les transformations entre les référentiels.

Donc, pour répondre à votre question, il faut sortir de la formulation du problème par Kuhn. Il nous dit : on ne peut pas traduire le concept d’un paradigme dans un autre paradigme, donc ils sont incommensurables. Déjà il a une idée de la traduction qui est bête ! Il faudrait selon lui trouver une correspondance terme à terme, or ce n’est pas cela la traduction. Toute personne qui fait une traduction sait qu’il faut prendre un ensemble de relations et essayer de retrouver un autre ensemble de relations et non pas une équivalence terme-à-terme. Et, même si on lui accordait l’incommensurabilité des paradigmes, il faut justement comprendre comment celle-ci se crée historiquement : il y a des phénomènes de commensuration et d’incommensuration. Il y a des moments où les paradigmes divergent jusqu’à devenir incommensurables, en même temps que d’autres efforts de l’esprit scientifique qui sont précisément des commensurations. Comment repenser à ce que pensait Euclide à son époque, repenser à ce que pensait Galilée à son époque, à la lumière d’aujourd’hui, comment trouver ces articulations entre le passé et le présent, entre l’historicisme et la récurrence, le présentisme. Voilà le vrai travail.

Auditeur_6 : Merci ! Bonsoir ! Depuis l’Antiquité, les philosophes grecs se posaient des questions sur ce qu’est la réalité. Cette question a à peu près disparue jusqu’à la fin du XIX-XXème siècle, et elle revient, pas seulement en question philosophique mais aussi en question physique, par l’apparition de la physique quantique. Et cela continue jusqu’à aujourd’hui où on la traite dans les laboratoires pour comprendre ce qu’est la réalité. Il y a des expériences pour comprendre ce qu’est la réalité et découvrir d’autres dimensions qu’on ne connait pas. Bachelard, qui a bien sûr connu le début de la physique quantique, quelle était sa conception et comment il a vécu ce débat qu’il y a eu entre Bohr et Einstein et les implications philosophiques de la physique quantique ?

Vincent Bontems : Je ne vais pas pouvoir répondre en entier à la question parce qu’on n’a pas le temps. Il faut y passer une année de séminaire. Je vais d’abord traduire. L’une des tâches de la philosophie rationaliste, c’est d’essayer, parce qu’elle prend la science de son temps en considération, d’expliquer comment on connaît et pourquoi on connaît ce qu’on connaît. C’est une théorie de la connaissance. La plupart des philosophies ont une traduction ontologique, elles prononcent un discours sur l’être. La question est de savoir jusqu’à quel point la tension entre ce qu’elles ont compris de comment on connaît ce qu’on connaît et la traduction, souvent dans un langage substantialiste, de ces connaissances en ce qu’elles sont, est féconde. Je contredirais volontiers votre appréciation, je pense que cela a eu lieu assez largement dans l’histoire, cette discussion : on trouve des interrogations pas seulement à partir du XIXème siècle. Mais c’est vrai qu’il y a un point d’acuité qui vient du fait qu’à partir de la révolution du 1905, il y a des phénomènes nouveaux qui apparaissent et notamment il y a une remise en cause radicale des traductions substantialistes, parce qu’on arrive plus à fixer un corrélat ontologique des modèles quantiques, que j’ai un peu évoqué avec l’histoire du « noumène » et de la phénoménotechnique. Il peut y avoir divergence d’actualisation soit sous forme d’ondes soit sous formes de particules, par exemple. Or ce n’est pas une situation accidentelle, c’est la théorie qui déclare impossible cette traduction – on pourrait analyser ici des implications fondamentales du théorème de Kochen-Specker. Il y a donc une crise du substantialisme extrêmement profonde qui implique de redéfinir la « réalité ». Comment Bachelard y répond ? D’une part par cette articulation entre « noumène » et phénomène. D’autre part, en soulignant que la « réalité », ce n’est pas possible à traduire de façon substantialiste, la réalité, elle est à traduire dans les relations. « Au commencement était la relation », disait-il. Donc, il y a un réalisme après le substantialisme, un réalisme des relations, qui fait qu’on n’est pas tenu de donner une ontologie sous la forme périmée des métaphysiques qui se sont effondrées au début du XXème siècle. Les structures mathématiques méritent d’être interprétées aussi à un certains stade plus fondamental, ce n’est pas simplement qu’on revient vers des observables, qui sont celles d’une onde ou d’une particule qu’on commence le discours, on peut se poser des questions pour savoir quel est le corrélat ontologique d’une fonction d’onde ou d’un espace des phases. Bachelard s’y est risqué dans un livre qui s’appelait L’expérience de l’espace dans la physique contemporaine. La piste qu’il suit c’était de revenir sur l’attribution d’une localisation parfaite à un corrélat ontologique : avec la formulation de la mécanique quantique par Heisenberg, celle de la mécanique matricielle, on peut toujours parler des étants mais ils ne sont plus strictement localisés. Son ami Gonseth allait encore plus loin. Il disait que la logique finalement c’est la physique de l’objet quelconque. Une fois qu’on a enlevé toutes les déterminations physiques, il reste une forme creuse, qui est celle de la logique, avec des principes de non-contradiction, d’existence et du tiers-exclu, etc. Cette logique porte en elle une ontologie en creux, une ontologie substantialiste qui fait qu’on pense qu’il existe des choses avec des propriétés comme on parle d’un terme auquel on attribue un prédicat. Avec Bachelard, ils ont convenu que la mécanique quantique précisément n’est pas une mécanique de l’objet quelconque. Donc, la logique et son substantialisme inhérent devrait être assouplie ou devrait prendre des formes postgödeliennes. C’est une logique différente qui s’applique à la mécanique quantique quand une particule est dans un état superposé. Donc, il y aurait une piste pour aller chercher un rétablissement de l’ontologie au XXème siècle à travers une réforme de nos schèmes, à condition de se situer dans un réalisme des relations, en instituant plutôt un prima de la relation sur les termes de la relations. Il n’est pas exclu que Bachelard ait avancé des pistes pertinentes dans ce domaine que vous appelez « comprendre ce que c’est que la réalité ». Par ailleurs, cela amène à beaucoup de prudence. Car les physiciens ne sont plus d’accord entre eux sur les interprétations. Il y a eu des débats entre Bohr et Einstein mais aussi avec Schrödinger, avec Heisenberg, avec Pauli, avec Majorana, etc. Tous les pionniers ont eu leurs propres tentatives de rationalisation. Au bout d’un moment le débat s’est un peu tari, et surtout on est arrivé à des stratégies pragmatiques : « shut up and calculate », on a mis tous ces problèmes sous le tapis, et on a continué la construction mathématique à travers la théorie des champs, etc. C’est donc de vieux problèmes jamais résolus et il faut savoir à quel moment de l’histoire on est en train de se placer pour discuter sérieusement votre question. Et cela prendrait des heures ! Comme les précédentes questions !

Anne Grange : On n’a pas des heures devant nous… On est obligé de s’arrêter là pour ce soir. Merci beaucoup pour cette passionnante introduction à ce cycle.

Vincent Bontems : Je vous remercie tous d’être venus.


La matière noire balayée par une nouvelle théorie ?

Mardi 26 septembre 2017

80 % de la matière dans l’Univers serait faite de particules exotiques, échappant à toute détection. Serait-il possible que ses effets ne soient que la manifestation d’une autre gravité ?
Avec Françoise Combes, astronome à l’Observatoire de Paris, professeure au Collège de France.

La matière noire balayée par une nouvelle théorie ?
La Cité des sciences et de l'industrie : Les conférences.
« Quand la science se remet en question » : Cycle de conférences.
« La matière noire balayée par une nouvelle théorie ? »
Avec Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
Avec le soutien de Pour la Science


Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Bonsoir à tous.
Merci d'être venus en nombre.
Nous allons parler de ce que nous connaissons...
Je ne sais pas s'il y a un retour.
Voilà.
Nous allons parler de matière noire, ce que l'on connaît sur elle.
D'abord, j'aimerais dire que ce nom de matière noire vient du fait qu'elle ne rayonne pas, donc on ne la voit pas.
Mais une définition de matière invisible serait beaucoup mieux car en fait elle est transparente.
Ce n'est pas un écran noir que nous avons.
C'est quelque chose qui ne se voit pas, mais qui est invisible.
Il est possible qu'il y ait beaucoup de matière noire entre vous et moi.
Nous ne le voyons pas, mais il n'y a pas d'écran noir.
On va montrer, je montre dans cette introduction qu'on a une façon de cartographier la matière noire par les lentilles gravitationnelles.
C'est-à-dire que la matière qui est entre les astres très loin et nous est déviée.
Donc, on va pouvoir cartographier...
Mais j'anticipe.
Je vais quand même d'abord annoncer comment cette matière noire a été découverte.
C'est une longue histoire.
On la fait remonter à Zwicky, un astronome suisse qui vivait aux USA et qui était assez fantasque.
Il découvrait un certain nombre de choses, mais il avait aussi des idées qui n'étaient pas aussi fécondes que celles dont on va parler ce soir.
On lui attribue la découverte de la matière noire.
C'est vrai car il avait, en effet, observé des amas de galaxies, donc un ensemble de...
Oups.
On va trop vite là.
Un ensemble de galaxies, comme l'amas de Coma qui a des milliers de galaxies.
Il regardait par effet Doppler, il mesurait dans les spectres, par effet Doppler, les vitesses de ces galaxies.
Il voyait qu'il y avait énormément de vitesse et que pour retenir les galaxies entre elles, il fallait supposer qu'il y ait énormément de masse.
Sinon l'amas aurait été dispersé dans l'espace, ce qui n'est sans doute pas vrai puisqu'on a plusieurs amas de galaxies.
Il n'y a aucune raison qu'on soit juste en train de les voir se disperser.
La masse qu'il a déduite de ces observations était telle que le rapport de la masse sur la luminosité était un facteur 500.
Ce qui est énorme.
On a une visibilité en optique.
On voit la luminosité des galaxies.
Normalement, on s'attend à avoir un rapport M/L, masse sur luminosité, de quelques-uns, c'est-à-dire 2 ou 3 en unité solaire.
Pour le Soleil, c'est 1 évidemment.
Et puis il y a des étoiles qui sont beaucoup plus sombres que le Soleil par rapport à leur masse.
On s'attendait à trouver peut-être 5.
Vous voyez qu'on a trouvé 500.
On avait 100 fois plus de masse que ce à quoi on s'attendait par la luminosité de l'amas.
D'où l'hypothèse qu'il avait faite.
Peut-être qu'il y avait plein de matière noire dans la galaxie, peut-être entre les galaxies ou alors peut-être qu'il y avait de la poussière qui obscurcissait la lumière des galaxies.
Donc, on voyait beaucoup moins de galaxies.
Et puis, quand même, on va en discuter, il avait eu l'idée que, peut-être, la loi de la gravité n'était plus valable.
En effet, on a l'expérience de la loi de la gravité dans le Système solaire, sur Terre évidemment, dans le Système solaire, mais aux échelles de la galaxie, des amas de galaxies, on n'a aucune expérience, sauf astrophysique.
Finalement, pourquoi extrapoler.
Si on trouve un gros problème comme celui-ci, faut-il changer la loi de la gravité ou ajouter beaucoup de masse ?
Il y avait d'autres astronomes, par exemple Jan Oort en 1932, qui avaient regardé dans la Voie lactée, qui est notre propre galaxie, le mouvement des étoiles perpendiculairement au plan.
Ce mouvement aussi est d'autant plus rapide qu'il y a beaucoup de masse qui attire les étoiles.
Il a regardé le mouvement des étoiles perpendiculairement.
Il avait trouvé une masse énorme, beaucoup plus que la masse que l'on voit.
Lui pensait qu'il y avait peut-être des astres morts, des tas d'objets obscurs qui peuplaient le plan de la Voie lactée et il s'était arrêté là.
Curieusement, on s'est aperçu que les galaxies qui tournent autour de leur centre, comme un manège si vous voulez, ont beaucoup de matière noire, mais ce n'est que dans les années 1960-1970 qu'on a pu vraiment montrer qu'il y avait plein de matière noire dans les galaxies.
Pourquoi ?
Car on ne connaissait pas très bien le rapport masse/luminosité des étoiles elles-mêmes.
Des étoiles sont très massives et rayonnent énormément, comme des étoiles jeunes qui ne vivent que 10 millions d'années.
Et des étoiles même beaucoup moins massives que le Soleil qui vont durer des milliards d'années et qui rayonnent beaucoup moins.
Ce rapport M/L était tellement incertain qu'on n'était pas sûr qu'il y ait beaucoup de matière noire dans les galaxies.
Maintenant on le sait.
Il y en a énormément.
Par exemple, la Voie lactée dont on a un exemple en bas à gauche, tourne...
Ici, vous avez la courbe de rotation.
C'est-à-dire la vitesse à laquelle le manège tourne autour du centre en fonction de la distance au centre.
Lorsqu'il n'y a plus de masse, lorsqu'on est au bord de la galaxie, on s'attend à ce que, toute la masse étant concentrée, la vitesse décroisse de façon képlérienne en 1 sur racine du rayon.
Ici on a d'abord un bulbe qui va donner cette vitesse-là qui est ici B.
Ensuite, on a un disque D.
On voit que si on ajoute bulbe et disque, on a quelque chose qui descend en effet.
Lorsqu'on sort du disque, on a quelque chose qui tombe.
Ce qu'on observe, ce sont les points, les étoiles.
La courbe de rotation ne tombe jamais.
La matière autour, les étoiles autour tournent très vite.
On est obligé de rajouter ce qu'il a appelé H ici, un halo de matière noire.
Encore là, on voit qu'on en a un tout petit peu, mais ce qui a fait le déclic, c'est quand on a observé tous ces disques d'hydrogène atomique.
C'est vraiment l'hydrogène sous forme d'atome seulement qui a une raie à 21 cm, qui est la raie de niveau fondamental, de la raie hyper fine, qui a été découverte dans l'espace dans les années 1950-1954.
On a cartographié toutes les galaxies avec l'hydrogène.
L'avantage de l'hydrogène, c'est qu'il s'étend beaucoup plus loin que la galaxie optique.
Ici, j'ai représenté une galaxie un peu comme la nôtre, la Voie lactée, qui s'appelle Messier 83.
Vous voyez qu'on a un petit zoom au centre, ici, qui est la galaxie optique.
Si vous regardez une image du ciel, vous verrez cette galaxie.
Tout est compris ici.
Tout ce qui est en orange, c'est la cartographie de l'hydrogène atomique.
L'hydrogène, le gaz d'hydrogène, s'étend à un rayon 5 à 6 fois supérieur au rayon de la galaxie optique.
Ce gaz est très peu massif.
Il correspond à quelques pourcents de masse de la galaxie.
C'est une particule test en quelque sorte.
Elle n'apporte pas beaucoup de masse, mais sa vitesse...
Vous voyez les courbes d'orientation, vitesse en fonction de la distance au centre.
La galaxie optique se termine ici et on a un moyen de tracer la courbe d'orientation très loin du centre.
Et elle est toujours plate.
Toutes les galaxies ont une courbe plate.
Ça démontre sans nul doute qu'il y a énormément de matière noire.
Les galaxies sont dominées par la matière noire, la matière invisible.
Ça, on l'a su dans les années 1970-1980.
On a vu au niveau de la galaxie, des amas de galaxies, et puis la densité de l'Univers.
De quoi est fait l'Univers ?
Quelle est la densité volumique de l'Univers ?
Ce qu'on appelle densité volumique...
Oups.
Il avance tout seul en fait.
Ce qu'on appelle densité volumique, c'est ρ ici, que l'on peut donner en g/cm³ si on veut.
On préfère utiliser une quantité sans dimension qui s'appelle Ω, le rapport de la densité de l'Univers à la densité critique, ρcrit.
Sa valeur est de 10-²⁹ g/cm³.
Vous voyez que l'Univers est très peu dense car, justement, sa densité va être de l'ordre de Ω = 1 ou de l'ordre de 1.
On a un Univers très peu massif, enfin très peu dense.
Avant 1990, dans les années 1980-1990, on ne savait pas qu'il y avait une constante cosmologique.
Je n'en parle pas pour l'instant.
On avait trois modèles qui répondaient aux équations d'Einstein, que l'on connaissait depuis 1915.
L'équation d'Einstein relie la géométrie de l'Univers à la quantité de matière et d'impulsion d'énergie qu'il y a dans l'Univers.
Si vous avez beaucoup de matière, par exemple Ω > 1, vous avez un Univers fermé sur lui-même.
Dans cette représentation un peu simpliste, il faut voir l'Univers comme la surface du ballon.
C'est très difficile de représenter un Univers courbe, avec une certaine courbure à trois dimensions, donc on le représente toujours à deux dimensions.
Ce que vous avez ici, c'est un Univers fermé sur lui-même.
La surface est fermée.
C'est la solution de l'équation d'Einstein pour un Univers dense.
Donc, supérieur à 10-²⁹.
Si l'Univers est peu dense, Ω < 1, vous avez un Univers hyperbolique avec une courbure négative qui représente une selle de cheval.
Vous voyez qu'un triangle a une certaine courbure là-dedans.
Et puis l'espace auquel on est habitué, c'est l'espace plat.
Le triangle ressemble vraiment à un triangle ici.
Heureusement, notre Univers est dans ce cas-là.
On a un Univers plat.
Évidemment, dans les années 1980, on se demandait vraiment comment il était possible d'avoir un Univers plat car ce qu'on mesurait d'un côté, c'est que les rayons lumineux se propagent en ligne droite, ce qui est la propriété d'un univers plat.
Par contre, on n'arrivait pas à mesurer la masse telle que Ω = 1.
On avait toujours Ω < 1.
On a résolu ce problème par la découverte dans les années 1998-1999 de l'accélération de l'expansion de l'Univers.
Je vais raccourcir un peu toutes nos connaissances d'aujourd'hui.
On pense que l'Univers est créé à un temps t = 0 dans un Big Bang.
Qu'ensuite l'Univers est en expansion.
On pensait que lorsque vous lancez une pomme, elle va retomber sur elle-même par sa propre gravité.
S'il n'y a que de la masse dans l'Univers, l'Univers devrait retomber sur lui-même.
L'Univers devrait être en expansion, mais décélérée.
En 1998, on s'est aperçu, en regardant des supernovae, qui sont des chandelles standard, que l'Univers accélérait son expansion.
C'était une très grande surprise.
Impossible de le faire avec de la masse.
Il fallait rajouter un autre composant, l'énergie, l'énergie noire dont vous avez entendu parler et dont on ne sait rien, donc je n'en parlerai pas ce soir.
Mais je suis obligée de le présenter ici pour expliquer pourquoi on sait aujourd'hui que nous sommes dans un Univers qui est la courbe en rouge ici.
Le rayon caractéristique de l'Univers en fonction du temps s'accroît exponentiellement.
On est dans cet Univers-là.
Le Big Crunch où l'Univers va se replier sur lui-même n'est pas d'actualité.
On est plutôt dans un Univers qui va devenir de plus en plus dilué grâce à une constante cosmologique lambda que l'on va rajouter.
Dans la suite, je parlerai beaucoup de décalage vers le rouge qui est une quantité que nous utilisons beaucoup pour avoir les distances dans cet Univers en expansion que je représente par un ballon.
L'Univers, c'est la surface du ballon.
L'idée qu'il faut avoir, c'est qu'on sait que dans l'expansion, les galaxies s'éloignent les unes des autres.
Pourquoi ?
Pas parce qu'elles bougent.
Pas parce qu'elles ont une vitesse de plus en plus grande par rapport à leur distance.
Mais parce que le ballon gonfle et que l'espace s'étend entre les galaxies.
Ce qu'on peut voir aussi dans cette représentation, c'est que les photons qui ont une oscillation, selon la longueur d'onde bleue ou rouge, vont aussi participer à cette expansion.
La longueur d'onde du photon va devenir plus rouge, plus grande.
C'est le décalage vers le rouge appelé "redshift" pour faire plus court.
Ce décalage vers le rouge va nous donner la distance des galaxies.
Plus la galaxie est lointaine, plus l'Univers aura eu le temps de rentrer en expansion et la lumière qui va nous venir de cet objet sera rouge.
Je préfère définir mes grandeurs.
Vous avez le z ici qui est la différence entre la longueur d'onde au repos qui a été émise et la longueur d'onde que l'on reçoit.
La densité de l'Univers, et tout le contenu de l'Univers, nous est donnée par l'observation du fond cosmologique.
C'est un fond de rayonnement qui est micro-ondes.
Pourquoi ?
Car c'est dans les longueurs d'onde millimétriques, 3 mm exactement.
Ça ressemble beaucoup aux longueurs d'onde de votre four micro-ondes qui fait chauffer votre eau ou la nourriture.
On a énormément d'informations dans ce four micro-ondes.
Ce four micro-ondes, pourquoi a-t-il cette température ?
Au départ, les photons remplissent l'Univers.
Mais le Big Bang est très chaud, on a des milliards, des millions de degrés.
Lorsque l'Univers entre en expansion, il va se refroidir.
Aujourd'hui, ces millions et milliards de degrés sont tombés à 2,7°K.
À 2,7°K, un corps noir émet des longueurs d'onde millimétriques.
Donc, 3 mm de longueur d'onde.
Si on avait des yeux qui pouvaient regarder 3 mm de longueur d'onde, on verrait un brouillard complet.
Ce qui domine à 3 mm de longueur d'onde, c'est justement le vestige du Big Bang, c'est-à-dire le fond micro-onde qui domine tout, la Galaxie, les étoiles.
Tout est dominé par ce fond.
On va soustraire ce fond.
Ce qu'on voit en ayant soustrait ce fond, c'est d'abord le dipôle, qui est représenté ici.
Ça, c'est le résultat du satellite COBE.
On a un dipôle qui veut dire que notre Galaxie, et tout le groupe local aussi, se déplace par rapport à ce fond de rayonnement qui représente le référentiel absolu de l'Univers, c'est-à-dire le référentiel au repos.
Nous mesurons comme ceci la vitesse de la Galaxie qui est de 600 km/s dans ce référentiel.
Comme quand vous courez sous la pluie, vous avez beaucoup plus de pluie qui vient vers vous lorsque vous allez très vite.
Ça, c'est assez intéressant de le mesurer.
On sait pourquoi.
Notre Galaxie est attirée par un super amas dans une certaine direction et donc on peut l'expliquer.
On va le soustraire et on arrive maintenant à voir la Voie lactée.
On s'est placé dans un référentiel où la Voie lactée est dans le plan horizontal.
On voit que la Voie lactée a beaucoup de poussières.
La poussière émet à 3 mm de longueur d'onde car elle est froide à 10°K.
Il y a aussi l'émission synchrotron des supernovae.
Tout ça nous donne l'émission de la Voie lactée.
On sait la soustraire.
Le fond cosmologique, c'est un corps noir.
Donc, il y a un spectre très particulier.
Un synchrotron est une loi de puissance très différente du corps noir.
La poussière aussi n'a pas une température bien plus élevée que celle du corps noir qui est à 3°K.
Donc, si on fait une étude multi-longueurs d'onde, on peut soustraire très bien ces avant-plans.
On arrive à cette image que vous avez certainement vue un grand nombre de fois qui sont les fluctuations primordiales de l'Univers.
Il y avait d'abord COBE dans les années 1990, qui avait une résolution dans l'espace de 7°, ce qui n'était pas beaucoup.
Ensuite, il y a eu un autre satellite américain, WMAP, à 0,3°.
Quand même bien plus de résolution.
Et puis dans les années 2010, on a eu Planck, le satellite européen qui a énormément révolutionné le sujet en étant très précis.
Vous voyez que les fluctuations qui étaient roses et bleues précédemment avec pas beaucoup de définition, là elles sont beaucoup plus définies.
Ce n'est pas du bruit.
C'est ce qui est vrai.
Là, vous avez un énorme trou.
Vous l'avez aussi avec Planck, c'est exactement le même pic ici, etc.
C'est vraiment imprimé.
Ce sont les fluctuations primordiales de densité à 10-⁵ près qui vont donner lieu aux structures de l'Univers, les galaxies, les amas de galaxies, etc.
Pourquoi est-ce très intéressant ?
Ces petites fluctuations sont dues à l'interaction entre les photons, le rayonnement qu'il y a juste après le Bing Bang, qui domine complètement la matière, et les atomes.
Les atomes, à l'époque, comme c'est très chaud, sont ionisés.
On a des protons et des électrons.
On n'a pas d'atomes d'hydrogène.
C'est ce qu'on a représenté ici.
Vous avez des oscillations.
Il y a une très forte section efficace d'interactions entre les photons et les particules chargées, la section Thomson.
Vous avez des oscillations ici.
Les atomes représentés en jaune ici ne peuvent pas se rapprocher car les photons qui sont les petits ressorts empêchent la concentration.
Vous avez des oscillations un peu comme des ondes sonores.
On appelle ça des pics acoustiques.
C'est vraiment des ondes sonores qui se propagent.
Tout est à l'équilibre jusqu'à ce qu'il y ait une température qui décroît.
Avec l'expansion, l'Univers va décroître sa température.
Lorsqu'on dépasse 3 000°, c'est la température à laquelle le proton et l'électron se recombinent pour former l'atome d'hydrogène.
À ce moment-là, l'Univers devient neutre et l'hydrogène n'interagit plus avec les photons.
À ce moment-là, l'hydrogène peut se rapprocher par sa propre gravité et former des structures.
Ce que vous voyez ici, si on prend toutes ces petites fluctuations qu'on a vues dans l'image de Planck et qu'on les donne en fonction de la taille, taille angulaire ici, on voit des structures très précises.
La première structure...
Ici, ce sont les grandes échelles et ici les petites échelles.
La première structure, c'est la plus grande structure que vous pouvez former.
C'est seulement l'horizon sonore.
C'est-à-dire la taille qu'a pu parcourir le son.
Le son, c'est les petites oscillations entre les photons et les atomes.
Le son se propage.
Cette surface que l'on voit, la dernière surface de diffusion, elle se passe à 380 000 ans après le Big Bang.
À cette époque-là, il y a un certain parcours qu'a produit le son et ça correspond à cette taille-là.
Cette taille-là est connue très précisément.
Toute la physique du début de l'Univers est très simple car l'Univers est pratiquement homogène.
Les fluctuations, c'est 10-⁵.
C'est tout à fait linéaire, on n'a pas besoin de faire des simulations numériques.
On n'a qu'à écrire une équation très simple.
Donc, on mesure ça directement.
Vous voyez les barres d'erreur, c'est très petit.
Ici, vous voyez une très grande dispersion.
Pourquoi ?
Ce ne sont pas des barres d'erreur.
Mais à grande échelle, vous n'avez qu'un seul Univers.
Donc, vous avez une variance cosmique.
Vous n'avez qu'un seul gros trou comme je l'ai montré, un gros pic.
Vous n'avez pas plusieurs Univers pour avoir beaucoup plus de statistiques.
Là, le nombre de statistiques n'est pas assez grand, donc vous avez une grande dispersion.
Dès que vous avez beaucoup de petites fluctuations, les barres d'erreur ne se voient même pas.
Elles sont ici reproduites, mais vous ne les voyez pas.
On peut déterminer, par la théorie de ces oscillations, que si vous avez plus de masse, de densité, ça va osciller plus vite.
Si vous avez moins de densité, moins vite.
C'est un peu ce qu'on a à droite ici.
On va pouvoir avoir le Ωtotal de l'Univers, la densité de l'Univers.
La position des pics, etc., exactement le dessin ici, va dépendre de Ωtotal, va dépendre du Ω des atomes.
On appelle ça les baryons.
Les protons, les neutrons sont des particules lourdes, ce sont des baryons.
Les atomes, on va les appeler baryons dans le reste de l'exposé.
Toutes ces quantités nous sont données par cette expérience.
C'est vraiment très riche.
On a déterminé que le contenu de l'Univers...
Voici le résultat.
Le contenu de l'Univers est fait de baryons à 5 % seulement, de matière noire qui ne sont pas du tout des atomes, quelque chose d'exotique, qui n'interagissent pas avec les photons, on va voir pourquoi, donc invisibles, et aucune interaction avec le rayonnement.
Et puis cette énergie noire dont je parlais qui est là pour représenter le fait que l'expansion est accélérée et dont on ne sait rien sauf que ça peut être une constante cosmologique qui avait été introduite par Einstein dans ses équations, mais qui, jusqu'à l'an 2000, était supposée nulle par le rasoir d'Ockham.
Ici, la fraction, la quantité de l'Univers va pour aujourd'hui, à un chiffre zéro.
Pourquoi c'est différent à chaque époque de l'Univers ?
La densité de l'Univers, la densité de matière, va décroître comme l'inverse du volume.
On sait que la densité, c'est la masse sur le volume.
La masse d'atomes est constante pour un volume donné.
Donc, si la taille caractéristique de l'Univers s'étale avec R qui croît en fonction du temps, la densité va diminuer comme 1/R³.
C'est l'inverse du volume.
La densité des photons, le rayonnement, ne varie pas comme 1/R³ mais 1/R⁴.
Pourquoi ?
Car le nombre de photons varie comme 1/R³, mais l'énergie du photon, le photon n'a pas de masse, donc ce qui compte c'est l'énergie, et l'énergie c'est hν, ou la fréquence, ou la longueur d'onde.
On a vu que la longueur d'onde dans l'expansion devenait plus rouge.
Donc l'énergie diminue.
Ça diminue comme la taille, donc 1/R.
Donc il y a 1/R⁴ pour la décroissance en énergie du rayonnement.
Vous voyez que le rayonnement domine au début de l'Univers et puis, peu à peu, la matière a dominé.
Si on regarde au début de l'Univers quand on a la dernière surface de diffusion, quand l'Univers devient neutre à 380 000 ans après le Big Bang, voici ce qu'on a.
On a aussi des neutrinos qui sont les leptons en fait.
Les neutrinos sont très peu massifs, ils sont presque relativistes, c'est presque comme les photons.
Au début, c'est tellement relativiste que ça va décroître en 1/R⁴ aussi.
Aujourd'hui, les neutrinos sont négligeables.
Mais à l'époque, les photons sont non négligeables, 15 % à cette époque-là.
La matière noire.
Par contre, l'énergie noire est constante.
Tout ce qu'on sait sur l'énergie noire, c'est que ça se comporte comme une constante cosmologique.
Ça ne varie pas avec R.
Si elle est constante, elle est dominée ensuite par le rayonnement et la matière.
À cette époque-là, il n'y a pas d'énergie noire du tout.
Elle est négligeable.
Voici ce que l'on sait sur la densité de matière et de matière noire dans l'Univers.
C'est heureux que nous ayons de la matière noire car nous ne serions pas là s'il n'y avait pas de matière noire en quelque sorte.
Pourquoi ?
Dans ce petit diagramme, je montre la densité en fonction du temps, ou du redshift, on a vu que ça nous donnait le temps aussi, l'expansion de l'Univers nous donne l'époque.
En vert, il y a tout le moment où la matière est ionisée, c'est un plasma protons-électrons, et à un moment donné, à 380 000 ans, on devient neutre.
On a vu que s'il n'y avait que des atomes, on pourrait se condenser par la gravité des atomes, uniquement si la matière est neutre.
Ça ne commence que quand le diagramme devient blanc.
Mais ce n'est pas suffisant.
À ce moment-là, on n'a plus assez de temps.
L'expansion a gagné.
L'expansion contrecarre l'effondrement des structures.
Au départ, on a 10-⁵, c'est très faible.
On peut montrer que si on attend 380 000 ans, il est trop tard pour former les structures.
Donc, s'il n'y avait que des atomes, impossible de former des galaxies et des amas de galaxies.
Ce qui nous sauve, c'est que la matière noire n'interagit pas avec les photons.
Elle peut se concentrer bien avant la neutralisation de l'Univers.
Ici, je vous ai montré en bleu la façon dont la densité de matière décroît en 1/R³.
Et celle du rayonnement en rouge en 1/R⁴.
À un moment donné, la densité de matière et de rayonnement est égale.
On appelle ça le point d'équivalence.
C'est à ce moment-là que la matière noire domine.
Quand je dis la matière, on sait que la principale quantité de matière, c'est la matière noire.
Elle domine et c'est à partir de ce moment-là que la matière noire va s'effondrer en structure.
Ce qu'il va arriver, il y a un petit dessin, en haut à droite, qui vous montre l'idée qu'on a des galaxies.
On a un halo de matière noire et au centre, on a quelques atomes qui sont tombés dedans.
Ce qu'il va se passer, c'est qu'on forme d'abord des galaxies de matière noire.
Et bien plus tard, quand elles sont bien formées, les atomes tombent dedans car ça fait des puits de potentiel qui attirent les atomes, on va tomber dedans et on va former des étoiles.
On se dit toujours : "Est-ce que les étoiles se forment avant les galaxies ou l'inverse ?"
Là, on sait bien qu'une galaxie se forme avant les étoiles puisqu'elle se forme en matière noire et ensuite, les atomes tombent dedans et forment des étoiles.
Ça, c'est important.
Si on veut une autre théorie, une gravité modifiée, il faudra expliquer pourquoi on forme des galaxies.
Là, on a absolument besoin de cette matière noire pour les former.
Voilà le schéma de ce qu'on pense aujourd'hui de l'évolution depuis le Big Bang.
On a un axe vertical qui est le temps ou le redshift.
z = 1 000, c'est le moment où l'Univers devient neutre, devient de l'atome d'hydrogène.
Les galaxies se forment ici dans l'orange.
L'orange, c'est l'Univers très chaud et ionisé.
Les galaxies se forment là en tant que matière noire.
Ensuite, les atomes ici tombent dans les galaxies.
Il y a une période qu'on appelle âge sombre car il n'y a pas encore d'étoiles.
Peu à peu, les étoiles vont se former et elles vont ioniser le milieu alentour.
Donc, on va ré-ioniser l'Univers.
On est parti d'un Univers ionisé, on va le neutraliser et ensuite, par les étoiles, on va le ré-ioniser jusqu'à à peu près 1 milliard d'années.
À partir de là, on sait qu'entre les galaxies et les filaments, l'Univers est ionisé.
Par contre, dans les galaxies et les filaments, il y a encore beaucoup de gaz neutre.
Je vous ai dit qu'on pouvait cartographier la matière noire.
Comme le géomètre de Vermeer ici, on va essayer de faire une cartographie bien qu'on ne la voie pas.
Comment on le fait ?
Par ces lentilles gravitationnelles.
Vous voyez un bel exemple de déformation.
Ici, il s'agit d'un amas de galaxies.
Ce que vous voyez en jaune, ce sont les galaxies de l'amas qui est d'avant-plan.
Derrière l'amas, assez loin derrière, vous avez des petites galaxies qui sont déformées.
On voit des arcs gravitationnels ici.
Tous ces arcs sont les galaxies de fond dont les rayons lumineux ont été déviés.
Vous pouvez imaginer que vous mettez une loupe ou bien une lentille optique et vous avez ce même problème.
Un tesson de bouteille derrière un paysage va vous le déformer.
Vous avez des choses bizarres qui se forment.
Là, c'est le cas.
On va pouvoir étendre ce phénomène à un régime faible.
Pour l'instant, lorsqu'on a des arcs gravitationnels, c'est vraiment une déformation très forte car il y a un amas de galaxies devant.
Mais ce qu'on sait faire aujourd'hui, c'est regarder des millions de galaxies derrière et regarder quelle est la déformation très faible.
Un peu comme la limaille de fer qui s'oriente dans les champs magnétiques.
On a des galaxies de fond et on regarde comment elles se déforment autour.
Ici, c'est une lentille faible.
On a besoin d'un grand nombre de galaxies car les galaxies ne sont pas des points.
Ce sont parfois des choses un peu allongées, comme les galaxies vues par la tranche, les galaxies spirales.
Donc, il faut qu'on moyenne statistiquement toutes ces formes intrinsèques de galaxies qui vont nous tromper.
Là, il nous faut quelques millions de galaxies et regarder des déformations très petites de ces galaxies.
C'est ce qu'on sait faire maintenant.
On a des résultats de ce type-là appelés cisaillement gravitationnel.
C'est une déformation qui ressemble à un cisaillement.
Ce que vous voyez ici en rouge, il s'agit de la cartographie du gaz très chaud qui domine la matière baryonique dans les amas de galaxies.
Dans les amas de galaxies, vous avez beaucoup d'interactions entre galaxies et le gaz va être balayé des galaxies.
Il va être chauffé par les interactions et on a du gaz très chaud à 10 millions de degrés qui va rayonner dans les rayons X.
En rouge, c'est ce qu'on a, un satellite appelé Chandra qui observe les rayons X et qui cartographie la matière ordinaire, les baryons.
En bleu, ici, vous avez ce qu'on a déduit de la matière invisible grâce aux lentilles gravitationnelles.
On essaie de reconstruire.
Ce n'est pas exact, bien entendu.
C'est un peu indirect.
On voit que les galaxies de fond sont un peu biaisées et on en déduit, en bleu, on choisit de mettre en bleu ici, la matière noire.
La matière totale en fait car on ne sait pas distinguer entre matière visible et noire.
Comme la matière noire domine la matière visible, on pense que c'est essentiellement la matière noire.
Lorsqu'on superpose les deux, en gros la matière noire et la matière visible sont associées à grande échelle.
Pas exactement tout à fait, mais on sait que la cartographie en bleu est un peu incertaine, c'est indirect.
Aux erreurs près, on a tous les amas de galaxies, c'est la matière noire et la matière visible.
Lorsque vous avez un trou, ici on a un vide, c'est vide à la fois de matière noire et de matière visible.
On sait où est la matière noire : avec la matière visible.
À grande échelle en tout cas.
C'est déjà un point si on veut faire des théories de matière noire.
À petite échelle, qu'est-ce qu'on a ?
On a des relations comme celle-ci, qui a été trouvée par deux astronomes, Tully et Fisher, en 1978.
C'est une relation historique.
En vertical, ils ont porté la luminosité optique des galaxies, la luminosité des étoiles essentiellement.
En abscisse, ils ont porté la vitesse de rotation.
On a un spectre de rotation comme on l'a montré au début et on porte la vitesse.
Ils ne parlaient pas de matière noire à l'époque.
Leur but en trouvant cette relation était de dire : "Comme la vitesse ne dépend pas de la distance..."
Si vous mesurez la vitesse par effet Doppler, c'est la même quelle que soit la distance.
Par contre, la luminosité, c'est la luminosité apparente.
Donc, ça dépend de la distance.
Si vous avez la luminosité intrinsèque ici, vous pouvez, en mesurant la vitesse, avoir la luminosité intrinsèque alors que vous avez la luminosité apparente et vous en déduisez la distance.
C'était une façon très simple d'avoir les distances, autre que l'expansion de l'Univers d'ailleurs.
On a toujours besoin de ça aujourd'hui.
Ça sert beaucoup car dans les mouvements des galaxies les unes par rapport aux autres, vous avez des vrais mouvements Doppler qu'on aimerait connaître et vous avez l'expansion de l'Univers.
Il n'y a qu'ainsi qu'on peut distinguer entre l'expansion de l'Univers et les vrais mouvements des galaxies.
On sait s'il y a un flot de galaxies d'un côté ou de l'autre uniquement par cette méthode-là.
Cette méthode nous dit aussi autre chose.
Comme V c'est essentiellement les courbes de rotation, c'est la matière noire, et que la luminosité ici c'est la matière visible, on sait qu'à petite échelle, il y a une très bonne corrélation entre matière noire et matière visible.
Aujourd'hui, c'est beaucoup plus moderne.
On a cette loi de Tully-Fisher de baryons.
Pourquoi de baryons ?
Tully et Fisher, en 1978, l'avaient appliquée seulement aux étoiles.
C'était la lumière optique.
Les points rouges et bleus.
On s'est aperçu que les galaxies naines, les petites galaxies, donc faible vitesse ici, ne correspondaient pas à cette loi.
On s'est aperçu que les petites galaxies naines sont dominées par le gaz.
Le gaz d'hydrogène quand on regarde à 21 cm, comme on a vu dans les premières slides ici.
Si vous prenez en compte la luminosité des étoiles et la masse de gaz, c'est la masse qui compte, alors vous voyez que tous les points verts, qui étaient les petites galaxies, remontent et on a une très bonne corrélation.
La base de cette corrélation, c'est que la masse visible, gaz et étoiles, en fonction de la matière noire sont très bien corrélés.
Très bien corrélés.
Ça va nous renseigner sur ce que pourrait être la matière noire.
Voici un diagramme des plus modernes de cette relation de Tully-Fisher.
Vous avez tous les points qui sont en bleu et vert en fonction de la vitesse.
Vous avez des galaxies toutes petites avec une petite vitesse et des galaxies plus grandes.
Ce qui est frappant dans ce diagramme, c'est la prédiction du modèle de matière noire par des simulations numériques.
J'appellerai CDM pour aller plus vite le modèle courant adopté par la plupart des astronomes, le modèle de matière noire.
On verra tout à l'heure pourquoi on l'appelle froid.
Matière noire froide ou CDM, Cold Dark Matter.
C'est un petit jargon, mais c'est un seul jargon que je me permets ici.
Dans le modèle de matière noire courant, le CDM, on peut faire des simulations numériques, je vais vous en montrer.
Ce qu'on trouve, c'est qu'on prédit cette relation en noir, la courbe.
Qu'est-ce que c'est cette relation ?
Simplement le nombre de baryons car vous avez en vertical la masse des baryons.
La masse des baryons devrait avoir la même fraction universelle.
On avait vu qu'on avait 5 % de baryons et 25 % de matière noire.
Donc, on a à peu près le rapport de 5/30, ça fait 17 %.
On a à peu près 17 %, en fraction, de baryons dans la matière totale.
Si c'est vrai pour l'Univers, ça devrait être vrai pour les galaxies.
On prédit cette courbe noire.
Ce que vous voyez, c'est que ce qu'on observe est bien en dessous.
Même pour les petites galaxies, on a un facteur 100, c'est en log ici.
On a 100 fois moins de baryons dans les galaxies que prévu.
Pour les grosses, on a un facteur 10, 10 fois moins de baryons.
Les baryons ne sont pas dans les galaxies.
Pourquoi ?
C'est une grande question.
Il y a une relation de proportionnalité, mais les baryons sont ailleurs.
80 % des baryons sont dans l'espace intergalactique.
Où sont les baryons justement ?
C'est une grande question.
Ce n'est toujours pas résolu.
C'est cette incertitude qui nous empêche de contraindre la matière noire car à chaque fois qu'on recherche la matière, il y a énormément de baryons noirs qui ne rayonnent pas.
Si vous regardez tout ce qui est dans les galaxies, que ce soit des étoiles, du gaz et tout ce qui est visible, ce n'est que 6 % des baryons.
Dans tout l'Univers, vous n'avez que 6 %.
Donc, on ne voit pas grand-chose.
Dans les amas de galaxies, il y a beaucoup de gaz chaud.
C'est intéressant parce que le gaz chaud a plus de masse que la masse des galaxies réunies.
Dans l'amas de Coma, par exemple, le gaz chaud contient 10 fois plus de masse que la masse de toutes les galaxies.
La masse visible en tout cas.
On pourrait se dire qu'on retrouve un peu notre masse baryonique, les atomes, dans les amas de galaxies.
Le problème, c'est que les amas de galaxies ne constituent que quelques pourcents de la masse de l'Univers.
Tout l'Univers est fait dans les groupes, les galaxies de champ.
Les amas, c'est une fraction très faible.
Finalement, les galaxies ne nous renseignent pas beaucoup pour savoir où sont les atomes dans l'Univers.
On pense que, dans la petite simulation ici, qui vient d'une simulation cosmologique aussi, la matière est dans les filaments.
On regardera tout à l'heure un film qui montrera ça.
C'est un peu l'idée que l'on se fait.
On a des filaments cosmiques, une toile cosmique.
Les points blancs, ce serait des galaxies.
Les galaxies font partie d'une structure, d'une toile d'araignée.
Finalement, toute la matière est dans les filaments.
Et on peut détecter.
Ces filaments sont diffus, on ne le voit pas directement en émission.
Mais on peut le voir en absorption.
Si on a des quasars, des objets très brillants dans le lointain, on peut absorber cette lumière des quasars et on voit tous les filaments qui absorbent la lumière.
Par absorption, pas par émission malheureusement, on sait qu'il y a une forêt d'absorption de l'atome d'hydrogène, Lyman-alpha, qui nous dit qu'on sait qu'entre les galaxies il doit y avoir de la masse, notamment des atomes d'hydrogène.
On estime que c'est 18 % au maximum de tous ces baryons de l'Univers qui seraient dans cette forêt.
Et on imagine qu'il y a un milieu chaud.
Pas trop chaud, sinon on le verrait aux rayons X.
Pas trop froid, sinon on le verrait en hydrogène.
Il y a une petite plage complètement invisible, ça tombe bien, on l'a pas vue mais qu'on suppose être, par les simulations, 5 à 10 % de ce gaz entre 10⁵ et 10⁶°K qui est complètement invisible.
Vous voyez que si vous sommez tout ça, il y a 65 %, on ne sait pas du tout où ils sont.
Ils ne peuvent pas être dans les galaxies car dans les galaxies, vous avez une courbe de rotation.
On sait combien il y a de matière noire.
Si vous mettez tous ces atomes dans les galaxies, vous aurez des courbes de rotation beaucoup plus grandes.
On sait que les baryons ne sont pas dans les galaxies.
Où sont-ils ?
Sans doute dans les filaments, mais sous quelle forme ?
Voici la fraction de baryons qu'on a identifiée en fonction de la taille des structures.
Plus la galaxie est petite, moins elle contient sa fraction de baryons qu'elle devrait avoir par le rapport que l'on a dans l'Univers, c'est-à-dire 17 %.
Vous voyez que si on arrive à 1, c'est la fraction à laquelle on s'attend.
Dans les amas de galaxies, j'ai mis une image d'amas de galaxies, on a beaucoup de gaz chaud.
En effet, on a 10 fois plus de masse dans le gaz chaud que dans les galaxies.
On arrive à avoir, c'est pas tout à fait 1, mais c'est 80 %, du rapport de baryons qu'il y a dans l'Univers.
Par contre dans les galaxies comme la Voie lactée en bleu, pas du tout.
Les naines, elles n'ont absolument pas de baryons.
Elles ne sont que de la matière noire.
Voici le gros problème que l'on a lorsqu'on veut formuler les galaxies : savoir comment on peut reproduire les observations.
On n'y arrive pas pour l'instant.
Le diagramme de gauche vous donne, en fonction de la masse des galaxies observées, le nombre de galaxies que l'on observe dans l'Univers.
Les observations, ce sont les points rouges avec des barres d'erreur.
En bleu, c'est ce qu'on prédit par les simulations numériques.
On a fait en quelque sorte que l'on ait un point qui le touche.
On a ainsi le rapport masse sur luminosité et la quantité de matière noire.
Vous voyez que pour les faibles masses, on a un grand déficit.
C'est-à-dire qu'on prédit beaucoup plus de petites galaxies avec beaucoup de baryons que ce qu'on observe.
Pour les grandes, c'est pareil.
Ce diagramme, on peut le mettre sous cette forme ou sous l'autre forme à droite, c'est la même chose.
Ce qu'on a mis à droite, c'est le rapport masse des étoiles ou des baryons sur la masse du halo noir.
On voit qu'au maximum, on a 4 %, alors qu'on s'attendrait à trouver 20 % dans le rapport de l'Univers.
Je vous ai donné le contenu de l'Univers.
On devrait avoir 20 % partout.
On n'a que 4 %.
Les galaxies, c'est l'endroit où il y a le moins de baryons dans l'Univers, en fraction.
On va expliquer pourquoi.
Au milieu, c'est un peu la Voie lactée.
On a 4 %.
Les petites et les grandes, c'est encore moins que 4 %.
Qu'est-ce qui fait échapper les baryons ?
On ne va pas dire énormément de solutions, mais on en a quelques-unes quand même.
Dans les petites galaxies, on a formation d'étoiles avec des supernovae.
Peut-être que les supernovae vont souffler le gaz et tous les baryons vont sortir.
À grande masse, c'est peut-être les quasars, les trous noirs qui sont au centre de chaque galaxie, qui ont énormément d'énergie et qui vont peut-être faire échapper tous les baryons des galaxies massives.
Pour les galaxies massives, les supernovae ne suffisent pas, elles ont peu d'énergie.
Ça ne suffit que pour les petites galaxies.
Les petites galaxies n'ont pas vraiment de trou noir.
Donc là, ça marche bien, on a peut-être des solutions.
Justement, voici un petit film qui vous montre une simulation numérique, la simulation du Millennium faite par les Européens à Garching, ici.
On se promène dans la structure.
Tout ça, c'est la structure matière noire uniquement.
Les couleurs, c'est la densité.
On voit bien qu'on a des filaments.
Ces filaments, cette toile d'araignée, ça dépend des conditions initiales.
On a les conditions initiales grâce aux fluctuations vues dans le fond cosmologique.
Si vous changez le spectre de ces conditions initiales, vous n'aurez pas la même toile d'araignée.
On a fait les calculs avec d'autres conditions initiales, et on voit que c'est uniquement dû aux conditions initiales que l'on voit dans Planck, par exemple.
Ici, on arrive près d'un amas de galaxies où il y a une concentration énorme de matière noire.
Vous voyez les filaments qui ont énormément de petites galaxies.
Il y a énormément de petits points.
Ça, c'est un des problèmes du modèle de matière noire, c'est qu'il y a beaucoup trop de petites galaxies.
Quand on regarde la structure observée qui est en bleu...
La structure en rouge...
Qu'est-ce qui a été mis ici ?
C'est une tranche d'Univers où on a mis un point bleu par galaxie.
Pour l'instant on connaît, avec le survey de Sloan, un million de galaxies avec le redshift, etc.
On peut les positionner.
Ce que vous voyez, ce sont des filaments cosmiques en bleu.
On a exactement la même structure dans les simulations numériques en rouge.
En rouge, c'est la comparaison entre rouge et bleu.
Il y a un succès formidable entre la structure filamentaire, on peut le quantifier, là c'est juste une image, mais on peut quantifier le nombre de structures en fonction de la taille.
Le modèle CDM de simulation de matière noire correspond exactement à grande échelle.
Ce qu'il faut savoir, c'est qu'à grande échelle, ça marche très bien.
Par contre, dès qu'on vient à petite échelle...
Là, c'est une simulation qui contient du gaz cette fois, contrairement à la simulation précédente où il n'y avait que la matière noire.
Ici, on a du gaz.
Vous avez des filaments bleus, les filaments de gaz d'hydrogène, qui vont former des galaxies.
Vous voyez les galaxies roses.
La température, c'est la couleur.
Lorsqu'on est dans une galaxie, il y a beaucoup plus d'effondrements, ça chauffe le gaz.
Donc, on a des petites galaxies roses.
On voit deux galaxies qui fusionnent pour en former une seule.
On sait que c'est une formation hiérarchique des galaxies, qu'on forme des petites galaxies qui deviennent plus grosses.
Vous avez l'exemple d'une galaxie comme la Voie lactée qui se forme tranquillement dans le champ.
Là, vous avez par contre un amas de galaxies.
Quelque chose qui est beaucoup plus violent.
C'est comme lorsqu'on est en ville, on a une vie beaucoup plus trépidante que lorsqu'on est dans le champ.
Ici, on a un amas de galaxies.
Vous voyez que le gaz est très chaud.
On arrive à représenter en jaune le gaz qui va rayonner aux rayons X.
On a même, à la fin, des sous-groupes...
Voici un autre sous-groupe, un autre amas de galaxies qui collusionne avec un autre amas et qui forme énormément de vagues de gaz très chaud.
On arrive à former les amas de galaxies et les galaxies de champ.
Dans toutes ces simulations, voici ce qu'on a découvert.
On a vu qu'à grande échelle, on reproduit exactement l'Univers observé.
Par contre, à petite échelle, on a beaucoup de problèmes.
Un des problèmes qui est résistant, parce que ça fait au moins 20 ans qu'on travaille avec, c'est que la matière noire qui est dans les simulations, elle se concentre dans un cœur que j'ai mis ici à gauche, qu'on appelle "cusp" ou "cuspide" en français.
Quelque chose qui est très piqué.
Alors que ce qu'on observe n'est pas piqué du tout, qu'on appelle "cœur".
On a essayé de le faire partir avec des supernovae, des quasars, etc., de faire partir le cusp, mais il revient tout le temps dans les simulations.
La nature de la matière noire est peut-être différente.
On n'arrive pas à faire disparaître le cusp.
Et on a aussi un très grand nombre de petits compagnons.
Vous voyez ici la simulation d'une galaxie comme la Voie lactée en bas à droite.
On prédit 1 000 compagnons.
Quand on regarde la Voie lactée, on a mesuré 12 compagnons très massifs.
À ce niveau-là, on en a peut-être une cinquantaine, mais pas plus.
On a des ordres de grandeur, beaucoup moins de compagnons que ce qui est prédit.
Pour le premier problème, voici la prédiction.
On a une densité qui croît vers le centre, ici c'est la densité en fonction du rayon.
On prédit ça.
Ce qu'on observe, c'est ça.
Comment on l'observe vous allez me dire ?
Justement, par les courbes de rotation.
Les courbes de rotation nous montrent la masse en fonction du rayon.
Pour la Voie lactée, ça ne marche pas bien car on est dominés au centre par les étoiles.
Pour les galaxies naines, dominées par la matière noire, ce sont de vrais laboratoires en matière noire, il n'y a presque pas d'étoiles, que de la matière noire, à ce moment-là, on a bien déterminé qu'il y avait un cœur de matière noire.
Donc, quelque chose qui ne va pas.
Peut-être que c'est une contrainte.
Justement, c'est une information sur la matière noire.
Ce qu'on simule, ce sont des points qui n'interagissent pas entre eux.
S'ils interagissaient entre eux, ce qu'on appelle une matière noire auto-interagissante, à ce moment-là il y aurait des collisions de matière noire.
Dans ces collisions, on chaufferait la matière noire, on pourrait faire disparaître le pic.
Beaucoup de théories se sont essayées à ceci dans les simulations.
On voit que ça ne marche pas bien car en fonction de la masse de la galaxie, il faudrait avoir une section efficace d'auto-interaction qui serait dépendante de la masse de la galaxie.
Ce qui est un peu bizarre.
Et surtout, on formerait des cœurs complètement ronds.
Or, ce qu'on observe, c'est allongé.
C'est un essai pour résoudre le problème, mais qui ne marche pas bien.
Il y a aussi d'autres essais pour résoudre le problème.
C'est de s'adresser à une autre matière.
On avait dit que c'était froid, ce qu'on appelle cold dark matter, froid, mais il y en a aussi qui s'appelle tiède, warm dark matter, et puis aussi très chaud, hot dark matter.
La hot, on l'a déjà éliminée.
Vous voyez la différence des structures que l'on forme dans les trois cas de température.
Qu'est-ce qu'on appelle température ?
Température, ça veut dire que quand les particules se découplent au début de l'Univers...
Pourquoi se découplent ?
Elles interagissent entre elles, elles s'annihilent même, il y a une certaine annihilation, et dans l'expansion, les particules s'éloignent les unes des autres et leur taux d'interaction devient négligeable.
Elles se découplent et n'interagissent plus.
Lorsqu'elles se découplent, soit la particule est chaude, c'est-à-dire relativiste.
À ce moment-là, les structures qui seront formées auront beaucoup de pression, donc à petite échelle, on ne pourra pas former les structures.
La pression va empêcher la gravité d'agir.
Dans une matière très chaude, on a ce qui est à droite, c'est-à-dire pas de structure à petite échelle, que des grands filaments.
Ça ne correspond pas du tout à ce qui est observé.
On a plein de galaxies dans les filaments.
Matière froide, on en a un peu trop.
D'où la tentation de dire qu'on va régler la température de cette matière noire de manière à avoir exactement le nombre de galaxies.
En fait, ça ne marche pas très bien.
Je ne dirai pas tous les problèmes, mais on a encore plus de cusps dans la matière tiède.
Ça n'a jamais vraiment été une solution.
Tout le monde revient à la matière noire froide.
La principale candidate de ces particules pour la matière noire froide, c'est ce qu'on appelle WIMPS en anglais, weakly interactive massive particles, dont la particule serait due à la supersymétrie.
Il faut dire que dans le schéma des particules élémentaires que nous avons aujourd'hui, qui est bien construit et bien établi avec les accélérateurs comme le LHC au CERN, on a un grand nombre de particules, un édifice bien échafaudé.
Mais on n'a aucune particule candidate pour être matière noire.
Elles sont toutes connues, elles ne correspondent à rien.
On a imaginé qu'il y aurait une supersymétrie entre les particules.
Par exemple, des fermions deviendraient bosons, je ne rentre pas dans les détails.
On a supposé que l'édifice connu des particules allait se prolonger par un édifice symétrique où chaque particule aurait sa supersymétrie.
C'est dans les supersymétries qui sont hypothétiques, on n'a pas encore vérifié ça, qu'on trouve les particules exotiques formant la matière noire.
Par exemple, les particules vont s'annihiler et la plus stable et la plus légère, c'est le neutralino.
Depuis au moins 20 ou 30 ans, ce neutralino est le candidat principal de la matière noire.
Est-ce que ça résout nos problèmes ?
Pas beaucoup.
Par exemple, les satellites manquants.
Je vous ai dit qu'on prédisait beaucoup de satellites.
Voici la quantification de ce problème.
On a ici la vitesse, c'est-à-dire la masse en gros, et le nombre prédit passe de 1 à 100 000.
Ce qui est observé passe de 1 à 10, en fonction de la masse.
On a en effet un certain nombre de satellites en fonction de la masse, mais on a des ordres de grandeur beaucoup moindre observés par rapport à ce qui est prédit.
Ça reste encore.
Plus grave, les satellites qu'on voit, car on en voit, ne correspondent pas du tout à ce qui est prédit.
Par exemple, je reproduis ce diagramme de la masse de baryons sur la masse de matière noire qui doit être 4 % pour la Voie lactée.
Le petit diagramme en noir ici.
Tous les petits satellites qu'on voit...
J'ai représenté une petite galaxie naine que vous voyez peut-être à peine.
C'est ce nombre de galaxies qui domine en nombre les galaxies.
Il y a énormément de petites galaxies très peu massives.
La masse est négligeable, mais le nombre domine.
Vous voyez que c'est une galaxie complètement diffuse, qui a très peu d'étoiles, difficile à voir.
On en voit de plus en plus car on a des télescopes performants.
Ces galaxies sont dominées par la matière noire.
Ce sont des galaxies qui sont des laboratoires.
Quand on regarde leur taux de matière visible sur le taux de matière noire, il est bien plus grand que ce qu'on prédit.
Dans ce diagramme, on est bien plus haut que la courbe en cloche.
Non seulement on n'a pas le nombre de galaxies naines, mais on en a quelques-unes qui ne correspondent à rien.
Il y a vraiment beaucoup de problèmes de la théorie standard CDM.
Il y a aussi le problème des candidats.
Je vous ai dit que le principal, c'était le neutralino.
Comme on va le voir, on n'a toujours pas détecté ce neutralino, il y a un grand nombre de candidats qui fleurissent.
L'axion dont vous avez peut-être entendu parler, des neutrinos stériles, c'est-à-dire différents des neutrinos qu'on connaît qui sont actifs.
Et puis, peut-être, des dimensions d'Univers plus grandes que 4, peut-être 10 ou 20, etc.
Je ne vais pas en détailler beaucoup.
Je vais quand même détailler le paradigme du WIMP.
Le WIMP était formidable car tout marchait bien.
Pourquoi ?
Car il ne suffit pas d'avoir une particule candidate.
Il faut que la densité qui reste aujourd'hui corresponde au degré de matière noire qu'on observe.
Ça ne marchait que pour ce WIMP.
Pourquoi ?
Ce WIMP, c'était des particules qui interagissaient par la force faible.
Il faut bien dire qu'on a des forces aujourd'hui, la force forte, faible, électromagnétique, etc.
On n'en a pas 36.
Ça ne pouvait être que celle-là.
Si c'était une force forte, on l'aurait déjà vue.
On aurait vu des particules qui interagissent fortement.
Il n'y avait que cette force faible qui aurait pu être candidate.
On connaît la section efficace d'interaction avec cette force faible.
On a un chiffre ici.
Comme je vous le disais, il y a un découplage.
Les particules s'annihilent entre elles quand elles sont très denses au début de l'Univers.
Ici, on a une courbe.
Le nombre de ces particules en fonction du temps.
Vous voyez qu'elles s'annihilent en un certain temps.
Puis, avec l'expansion de l'Univers, elles sont tellement loin les unes des autres qu'elles ne se rencontrent plus.
Le taux de rencontre qui est le nombre n, leur densité, le taux d'interaction avec σv, la section efficace d'interaction, est plus grand que le temps d'Hubble.
Il faudrait plus que l'âge de l'Univers pour une rencontre entre ces deux particules.
À ce moment-là, l'annihilation est stoppée.
Elles se découplent.
On a ce qu'on appelle une relique.
On a des particules...
Si la densité restait comme au début de l'Univers, on ne devrait plus rien avoir du tout.
La matière/antimatière se serait annihilée.
Mais ça va rester.
Il y a plusieurs valeurs, bleu, vert, jaune ici, selon la section efficace, la température et surtout la masse.
Pour une masse de 100 GeV...
100 GeV, qu'est-ce que c'est ?
Un proton, c'est 1 GeV en gros.
Donc, c'est 100 fois la masse du proton.
Pour 100 fois la masse du proton, on avait exactement la quantité de matière qui va rester aujourd'hui et qui va correspondre exactement à 25 % du contenu de l'Univers.
Donc, la masse qu'il nous faut pour correspondre à la matière de l'Univers.
Il y avait une coïncidence ici.
Donc, tout le monde était convaincu que c'était le WIMP.
Mais comme ça ne vous a pas échappé, nous avons détecté en 2012 le boson de Higgs qui faisait 125 GeV.
On a eu assez d'énergie dans les accélérateurs pour voir des particules de 100 GeV.
On n'en a pas vu.
On a passé la limite.
Autrefois, on arrivait jusqu'à quelques GeV, jusque 50 GeV, donc on pouvait se dire qu'on allait la détecter bientôt.
Mais là, on a détecté des particules de 125 et on n'a pas détecté celle-là.
Donc, le WIMP est un peu en crise puisqu'il n'existe pas, en tout cas dans les accélérateurs.
D'où les autres candidats, neutrino, axion, etc., qui reviennent au goût du jour.
On peut essayer aussi de détecter ces particules dans les tunnels sous les montagnes.
Pourquoi il y a des détecteurs directs sous les montagnes ?
Car vous avez beaucoup de rayons cosmiques qui sont arrêtés par les rochers.
Donc on met des détecteurs assez purs, peu radioactifs pour qu'il n'y ait pas de bruit.
Actuellement, les matériaux qui pourraient détecter ces particules, puisqu'il y en a tout autour de nous, en particulier sous la montagne ici.
Ça traverse tout, il n'y a pas beaucoup d'interactions.
Actuellement, c'est le xénon.
Ce sont des gaz rares qui sont liquéfiés.
Il n'y a pas d'autre interaction.
Vous voyez qu'actuellement les limites...
On a des limites supérieures.
On n'en a pas détecté.
On détecte des faux évènements, des neutrinos.
On détecte beaucoup de rayons cosmiques, etc.
Mais quelque chose qui aurait la caractéristique de la matière noire...
C'est-à-dire que le Soleil traverse la matière noire des galaxies.
Tous les 6 mois, vous devriez avoir une périodicité.
On n'en a pas trouvé.
Ici, c'est l'interaction entre un WIMP hypothétique et un nucléon du xénon.
Pour l'instant, on en est à 1 tonne de xénon purifié.
Bientôt quelques tonnes, 8 tonnes prévues bientôt.
C'est l'expérience européenne dans le tunnel du Gran Sasso.
Il y a peu de temps, il y a 1 an ou 2, l'expérience américaine était la meilleure, LUX ici, mais maintenant les Européens ont pris l'avantage.
Nous en sommes à la limite verte.
Vous voyez qu'on descend, on sera bientôt à la courbe pointillée.
Il y a une limite qu'on ne pourra pas dépasser.
En vert, ce sont les neutrinos qui nous viennent du Soleil, des rayons cosmiques, etc., et qui vont interagir avec le xénon.
On va pouvoir détecter les neutrinos, mais ça fera un bruit tel qu'il sera impossible de détecter les WIMPs.
Le XENONnT va devenir un télescope à neutrinos.
Mais on ne pourra plus rien détecter comme WIMPs.
Voici pour le candidat neutrino.
J'ai représenté l'édifice des particules élémentaires connues.
Vous reconnaissez les quarks en bleu.
Les quarks up, down, etc.
Vous avez les particules lourdes.
Ici, vous avez les leptons.
Il y a 3 leptons, électron, muon et tau avec leurs neutrinos respectifs.
Ce que l'on voit dans les accélérateurs, c'est seulement une chiralité gauche car il y a un spin à ces neutrinos.
On ne voit que le gauche.
Par symétrie, pourquoi n'y aurait-il pas de droite ?
On va essayer d'extrapoler à une chiralité de droite.
Peut-être que ces neutrinos...
Tout ça, c'est une hypothèse, tout ce qu'il y a en bas à droite.
Ils seraient massifs et pourraient faire de la matière noire.
Pourquoi on les appelle stériles ?
Ils n'interagissent avec rien du tout, sinon on les aurait déjà détectés.
Il y en a qui sont actifs, qui interagissent, et d'autres qui sont stériles.
Quand on dit actifs, les neutrinos traversent la Terre facilement, mais on peut quand même les détecter.
Par contre, les neutrinos stériles, rien du tout.
Je vais en finir avec notre hypothèse.
On a quand même du mal à trouver ces particules.
On a des problèmes avec la petite échelle.
Donc, on se demande si l'idée de Zwicky qu'il n'y a peut-être pas de matière noire est peut-être à explorer aussi.
C'est une idée qui n'est explorée que par 10 % des astronomes.
Il y a quand même une voie principale qui est la matière noire, le CDM.
10 % d'astronomes s'intéressent à cette possibilité de dire qu'il y a quand même une dégénérescence dans les galaxies.
Vous avez une courbe de rotation.
Soit vous rajoutez plein de matière noire pour expliquer votre courbe de rotation, soit vous dites qu'à cette distance-là, vous n'avez pas vérifié la loi de la gravité.
Il suffit de la changer et plus besoin de matière noire.
C'est une idée qu'a développée Milgrom par sa modification de la gravité.
Il y a plusieurs modifications de la gravité, mais je ne présente que celle-là, c'est la seule qui marche pour les galaxies.
Comme c'est au niveau galactique qu'on a besoin de résoudre les problèmes de la théorie CDM...
Qu'a-t-il remarqué en 1983 ?
Il a remarqué que ce n'est pas une question de distance.
Il ne suffit pas d'aller loin pour que la gravité soit modifiée.
Il ne suffit pas d'aller avec une certaine masse.
Il suffit d'aller à une accélération, sa faible accélération.
L'accélération de pesanteur, vous l'avez sur Terre, g.
Quand on va à une accélération de 10-¹¹g, c'est la force de gravité.
10-¹¹, nulle part dans le Système solaire vous n'aurez cette faible gravité.
C'est le champ faible de gravité.
À 10-¹¹, on commence à avoir des problèmes de matière noire.
Vous avez ici la vitesse observée des galaxies en fonction de la vitesse attendue.
C'est l'écart de la masse dynamique à la masse visible.
Il devient très grand en fonction de l'accélération.
Quand l'accélération est bien plus petite que cette accélération limite, vous avez un problème de masse entre la masse dynamique que vous avez avec la rotation et la masse visible.
Lorsque vous êtes en champ fort, il n'y a aucun problème de matière noire.
La masse visible suffit.
C'est pourquoi pour les galaxies de petite masse, les galaxies naines, vous avez une très faible gravité et vous êtes dominé par la matière noire.
Vous êtes dans ce principe-là.
Pour la Voie lactée, on est plutôt de l'autre côté.
À l'intérieur du domaine visible de la Galaxie, il y a tellement de masse, la gravité est plus forte, et jusqu'au Soleil, on n'a pas besoin de matière noire.
Après le Soleil, car le champ de gravité devient en dessous de a₀, on a besoin de matière noire.
C'est quand même tentant, en voyant les observations, de dire qu'il suffit de changer la gravité en champ faible.
En champ faible, on n'a aucune autre façon de le mesurer que l'astrophysique.
Cette idée-là marche très bien pour toutes les courbes de rotation, que ce soit naine ou pas naine.
Vous voyez qu'en prenant le gaz, les étoiles et en appliquant cette loi de gravité modifiée, on arrive à reproduire tous les points sans matière noire.
Surtout, la loi de Tully-Fisher est automatiquement obtenue.
La loi de gravité n'est plus en 1/r² lorsqu'on est en faible champ.
Elle serait en 1/r.
À ce moment-là, on en déduit tout de suite la loi de Tully-Fisher.
C'est quelque chose qui arrive de soi alors que dans le modèle de matière noire, on a de gros problèmes.
On a aussi d'autres simulations numériques.
Par exemple celle-ci qui montre qu'on arrive à reproduire toutes les galaxies, les formations de barres, d'anneaux, la stabilité.
Il y avait un très grand problème en disant que les galaxies sont stabilisées par le halo de matière noire.
En fait, on n'en a pas besoin si on change la gravité.
Il y a vraiment une dégénérescence, c'est soit l'un, soit l'autre, et on arrive à représenter les observations de la même façon.
Par contre, il y a un très grand succès à petite échelle, mais à grande échelle ça ne marche pas.
C'est le contraire de la théorie CDM.
À grande échelle ça marche bien, à petite, non.
Là, on a l'opposé.
L'opposé, ça veut dire que dans le centre des amas de galaxies, l'accélération, le champ de gravité n'est pas assez faible pour qu'il y ait beaucoup de modification de gravité et on a encore besoin de matière noire.
C'est là le gros problème.
Voici comment cela se reproduit.
Ici, vous avez la masse dynamique, celle que l'on déduit par les vitesses des galaxies.
Elle est bien plus grande que la masse visible observée.
Vous voyez qu'on est au-dessus de la loi si on prend la loi de Newton.
Si on prend la loi modifiée, on voit qu'on est encore un peu au-dessus.
On n'a pas résolu complètement le problème, on l'a résolu un peu.
Mais il devrait encore y avoir de la masse noire.
C'est là qu'interviennent ces baryons noirs, on ne sait pas où ils sont.
Il se pourrait qu'il y ait soit du gaz froid complètement invisible, soit des neutrinos aussi qui pourraient résoudre, peut-être, le cas des amas.
En tout cas, c'est un problème.
Il y a aussi les collisions entre amas.
Vous avez certainement entendu parler de l'amas du boulet, bullet cluster, qui est vraiment une icône car il arrive à séparer matière noire et matière visible.
Alors que je vous ai dit qu'à grande échelle, on avait toujours correspondance entre matière noire et matière visible.
Comment est-ce possible ?
Vous voyez qu'on a deux amas qui entrent en collision dans le plan du ciel.
Le petit amas est déjà passé au travers du gros, le petit amas est passé.
Ce qu'on voit ici en rouge, c'est le gaz très chaud en rayons X.
L'image en rayons X est ici.
Ici, on l'a superposée avec l'image bleue.
L'image bleue, c'est la matière totale déduite des lentilles gravitationnelles.
C'est la cartographie de la matière totale.
Quand on superpose les deux, on voit qu'il y a séparation.
La matière baryonique est essentiellement le gaz chaud.
Les galaxies ont très peu d'influence.
Elles sont séparées.
Pourquoi ?
La matière noire, ce sont des particules qui interagissent très peu.
Elles se passent au travers sans se sentir.
Par contre, le gaz chaud a une pression.
Il s'arrête beaucoup plus, c'est dissipatif.
Donc, le rose est beaucoup plus près que le bleu.
Vous allez me dire : "Est-ce que c'est un gros problème ?"
Oui, c'est un problème pour la gravité modifiée.
Encore qu'on ne pense pas qu'il y aura superposition totale.
Parce que, par exemple, vous n'allez avoir de matière noire qu'en champ très faible.
Évidemment, quand vous êtes sur le gaz très chaud, vous avez un champ fort.
Donc, on n'a pas besoin de matière noire ici.
On s'attend à un petit décalage, mais pas aussi gros.
Là, il y a un problème pour la gravité modifiée.
De même que pour les amas, il y avait un problème.
Dans les simulations de matière noire de ces collisions, il y a aussi des problèmes.
Chaque côté a des problèmes aussi parce qu'on a pu déterminer par le cône, ici, la vitesse supersonique de l'amas du boulet.
En fait, il est à 4 500 km/s.
C'est un Mac 4 à peu près.
Par MOND, on arrive très bien à faire des vitesses comme ceci parce que la gravité est modifiée et accélère quand on est en champ faible.
Dans les simulations numériques, on n'arrive pas du tout à avoir ces vitesses-là.
Il y a des problèmes de chaque côté.
Dans les statistiques, il y a encore des collisions d'amas.
Les gens se sont précipités pour voir si on pouvait obtenir d'autres cas d'amas du boulet.
Ce n'est pas aussi clair, mais il y a quand même des problèmes.
Ce qu'on peut dire, c'est que la matière noire n'a pas vraiment de collisions.
On a supposé à un moment donné qu'il pouvait y avoir des collisions.
Si la matière noire entrait en collision, elle devrait s'arrêter comme le gaz chaud, ce qui n'est pas le cas.
On a pu mettre une contrainte sur la section efficace d'interaction entre les particules de matière noire.
On en est à une limite assez bonne.
Donc, déjà on a progressé.
Avec la gravité modifiée, on peut faire beaucoup de choses.
Je parle d'interaction de galaxies.
Ici, vous avez à gauche deux galaxies d'interaction bien connues, les Antennes.
C'est un cas type.
Est-ce qu'on sait le reproduire avec le CDM, avec MOND ?
C'est pareil.
Ce qu'on voulait, c'était essayer de distinguer entre les deux.
Dans le cas où il y a beaucoup de matière noire, il y a beaucoup de frictions dynamiques et les galaxies fusionnent très vite.
Dans le cas où il n'y a pas de halo de matière noire en gravité modifiée, il faut attendre plusieurs tours avant que les galaxies fusionnent.
Peut-on, par les observations, trancher entre les deux théories ?
Pas tellement.
En fait, ce qu'on mesure, ce n'est pas le temps de fusion.
On mesure le nombre de galaxies en interaction.
Il pourrait très bien y avoir très peu de fusion qui dure longtemps ou beaucoup de fusion qui dure très peu et c'est encore dégénéré.
Finalement, on n'est pas arrivé, avec la physique des galaxies, à discriminer entre les deux.
Là, on a aussi des petites naines de marée.
Je vais abréger.
On a fait beaucoup d'expériences.
Ici, par exemple, avec les naines de marée.
Mais jamais on n'a pu discriminer, lever la dégénérescence entre matière noire et...
Je vais terminer avec quelque chose de relativement nouveau.
Dans la gravité modifiée, il y a plusieurs problèmes.
Ce n'est certainement pas la bonne théorie que l'on a actuellement car on a vu qu'à grande échelle ça ne marche pas.
Surtout, ce qui a été reproché aux théories de gravité modifiée, c'est que c'était un peu empirique.
On n'avait pas de raison de supposer pourquoi on a cette loi modifiée et pourquoi elle était en 1/r et non en 1/r².
Récemment, Erik Verlinde a proposé un...
Je ne dis pas que c'est le bon, mais ça a le bénéfice d'exister.
On a une raison de penser qu'on pourrait peut-être modifier cette gravité.
Il propose que la gravité ne soit pas une force comme les autres, mais qu'elle soit émergente et qu'elle soit due à une maximisation d'entropie.
C'est un peu complexe, mais c'est bien relié à la gravité quantique.
C'est peut-être là qu'est la solution.
Par exemple, vous avez ici un trou noir représenté par son horizon.
L'horizon, comme vous le savez, c'est le rayon autour du trou noir qui est tel que tout ce qui est à l'intérieur a une vitesse d'échappement supérieure à celle de la lumière.
Donc, la lumière n'en sort pas.
Vous avez l'horizon du trou noir.
Ça fait un très grand nombre d'années que les gens se demandent pourquoi, où passe l'information lorsque, par exemple, des étoiles, des éléments comme le carbone, l'oxygène, etc., il y a beaucoup d'entropie, tombent dans le trou noir.
Vous n'avez plus aucune grandeur, vous n'avez plus que la masse et le spin du trou noir.
Vous avez perdu toute l'information.
Où se trouve-t-elle ?
Nous avons maintenant une solution qu'avait proposée Gérard 't Hooft, la théorie holographique.
On peut représenter toute cette information sur la surface de l'horizon du trou noir.
Par un effet quantique, on ne peut pas aller plus petit qu'une certaine taille, la longueur de Planck.
C'est quelque chose de très petit, 10-³⁵ m.
Peu importe.
Mais on peut avoir un quantum d'information représenté par ce triangle.
Le nombre d'informations que vous allez avoir est proportionnel à la surface.
On peut montrer que toute l'information du trou noir se retrouve sur cette surface.
Ceci est aussi relié à l'aspect quantique de la gravité.
C'est ce qui pèche.
On n'a jamais pu encore unifier la force de gravité et la mécanique quantique.
Autour du trou noir, c'est ce qui va arriver.
Comme vous le savez, les trous noirs, par un phénomène quantique, s'évaporent.
Il y a toute une thermodynamique du trou noir symbolisée ici.
Le trou noir, qui n'a pas de cheveux...
C'est une petite plaisanterie sur les cheveux du trou noir.
Vous avez un champ tellement fort, un champ de gravité tellement fort que vous avez une énergie du vide qui n'est pas nulle, qui est quantique, et vous pouvez fabriquer une paire, particule-antiparticule, donc la masse est conservée, il n'y a pas de masse.
Vous avez des paires qui peuvent vivre un très petit temps par un temps d'incertitude d'Heisenberg.
Vous avez une particule-antiparticule.
Si une particule est absorbée par le trou noir, l'antiparticule va partir.
Donc, peu à peu, le trou noir s'évapore car des particules s'en vont.
À partir du vide, vous avez créé des particules qui s'en vont.
Le trou noir va s'évaporer et devenir de moins en moins massif.
Ceci correspond à une certaine température quand le trou noir s'évapore.
On peut montrer que la température est inversement proportionnelle à la masse.
Les petits trous noirs sont très chauds et s'évaporent, les petits trous noirs primordiaux.
Ceux qui sont inférieurs à 10-¹⁹ de la masse solaire, c'est très petit, il n'y en a plus du tout car en un temps d'Hubble, ils se sont tous évaporés.
On sait que les gros trous noirs sont beaucoup plus froids et ne s'évaporent pas.
Ce problème d'évaporation des trous noirs a mené à trouver l'entropie qui est proportionnelle à la surface du trou noir.
C'est cette entropie qui aurait un petit effet dans la force émergente que propose Erik Verlinde.
Il propose que...
La gravité est une force macroscopique qui, au niveau microscopique, est due à l'entropie.
L'entropie ne peut qu'augmenter.
Une analogie est faite avec ce polymère qui a une certaine force élastique.
Lorsque vous tirez, il y aura une force pour étirer le polymère qui sera proportionnelle au changement d'entropie que vous aurez dans ce polymère.
C'est une image, mais c'est pour vous donner l'idée.
Qu'a-t-il choisi comme entropie ?
Il a choisi l'intrication quantique.
C'est là qu'est le lien entre la gravité et le quantique.
L'intrication quantique, qu'est-ce que c'est ?
C'est lorsque vous fabriquez un système de deux particules, par exemple, avec une fonction d'onde qui est très mélangée entre le premier système et le deuxième système.
Vous ne pouvez pas les séparer.
Si les deux particules partent à l'infini, il faut que vous fassiez une mesure pour réduire le paquet d'onde.
À ce moment-là, si vous réduisez sur une particule, l'autre automatiquement sera réduite.
C'est ce qui a fait un paradoxe à peu près insurmontable.
L'information a l'air de passer plus vite que la lumière puisque les deux particules sont très loin.
Certains n'y ont pas cru, mais comme vous le savez, ces expériences ont eu lieu et ça fait partie des applications du cryptage quantique des données.
Ça marche.
C'est quelque chose qui est vraiment vérifié.
Cette intrication quantique est passée même dans la pratique, dans la technique.
Vous imaginez cette intrication quantique.
Vous pouvez même calculer une entropie.
L'entropie est d'autant plus grande qu'il y a une intrication entre les particules.
S'il n'y a pas d'intrication du tout, elles sont bien séparées, l'entropie est nulle.
Vous pouvez imaginer cette entropie.
Quand on fait varier cette entropie, je ne vais pas entrer dans les détails car il y a beaucoup d'équations, mais vous arrivez à une force entre les particules qui est exactement la force de Milgrom, c'est-à-dire la force de gravité modifiée qu'avait supposée Milgrom.
En champ faible, vous avez exactement la force en 1/r et non en 1/r².
C'est encore un peu préliminaire puisque c'est assez récent.
Ce n'est peut-être pas la décision finale, mais c'est quand même une des idées qui a émergé ces dernières années.
Je finirai en disant : "Voici où nous en sommes."
Est-ce qu'on a progressé depuis des dizaines d'années, 80 ans ?
On a beaucoup progressé dans la quantification du problème.
On sait que les galaxies et le gaz visible ne sont que 0,5 % du total.
6 % des baryons qui ne font que 5 %.
La matière ordinaire n'est même pas encore identifiée.
On a déjà un problème de baryons noirs.
La matière noire exotique, on sait qu'elle est là et qu'elle est 6 fois plus importante que celle de la matière ordinaire.
On ne sait pas du tout ce que c'est.
On a même une solution idéale, WIMP, qui a l'air de s'évaporer.
Ou alors il faut supposer qu'il y a des axions.
Elle est recherchée depuis 30 ans dans les accélérateurs mais aussi sous les tunnels.
C'est en 1985 qu'a commencé la recherche de particules et l'interaction avec des noyaux.
Plusieurs théories sont explorées, notamment la gravité modifiée qui serait une cinquième force.
Je vous remercie.
Modératrice.
-Merci beaucoup pour cette très intéressante conférence.
Je vais faire circuler un micro si vous souhaitez poser des questions.
Je vous demande d'attendre le micro avant de parler car les questions sont enregistrées et sinon on ne vous entendra pas, et l'audience ne vous entendra pas non plus.
Auditeur 1.
-Merci beaucoup.
C'est formidable la précision des observations maintenant.
Si on modifie la gravité, ne faut-il pas revenir au départ, c'est-à-dire aux lois d'expansion de l'Univers qui sont fondées aussi sur les lois de la gravité ordinaire ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Oui et c'est là que ce n'est pas encore prêt.
À grande échelle, ça ne marche pas bien.
On avait prévu certains pics acoustiques que je vous ai montrés.
Le troisième pic justement qui est le retour des baryons était prévu un peu plus haut.
Avec la gravité modifiée telle que l'a pensée Milgrom, ça ne marche pas.
Il faut sans doute produire une autre gravité modifiée à grande échelle.
Mais il y a des théories qui proposent quand même.
Ça ne marche pas tout à fait, mais c'est possible.
Par exemple, je l'ai passé très vite, mais il y a des simulations cosmologiques.
Je vous ai dit qu'on avait besoin de matière noire pour former les structures.
Mais si la gravité en champ faible...
Au début, on a un champ très faible car il y a des fluctuations seulement.
L'attraction entre les petites fluctuations est très faible.
On est dans le régime où la gravité doit être modifiée.
Ça veut dire que la gravité est beaucoup plus grande que dans le régime Newton.
Donc, on arrive à former des structures même sans matière noire.
Déjà, la cosmologie pourrait se former.
Le problème qu'on n'a pas, ce sont les oscillations entre baryons et photons qui sont toutes seules et on n'a pas de matière noire pour faire une force de rappel.
Dans ces oscillations acoustiques, la force de rappel manque.
Est-ce que ce sont des neutrinos qu'il faut rajouter ?
Certains le proposent.
Je n'ai pas parlé de ces théories car si on modifie la gravité et qu'on rajoute des neutrinos, ce sont deux hypothèses...
Je pense qu'il faut l'une ou l'autre.
Soit on ajoute de la matière noire, soit on modifie la gravité.
Mais si on fait les deux, je pense qu'il n'y a pas beaucoup de chances que ce soit la vérité.
Je vous ai donné une petite idée du fait que tout est en travaux.
Rien n'est définitif et il y a encore beaucoup à faire.
Auditeur 1.
-Merci.
Auditeur 2.
-Bonsoir.
Merci beaucoup pour votre exposé.
Quand est-ce qu'on pourra juger une théorie comme définitive ?
Quel sera le critère important pour la mettre en avant ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Déjà, il faudrait qu'elle arrive à représenter les observations.
On avait vu que le CDM marche très bien à grande échelle.
Donc, on aurait pu penser, comme certains astronomes anglais, qu'on avait tout compris.
Mais quand on est arrivé à petite échelle, on a vu que ça ne correspondait pas.
Là, ce n'est pas définitif.
D'abord, il faut aussi trouver la particule.
Si on suppose une particule qui n'existe pas, il y a quelque chose qui n'est pas définitif non plus.
On voit que ça pèche d'un côté.
De l'autre, ça marche très bien à petite échelle.
À grande échelle, on a des problèmes pour expliquer les résultats de Planck.
Le résultat, c'est que toutes les observations seront représentées de façon cohérente et qu'il n'y a plus de problème entre comparaison, observation et simulation.
Pour l'instant, il y en a encore des deux côtés.
Modératrice.
-Est-ce qu'il y a d'autres questions ?
Auditrice 1.
-Bonsoir.
Merci pour votre intervention.
Pour faire plus de découvertes, ne faudrait-il pas créer, si possible, des observatoires, par exemple sur la Lune ou dans l'espace ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Oui, en fait, on est en train.
Il y aura un satellite européen, Euclid, qui va être lancé en 2020.
Donc ce n'est pas loin.
Ce satellite Euclid sera dédié à la matière noire et l'énergie noire.
Je n'en ai pas parlé beaucoup, mais on ne sait pas vraiment ce que c'est.
Le satellite Euclid va regarder pratiquement tout le ciel dans l'espace.
Un peu comme Hubble.
Mais Hubble avait un champ très petit.
Il n'a regardé que quelques petits degrés carrés dans le ciel qui fait 40 000 deg².
Là, Euclid va regarder 20 000 deg².
Donc, on aura accès, avec une très grande précision spatiale, car quand on est au sol, on a l'atmosphère qui brouille tout...
Dans l'espace, on va avoir tout le ciel.
Donc 12 milliards de galaxies.
Alors que je ne vous en ai présenté que quelques millions.
12 milliards, ça veut dire qu'on va pouvoir avoir la cartographie de la matière noire parce qu'on aura toutes les déformations dues à la matière noire.
On aura tout le ciel cartographié en matière noire.
On aura une statistique formidable et on pourra contraindre ces problèmes.
Euclid est un point, mais il y a aussi SKA, un pendant radio-astronomique à 21 cm qui est très complémentaire et qui est un très grand interféromètre radio qui aura 1 km² de surface en Australie et en Afrique du Sud.
Il pourra faire un peu la même chose.
On aura aussi 12 milliards de galaxies, cette fois-ci en atome d'hydrogène, 21 cm.
On pourra à la fois faire des lentilles, des cartographies de matière noire.
Mais différemment.
On n'aura pas les amas de galaxies, on aura les galaxies de champ, etc.
On aura deux énormes télescopes.
On en a d'autres.
Il y en a un, américain, le Large Synoptic Telescope, qui va regarder aussi tout le ciel, très grand champ.
Il va regarder tout le ciel en 3 jours.
Tous les 3 jours, il regarde tout le ciel.
Le point fort de ce télescope, c'est non seulement de faire comme Euclid, mais aussi regarder tout ce qui varie.
On aura les supernovae, par exemple.
Des supernovae, on en aura, par exemple...
Les objets variables, il y en aura 1 million par nuit.
Vous savez que quand on a un objet variable, on fait une alerte à tous les autres télescopes pour voir quels objets variables.
Là, il y aura beaucoup de travail.
Il y aura toutes les échelles de variation.
C'est-à-dire que dans une nuit, ils vont regarder le même objet toutes les 30 minutes.
On aura la dimension temporelle du survey du ciel.
On a 3 directions différentes et ce télescope synoptique sera en fonctionnement en 2018.
Vous voyez que très prochainement, on va avoir des outils fantastiques pour cerner cette matière noire.
Auditeur 3.
-Moi, ce qui m'intéresse, c'est l'énergie noire et la mécanique quantique.
Je suis un peu déçu, mais pas totalement parce qu'à la fin vous en avez parlé.
Ce qui m'intéresse, c'est la toute fin de la conférence.
On parle de gravité émergente, de gravité modifiée, c'est ça ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Oui.
C'est très compliqué.
Auditeur 3.
-Elle est bouclée ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-La gravité quantique, comme vous le savez, Einstein s'était déjà attelé à ce problème, mais sans succès.
Il y a eu ensuite la théorie des cordes avec 25 dimensions.
Ensuite, la théorie des supercordes avec 11 dimensions, etc., qui n'a pas abouti.
Il y a déjà beaucoup d'efforts qui ont été faits.
Il y a encore d'autres théories, mais rien n'a abouti, donc je n'ai rien pu dire.
J'ai mentionné cette théorie qui n'est peut-être pas définitive et qui ne va peut-être pas marcher.
Elle est très récente, on n'a pas assez de recul pour savoir s'il y a un gros problème ou pas.
Mais ça m'a semblé être le plus attrayant dans le sens qu'on arrivait à relier l'intrication quantique à la force de gravité et on retombait sur la gravité modifiée.
Auditeur 3.
-Quels sont les mots-clés ?
Intrication quantique, je connais.
Mais gravité émergente, gravité modifiée...
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Il faut que vous alliez voir.
C'est pour ça que je donne le nom.
Allez voir sur Internet les papiers de Verlinde qui font un certain nombre de pages.
Auditeur 3.
-Comment il s'appelle ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Verlinde.
Auditeur 3.
-D'accord, j'ai noté.
Je cherche à Verlinde et là je peux trouver ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Oui.
Il a donné beaucoup d'effervescence.
Il y a des opposants, des pour, des contre.
Auditeur 3.
-Merci, je vais chercher à Verlinde.
Auditeur 4.
-Bonsoir.
Déjà, merci pour votre conférence.
J'ai une question.
Est-ce qu'il n'y a pas un espoir inavoué de la part des chercheurs qui travaillent sur le sujet de la matière noire de réussir, par leur avancée, à progresser aussi sur l'unification des théories de la gravité et des théories quantiques ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Oui, vous êtes au cœur du problème.
On pense qu'il y a quelque chose qu'on ne comprend pas.
Depuis 1998 où l'énergie noire est venue se rajouter à cette matière noire, c'est devenu beaucoup plus fondamental.
Au début, les théories de gravité modifiée juste pour la matière noire n'étaient pas tellement bien considérées.
Depuis l'an 2000, on sait qu'il va falloir modifier de toute façon car même une constante cosmologique, c'est modifiable par rapport à ce qu'on pensait auparavant.
Cette constante cosmologique, je n'ai pas eu le temps de le dire, il y a quand même de gros problèmes qui se posent car on pensait au début que c'était une énergie du vide.
Quantique donc.
On s'est aperçu que si on extrapolait tout ce qu'on connaît dans le laboratoire où on sait qu'il y a l'énergie du vide de façon quantique, on tombait sur 120 ordres de grandeur trop forts.
On prédit, avec une extrapolation de ce qu'on connaît en laboratoire, qu'il y a une énergie du vide dans l'Univers qui est 10¹²º fois l'énergie qu'on mesure.
On voit qu'on est complètement à côté de la plaque.
On ne sait pas du tout dans quelle direction aller.
Il y a une floraison de théories dont je n'ai pas parlé car le sujet n'était pas l'énergie noire ici, c'était la matière noire.
Il y a énormément de théories, de dynamiques.
Est-ce une constante ou varie-t-elle ?
C'est ce qu'Euclid va nous donner.
Pour l'instant, on a mesuré l'énergie noire.
Aujourd'hui, z = 0.
On n'a pas vu si elle évolue dans le temps.
Si c'est une dynamique, c'est une cinquième force en quelque sorte.
Un champ scalaire qu'il faut rajouter.
Beaucoup de champs scalaires ont été rajoutés.
Énormément de papiers ont été faits là-dessus, mais on n'a pas de base observationnelle pour savoir si c'est vraiment ça.
Si c'est vraiment une constante cosmologique ou si c'est quelque chose de dynamique.
On pense que c'est vraiment quelque chose de dynamique.
Il va falloir ajouter une cinquième force.
Auditrice 2.
-Bonjour.
Merci pour votre conférence.
Je m'interrogeais sur ce que vous disiez sur les constantes cosmologiques.
Ce serait possible que ça en soit une cinquième.
Par contre, la gravité modifiée, non.
Ce n'est pas une autre.
Ça ferait partie de la gravité.
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-C'est difficile à dire.
Par exemple, Bekenstein, en 2004, avait fait une théorie, un peu comme la théorie d'Einstein, qui était covariante et permettait d'expliquer dans la théorie de la gravité modifiée de Milgrom la déviation des rayons lumineux par la théorie de la gravité modifiée.
Tout ça marchait à peu près.
Il y avait quand même quelques petits problèmes de stabilité, etc.
Il avait repris les équations d'Einstein, mais il était obligé de rajouter un champ scalaire et des champs vectoriels.
Les vectoriels, c'était pour la déviation des rayons lumineux.
Ce qu'il faisait, c'est qu'il avait deux paramètres libres.
Ces deux paramètres libres, vous pouviez les ajuster de manière à traiter à la fois la matière noire et l'énergie noire du même coup.
Ça rajoute une cinquième force.
Quand on dit gravité modifiée, ça veut dire qu'il y a un champ scalaire dessous et donc une cinquième force.
Automatiquement.
Ça faisait l'économie de traiter les deux problèmes en même temps.
Il n'y a pas un problème de matière noire et d'énergie noire.
On pense que les deux sont liés.
Auditrice 2.
-Combien d'autres forces pourraient se rajouter ?
Est-ce que l'on sait aujourd'hui notre marge de découverte là-dessus ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-On n'en sait rien.
Comme je le disais, il y en a au moins deux ajoutées dans la gravité modifiée.
Un champ tensoriel, vectoriel et scalaire.
Donc, plus qu'un.
Toujours dans la théorie d'économie du rasoir d'Ockham, on ne va pas en rajouter 10 si on n'en a besoin que d'un ou deux.
On va essayer de minimiser le nombre de choses qu'il faut rajouter.
La simplicité d'abord.
Si en fin de compte, on est obligé d'en rajouter plus, il faudra se faire à l'évidence.
Pour l'instant, on en rajoute un au minimum et peut-être deux.
Auditeur 5.
-Bonsoir.
Merci beaucoup pour la conférence.
J'avais une question.
On a vu qu'il y avait des comparaisons entre des observations et des simulations numériques.
À ce niveau, il n'y a jamais eu d'expériences qui ont été tentées ou réalisées pour essayer...
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-L'expérience en astrophysique, c'est l'observation par les télescopes.
On ne peut pas maniper en laboratoire.
Auditeur 5.
-Je sais bien.
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-L'expérience en laboratoire, ce sont les simulations.
On peut faire varier les paramètres et ce sont nos expériences.
Ce qui prime, c'est l'observation.
Les expériences, on peut en faire beaucoup.
Il y a beaucoup de paramètres libres, on peut obtenir un peu ce qu'on veut.
Mais ça nous sert de savoir ce qui varie, quel paramètre fait varier les choses, ce qui est dû à quoi.
Les simulations, c'est très important.
Même si on peut tout faire avec les simulations, c'est très important.
On ne peut pas complètement tout faire car on a les conditions initiales de l'Univers avec Planck.
Reste à savoir quelle est la matière noire et les forces de gravité pour tout faire évoluer et obtenir les conditions finales observées aujourd'hui.
Ce qui prime, ce sont les observations.
Donc, quand on aura 12 milliards de galaxies, on pense avoir quelque chose de beaucoup plus précis.
Pour l'instant, on a tous les paramètres à 10 % près.
On voudrait avoir 1 % pour distinguer entre une sixième dimension, une dixième dimension, ou alors une matière noire, ou alors une gravité modifiée, etc.
Tout ça, en général, ça se tient à quelques pourcents près.
Tout le reste a été éliminé.
On a beaucoup éliminé de théories.
Il nous en reste quelques-unes et il faut énormément de précision pour discriminer entre tout ce qu'il reste.
Auditeur 5.
-Merci.
Auditeur 6.
-Bonsoir.
Merci pour cette conférence.
Vous nous avez montré qu'il était difficile de trancher entre une solution législative de type MOND ou matière noire.
Pour autant, seule une petite partie des chercheurs penche pour une solution législative.
Comment cela se fait-il, d'une part ?
Sachant que d'autre part, il semblerait que les conditions pour...
10 dimensions, une supersymétrie, en termes de rasoir d'Ockham, ce n'est pas très efficace.
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Vous avez tout à fait raison.
Pour la première question, je pense qu'il y a une question sociologique.
Il y a ce qu'on appelle une voie royale qui est la théorie admise par tout le monde, la matière noire, etc.
Si vous êtes un jeune étudiant et que vous voulez trouver un poste de post-doc quelque part, il faut prendre cette voie royale.
Si vous êtes dans les 10 % des moutons noirs, vous n'allez pas trouver de post-doc.
Ça, c'est très difficile.
Ça se renouvelle de soi-même.
Je pense que des astronomes plus séniors avec une position bien sécurisée peuvent se permettre d'aller prendre des théories non conventionnelles.
Il y a ceci.
Il y a eu un tournant en 1998 où il y avait encore moins que 10 %, peut-être 1 % qui faisaient de la gravité modifiée.
Depuis 1998, il y a beaucoup plus de théoriciens qui se sont lancés dans la modification de la gravité pour expliquer l'énergie noire qui est évidente.
Ce qu'ils font, c'est qu'ils dégravitent alors que la matière noire gravite.
Il faut graviter plus.
L'énergie noire, il y a une accélération.
Au contraire, il y a une gravité négative.
C'est plutôt une dégravitation.
Il y a beaucoup plus de personnes qui s'intéressent à ça.
Je dirais que c'est peut-être 50 %.
La gravité modifiée pour expliquer l'énergie noire est beaucoup plus répandue.
Je pense que c'est sociologique car en effet, il y a 26 dimensions, des théories qui ne sont pas vérifiées, aussi fantaisistes que les autres.
Mais je pense qu'il y a une histoire là-dedans et il y a beaucoup de sociologie.
Auditeur 6.
-D'accord.
L'histoire de Neptune et de Mercure n'a pas changé le...
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Vous faites allusion au fait qu'on pouvait soit rajouter de la matière comme Vulcain, soit changer.
C'est un parallèle qui est souvent prononcé ici.
Il y a un problème quand même, c'est que la gravité modifiée telle qu'elle était proposée marche bien à petite échelle, mais ne marche pas à grande échelle.
Si elle marchait mieux, peut-être que ça attirerait un peu plus.
Il faut encore plus chercher un autre modèle qui marche mieux.
Ce n'est pas facile, on voit que ça fait des dizaines d'années.
Il y a quand même des obstacles.
On préfère une théorie mainstream qui ne marche pas très bien, plutôt qu'une théorie non conventionnelle qui ne marche pas tellement bien non plus.
Auditeur 6.
-Merci.
Auditrice 3.
-Bonjour.
Peut-être l'avez-vous évoqué en début de conférence, je ne sais pas.
Est-ce qu'actuellement, vous observez des phénomènes extrêmement particuliers dans l'Univers auxquels on n'est pas du tout habitué ?
Se passe-t-il des choses ?
Y a-t-il des mouvements beaucoup plus importants que d'habitude en observation ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-En observation, ce que je peux dire...
Il y a des phénomènes qu'on n'a pas résolus.
Je peux dire que c'est, par exemple, des sursauts radio qui sont très énergiques et qui durent très peu de temps.
On n'en a que quelques exemples.
On pense que c'est peut-être relié aux sursauts gamma qu'on a progressivement appris à résoudre.
Ce sont des hypernovae, des supernovae très puissantes qui font une boule de feu, qui font des rayons gamma.
En moins d'une seconde, on émet beaucoup plus qu'une galaxie réunie.
Ce sont des phénomènes très énergétiques qu'on commence à comprendre.
Récemment, comme vous le savez, on a ouvert une autre fenêtre en détectant les ondes gravitationnelles.
Ça, on peut dire que c'est un évènement parmi ces dernières années.
L'an dernier, on a annoncé cette révolution.
On a vu des fusions de trous noirs avec des masses auxquelles on ne s'attendait pas.
On a observé déjà des trous noirs de masse stellaire, de 1 à 10 masses stellaires par des binaires X.
On en avait une soixantaine dans la Voie lactée alors qu'il y en a peut-être des millions.
On en avait juste une soixantaine.
Tout d'un coup, Ligo et Virgo ont détecté des trous noirs de 36 à 100 masses solaires.
Je pense que là encore, il y a des choses à chercher.
Ce sont des choses auxquelles on ne s'attendait pas.
On pense que dans le futur, par exemple avec LISA ou avec les réseaux de pulsars, de chronométrage de pulsars, qui se fait par exemple à Nancy, mais ailleurs, on va pouvoir mesurer les ondes gravitationnelles de trous noirs super-massifs.
Là, je pense qu'on aura aussi des surprises.
Il y a quand même encore des évènements un peu surprenants qui se passent dans l'Univers.
Ça répond à votre question ?
Auditeur 7.
-Merci pour la conférence.
J'avais deux questions.
La première, vous avez dit tout à l'heure que la matière noire serait à l'origine de la formation des galaxies et qu'ensuite les baryons chuteraient dedans pour former des étoiles.
Vu que la matière noire n'est pas censée interagir avec les autres particules, comment on explique ce phénomène ?
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-Elle interagit quand même par la gravité.
Elle interagit par aucune autre force, mais la gravité, oui.
Ça fait des puits de potentiel, donc les particules tombent...
C'est d'ailleurs de la gravité dont on se sert pour la détecter.
Si elles n'interagissaient pas par la gravité, ce serait comme quelque chose d'inexistant.
On a les lentilles gravitationnelles.
C'est avec la gravité de la matière invisible qu'on arrive à la cartographier.
Elle fait des puits de potentiel et les particules tombent dedans.
La seule interaction, c'est la gravité.
Auditeur 7.
-Ma deuxième question, quel est votre avis sur où en sont les connaissances sur l'expansion de l'Univers ?
Il y a plusieurs théories, où est-ce qu'elle s'arrêtera ?
J'ai vu des papiers sur le fait qu'elle serait infinie, que la matière se disloquerait petit à petit, jusqu'à disparaître.
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-C'est une extrapolation.
Si on extrapole ce qu'on connaît de l'accélération de l'expansion, il est vrai que les galaxies s'éloignent de plus en plus et c'est exponentiel.
On a la chance de vivre dans un Univers où on voit les galaxies qui nous entourent, Andromède, les nuages de Magellan, etc.
Mais lorsqu'on sera à plusieurs temps d'Hubble, ce n'est pas tout de suite, si on extrapole, on ne verra plus aucune galaxie autour de nous.
Elles seront toutes parties.
On sera les seuls et peut-être que dans énormément de temps d'Hubble, même la Voie lactée va se disperser et les étoiles partir chacune de leur côté.
On n'aura même pas l'expérience de voir la Voie lactée dans le ciel.
Si on extrapole.
Maintenant, on est un peu sage.
On sait qu'il ne faut peut-être pas extrapoler vu qu'on ne sait pas ce qu'est l'énergie noire.
Est-ce qu'elle serait constante ?
Est-ce que ça ne va pas varier ensuite dans le futur car on ne sait pas ce qu'il se passe dans le passé ?
On va lancer Euclid pour le savoir.
Il faut être sage dans l'extrapolation.
Mais si on extrapole, oui.
C'est ça.
C'est-à-dire que c'est le vide sidéral qui nous attend.
Modératrice.
-On va prendre une dernière question.
Auditeur 8.
-Cette cinquième force dont vous parlez, on pourrait l'appeler la quintessence.
Françoise Combes, astronome à l'Observatoire de Paris, professeure au Collège de France.
-La quintessence, c'est en quelque sorte un cinquième élément plutôt.
Pourquoi ?
Il y a 4 éléments connus : les photons, les baryons, les leptons et la matière noire.
Est-ce qu'elle est connue ?
La particule WIMP, qui est une particule exotique, qui n'est ni un baryon, ni un lepton, ni un photon.
On en a 3 de vraiment sûres.
La quatrième, ce sont les WIMP.
La cinquième, c'est la quintessence.
C'est un autre élément, l'énergie du vide, l'énergie noire.
C'est pour ça qu'on l'appelle "quintessence".
C'est un élément qui varie en fonction du temps.
Ce n'est pas qu'une constante cosmologique.
Pour l'instant, on n'en sait rien.
On ne sait pas si c'est vraiment constant ou si ça va varier dans le temps et ce serait une quintessence.
Ça serait plutôt un cinquième élément qu'une force.
Modératrice.
-Très bien.
Merci beaucoup, Madame Combes.

Il n’y a pas de programme génétique

Mardi 3 octobre 2017

Et si nous n’étions pas les simples exécutants d’un programme inscrit dans nos gènes ? Et si le hasard réintroduisait une part de liberté dans la biologie ?
Avec Olivier Gandrillon, biologiste systémique, directeur de recherche au CNRS, Laboratoire de biologie et modélisation de la cellule, ENS Lyon.

Il n'y a pas de programme génétique
La Cité des sciences et de l’industrie : Les conférences
« Quand la science se remet en question » : Cycle de conférences
« Il n’y a pas de programme générique »
« Avec Olivier Gandrillon, biologiste, systémique, directeur de recherche au CNRS, laboratoire de biologie et modélisation de la cellule, ENS Lyon
Avec le soutien de Pour la Science »

Olivier Gandrillon, directeur de recherche, CNRS.
-Merci.
Bonsoir à toutes et à tous, merci de l'invitation.
Je remercie Anne et la Cité des Sciences, et Universcience de m'avoir invité.
C'est un exercice difficile que je vais faire : vous raconter les recherches qu'on mène dans l'équipe, et pourquoi ça impacte la vision classique qu'on a des systèmes vivants, en essayant de rendre compréhensible ce qui pour moi est mon quotidien.
J'ai le nez collé dessus, c'est dur de prendre de la distance, mais je vais essayer de vous donner cette idée que, littéralement, il n'y a pas de programme génétique.
Commençons par la question.
En biologie, tout commence par des questions.
La question qu'on se pose est : nous sommes tous ici des organismes vivants multicellulaires, constitués d'un certain nombre de tissus.
Chacun de ces tissus est constitué de cellules, chacune de ces cellules remplit des fonctions particulières.
Il y a environ mille milliards de cellules dans notre corps, c'est une estimation à la louche, personne n'a vraiment compté, et toutes sont originaires d'une seule cellule, l'œuf, qui est la rencontre du spermatozoïde et de l'ovule.
Et ces cellules, puisqu'elles sont originaires de cette cellule-là, ont toutes le même génome, à un pouillème près.
L'idée, c'est d'essayer de comprendre comment toutes ces cellules, avec le même génome, ont des formes, des fonctions et des répartitions extrêmement différentes, et comment on génère de la diversité avec quelque chose qui est a priori la même chose, la même séquence du génome.
Clairement, c'est une question qui occupe les biologistes depuis de nombreuses années, l'idée est de chercher l'apparition de ce différentiel entre les cellules dans ce qu'on appelle l'expression du génome.
L'expression du génome, c'est quoi ?
La vision classique est celle-là : le génome est une séquence d'ADN, et on imagine que, dans le noyau de nos cellules, sur cette séquence se fixent des facteurs de transcription, des protéines, on y reviendra, qui recrutent une machinerie, l'ARN polymérase, qui va transformer la séquence d'ADN en une séquence d'ARN dit "messager", parce que maintenant, cette molécule va transporter le message depuis le noyau, l'ADN, vers le cytoplasme, où cet ARN messager est traduit par une machinerie, les ribosomes, qui donne des protéines.
Clairement on voit que certaines régions du génome ne sont pas exprimées.
"Exprimées" voulant simplement dire que certaines régions du génome sont exprimées sous forme de protéines, et d'autres pas.
Et on peut imaginer que, suivant les protéines, les gènes qu'une cellule exprime, ou pas, elle va avoir une identité différente, ou pas.
Ça, c'est quelque chose de parfaitement connu et admis.
Du point de vue des réactions biochimiques, il n'y a rien à remettre en cause.
Par contre, l'idée d'un programme génétique repose sur ce qu'on a appelé "le dogme central de la biologie moléculaire".
Il se trouve qu'on fête ce mois-ci les 60 ans de la conférence dans laquelle Francis Crick, ce collègue ici...
Au cours de cette conférence, Francis Crick a établi, a proposé à la communauté une idée qu'il a appelée le dogme central, qui est représenté ici.
C'est vraiment son manuscrit pour cette conférence représenté là, qu'il a appelé le dogme central, dans lequel il dit une chose essentielle, qui est : l'information est contenue dans la séquence de l'ADN.
Et cette information contenue dans la séquence de l'ADN est transcrite sous une information contenue dans la séquence de l'ARN qui, à son tour...
Je ne sais pas si je peux revenir en arrière.
Qui est à son tour traduite...
OK, il semblerait que mon pointeur fasse avancer les diapos, ce que ça ne devrait pas faire.
Traduite, donc, sous une forme de séquence de protéines.
Il y a donc quelque chose d'extrêmement important, qui a été complètement bypassé par la suite.
Les gens ont en tête que le dogme central, pour ceux qui le connaissent...
Alors, ça avance tout seul en fait, ça va devenir compliqué.
Que le dogme central, c'est ADN, ARN, protéines.
Non !
Vous pouvez voir très clairement ici que, dès le départ, dès le positionnement du dogme central, Francis Crick lui-même considérait qu'on pouvait imaginer qu'on aille de l'ARN vers l'ADN, la reverse transcription.
Il y a des virus dont le génome est sous forme ARN, qui est reverse transcrit sous forme d'ADN.
C'était une possibilité, on voit que l'ADN redonne de l'ADN, etc.
Par contre, ce sur quoi Crick insistait, c'est que jamais, il souligne, de la séquence des protéines, on dérive une séquence d'ARN, ou de la séquence des protéines, on dérive une séquence d'ADN.
Ça, la biologie moléculaire contemporaine l'a démontré comme pouvant se produire, les phénomènes d'édition, je ne vais pas revenir dessus.
Mais ce qui est important à comprendre dans le dogme central, c'est que, pour Francis Crick, il était important de savoir où se situait l'information.
C'est une théorie informationnelle du vivant, et pour Francis Crick, l'information est dans la séquence de l'ADN.
Voilà en gros le dogme central redit d'une façon un peu différente.
L'information est contenue dans le génome et est décryptée sous forme de phénotype.
Et évidemment, parce qu'on est darwiniens, on imagine que ce phénotype est soumis à une sélection par l'environnement, qui lui-même contient une part d'information.
Mais la première partie est vraiment très informationnelle.
Donc, si on est dans ce cadre-là du dogme central, on va imaginer qu'il existe des régulateurs maîtres, c'est le terme utilisé, qui sont des facteurs de transcription qui contrôlent la mise en route d'un programme de différenciation.
Et là, on voit apparaître le terme de programme.
Voilà à quoi ressemble un programme de différenciation, c'est très simple.
On imagine, ici, une cellule immature.
Dans son génome, on a un gène qui n'est pas exprimé.
Puis, on se met à exprimer un facteur de transcription dans cette cellule, ce facteur reconnaît une séquence en amont du gène, appelée séquence promotrice, et en lisant, en recrutant la machinerie transcriptionnelle, ce gène est maintenant exprimé.
Cette cellule qui n'exprimait pas ce gène, maintenant l'exprime et devient une cellule différenciée, on peut imaginer un globule rouge qui produit de l'hémoglobine, etc.
La notion de programme génétique n'est réellement pas plus compliquée que ça.
On peut voir, même dans des papiers récents, des schémas aussi caricaturaux que le mien, où on voit un gène cible avec un facteur de transcription.
Et si on inhibe ce facteur, le gène cible n'est plus exprimé et la cellule change d'identité.
Ça, c'est un cadre théorique qui a régné sans partage pendant de très nombreuses années, mais on a vu apparaître des difficultés conceptuelles qu'on aurait pu imaginer assez tôt en fait : dans ma cellule, j'allume un facteur de transcription, mais qui allume ce facteur ?
Je dois considérer que j'ai un facteur de transcription qui allume le facteur de transcription ou, ce qu'on appelle, ici...
On va réguler les master regulators.
On a des maîtres des maîtres.
Et on voit qu'on a un problème de régression à l'infini : la question se pose de quelle est l'information initiale qui permet de dire : il faut allumer ce facteur dans cette cellule-là.
C'est une difficulté qui a été bien travaillée.
Il y a eu plein de tentatives pour tenter de la résoudre : ce qu'on a appelé l'épigénétique, les réseaux, la signalisation, la compartimentalisation, je n'y reviendrai pas, juste quelques exemples rapidement.
Ce qu'on a appelé l'épigénétique, on a dit : l'information est dans la séquence primaire du génome, mais pas que.
Une partie de l'information est aussi une espèce de décoration autour de cette séquence primaire, composée de protéines qui ont des modifications post-traductionnelles, etc., qui fait que certaines séquences sont accessibles dans certaines cellules ou pas dans d'autres.
Très bien, mais ça ne fait que déplacer le problème : qui détermine le fait que, dans cette cellule-là, il y ait tel épigénome ?
Le réseau : on imagine que les protéines n'interagissent pas de façon linéaire, mais en coopération avec d'autres, au sein d'un réseau plus ou moins complexe, mais ça reste très hiérarchique, et il reste toujours quelque part une espèce de facteur de transcription un peu primaire, qui dirige le fonctionnement du réseau.
La signalisation, ça ne résout pas le problème, parce qu'on peut dire qu'effectivement, cette cellule-là va recevoir un message donné par une cellule B d'allumer ce facteur de transcription, mais évidemment la question n'est que déportée, maintenant elle est : "Qui a dit à B d'envoyer ce signal à A ?"
Il y a vraiment un vrai problème conceptuel dans la notion de programme génétique, qui se heurte nécessairement à une régression à l'infini.
Toutes ces explications, la signalisation, l'épigénétique, la compartimentalisation, etc., violent le dogme central : elles présupposent qu'une partie de l'information n'est pas écrite dans la séquence linéaire de l'ADN.
J'insiste sur le fait que le dogme central, c'est ça : l'information est dans l'ADN, nulle part ailleurs.
Si on admet qu'une partie de l'information n'est pas codée dans la séquence de l'ADN, alors le dogme central, nécessairement, ne tient plus.
Je voudrais insister aussi sur quelque chose qui pour moi est essentiel.
Pour pouvoir parler de programme, il faut imaginer une séparation stricte entre l'écriture et l'exécution d'un programme.
Quand on est informaticien et qu'on code, on écrit son code, puis on l'exécute.
Je ne connais personne qui écrive des programmes dont le but est de réécrire le code en même temps qu'il l'exécute.
Vous imaginez très bien le nombre de bugs qu'un programme de ce type-là pourrait causer.
C'est ingérable, ça ne peut pas marcher.
La notion de programme nécessite qu'on ait l'écriture d'un côté, l'exécution de l'autre.
Et, peut-être la phrase la plus importante de cette soirée : en biologie, la causalité est circulaire.
Il n'y a pas de niveau privilégié d'explication des phénomènes.
Tous les phénomènes sont pertinents et ils se parlent tous entre eux.
Vous vous rappelez cette notion de facteur de transcription.
Or, ce facteur est lui-même le résultat d'un processus de transcription-traduction.
Une partie de l'information qui dit que ce gène doit être exprimé vient du fait que ce facteur de transcription a été exprimé.
Si on dit que l'information n'est plus que contenue dans la séquence, mais qu'une partie commence à être contenue dans les phénomènes biologiques, biochimiques, et biophysiques, alors le dogme central, de fait, devient inopérant.
C'est déjà un point de vue conceptuel, mais maintenant, on pourrait aussi se dire : "Peut-être que, malgré tout, ça tient, si on peut faire des expériences qui montrent qu'il y a effectivement un programme et un déterminisme génétiques."
Je vous rappelle, l'idée est que l'information est contenue dans le génome et décodée sous forme de phénotype, et en partie sélectionnée par l'environnement.
Si c'est vrai, si on dit que le génome et que l'environnement sont fixés, alors, nécessairement, le phénotype doit être fixé.
Si tout est égal par ailleurs, alors, le phénotype, on le connaît.
Des démonstrations expérimentales à n'en plus finir montrent que ce n'est pas vrai.
Et un des premiers papiers qui a fait du bruit dans la communauté est un papier de Michael Elowitz, un physicien, qui, en 2002, a publié cet article : "L'expression stochastique des gènes dans une cellule unique".
Ce que l'équipe de Michael Elowitz a fait est conceptuellement assez simple, c'est vraiment un beau travail de physicien qui pose la question avec le modèle le plus simple et essaye d'y répondre avec les outils les plus pertinents.
Je prends un génome simple, celui de la bactérie Escherichia Coli, et je mets dans ce génome deux protéines fluorescentes rapportrices : l'expression de cette protéine va rendre la bactérie verte, et l'expression de cette protéine va rendre la bactérie rouge.
Et je mets devant ça, devant ces deux protéines reporters, je mets exactement la même séquence, des promoteurs identiques.
La séquence qui est devant, là où est censée être l'information qui dit à la cellule quel gène elle doit exprimer, cette partie-là est absolument identique.
Dans un monde soumis parfaitement au dogme central, ce qui devrait se passer, c'est que toutes mes bactéries devraient exprimer exactement la même quantité d'un rapporteur et de l'autre, et donc si je mesure ça par une méthode quelconque, ici, la fluorescence en flux, mais ce n'est pas très important, toutes mes bactéries devraient avoir le même niveau d'expression de vert et de rouge, elles devraient toutes être jaunes.
Admettons que la taille de la cellule puisse jouer, que le métabolisme, que la présence d'ATP, que la quantité d'ARN polymérase puissent jouer.
D'une bactérie à l'autre, on peut imaginer que certaines vont avoir plus ou moins d'activité.
Admettons qu'on va avoir du bruit extrinsèque, que certaines bactéries vont exprimer beaucoup de l'une et de l'autre de mes deux protéines fluorescentes, et d'autres vont exprimer moins.
Maintenant, imaginons un monde qui n'est plus soumis au dogme central, ou l'information n'est plus stockée de manière univoque dans la séquence promotrice.
Donc, on peut maintenant imaginer que certaines bactéries vont exprimer beaucoup plus d'une protéine et moins de l'autre, ou que certaines vont exprimer beaucoup plus de YFP que de CFP.
Donc, on voit une dispersion, pour des bactéries toutes génétiquement identiques et toutes situées dans le même environnement.
Est-ce ce qu'on voit ?
La réponse est oui.
Vous avez ici l'expérience réalisée.
Chaque petit triangle est une bactérie.
Ce qui est très important, c'est que pour voir ce qu'on essaie de regarder, il faut s'intéresser à chaque cellule individuellement.
Si on les reprend toutes et qu'on les moyenne, évidemment on va tomber sur la valeur moyenne du phénomène, qui va écraser la variabilité entre les cellules.
Pour en voir, il faut regarder à l'échelle des cellules.
Ça paraît trivial, mais c'est quand même important de le rappeler, et ce n'est que récemment qu'on commence à avoir des technologies pour ça.
C'est aussi une des raisons pour lesquelles on est obligés de se rendre compte que la variabilité cellule-cellule est réelle, on peut la mesurer.
Ces deux souches sont peu différentes, mais il y a une énorme dispersion et chaque bactérie est différente de l'autre.
Vous voyez ici une image qu'on voit souvent, souvent utilisée, qui montre que certaines bactéries sont vertes, d'autres rouges, et très peu sont jaunes.
Chaque bactérie a un phénotype qui lui est propre.
Donc, il n'y a absolument plus de doute là-dessus, l'expression des gènes est un phénomène probabiliste.
Chaque cellule a une certaine probabilité d'exprimer un rapporteur ou l'autre.
Admettons, ça c'est vrai chez Coli, mais Coli est une bactérie, c'est un peu une bête de cirque, ça ne nous intéresse pas trop, on est des êtres humains, plus sophistiqués.
Est-ce que malgré tout ça joue ?
La réponse est oui.
Je ne rentrerai pas dans les détails de ce papier, qui a été publié en 2008, peu de temps après celui d'Elowitz.
Il montre en gros, pour faire court, qu'effectivement, dans des cellules de mammifères, humaines dans mon souvenir, il y avait aussi ce qu'on a appelé du bruit, de la variabilité dans l'expression des gènes.
Chaque cellule a un niveau d'expression qui lui est propre, la variabilité autour de la valeur moyenne est très importante.
En plus, il montre que ça a du sens.
Je ne rentrerai pas dans les détails, ça nous entraînerait trop loin.
Les conclusions de cet article sont qu'en fait, mes cellules sont capables de choisir deux destins.
Un des destins est de me transformer en érythrocyte, en globule rouge, et l'autre de me transformer en cellule myéloïde, monocyte, pas très important, un autre type cellulaire.
En fait, les auteurs montrent que dans une population de cellules, chaque cellule fait varier la quasi-totalité de son transcriptome.
Tous ses gènes varient aléatoirement entre ces deux destins.
Donc, j'ai des cellules plutôt prêtes à partir en différenciation érythroïde ou plutôt prêtes à partir en différenciation myéloïde.
Mais à un instant T+1, ces cellules parties d'un côté peuvent se retrouver de l'autre, il y a une fluctuation aléatoire dans l'expression des gènes qui a du sens pour la cellule.
Alors très bien, il y a de l'hétérogénéité.
On peut le mesurer chez Coli, dans des lignées humaines, deux cellules génétiquement identiques, dans un environnement rigoureusement identique, ont des phénotypes différents.
D'où ça vient, comment on peut expliquer ça ?
Il y a plein de raisons pour ça.
La première est que, et les biologistes, notamment ceux sur le versant informationnel, négligent ce fait : les phénomènes biologiques sont dynamiques par essence.
Le vivant varie en fonction du temps.
Ça peut sembler une évidence, et pourtant, très peu de biologistes classiques, traditionnels, s'intéressent à la façon dont le système évolue en fonction du temps.
Un nombre d'éléments finis, a priori pour chaque gène vous avez deux copies, à peu près n'importe où dans le génome, donc un tout petit nombre d'éléments qui créent de fait de la stochasticité.
Des éléments en petite quantité, je viens de le dire.
La plupart des interactions protéine-protéine ne sont pas spécifiques.
La plupart sont pour des valeurs faibles, mais les protéines tendent quand même à s'accrocher les unes aux autres.
Il y a des phénomènes spatiaux, sur lesquels on va revenir.
Et puis, quelque chose d'important, le caractère "bursty" : l'expression génique n'est pas continue, ça se produit par bouffées.
On verra ça dans une seconde.
Ça, c'est juste pour vous montrer ce qui se passe en termes de diffusion.
Non, ça n'a pas marché.
En fait, ça représente le cytoplasme de Coli, toujours cette fameuse Coli.
Ça, c'est une protéine.
Ça, une autre.
Ça, une troisième.
Et ça vous donne une idée du niveau d'occupation de l'espace dans un cytoplasme.
Les molécules ne se diffusent pas librement comme dans l'eau, elles sont extrêmement collées les unes aux autres.
Vous imaginez que si cette protéine doit interagir avec cette autre pour pouvoir produire une réaction, c'est un peu comme si vous essayiez de rentrer dans une rame de métro à 5 ou 6 heures du soir, ça sera très compliqué, il faudra dépenser pas mal d'énergie pour y arriver, et rien ne vous garantit le résultat.
Le caractère aléatoire de l'expression des gènes repose beaucoup aussi sur le fait que, quand on a commencé à mesurer véritablement ce qui se passait dans une cellule pour un gène, on s'est rendu compte que la meilleure façon de représenter ça, c'était d'utiliser un modèle à deux états, dans lequel le gène peut être soit ouvert soit fermé.
Quand il est fermé il ne se passe rien, puis il transite avec un taux aléatoire Kon, d'un état fermé vers un état ouvert.
Et quand il est ouvert, alors seulement on a transcription avec un taux zéro et traduction avec un taux S1 d'ARN qui peuvent dégrader des protéines.
Cette partie-là est la partie classique, donc la partie pas classique est vraiment l'idée que ce gène alterne entre deux états et soit souvent dans un état fermé, et que ces taux-là, de manière aléatoire, font aller et venir le gène entre ces deux états.
Encore une fois, pour voir ça, il est indispensable d'aller mesurer le processus à l'échelle de chaque cellule.
Voilà en gros la façon dont les choses se passent.
Ici, la façon dont les promoteurs alternent en fonction du temps.
Le promoteur est fermé, il s'ouvre pendant de brèves périodes, puis se referme très rapidement.
C'est une simulation informatique, avec des paramètres tels qu'on est maintenant capable de reproduire la distribution des ARN qu'on observe à l'échelle de la cellule.
Le promoteur s'ouvre et se ferme.
Ouvert, il y a production d'ARN.
Fermé, l'ARN se dégrade.
Quand l'ARN est présent, il y a production de protéines.
Quand il n'y a plus d'ARN il y a disparition des protéines.
Vous voyez que le caractère "bursty", on-off du processus, est très visible en ARN, et beaucoup moins en protéines, parce que les protéines ont des demi-vies plus longues.
Ce sont des considérations un peu techniques.
Ok, admettons.
Il y a de la variabilité, mais est-ce que ça a du sens ?
Une cellule, peut-elle en faire quelque chose ?
Et comment ça va impacter la différenciation cellulaire, notre question initiale ?
La façon dont une cellule va prendre la décision de se différencier, peut-elle être impactée par la variabilité dans l'expression des gènes ?
Je vous rappelle la vision classique : on a une cellule qui représente une cellule moyenne d'une population, qui passe d'un état dans un autre état.
On sait qu'il existe une variabilité entre les cellules.
Très bien, mais on peut imaginer, et des évidences dans la littérature apparaissent là-dessus, qu'il y a des variabilités entre les cellules mais aussi entre les processus.
Différents chemins mènent à Rome : pour, à partir d'une cellule indifférenciée, donner une cellule différenciée, rien ne dit que des trajectoires, dans un espace qu'on va expliciter dans une seconde, soient les mêmes pour toutes nos cellules, et certaines cellules, on peut imaginer, vont simplement se perdre en chemin et mourir.
Évidemment, malgré tout, il y a, et c'est probablement quelque chose de compliqué, mais il y a du hasard contraint.
Effectivement, quand j'induis un processus de différenciation, des cellules peuvent se perdre en route et mourir, ça arrive.
Je constate ça tous les jours dans mes boîtes de culture.
Des cellules meurent, pas de problème.
Mais l'essentiel de mes cellules arrive à bon port.
Tout n'est pas possible, il y a des contraintes.
On pourra revenir après sur leur nature, c'est une question importante et encore très ouverte, mais qui fait que malgré tout, même s'il y a plusieurs chemins, même si c'est aléatoire, à l'arrivée, on arrive quand même à un processus qui ressemble à quelque chose.
Le modèle qu'on propose maintenant, pour tenter de donner un cadre à cette nouvelle façon de voir la différenciation, on va l'appeler un espace d'états : on va dire qu'une cellule, c'est un point dans un espace à très grandes dimensions.
Le nombre d'espaces est le nombre de gènes, on va dire, un espace à 30 000 dimensions, que je vous représente ici, pour le rendre accessible, comme un espace à 3 dimensions.
Imaginez une cellule qui a trois gènes.
La position de cette cellule dans cet espace est le niveau d'expression des gènes X, Y et Z qui va donner ses coordonnées dans cet espace.
Vous avez ici une région de l'espace dans lequel les cellules sont en auto-renouvellement, aussi une région où elles sont différenciées.
Et pour aller d'un état à l'autre, vous imaginez des trajectoires qui font que l'expression des gènes varie de façon à emmener les cellules dans ce nouvel état.
C'est une vision un peu générique, mais peut-on raccrocher ça à un processus moléculaire ?
Est-ce qu'on peut comprendre ça en termes de fonctionnement moléculaire au sein de chaque cellule ?
Je vous propose un système encore plus simple, mes cellules n'ont plus que 2 gènes, juste pour la démonstration.
Elles ont un gène S et un gène D, et le gène S réprime le gène D, et le gène D réprime le gène S.
C'est très connu en systèmes dynamiques, ça s'appelle un toggle switch.
Mais c'est un système très bien étudié, et intuitivement, on imagine bien que si S gagne, D va être réprimé, donc on sera dans cet état-là.
À l'inverse, si D gagne, S sera réprimé et on sera dans cet état-là, On a une hésitation, une alternance entre ces deux états possibles.
La question, c'est : il y a deux états stables, un état où S a gagné, un où D a gagné, comment je fais maintenant, si je suis une cellule dans cet état-là, si je veux changer d'état, si je veux rentrer dans un processus de différenciation ?
Donc là arrive une idée proposée initialement par Jean-Jacques Kupiec, ici illustrée dans la thèse de Thomas Heams, un étudiant de Jean-Jacques, qui proposait l'idée qu'au cours d'un processus de différenciation, l'expression aléatoire des gènes augmente, avant qu'une forme de stabilisation assure le phénotype final.
Il proposait, dans sa thèse, que la variabilité...
Sans dire comment il pensait qu'il fallait mesurer ça, ce qui est quand même important.
Comment la variabilité augmente puis diminue au cours du processus.
C'est une prédiction forte d'un modèle alternatif de différenciation, dans lequel on ne parle plus de bruit dans l'expression des gènes, mais de variabilité qui a un sens l'aléatoire commence à avoir un sens.
Si on essaie de réintégrer tout ça au sein d'un même modèle, admettons qu'on ait nos cellules dans un état d'auto-renouvellement.
Elles sont au fond d'un puits, d'une certaine façon, mais elles sont agitées d'une "micro hétérogénéité".
L'expression des gènes va varier, mais un peu.
Elles vont avoir tendance à explorer un espace relativement restreint au fond du puits.
Puis on va changer de milieu, pour induire la différenciation de ces cellules, et on va imaginer qu'on augmente le bruit moléculaire à tel point qu'on va augmenter la capacité de cette cellule à explorer une plus grande région de l'espace, tellement plus grande que le bruit va permettre à la cellule d'arriver jusqu'au sommet de cette colline.
Et une fois qu'elle a rejoint le sommet de la colline, elle va être attirée.
La configuration du réseau moléculaire va avoir tendance à la faire basculer dans un autre état stable, dans lequel elle sera aussi agitée d'une forme de micro-hétérogénéité.
Donc, on arrive à réconcilier toutes ces notions.
Et, en gros, l'idée est qu'on imagine qu'on est soit dans un état soit dans l'autre, et qu'on a ici un "tipping point", point de non-retour, où les concentrations de S et D sont équivalentes, et la cellule a deux destins possibles.
Elle peut hésiter entre les deux, soit rebasculer dans son état initial, soit basculer dans l'état différencié.
On a testé ça, sur un modèle cellulaire, les T2EC, qui sont des progéniteurs érythrocytaires aviaires, des cellules de poulet, et en culture, on sait très bien les maintenir en état d'auto-renouvellement ou les induire à se différencier en changeant le milieu.
C'est un modèle de différenciation intéressant, ces cellules ne sont pas altérées génétiquement, sont physiologiquement proches de l'animal, elles ne font pas de choix de lignage, elles s'auto-renouvèlent ou font des globules rouges, et d'un point de vue phénotypique, ça semble relativement homogène.
Je vous passe les détails techniques de cette étude, mais ce qu'on a fait, c'est qu'on a mesuré, à différents temps du processus de différenciation, à l'échelle de chaque cellule unique, le niveau d'expression en ARN messager d'un certain nombre de gènes.
Ce qu'on a pu reconstituer est la séquence suivante.
La première chose qu'on observe, c'est que dès qu'on induit la différenciation de nos cellules, on a une augmentation forte de la variabilité moléculaire entre les cellules, on a utilisé la notion d'entropie pour fixer ça, mais d'autres gens ont proposé d'autres métriques, et tout semble converger sur l'idée qu'au début du processus de différenciation, on observe bien cette augmentation de variabilité moléculaire prédite par Jean-Jacques.
On observe simultanément une chute de la corrélation entre les gènes, et ce qui est très intéressant, c'est qu'on a pu montrer que jusqu'à 24 heures, si on remet nos cellules dans le milieu de départ, elles sont capables de revenir en arrière.
Donc, cette idée de la cellule au sommet qui peut retomber d'un côté ou de l'autre semble vérifiée.
Par contre, au-delà, entre 24 et 48 heures, ce qu'on a appelé l'engagement, à ce moment-là, le processus devient irréversible.
Il faudrait forcer les conditions pour l'obliger à revenir.
Il ne suffit plus de remettre la cellule dans le milieu initial pour qu'elle revienne.
Ce processus de réversibilité-irréversibilité est important pour comprendre les réseaux moléculaires derrière.
N'importe quel réseau ne peut pas faire ça.
Ensuite, suite à cette période d'engagement, on a un pic de variabilité dans la taille des cellules.
La variabilité moléculaire s'est transmise à un niveau supérieur : une variabilité dans la taille des cellules, qui redescend au cours du processus.
Ce papier a été publié dans PLOS Biology et est une des raisons pour lesquelles je suis là ce soir.
La question est : c'est un système simple, tout ce que veut la cellule est s'auto-renouveler ou se différencier.
Peut-on avoir le même genre de vision pour un système plus compliqué dans lequel la cellule doit, en même temps qu'elle décide de se différencier, décider si elle devient une cellule verte ou rouge ?
Donc, est-ce qu'à l'échelle de la cellule unique, on a un processus comme ça, en arbre, où la cellule prend une décision puis devient verte ou rouge ?
Ce travail a été mené dans l'équipe d'Andras Paldi, auquel on a collaboré.
On a analysé, on s'est focusé sur analyser en temps réel, en regardant les cellules en temps réel au microscope, puis en analysant, à l'échelle de la cellule unique, le transcriptome de ces cellules.
On regarde à la fois la morphologie de nos cellules et leur transcriptome en single cell.
Et donc, pour résumer ce papier, à partir de cellules de sang de cordon humaines, des cellules souches hématopoïétiques, mises en culture, elles ont effectivement un potentiel à devenir des cellules soit d'un type soit d'un autre, c'est quelque part la vision classique des choses.
Mais on a identifié aussi quelque chose de beaucoup plus intéressant qui montre que la vision classique est courte et insuffisante : il existe une espèce d'état caractérisé par une expression moyenne de cet antigène CD133, alors que les deux autres ont des niveaux élevés ou faibles.
Donc, on peut caractériser ce phénotype à la surface des cellules, qui est ce qu'on appelle un phénotype hésitant.
On le voit sur la vidéo, vous avez ici une cellule souche en train de se différencier, et vous voyez que, quand vous regardez le phénotype, elle alterne entre un phénotype complètement rond ou ce phénotype-là, très différent du phénotype rond, qui montre des formes de protrusions avec un cytosquelette complètement remodelé.
On voit bien que des cellules peuvent passer d'un état rond à un état pas rond, et revenir à l'état rond.
En fait, on n'a pas d'évidence directe, on travaille activement à ça, mais des évidences indirectes qui laissent penser qu'entre une cellule de cette apparence et une de cette autre, une partie importante du transcriptome change.
Les fluctuations entre ces deux types cellulaires ne sont pas juste CD133, mais des variations importantes du transcriptome qui fluctue, et les cellules sont vraiment...
Elles pèsent le pour et le contre, elles sont dans cet état où elles peuvent basculer d'un côté ou de l'autre, et elles alternent de façon aléatoire pendant un certain temps.
Donc oui, c'est ce que je disais, on trouve une signature moléculaire qui correspond à cet état hésitant.
Je vous passe le détail, mais en gros ça montre qu'à 24 heures, on a prédominance de cellules qui peuvent être ensuite transformées soit en type 1 soit en type 2, mais qui sont ici des cellules hésitantes.
Et ça, ça a aussi été publié dans PLOS Biology.
Un papier super important, publié en 2002, a été signé par cet auteur, Jeffrey Levsky.
Je vous passe les détails, mais il avait vraiment posé très clairement le problème : est-ce que, entre deux cellules identiques, les gènes sont exprimés de manière similaire ?
La réponse était pas du tout.
Il avait écrit cette revue pour rendre compte de son travail : "L'expression des gènes et le mythe de la cellule moyenne", dans laquelle il disait d'arrêter de raisonner en termes de cellules moyennes, ce n'est pas une bonne cellule, elle n'existe tout simplement pas.
Dans une population de cellules, si vous en écrasez un million et regardez la valeur moyenne d'expression des gènes, ça ne donne aucune information pertinente pour la variabilité à l'échelle de ces cellules, c'est extrêmement variable.
Tous les modèles que vous pourrez faire à l'échelle de la cellule unique, vous devez les faire sur des données acquises à l'échelle de la cellule unique.
Et ce qu'il disait dans cette revue, c'était : Étant donné l'extrême variabilité de l'expression des gènes, on peut se demander comment, malgré tout, le génome est traduit de façon reproductible dans des phénomènes vivants.
Et beaucoup de gens à qui on expose ce genre de choses disent : "Oui, mais on a deux yeux, deux oreilles, super reproductible."
Pas faux, sauf qu'on a déplacé le problème.
Le problème du dogme central, était : Comment on génère de la variabilité ?
On a répondu à cette question, la variabilité existe, elle est liée au fait que les phénomènes biologiques sont des phénomènes biophysiques, Elle n'est plus à expliquer.
Ce qu'on doit maintenant expliquer, c'est précisément ça : comment on va contraindre cette variabilité pour lui permettre de devenir reproductible.
Il y a plusieurs pistes de réponses possibles.
Là, c'est encore un travail qu'on avait publié avec Andras Paldi.
Pour faire une histoire longue et la résumer en courte, vous voyez ici que si on utilise des protéines fluorescentes, des rapporteurs fluorescents mesurant l'expression des gènes, qui ont une demi-vie longue, c'est-à-dire que la protéine, une fois exprimée, reste stable et se dégrade très lentement, ça crée une forme d'histoire, qui fait que vous voyez des régions de l'espace toutes vertes ou toutes rouges.
Ça crée une forme de mémoire, qui conduit à l'apparition de patterning, de formes.
Par contre, si on utilise des protéines à courte durée de vie, qui durent très peu de temps, vite dégradées, on voit apparaître, on a accès de façon plus immédiate et évidente au phénomène de stochasticité d'expression des gènes, de burstiness, de bouffées d'expression.
On perd complètement des régions de l'espace, chaque cellule côte à côte a un destin très différent.
Donc, la demi-vie des protéines et des ARN, par la même occasion...
Quelle information peut être stockée là-dedans ?
Pourtant, il y a une information essentielle dans la demi-vie des protéines.
Ce n'est probablement pas complètement facile à expliquer, je vais essayer, mais je ne suis pas sûr de réussir.
L'idée, c'est que l'information, j'ai essayé de vous dire ça, j'espère que j'ai réussi, elle n'est pas dans la séquence.
Il y en a une dans la séquence mais elle n'est pas que là.
Il y a plein d'informations à plein de niveaux, et toutes se parlent.
Ces informations et la façon dont elles se parlent et interagissent de manière différente, c'est ce qu'on va appeler l'état du système.
L'état du système, c'est nous, aujourd'hui, ou une bactérie comme Escherichia Coli.
Mais l'état de ce système-là est le résultat de milliards d'années d'évolution, d'une très très longue période d'évolution, qu'on ne connaîtra jamais, auquel on n'aura pas accès.
Pourtant, l'état de ce système est essentiel pour pouvoir y répondre.
Pour essayer d'expliquer ça de façon simple, imaginons un double toggle switch.
Souvenez-vous, A réprime B, B réprime A.
Maintenant on a trois gènes, A, B et C.
Les interactions sont des répressions mutuelles, et je vais essayer de démontrer que l'état du système est important.
Voilà mon système, mes trois gènes A, B et C qui se répriment réciproquement.
Admettons que je prenne mes cellules, que je les mette dans un milieu 1 et que ce milieu 1 contienne un facteur dont le but, dont l'action, on va dire plus que le but, est de réprimer C.
Puisque j'ai réprimé C, que C a réprimé B, donc je déréprime B, donc B est exprimé, et puisque B est exprimé et B réprime A, A est réprimé.
OK, c'est relativement simple.
Maintenant, je prends mes cellules et je les mets dans un autre milieu, que je vais appeler 2, et qui a le bon goût de contenir une molécule appelée 2, c'est simple, qui va réprimer B.
Donc, comme je réprime B, je déréprime C et je déréprime A.
Donc, je me mets à avoir un nouveau phénotype.
Maintenant, je reprends mes cellules, passées en D, et je les remets dans 1, et ce qui va se passer va être différent de ce qui se passait au départ.
Une histoire a été mémorisée par l'état du système.
Maintenant, ce qui va se passer, c'est la molécule 1 qui va réprimer C.
1 va réprimer C, très bien, mais 1 ne va pas toucher à A.
Comme A est très élevé, à ce moment-là, il va réprimer B.
Donc, contrairement à l'état initial, l'addition de 1 sur ce système-là va avoir un effet très différent de l'addition de A sur ce système.
Je n'ai pas du tout parlé de tout ça, c'est à séquence identique.
Il n'y a absolument aucune différence informationnelle.
La seule différence est l'état du système : les quantités présentes à l'instant T dans les cellules.
Et ça, ça a une importance fondamentale sur la façon dont mon système va réagir.
Pour terminer, les systèmes biologiques n'ont été conçus par personne.
Ça paraît trivial, mais il faut vraiment le dire et le répéter, et même certains collègues ont tendance à l'oublier.
Les systèmes biologiques n'ont pas été conçus par des ingénieurs.
Qu'on puisse s'en féliciter ou le regretter, ce n'est pas la question, c'est vrai.
Le bruit est tout simplement inévitable.
La variabilité est tout simplement inévitable, sauf si on admet l'existence d'une espèce d'entité phénoménalement gigantesque, capable de décider du destin de deux molécules.
Si on admet que toutes les molécules sont pilotées à distance par une entité, peut-être qu'on peut réintroduire la notion de déterminisme, mais on réintroduit plutôt une notion de dieu.
Et le déterminisme, pour moi, est un acte de foi, on peut revenir là-dessus, et/ou le résultat d'une sélection évolutive.
Ce qui apparaît à nos yeux comme déterministe l'est juste parce que c'est répétable, parce qu'on a tous deux yeux, deux oreilles, enfin, pour la plupart d'entre nous.
C'est simplement le résultat d'un processus évolutif.
Nous sommes des systèmes sélectionnés par l'évolution pour avoir deux yeux et deux oreilles, pas le résultat d'un déterminisme.
Les systèmes vivants sont apparus et se sont maintenus grâce à la capacité à encapsuler l'aléatoire.
"Encapsuler", je ne sais pas bien ce que ça veut dire, mais c'est cette notion de contrainte, cette idée que l'aléatoire, le système vivant ne peut pas ne pas y avoir affaire.
Il y a forcément affaire, mais il trouve une façon de l'utiliser, de l'encapsuler.
Ces systèmes vivants produisent une descendance avec modification, c'est le terme exact de Darwin, qui est le cœur de l'évolution.
Il n'y a pas de programme qui s'écrit de lui-même en faisant des erreurs.
Là franchement, s'il y a des informaticiens dans la salle et qu'ils me disent qu'ils font ça tous les jours, je n'en reviendrai pas, je crois que ça n'existe pas.
C'est une métaphore, le programme génétique.
C'est une vision informationnelle des choses, faite à un moment où l'informatique était en train d'exploser, Turing, etc.
Et oui, la biologie regardait avec beaucoup d'envie ces choses-là, mais je crois qu'il faut l'abandonner, tout simplement.
Ce n'était qu'une métaphore et c'est faux.
Il n'y a pas de programme génétique, j'espère vous en avoir convaincu.
Il est plus intéressant de regarder les systèmes vivants comme des systèmes dynamiques.
Il y a toute une théorie, venant de la physique essentiellement, sur les systèmes dynamiques, et je pense que ça permet de bien mieux rendre compte de la réalité des systèmes biologiques que le point de vue informationnel.
Pour me résumer : nous ne sommes là que par hasard.
Véritablement, je pense qu'il faut admettre ça, et parce que l'évolution a sélectionné des systèmes dynamiques complexes, capables de contraindre le hasard moléculaire.
Il se trouve que c'est le cas, ça s'est bien passé, et que, in fine, nous en sommes là aujourd'hui.
Ce qui ne veut pas dire qu'on ne peut pas comprendre.
Cette contrainte sur le hasard moléculaire a des bases moléculaires, qu'on peut décrypter.
Je vous ai parlé des demi-vies, d'état du système, on peut imaginer d'autres choses.
Tous les arguments pour tenter de sauver le programme génétique peuvent être réutilisés ici : la compartimentation, la signalisation, cette complexité-là peut être réinjectée, mais dans un cadre différent où on ne veut plus comprendre comment on génère de la variabilité, ça, c'est fait, mais comment, au contraire, on génère de la reproductibilité.
Je voudrais remercier tout particulièrement Jean-Jacques Kupiec, avec lequel les discussions ont été nombreuses, riches, parfois difficiles mais toujours stimulantes, Andras Paldi, avec lequel on collabore depuis de très nombreuses années, c'est des collaborations particulièrement riches, Sandrine Gonin-Giraud, maître de conférence dans l'équipe ici et qui a été particulièrement importante pour la vie de l'équipe, et tous les membres actuels de mon groupe, "Systems Biology of Decision Making", au sein du LBMC.
Je vous remercie pour votre attention et je suis prêt à prendre des questions.
Oui.
Modératrice.
-Je vais faire circuler un micro, donc merci de lever la main.
Une question, là.
Participant 1.
-Bonjour.
Je vois dans vos présentations beaucoup d'éléments qui me font penser à des modèles mathématiques connus.
Donc ma question, c'est : avez-vous travaillé avec des automaticiens ou des spécialistes de la modélisation de systèmes dynamiques ?
Olivier Gandrillon, directeur de recherche, CNRS.
-Oui, on fait ça tous les jours en fait.
"Systems Biology of Decision Making" est une équipe mixte avec des mathématiciens, des informaticiens et des biologistes.
L'idée est d'avoir des gens qui se parlent au quotidien, je ne cherche pas des gens qui fassent des manips et du code en même temps, mais des gens qui fassent des manips et comprennent le code, et des gens qui écrivent le code et comprennent les manips.
Donc oui bien sûr, on est en collaboration.
Je ne suis pas rentré dans le détail, mais toute la partie sur la façon de mesurer la stochasticité, l'utilisation de l'entropie, tout ça a été évidemment influencé par nos discussions avec des physiciens et des mathématiciens.
C'est au cœur de cette idée-là.
Cette notion de complexité que j'ai essayé de vous donner, sans ces outils-là, on n'aura aucun moyen de l'attaquer, c'est clair.
Si on abandonne le programme informatique, c'est car il faut affronter la complexité.
Là, il y a des outils qui peuvent nous permettre de le faire.
Participant 2.
-Je reviens un peu sur des équivalences.
J'en trouve beaucoup avec la physique quantique et la physique des particules.
Ou bien je trouve l'équivalence dans...
ou bien...
Pardon, excusez-moi.
Je suis médecin.
Je trouve beaucoup, sur le plan mathématique, d'équivalences avec l'algèbre non-abélienne, dans la physique quantique, qui fait qu'il y a des contraintes, comme dans les spins, qu'il y a un côté aléatoire, type les mouvements browniens linéaires, que vous retrouvez dans l'intégrale des chemins de Feynman.
Par exemple, vous parlez d'état de différence, je trouve la superposition des états de la physique quantique.
Donc, est-ce qu'on est plutôt dans une théorie de chaos mathématique ou bien dans une théorie de complexité mathématique avec les contraintes des hasards ?
Donc, je prends mon pied.
Olivier Gandrillon, directeur de recherche, CNRS.
-Tant mieux, c'est cool.
Oui, évidemment, beaucoup de ce que je vous ai raconté emprunte...
Physique quantique, je ne sais pas, mais physique statistique, clairement.
Toutes ces notions d'état, de changement d'état, de criticité, dont je n'ai pas parlé, mais qu'on a aussi vu apparaître dans nos systèmes, on est très intéressés pour poursuivre les discussions avec les physiciens, notamment les physiciens statisticiens.
C'est vraiment un dialogue qui doit continuer à s'enrichir.
Participant 2.
-On revoit un peu dans ce que vous avez dit l'entropie statistique, qui paraît évident.
On revoit presque, dans vos graphiques, le...
comment ça s'appelle ?
Quand vous avez des tunnels, le système des trois tunnels, au point de vue statistique.
Bon, j'arrête.
Olivier Gandrillon, directeur de recherche, CNRS.
-Oui, je ne sais pas si vous poussez trop loin les comparaisons thème à thème, mais je pense que l'idée de la physique statistique est une idée essentielle.
On abandonne le déterminisme une bonne fois pour toutes, et on essaie de décrire les systèmes à l'état statistique.
Participant 2.
-Et on voit cet aléatoire dans les migrations des cellules souches, qui fait qu'une va aller avec des vitesses différentes...
Olivier Gandrillon, directeur de recherche, CNRS.
-Exactement, on est vraiment très intéressés à poursuivre les dialogues.
Participant 2.
-Sur le plan mathématique et physique...
Olivier Gandrillon, directeur de recherche, CNRS.
-Un papier vient de sortir dans "Cell Systems" dans lequel les auteurs font un pas de plus, ils décrivent ce qu'ils appellent micro-états, macro-états, ce qui renvoie à des choses, à des concepts encore plus précis de la physique statistique que nous on le fait.
Mais oui, c'est clairement une voie dans laquelle il faut continuer d'avancer.
Participant 2.
-Je vous remercie.
Participant 3.
-Dans ces lieux, j'ai assisté, l'an dernier, à une conférence sur l'épigénétique.
Une chercheuse suisse, je crois m'en souvenir, nous disait par exemple qu'un stress subi par une personne pouvait avoir des conséquences jusqu'à la quatrième et cinquième génération.
Elle faisait la démonstration de l'épigénétique.
Est-ce que vos conclusions vous amènent à dire que ça n'existe pas ?
Olivier Gandrillon, directeur de recherche, CNRS.
-Non.
Qu'il y ait une forme de mémoire liée à l'épigénétique, c'est très clair.
L'épigénétique fait partie, je ne vais pas trop rentrer là-dedans, mais ça fait partie de ce que j'appelle les contraintes.
C'est aussi la façon dont la séquence linéaire n'est pas toute accessible en permanence.
Elle est plus ou moins accessible, plus ou moins compactée, et cette information, qui est complètement négligée par le dogme central, est essentielle au contraire.
Je n'ai pas essayé de vous convaincre que l'épigénétique n'existait pas, mais qu'il n'y avait pas de programme génétique.
Et je pense que l'épigénétique est évidemment une façon de mémoriser des choses, d'inscrire dans l'accessibilité, dans le positionnement 3D du génome, des informations essentielles.
Et quand je dis que l'état est une forme de mémoire, l'état épigénétique l'est évidemment aussi.
Non, ça me paraît très clair.
Participant 4.
-Bonsoir, je vous remercie pour votre conférence qui chamboule complètement ma conception de la génétique.
Mais ma question revient aux contraintes.
Vous les avez évoquées, et j'ai envie de savoir, finalement, comment on contrôle cette variabilité, comment la cellule arrive à choisir chez chaque individu, toujours la même chose, comment elle contrôle cette variabilité...
Juste des clés pour comprendre, merci.
Olivier Gandrillon, directeur de recherche, CNRS.
-Je ne suis pas sûr de pouvoir vous aider à comprendre ce que moi-même je ne comprends pas complètement.
Mais des pistes de recherche, des idées comme ça : il y a l'épigénétique, par exemple, typiquement.
Le fait d'inscrire certaines régions du génome comme non-accessibles aux facteurs de transcription, tant que ces régions sont inaccessibles les directions que la cellule pourrait prendre, si elle exprimait ces gènes-là, sont tout simplement coupées.
Ce sont des contraintes dans l'espace des états.
Certaines de ses régions deviennent inaccessibles parce qu'on a verrouillé les gènes correspondants.
C'est une façon simple d'inscrire.
Après, une forme de contrainte peut-être un peu plus compliquée, c'est que, typiquement, si on revient...
Je ne sais pas si je peux revenir aux états.
Vous voyez qu'il n'y a jamais moyen que les trois gènes soient tous en bas ou tous en haut.
Parce que c'est inscrit dans la façon dont les dynamiques sont organisées.
Ce qui fait que dans l'espace des états, un état ABC haut ou un état ABC bas est tout simplement inaccessible.
Pas parce que c'est codé dans la séquence de l'ADN, mais parce que c'est la dynamique qui impose que certaines expressions sont possibles et d'autres pas.
Je pense vraiment que...
Et alors là, vous imaginez, c'est un tout petit réseau à trois protéines, imaginez la même chose pour 30 000 protéines.
Vous imaginez le travail de sélection.
Si 30 000 protéines peuvent s'exprimer à n'importe quel niveau et moment, les systèmes vivants n'existeraient pas.
Tout le travail de l'évolution a été de sélectionner des solutions de contraintes qui font que, même quand on arrive à 30 000 gènes, tout n'est pas possible.
Certaines régions sont accessibles.
Mais des régions pas super cool restent accessibles.
C'est ainsi qu'on peut imaginer l'apparition de phénomènes cancéreux.
Ce serait certaines régions de l'espace des états qui, en temps réel ne sont pas accessibles et le deviennent par des mutations, par de l'environnement, etc.
Il y a des contraintes, et ces contraintes-là, je pense qu'une des parties de la réponse c'est ça.
La demi-vie est peut-être un peu abstraite pour vous, mais c'est cette idée que si la protéine est là plus longtemps, ça forme une mémoire, Cette mémoire impose que le système ne peut pas aller n'importe où n'importe comment, n'importe quand.
C'est vraiment des pistes, c'est compliqué.
Il y a aussi toutes les interactions cellule-cellule.
C'est important pour des organismes multicellulaires comme nous, le fait qu'une cellule n'autorise pas forcément la cellule voisine à atteindre n'importe quel état, et qu'à un moment, elle peut décider que ça suffit, et qu'elle l'élimine, par exemple.
Oui, des gens travaillent dans cette direction-là, notamment sur les contraintes imposées par les tissus à l'échelle des cellules, des gens travaillent sur ces choses, des gens qui défendent l'idée qu'une des parties de la contrainte anti-cancéreuse est précisément celle exercée par le tissu qui renormalise les cellules dans le tissu, qui, si on les dissocie, peuvent reprendre...
Il y a nécessairement une contrainte liée à la signalisation cellule-cellule.
Oui, il y a des programmes de recherche dans cette direction.
Participant 5.
-Bonsoir, merci beaucoup pour cette conférence.
C'était très intéressant, et puisqu'on parle de programme, je voulais savoir si vous aviez par exemple fait la comparaison ou l'association avec par exemple l'intelligence artificielle, qui pourrait être un système, de base codé, mais qui est évolutif comme ce que vous nous avez expliqué, qui est multi-informationnel, et qui change au cours du temps par des facteurs probabilistes et de hasard ?
Si on crée un système informatique qui soit comme ça, par exemple, les virus informatiques qui évoluent dans le temps et deviennent totalement différents de comment ils avaient été créés à la base.
C'est un phénomène évolutif qui pourrait être comparé.
Est-ce pour vous un phénomène qui pourrait être comparé avec l'évolution du vivant ?
Vivant en termes de cellules...
Olivier Gandrillon, directeur de recherche, CNRS.
-Sur l'intelligence artificielle c'est un peu compliqué, parce que je ne suis pas du tout un spécialiste.
Ce que j'en sais, c'est que c'est essentiellement des stats.
L'idée, c'est qu'on a un réseau de neurones plus ou moins profond qui apprend sur plein d'exemples, qui apprend des poids de connexion entre tous ces exemples, et qui après, étant donné un input, recrache un output attendu.
Et au milieu, il y a ce réseau de neurones qui a appris des poids sur des connexions.
Pas sûr qu'une fois qu'il ait appris, on l'autorise à désapprendre.
Je pense qu'une fois qu'on a entraîné un réseau de neurones pour une tâche, on le réutilise pour cette tâche, mais je ne suis pas un spécialiste.
Par contre, il est probable que d'avoir des algos qui soient capables de se reconfigurer suivant des situations différentes serait super utile pour envoyer des robots sur Mars ou faire face à des situations imprévisibles.
Je pense qu'une des difficultés de l'intelligence artificielle, c'est précisément son incapacité, sa difficulté, on va dire...
Je ne veux pas me mettre à dos tous les gens qui en font.
Sa difficulté à réagir à des phénomènes nouveaux.
Je pense que pas mal de gens essaient de mettre en place des trucs plutôt de type essaim, "swarm", pour répondre à des choses un peu nouvelles, plutôt que de type réseau de neurones.
Après, sur l'évolution des virus informatiques, je ne suis pas sûr que les virus qui infectent nos ordinateurs aient tant évolué que ça, dans la partie du code qui sert vraiment au virus pour causer des dommages.
Je pense que ça reste extrêmement dirigé.
Je ne sais pas s'il y a beaucoup d'expériences.
Parce que rien ne va véritablement faire muter le code du virus, que je sache, mais bon, ceci dit, si la question était : "Devrait-on s'inspirer de ça pour écrire des programmes plus smart ?"
Pourquoi pas.
Mais s'il nous faut le temps que l'évolution a pris pour arriver jusque-là, on en a encore pour quelques années.
Ça existe, des virus informatiques qui se modifient ?
Peut-être, c'est possible.
Participant 5.
-Oui, ça existe, les virus informatiques qui mutent, qui sont totalement différents de ce qu'on a programmé à la base.
Olivier Gandrillon, directeur de recherche, CNRS.
-D'accord.
Participant 5.
-Qui ne correspondent à rien de ce qu'on a programmé.
Olivier Gandrillon, directeur de recherche, CNRS.
-D'accord, OK.
C'est juste ma méconnaissance des virus informatiques.
Participant 6.
-Je vous préviens, je fais une intervention humoristique mais sérieuse quand-même, qui est la question de l'éducation.
On éduque les êtres humains, les animaux domestiques, et puis, d'un point de vue biologique, il y a le congénital, qui est de l'ordre de l'éducation.
Et le congénital n'est pas génétique, mais c'est quand même de l'ordre de l'éducation.
C'est-à-dire que si on met en jeu l'éducation, les gens qui se laissent éduquer sont programmés.
On peut ne pas se laisser éduquer, on peut refuser une éducation, mais si on accepte l'éducation, on est programmés.
Alors donc, on peut aussi...
Les gens qui ne se laissent pas éduquer ou qui sont éduqués autrement, on peut les éliminer, ça se fait aussi, en politique, etc., mais la question de l'éducation est manifestement une programmation qui n'est pas génétique.
Olivier Gandrillon, directeur de recherche, CNRS.
-Oui, on peut aussi éduquer à l'autonomie.
Participant 6.
-Oui, mais on n'est pas dans l'éducation là.
Olivier Gandrillon, directeur de recherche, CNRS.
-Mais on peut éduquer à l'autonomie.
Participant 6.
-Oui mais l'autonomie, on se croit autonome.
On peut se croire autonome.
Donc, il y a l'éducation.
Et l'éducation est contraire à Darwin.
Chez Darwin, je ne sais pas, mais là...
Olivier Gandrillon, directeur de recherche, CNRS.
-Je ne veux pas me laisser entraîner là-dedans, parce que franchement...
Je ne sais pas si...
Participant 6.
-C'était humoristique.
Olivier Gandrillon, directeur de recherche, CNRS.
-Je suis trop loin de mes bases pour...
Oui oui, je vois très bien.
Participant 7.
-Bonjour, est-ce que vous pouvez simplement définir ce qu'est la stochasticité ?
Olivier Gandrillon, directeur de recherche, CNRS.
-Oui, c'est l'aspect aléatoire.
C'est l'idée que si je lance un dé, chaque fois que je lance le dé, j'ai une probabilité de 1/6 que ça tombe sur la face 1 ou sur une autre face.
"Stochasticité" veut vraiment dire ça : je suis incapable de prédire le coup d'après.
Par contre, et c'est super important, beaucoup de biologistes ont du mal à le comprendre mais c'est essentiel, je peux prédire facilement la distribution.
C'est-à-dire étant donné un nombre suffisant de lancements de mon dé, si mon dé n'est pas pipé, je vais avoir une fois sur six 1, une fois sur six 2, une fois sur six 3, clairement.
Donc la prédiction, la distribution, l'ensemble des états possibles qu'atteint mon dé, si je le lance suffisamment de fois, est parfaitement prévisible, et on est dans le domaine des probabilités.
C'est cette branche des mathématiques qui permet de prédire de l'aléatoire, prédire du stochastique.
Et ça, dans la tête de beaucoup de gens, stochasticité, aléatoire, hasard, tout ça c'est juste équivalent à la notion d'équiprobable, comme si tout était possible.
Mais non, "aléatoire" veut juste dire : il peut y avoir une certaine probabilité de.
Ça peut être influencée par des événements.
Par exemple, quelque chose que vous connaissez tous : si je fume, j'augmente ma probabilité d'avoir un cancer du poumon.
Mais c'est juste probabiliste, je peux fumer toute ma vie n'avoir jamais de cancer du poumon, et je peux ne pas fumer et en avoir un.
Mais je sais que plus je fume, plus j'augmente ma probabilité d'avoir un cancer du poumon.
C'est un phénomène parfaitement stochastique et pourtant, étant donné une courbe de gens suffisamment importante, on peut définir les probabilités et la façon dont elles sont modifiées par le fait de fumer ou pas.
C'est vraiment important, l'idée que ce n'est pas parce que c'est du hasard que tout devient imprévisible et c'est le chaos.
On a entendu ce terme tout à l'heure.
Au sens mathématique du terme, le chaos n'est pas un phénomène stochastique, mais parfaitement déterministe, qui s'écrit avec des équations différentielles, le truc le plus déterministe au monde, et une sensibilité aux valeurs de paramètres.
Donc ça n'a vraiment rien à voir avec ce que je définissais comme la stochasticité.
Participant 8.
-Alors, petite réflexion, vous avez deux choses, vous avez l'aléatoire et le pseudo-aléatoire.
C'est-à-dire que quand vous lancez des dés, en tant qu'humain, on ne peut pas s'en servir en mathématiques.
Il faut avoir l'ordinateur et la machine pour faire vraiment l'aléatoire.
Parce que l'humain, à un moment donné, si vous voulez, ça été vu par exemple sur les joueurs d'échecs, par rapport aux robots, et les robots...
Olivier Gandrillon, directeur de recherche, CNRS.
-Parlez dans le micro, je ne vous entends pas là.
Participant 8.
-Un robot contre un humain, le robot finit par gagner, parce que le robot, si vous voulez, examine en un temps très court tous les chemins possibles.
Quand les maîtres des échecs jouent, on s'est aperçu, par caméra infrarouge, en suivant le mouvement des yeux, qu'ils commencent toujours de la même façon, et à ce moment-là, ils improvisent après, mais ce n'est pas du vrai hasard.
Le vrai hasard, c'est dans les répartitions mathématiques qui font qu'il n'y a pas plus à côté que moins de côté, l'irrégularité.
C'est comme ça qu'on définit le hasard, nous en physique.
Olivier Gandrillon, directeur de recherche, CNRS.
-Alors, j'imagine que vous faites allusion au fait que le hasard peut être juste l'expression de notre ignorance.
Participant 8.
-Non non, je vous dis que le hasard...
Olivier Gandrillon, directeur de recherche, CNRS.
-Vous dites que les ordinateurs peuvent battre le hasard, je ne pense pas, dans un jeu...
Participant 8.
-Non, ce n'est pas ça, c'est-à-dire que l'humain a une logique, si vous voulez, pas une vraie logique type ordinateur.
Olivier Gandrillon, directeur de recherche, CNRS.
-Non, ça c'est sûr.
Participant 8.
-Donc le hasard, quand on s'en sert sur le plan mathématique, on se sert dans la logique mathématique.
Il y a une répartition du hasard avec, comme vous le dites, des contraintes.
Tandis que quand on envoie les dés, il y a d'autres composantes, qui font qu'on pense un peu à autre chose.
On envoie un petit peu, si vous voulez, en étant provocateur, toujours de la même façon, inconsciemment, parce que nous avons des contraintes.
Je voulais dire tout à l'heure qu'un exemple de contrainte bien connu par les biologistes et par les médecins, ce sont les côtés, côté droit et gauche, que l'on retrouve dans le...
J'ai un appareil dentaire, ce n'est rien.
C'est-à-dire que le droit et le gauche ne sont jamais symétriques, il y a des contraintes.
C'est un peu comme, si vous voulez, on ne va pas refaire les choses, mais vous voyez, c'est une autre façon de voir.
Mais ce que vous avez décrit est parfait.
Mais ce n'est pas la même façon de voir.
Olivier Gandrillon, directeur de recherche, CNRS.
-OK.
Participant 9.
-Bonsoir, merci beaucoup pour la conférence.
Je voulais savoir, du coup, vous parliez de cancer tout à l'heure.
Manifestement, un cancer, c'est une cellule qui devient divergente, et qui change de fonction.
Du coup, vous parliez de contraintes.
Est-ce qu'on en aurait identifié qui permettraient justement de réduire le fait qu'une cellule puisse devenir divergente ?
J'imagine que ça dépend, en fonction de la cellule, c'est un peu vague.
Et à l'inverse, peut-on forcer une cellule à devenir vraiment divergente, quitte à ce qu'elle se détruise toute seule ?
Olivier Gandrillon, directeur de recherche, CNRS.
-Oui, c'est effectivement intéressant.
C'est une piste de recherche intéressante.
Je n'ai jamais entendu personne proposer ça, mais je pense que c'est une bonne idée, de forcer un système qui a déjà commencé à diverger à continuer de diverger, au-delà du moment où il est viable, et donc il crashe.
Jamais entendu ça, mais on pourrait sûrement creuser.
Par contre, ce qu'on essaie de faire, dans un cadre un peu plus modeste, c'est de voir, si on augmente ou on diminue la variabilité d'expression des gènes, si on favorise le processus de différenciation.
On est quand même plus sur les aspects différenciation plutôt que cancer.
Mais on imagine bien que si on pouvait réduire la variabilité d'expression des gènes d'une cellule cancéreuse, on pourrait peut-être la recontraindre dans des régions où elle deviendrait plus accessible à des traitements.
Ça, c'est vraiment des pistes de recherche que beaucoup de gens travaillent, en utilisant essentiellement des agents de type modificateurs globaux de l'épigénome, TSA, etc.
C'est vraiment des choses sur lesquelles des gens bossent, plutôt de dire : la variabilité permet à la cellule cancéreuse d'atteindre des états qu'on ne souhaite pas, donc on essaie de restreindre cette variabilité pour la reforcer à se comporter...
Et comme je disais tout à l'heure, des gens travaillent vraiment sur l'aspect tissulaire, le fait qu'une cellule soit encadrée de cellules normales, ça la contraigne, dans certains cas ça la renormalise, au sens où elle redevient normale, et plus cancéreuse.
Participant 10.
-Ces derniers temps, on parle beaucoup des perturbateurs endocriniens.
Ils pourraient faire bifurquer ces états métastables vers d'autres attracteurs ?
Olivier Gandrillon, directeur de recherche, CNRS.
-Tout à fait, je pense que c'est typiquement l'exemple de choses qui effectivement vont avoir des effets relativement discrets, pas immédiats, mais qui peuvent faire basculer le réseau dans un état qui ensuite va l'attirer ailleurs, tout à fait.
Ces choses jouent probablement à des échelles assez globales sur le génome, sur l'expression, oui tout à fait.
Après, des gens qui font du single-cell sur les perturbateurs endocriniens, je n'en connais pas, mais ce serait intéressant à regarder.
La variabilité de l'expression des gènes, est-elle affectée par l'addition d'un perturbateur ?
C'est sûrement quelque chose qui serait très intéressant à regarder.
Participant 11.
-Il y a à peu près deux ans dans cette même salle, on avait eu une conférence dans un domaine voisin du votre, et l'orateur nous avait expliqué qu'il y avait des contraintes.
On avait pendant longtemps attribué au programme des choses qui étaient de l'ordre de contraintes physiques également, par exemple dans la différenciation des cellules dans la formation de l'embryon.
Il y a des emplacements, des choses qui apposent des contraintes physiques de proximité, vous l'avez évoqué aussi.
L'organisation physique dans l'espace de l'œuf oblige certaines cellules à prendre certaines directions.
Olivier Gandrillon, directeur de recherche, CNRS.
-Absolument, vous avez parfaitement raison.
C'est mon erreur de ne pas avoir pensé à mentionner ça dans le jeu de contraintes.
C'est évidemment une contrainte fondamentale.
Les questions de contraintes purement physiques, mécaniques, d'espace, etc., de choses qui n'ont rien à voir avec le programme, mais qui, pour le coup, sont essentielles.
On vit dans un état de gravité, etc., on est soumis à ça.
Oui, évidemment, toutes ces questions-là...
Je ne travaille pas du tout là-dessus, j'ai parfois un peu de mal à y penser, mais c'est des contraintes super importantes.
Tout n'est pas possible, ne serait-ce que parce qu'il y a des contraintes physiques qui font que certains états ne sont pas atteignables : des contraintes mécaniques...
Oui, bien sûr.
Participant 12.
-Bonsoir, je suis là.
Vous montrez qu'on peut réprimer un gène.
Y a-t-il un mécanisme contraire qui permettrait d'en favoriser un ?
Olivier Gandrillon, directeur de recherche, CNRS.
-Oui, tout à fait.
Là c'est juste un exemple parce que c'est plus simple comme ça pour le double toggle switch, mais on doit pouvoir en faire un où, au lieu que A réprime C, il l'allume, oui bien sûr.
Pour le coup, si c'est un truc que la biologie moléculaire fait remarquablement bien, c'est de donner des outils pour jouer avec les niveaux d'expression pour des gènes isolés.
Pour des phénomènes globaux, c'est plus compliqué, mais pour un gène, pour l'allumer ou l'éteindre, on a à peu près tous les outils qu'on souhaite à notre disposition.
Donc, si on veut tester, si je prends cet état-là et je surexprime B, qu'est-ce qui se passe ?
La biologie moléculaire contemporaine nous donne les moyens de le faire et l'accès à ça.
Modératrice.
-Est-ce qu'il y a encore une question ?
Participant 13.
-Oui, bonjour, est-ce que, dans le modèle que vous avez présenté de la cellule qui avait deux états, soit globule, soit un autre, avez-vous un modèle mathématique qui correspond exactement à ça, ou est-ce que c'est un peu...
Olivier Gandrillon, directeur de recherche, CNRS.
-Non.
Le problème des modèles mathématiques sur les processus de décision à l'échelle cellulaire, ils sont, à ma connaissance, tous basés sur le toggle switch, cette idée où A réprime B et B réprime A.
Toute la modélisation mathématique du choix de lignage est faite avec ce modèle-là, dans lequel l'idée même qu'une cellule puisse hésiter n'a juste pas été prise en compte.
Il faudrait se reposer la question de la modélisation mathématique.
Comment l'état d'un réseau peut devenir hésitant ?
C'est à mon avis une question, ne serait-ce que d'un point de vue de modélisation, très ouverte, parce que les mathématiciens n'aiment pas du tout ça.
En général, ils aiment bien, étant donné un modèle quelconque, trouver les points d'équilibre dans lequel le modèle se dirige naturellement.
Et des états dans lesquels le modèle hésite entre plusieurs états, ce n'est pas quelque chose dont nos amis mathématiciens sont très friands, mais ça vaudrait le coup, plus des modèles informatiques que mathématiques, pour essayer de trouver comment générer des réseaux dont la structure fait qu'à un moment donné, le réseau hésite, il alterne, avant de décider.
Parce que le schéma du toggle switch est assez pentu.
Une fois qu'on est au sommet, en général, on n'y reste pas trop.
La moindre fluctuation vous entraîne soit d'un côté soit de l'autre.
Et donc, des modèles mathématiques autorisant l'hésitation des cellules, malheureusement, on n'en a pas encore, mais c'est une bonne idée.
C'est de l'économie, c'est ça ?
Connais pas.
Participant 14.
-Un truc qui hésite, qui bascule vite d'un côté à l'autre...
Olivier Gandrillon, directeur de recherche, CNRS.
-Basculer vite, on sait faire.
Le toggle switch bascule vite.
C'est plus compliqué d'avoir un réseau capable d'explorer un état, de revenir à un état suivant, et de réexplorer un état, sans rester figé dans un de ces états.
En gros, un réseau capable de descendre la colline, de la remonter et de redescendre de l'autre côté, et de la remonter, de la redescendre.
Et ça, à ma connaissance, il n'y a pas de modèles qui font ça.
Participant 14.
-Quand il est en haut de la colline, la moindre impulsion va faire...
Olivier Gandrillon, directeur de recherche, CNRS.
-Qu'on tombe d'un côté ou de l'autre.
Et ce qu'on voit nous...
Participant 14.
-C'est pour ça que je parle d'équilibre de Nash.
Olivier Gandrillon, directeur de recherche, CNRS.
-Tout à fait, ça c'est sûr, et le toggle switch le fait remarquablement bien.
Mais ce qu'à mon avis, aucun modèle n'est capable de faire, c'est ça, deux états a priori indépendants, dans lesquels une grande partie du transcriptome est modifiée, donc qui devraient être des états stables, qui d'ailleurs correspondent, pour ces cellules, à des états stables, difficile de les distinguer.
Et pourtant, cette cellule-là ne reviendra pas en arrière, alors que celle-là est capable de se redifférencier dans ces cellules-là.
Des modèles maths qui font ça, je n'en connais pas, qui vraiment hésitent, qui sont capables de faire des allers-retours entre les états.
Modératrice.
-Il y a encore une question ?
Je ne vois plus de bras qui se lèvent.
Merci beaucoup, monsieur Gandrillon.
Olivier Gandrillon, directeur de recherche, CNRS.
-Merci à vous.

Intelligences animales : en finir avec la hiérarchie

Mardi 10 octobre 2017

L’intelligence est une fonction comportementale adaptative partagée par tous les animaux. Elle est partout et plurielle. Ainsi l’humain n’est pas le sommet d’une échelle imaginaire de l’intelligence.
Avec Emmanuelle Pouydebat, directrice de recherche au CNRS, laboratoire « Mécanismes adaptatifs et évolution », Muséum national d’Histoire naturelle (MNHN). 

Intelligences animales : en finir avec la hiérarchie
"La Cité des sciences et de l'industrie : les conférences" "Quand la science se remet en question : cycle de conférence" "Intelligences animales : en finir avec la hiérarchie" "Avec Emmanuelle Pouydebat, chargée de recherche au CNRS, Laboratoire Mécanismes adaptatifs et évolution, Muséum national d'Histoire naturelle."
"Avec le soutien de Pour la science."
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Merci beaucoup.
Merci de votre présence.
Je suis très heureuse d'être avec vous.
Merci à toute l'équipe pour l'organisation.
Je suis directrice de recherche au CNRS et je travaille dans un laboratoire qui s'intéresse aux capacités adaptatives du monde vivant.
Mon approche de l'étude du comportement vise à essayer de comprendre les capacités adaptatives des espèces animales.
Cette conférence s'intitule "Intelligences animales" au pluriel car, pour moi, il y a plein d'intelligences différentes.
"En finir avec la hiérarchie".
Vous verrez, au fur et à mesure de cette présentation, que la notion de hiérarchie de l'intelligence n'a pas de sens.
L'humain au sommet d'une pyramide de l'intelligence, ça n'a pas de sens.
Auditeur 1.
-Bravo !
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Je peux arrêter là !
Au fur et à mesure de cette présentation, je vais essayer de vous donner un maximum d'exemples en une heure.
J'espère vous donner envie de découvrir un peu plus ce monde animal qui est fascinant.
Au travers de certains exemples, certaines idées reçues devraient tomber.
Si je ne vous convaincs pas, j'aurai raté ma conférence.
L'intelligence, voilà comment je la définis.
Oui, je la définis.
J'ai entendu dire : "Il ne faut pas parler d'intelligence".
Si.
Il suffit juste de définir ce qu'on entend par le mot qu'on évoque et qu'on veut expliquer.
On peut parler d'intelligence et la définir.
Pour moi, c'est une fonction comportementale qui va permettre à une espèce ou à un individu de s'adapter et, éventuellement, d'en tirer un bénéfice.
Selon le contexte et les animaux, les bénéfices peuvent être différents.
On verra plein d'exemples.
Je passe relativement vite là-dessus.
Mais, moi, je m'intéresse au comportement dans son ensemble.
Ça implique de regarder la génétique ainsi que le phénotype, c'est-à-dire à quoi ressemble l'animal.
Est-il grand ?
Petit ?
Fort ou pas ?
Ça implique de regarder le lien avec les performances de l'animal.
Sera-t-il capable de faire les choses rapidement ou pas ?
Ça influencera son comportement.
Est-il capable d'attraper une proie ou pas ?
Ça aura une influence sur sa survie car si je ne peux pas attraper ma nourriture, je ne survivrai pas.
Je m'intéresse à toutes ces étapes-là du comportement.
Pourquoi me suis-je lancée dans l'étude de l'intelligence animale ?
Ça a commencé par un coup de foudre.
Un premier coup de foudre pour une personne et un livre.
Le professeur Yves Coppens, dont j'ai découvert l'ouvrage, qui est à l'écran, "Le singe, l'Afrique et l'homme", sorti dans les années 1980.
J'avais dix ans.
Je suis tombée amoureuse du livre, du personnage.
Et j'ai décidé de me lancer dans cette compréhension du passé.
Les questions qui me venaient à l'époque, c'était : "Pourquoi, à un moment donné dans l'évolution, parmi tous les primates, certains s'appellent "Homo" ?
Ils sont classés dans le genre humain.
D'autres ne le sont pas.
Notamment, les australopithèques, les paranthropes, et, vous la connaissez peut-être, Lucy, cette petite australopithèque qui date de 3,3 millions d'années.
Elle fait 1,10 mètre.
Elle est australopithèque.
Elle n'était pas classée parmi les humains.
Quand j'étais gamine, je me demandais pourquoi.
J'ai réalisé que c'est l'utilisation d'outils qui déterminait que, à telle période de l'évolution des primates, on peut parler d'humains, et à telle autre, on ne peut pas.
Car on pensait que seuls les humains savaient fabriquer des outils en pierre.
Voilà à quoi...
Ce sont des reconstitutions hypothétiques, mais voilà à quoi peut ressembler le milieu dans lequel vivait Lucy.
Bien sûr, moi, je me demandais pourquoi cette australopithèque n'avait pas utilisé d'outils.
Je me suis posé ces questions il y a 20 ans et aujourd'hui encore.
Mais maintenant, j'ai plus d'éléments de réponse.
Alors pourquoi l'outil est-il lié à l'espèce humaine ?
Ou pourquoi l'espèce humaine est-elle liée à l'outil ?
En fait, dans les années 1960, quand cette main partielle a été découverte, au départ, on ne pensait pas que c'était un humain.
Puis comme on a trouvé, dans les mêmes couches des outils, on s'est dit que c'était un humain.
Or les critères qui sont utilisés pour dire que c'était un humain sont les suivants.
D'abord, une individualisation des doigts et une capacité à saisir avec force des petits outils, dans les extrémités du pouce et de l'index.
Ensuite, des caractères morphologiques, comme la longueur du pouce, la largeur des dernières phalanges des doigts.
Enfin, un critère encore considéré comme fondamental aujourd'hui, c'est la bipédie, donc la vie en savane, plutôt qu'en milieu arboricole.
Je me suis dit que j'allais reprendre tous ces critères car je n'y croyais pas.
C'était juste une intuition.
Je n'en ai pas que des bonnes.
Là, en tout cas...
Voilà pourquoi j'ai consacré toutes ces années à essayer de comprendre ce qui fait un humain, si c'est l'outil qui fait l'humain et si les critères pour dire que l'outil fait l'humain sont bons.
On va voir que, dès les années 1960, on avait déjà beaucoup d'éléments de réponse.
Jane Goodall, vous devez la connaître, c'est cette primatologue qui, dans les années 1960, a recensé les chimpanzés en Afrique de l'Ouest.
En parallèle, Madame Galdikas avait recensé les orangs-outans en Asie, puis Dian Fossey, avait recensé les gorilles au Rwanda.
Et cette dame a passé des décennies à observer des chimpanzés.
Elle s'est vite aperçue qu'ils utilisaient des outils.
À l'époque, ça a été une révolution car on ne pensait pas qu'ils en utilisaient.
Ensuite, elle a donné des prénoms aux chimpanzés.
Ça ne se faisait pas, et aujourd'hui encore, pour certains collègues.
En tout cas, dès les années 1960, on avait des éléments pour dire : "Même si on a un pouce court comme un chimpanzé, on peut utiliser des outils, des pierres pour casser des noix ou des branches pour aller extraire de la nourriture."
Je me suis dit que c'était par là que je devais aborder le problème : essayer d'abord de comprendre le présent pour essayer de comprendre le passé.
L'outil est-il une invention humaine ?
C'est une de mes premières questions.
Est-ce le propre des humains ?
Si oui, pourquoi ?
Si non, pourquoi ?
Vous pouvez trouver des articles entiers consacrés la définition d'outil.
On ne va pas en parler pendant une heure.
Je vous en propose une qui est largement acceptée.
C'est un objet qui va être détaché d'un substrat et utilisé pour modifier la forme, la position ou l'état d'un autre objet.
Concrètement, voici des exemples et des espèces qui utilisent des outils.
On peut utiliser un outil pour se nourrir, pour se protéger, attaquer, chasser, se défendre, jouer, se nettoyer, se faire plaisir.
Dans le monde animal, toutes ces utilisations existent.
Ce qui m'intéresse beaucoup, par rapport à ces histoires supposées de hiérarchie de l'intelligence, c'est : qui utilise ces outils ?
Or, plein d'espèces animales utilisent des outils.
Chez les mammifères, il y a plein d'exemples chez les primates, chez les singes.
Et chez d'autres mammifères, les éléphants, des carnivores, le lion, le ratel.
Vous verrez un exemple.
Il y en a aussi chez les reptiles, pas beaucoup, car ils ont longtemps été considérés comme des imbéciles, donc il y avait moins d'expérimentations sur ces animaux-là.
Vous en avez aussi sur les invertébrés, comme les poulpes.
Mais il y a des exemples moins connus, chez les araignées, les fourmis et les abeilles.
Tous ces animaux utilisent des outils.
On est bien loin des arguments de la morphologie de la main humaine.
Je vais vous donner des exemples d'utilisation d'outils, puisque pour commencer avec ces notions d'intelligence, j'ai choisi l'utilisation d'outils, vu que c'est ce qui m'a intéressée pour comprendre ces spécificités "humaines".
Pour accéder à la nourriture, il y a plein d'exemples d'utilisation d'outils, notamment en guise de prolongation du bras.
Il y a beaucoup d'exemples.
Chez les primates.
Ici, vous avez un lémurien.
On en voit souvent dans les parcs zoologiques.
Là aussi, chez les primates, les lémuriens ont souvent été considérés comme des animaux stupides.
C'est absolument faux.
Ils ont des capacités cognitives développées.
Il y a d'autres exemples, ici, d'utilisation de bâton pour extraire de la nourriture.
Je vous montre une expérience chez les gorilles que j'ai faite, il y a dix ans.
Elle montrait que les gorilles savaient utiliser des bâtons pour extraire de la nourriture.
Ils utilisaient des bâtons longs pour les trous profonds puis les raccourcissaient pour aller dans les trous moins profonds.
Il y avait une stratégie d'utilisation d'outil, chez les gorilles.
Vous connaissez peut-être ces utilisations d'outil...
chez les chimpanzés.
Ça, ce sont des chimpanzés étudiés par Christophe Boesch.
Ils utilisent des branches et des pierres pour ouvrir les noix.
Plein de travaux montrent qu'il y a même des notions pédagogiques chez les chimpanzés.
Les mamans font le geste lentement pour que les petits apprennent mieux.
Il y a des notions de tradition et de culture, qu'on n'évoquera pas.
Mais sachez que ces utilisations d'outil sont relativement complexes.
Un autre exemple d'ouverture de noix avec des pierres, que vous connaissez peut-être moins, ce sont les singes capucins.
Eux, ce sont des singes capucins du Brésil, qui utilisent des pierres pour ouvrir des noix.
Les primatologues s'affrontent pour définir la tâche la plus dure : ouvrir des noix, pour les chimpanzés ou pour les singes capucins ?
Les singes capucins, parfois, doivent soulever des pierres plus lourdes qu'eux-mêmes pour ouvrir des noix.
Il est clair que, d'un point de vue de la coordination motrice, c'est très compliqué.
Pour les chimpanzés aussi.
Pour avoir essayé d'ouvrir les mêmes noix qu'eux, je peux vous dire que si vous tapez trop fort, vous écrasez la noix, pas assez fort, vous ne l'ouvrez pas.
C'est un apprentissage.
Il faut des semaines, voire des mois, pour maîtriser le geste.
Pour accéder à la nourriture, il y a des animaux qui sont extrêmement performants aussi, dans l'utilisation d'outils.
On pourrait en parler pendant 3 heures, ce sont les oiseaux.
Parmi eux, les corneilles sont capables d'utiliser des outils comme prolongation, pas du bras, mais du bec.
Et il y a toute une série de travaux qui montrent que, selon les nourritures qu'elles ont à extraire des orifices de différents substrats végétaux, elles vont s'aménager des outils vraiment appropriés.
En exemple, ici, vous avez un tas d'outils différents utilisés par les corneilles.
Et ici, vous avez des petites entailles sur le bord du végétal.
En fait, la corneille se fabrique ces petites entailles pour extraire certaines espèces de larve, qui vont s'accrocher aux entailles.
Ce n'est pas moi qui travaille dessus, malheureusement.
Mais les auteurs parlent d'une technologie adaptée à l'espèce que les corneilles vont chasser.
Ça, c'est en milieu naturel.
Dans l'étude du comportement animal, des travaux en milieu naturel sont souvent complétés par des travaux en contexte expérimental pour voir jusqu'où les animaux peuvent aller.
Le film est très mauvais, donc je vous ai juste mis une photo.
Ici, au fond de ce tube, les chercheurs ont mis un panier avec une petite anse.
On fournit aux corneilles des petites tiges en aluminium, rectilignes.
La corneille, pour pouvoir remonter l'anse, doit se faire un petit crochet sur la tige pour remonter le panier.
En fait, les corneilles y arrivent du premier coup.
Il ne faut pas que l'angle soit trop aigu, sinon elle ne peut pas attraper l'anse, ni trop obtus.
Donc, c'est une tâche complexe.
Il y a d'autres exemples chez les oiseaux.
Chez les calopsittes, les perroquets, on a des exemples d'individus qui prennent des petits bâtons pour rapporter des cacahuètes.
Je vous en montre un autre exemple, chez le vautour percnoptère.
Là, c'est l'ouverture d'œufs, chez le vautour percnoptère, notamment en Égypte, qui prend des pierres et les lance sur les œufs, pour les ouvrir.
Pour accéder à de la nourriture, d'autres types d'outil peuvent être utilisés, notamment pour obtenir des éclats.
J'aime bien cet exemple, car, bien sûr, l'utilisation d'éclats, pour travailler les peaux et obtenir de la nourriture, est une utilisation d'outils classique chez l'humain, notamment chez l'Homo habilis, qui a valu cette différentiation entre australopithèque et Homo habilis.
Je fais souvent ce petit jeu, quand je fais des conférences avec des étudiants, ou peu importe, y compris des archéologues, ce qui est intéressant, en fait, quand je leur montre cette planche, avec différents outils, différents éclats, pour découper, racler, etc., je demande aux étudiants ou aux collègues archéologues : "Est-ce de l'Homo habilis ?
De l'australopithèque ?"
"Non, surtout pas !"
"Est-ce de l'erectus ?
Ça date de quelle époque ?
2 millions ?
1 million ?
3 millions ?
Quelle espèce ça peut être ?"
Là, je leur montre que c'est Kanzi.
C'est un bonobo qui est étudié depuis longtemps, dans différentes tâches, utilisation, fabrication d'outils.
Maintenant, il sait même faire son feu, Kanzi.
En fait, Kanzi a été capable de se fabriquer des éclats.
En 20 ans, il s'est fabriqué toute une panoplie d'outils différents adaptés aux différentes tâches qui lui étaient proposées.
Et il a fait évoluer ses outils.
Kanzi est un bonobo, pouces très courts, les phalanges distales fines, contrairement aux humains.
Tous les caractères morphologiques utilisés pour dire que la main humaine est seule capable de fabriquer des outils tombent avec Kanzi, car il n'a aucun des critères morphologiques utilisés pour dire que seuls les humains peuvent fabriquer ce type d'éclats.
Ça ne veut pas dire que les ancêtres des bonobos fabriquaient des outils, il y a 6-15 millions d'années.
Ça veut juste dire que ce n'est pas parce qu'on a une main de bonobo, qu'on n'est pas capable de faire ce type d'outils.
Et si on trouve ces outils en fouilles archéologiques, ça peut tout à fait être autre chose, une autre espèce qu'Homo habilis qui a fait ces outils.
Autre exemple qui, pour moi, est encore plus intéressant, puisqu'on n'est pas dans les grands singes, comme Kanzi.
Chimpanzés, orangs-outans, gorilles et humains.
Là, je vais vous montrer un exemple chez un petit singe capucin, qui a un problème à résoudre.
En fait, dans ce tube, il y a du sirop d'érable et ils adorent ça.
En haut de ce tube, il y a un orifice qui est comblé par du papier.
Et, pour aller chercher son sirop d'érable, il doit enfoncer une branche.
Mais avant, il faut percer cet orifice.
Donc, il a un enchaînement d'actions à produire pour récupérer ce sirop.
Première chose.
Première étape.
Le singe capucin a observé la tâche qu'il avait à faire.
Il va aller chercher la matière première qui est à sa disposition.
En l'occurrence, ici, du silex.
Il va frapper le silex.
Il va choisir l'éclat qui lui semble le plus approprié, celui qui a fourni une pointe, et il va percer le film plastique.
Ensuite, il va enchaîner avec une tâche qui est complémentaire et qui va lui permettre d'obtenir son sirop d'érable.
Il va prendre des branches, les effeuiller...
Et il va les enfoncer dans le tube.
Ce qui est très intéressant, c'est qu'il n'a pas le pouce opposable.
J'en ai pas parlé, mais le pouce opposable...
Chez l'espèce humaine, c'est une fonctionnalité très intéressante.
Ça permet de faire plein de choses.
Mais si on n'en a pas, on peut faire d'autres choses fines en termes de motricité.
Pour accéder à la nourriture, il n'y a pas que l'utilisation de branches, de pierres, pour casser des noix ou prolonger le bras.
Il y a aussi des jeux de niveau.
Dans les jeux de niveau et dans la connaissance de la matière, là encore, les corneilles font des choses très intéressantes.
Un tas de protocoles ont été imaginés pour tester ces performances chez les corneilles.
À chaque fois, de la nourriture est mise dans un tube.
Première expérience : ici, de la nourriture flotte à la surface de l'eau.
Et ici, elle est disposée sur du sable.
La corneille laisse tomber la nourriture posée sur le sable et va s'intéresser à la nourriture qui flotte sur l'eau, en allant mettre des cailloux à l'intérieur du tube pour faire monter la surface de l'eau.
Ce qui est très intéressant dans cet exemple, c'est que, au bout du troisième essai, au lieu de mettre neuf cailloux, elle en met trois car elle a compris qu'en mettant les plus gros, l'eau remontait plus vite.
Donc, il y a une compréhension de ce que la corneille fait.
Dans le deuxième exemple, pareil, la nourriture flotte en surface.
Ce qui est proposé à la corneille, ce sont des petits cubes qui n'ont pas la même masse.
Elle va très vite se rendre compte qu'avec certains cylindres, ça remonte beaucoup plus vite.
Ici, vous avez même des tubes communicants.
La nourriture est au milieu, le caillou ne passe pas dans le tube le plus fin, et elle a bien compris qu'il fallait le mettre dans les larges.
Des exemples sur les corneilles, il y en a énormément qui montrent des capacités d'anticipation et d'enchaînement de tâches différentes pour accéder à la nourriture.
Il y a des exemples d'utilisation d'outil pour boire.
À chaque fois, vous allez avoir des versions en captivité et en milieu naturel.
Là, des orangs-outans utilisent des citrouilles comme récipients, des feuilles.
Là, des chimpanzés utilisent ça aussi comme récipient.
Les fourmis le font aussi.
Je vous parle de primates, mais les fourmis le font aussi, d'utiliser des récipients ou des matériaux spongieux pour transporter leur nourriture.
Pour accéder à la nourriture, ce qui manquait peut-être un peu pour essayer de comprendre les différentes capacités des espèces étudiées, c'est la résolution d'une même tâche par différents individus et par différentes espèces.
Et pour s'intéresser et avoir des réponses, avec une de mes anciennes étudiantes, on a imaginé un protocole, qu'on a mis en place dans des zoos et aussi au laboratoire, car on a fait travailler les humains.
Ici, vous voyez, c'est un labyrinthe accroché à un grillage.
Au bout de ce labyrinthe, on plaçait de la nourriture.
Chez les humains, ce n'était pas une noix mais des M&M's.
Et chez les singes qu'on a étudiés, on mettait des noix.
Au début, on avait mis des raisins.
Sauf que si vous mettez un raisin chez un bonobo, il fabrique une lance, avec une pointe et pique le raisin.
Or ce qui nous intéressait, c'était de voir son circuit et comment il éviterait les obstacles.
Je ne suis pas toujours plus intelligente que les individus que j'étudie.
Donc, il faut imaginer à chaque fois ce labyrinthe accroché au grillage des animaux.
On met la nourriture au bout et on voit ce qui se passe.
Toutes les espèces étudiées sont allées chercher des outils, ont fabriqué leurs outils.
Une petite spécificité ici : vous voyez l'outil courbé ?
Chez les bonobos, énormément d'individus ont fait le choix d'utiliser des outils courbés et d'affiner des outils courbés, pour avoir un meilleur bras de levier pour ramener la noix de manière plus efficace.
Il me semblait que j'avais un film...
Ah.
Voilà un exemple de ce que ça peut donner, chez un gorille.
Gorille qui est connu, malheureusement encore, pour son incapacité à utiliser des outils et qui est moins intelligent que d'autres grands singes.
Je les observe depuis 20 ans, c'est, je pense, tout le contraire.
Là, il y avait plusieurs noix.
C'était une étape préliminaire.
Il ramène sa noix tout au long du parcours.
Comment il repositionnait l'outil dans la main nous intéressait aussi car le gorille a un pouce court aussi et pourtant, il manipule l'objet dans la main, donc il individualise très bien.
Encore une fois, des critères considérés comme 100% humains ne le sont pas.
Un autre exemple, ici.
On a testé, chez des singes capucins, que j'ai beaucoup étudiés, pour différentes tâches, je pourrais en parler pendant 2 heures, ils ont fait des trucs incroyables.
Là, l'utilisation des outils pour ramener la noix...
Ce n'est pas le bon film, désolée.
En fait, ce que font les capucins pour ramener la noix plus rapidement, si vous avez mal fixé le labyrinthe, ils le prennent et le secouent.
Et la noix revient plus vite.
Ma foi, la solution la meilleure est celle qui fonctionne.
Un autre exemple...
Ici, chez les chimpanzés, vous voyez ce qui se passe, si on le fixe mal : il casse tout.
Un des problèmes, pour étudier les capacités des chimpanzés en parc zoologique, c'est qu'ils cassent tout.
Je n'ai pas de film sur les orangs-outans.
Un des problèmes qu'on a eus avec les orangs-outans, c'est que, systématiquement, quand on monte des protocoles avec eux et qu'on leur fournit des outils potentiels, des branches, ils utilisent ces outils pour enlever les boulons, pour enlever les joints des enclos, éventuellement, pour m'attaquer.
Donc, on se heurte à des problèmes de sécurité qui font que certaines tâches sont difficiles à étudier en captivité, car il y a des problèmes de sécurité, avec tous.
Je vais faire gaffe à l'heure, mais j'en profite...
Le mythe du bonobo pacifique : oubliez.
En captivité, c'est avec eux qu'il y a le plus d'accidents.
J'aime entendre à la télé "les bonobos pacifiques", ça me fait beaucoup rire.
L'utilisation d'outils, je continue...
Il y a plein d'exemples d'utilisation d'outils pour se protéger.
Ici, chez les invertébrés...
Vous avez un film, pardon pour la qualité...
Un poulpe a récupéré une noix de coco.
Plusieurs individus font ça.
Ils récupèrent des demi-noix de coco, ouvertes.
Il transporte son outil.
Il y a du transport d'outils dans le monde animal.
Et il s'enferme dedans pour se protéger.
Quand il doit repartir chercher de la nourriture, il ouvre sa noix de coco et se promène avec.
Un autre exemple, ici, chez une espèce de dauphin, qui utilise des espèces végétales et fourrage beaucoup dans les coraux, et pour se protéger le rostre, il utilise des espèces végétales.
Il y a d'autres exemples d'utilisation d'outils pour tester la profondeur de l'eau, lorsqu'il faut traverser.
Les grands singes n'aiment pas l'eau.
Ils peuvent aller dedans, si besoin, et utilisent des bâtons pour sonder la profondeur.
Là aussi, une version captivité, une version milieu naturel.
Les orangs-outans se protègent du soleil en captivité et en milieu naturel.
Un exemple relativement récent...
Je n'ai pas le temps de parler d'automédication chez les animaux, mais une observation récente a été faite sur des lémuriens qui utilisent des...
ce ne sont pas des chenilles...
Ils les cassent et utilisent la substance à l'intérieur pour se badigeonner.
On pense que ça a des vertus...
insectifuges.
Les tests chimiques sont en cours d'analyse.
D'ailleurs, malheureusement, ça les dope un peu.
C'est probablement un phénomène d'automédication, chez les lémuriens.
Je continue dans l'utilisation d'outils.
Les orangs-outans utilisent des petites branches pour se nettoyer les ongles.
On a cet exemple-là chez les macaques.
Ce sont les pros de l'hygiène.
Les dents, les ongles...
Ils utilisent aussi des fils ou des cheveux, comme fil dentaire.
Plein d'exemples.
Pour s'enlever les parasites, les éléphants font ça.
L'inconvénient, c'est que s'ils veulent utiliser des outils pour se gratter et que l'outil, c'est votre voiture, ça peut être embêtant.
Il ne faut pas être dans la voiture.
Enfin, mieux vaut ne pas en sortir !
Plein d'exemples comme ça.
Il y en a un auquel je tiens, c'est celui-là, je vous expliquerai pourquoi.
Imaginez-vous en pleine savane.
Un babouin est poursuivi par une lionne.
Pour essayer de fuir, le babouin monte dans un arbre.
La lionne essaie de grimper.
Première chose que va faire le babouin pour tenter de faire fuir la lionne...
Je ne sais pas si vous voyez bien.
Là, on voit bien.
Il balance des branches.
Plein de primates font ça.
Promenez-vous en Guyane, les capucins vous lancent des branches.
Ils se défendent plutôt bien.
Mais la lionne ne bouge pas.
On se dit : "Waouh !
Il lance des branches sur la lionne !
Il les utilise comme une arme.
C'est intelligent."
Mais la lionne ne bouge pas.
Ce qui va marcher, c'est l'étape suivante.
Certes, elle est moins...
Voilà.
Ça, c'est fait.
Ça, ça marche.
J'aime bien cet exemple car cette histoire de hiérarchie de l'intelligence, là, elle tombe.
Ce qui a fonctionné, c'est de faire pipi sur la lionne.
Si je vous dis : "Le plus intelligent, c'est d'utiliser un outil pour faire fuir un prédateur ou de lui faire pipi dessus ?"
Vous me direz : "Utiliser un outil."
Mais si vous vous faites bouffer, c'est que c'était pas le bon outil.
Là, ce qui marche, c'est de faire pipi.
Et l'importance, si on étudie le comportement et l'intelligence dans un cadre adaptatif, c'est la conséquence de votre comportement.
En l'occurrence, l'objectif du babouin est de survivre.
Il a trouvé la solution pour faire fuir la lionne : faire pipi.
Dans notre tête, ce n'était pas la plus complexe.
Si j'aime bien cet exemple, c'est pour vous montrer que le plus complexe n'est pas toujours le plus efficace.
En termes de comportement en lien avec le milieu et la survie, c'est quelque chose que je pense excessivement important.
Ça n'empêche pas que, en parc zoologique, on a des petits copains, notamment lui, qui était très connu en Suède pour faire son tas de pierres, le matin.
Quand les visiteurs arrivaient, il balançait ses pierres.
Quand j'arrive au zoo pour travailler, je me prends des baffes, des crachats, des pierres, des petits cailloux, des petites branches, etc.
Non pas que les pierres soient inutiles pour faire fuir les prédateurs.
Mais il faut faire attention aux notions de complexité et d'intelligence.
Un autre exemple que j'aime bien montrer, car les reptiles sont encore largement considérés comme des imbéciles, je caricature un peu.
Ici, il y a un exemple chez les crocodiles et les alligators.
Au moment de la saison de reproduction des grues, qui accumulent un paquet de branches pour faire leur nid, ils se mettent des branches sur la tête, en guise d'appât.
Ce n'est pas très glamour, je suis d'accord.
Ils se mettent des branches sur la tête, en guise d'appât.
Évidemment, ils se mettent un peu sous la surface de l'eau, de sorte que la grue ne voie que les branches.
Au moment d'attraper les branches, le crocodile attrape l'oiseau.
C'est un autre exemple, pour vous montrer que la chasse existe aussi dans le monde animal.
On a des exemples de chimpanzés qui se fabriquent des lances pointues pour harponner d'autres primates.
Les chimpanzés peuvent consommer de grosses proies, d'autres petits primates et même, parfois, des antilopes.
(Question inaudible d'une auditrice.) Pas toujours, Madame.
Dans certains pays, pas toujours.
C'est un autre débat.
Un exemple.
Je ne résiste pas.
Le ratel, un carnivore.
Connu dans toute l'Australie pour s'évader de son enclos par tous les moyens possibles.
Il ne faut rien laisser dans l'enclos.
Ils passent leurs journées à courir.
Je ne vous montre qu'un petit passage.
Ils dévissent les cadenas, même des cadenas compliqués.
C'est le seul de son groupe à faire ça.
Ça mène à d'autres types de réflexion.
On pourrait en parler pendant une semaine.
Dans un groupe, on peut voir des animaux, des individus très innovants et d'autres, pas.
Des inventions vont se transmettre.
D'autres, pas.
Tous ces phénomènes, qu'on peut catégoriser dans des notions de tradition et de culture, sont très intéressants à étudier.
Je vous montre un exemple dont je vous ai parlé.
Une femelle orang-outan que je connais depuis qu'elle est née, de la ménagerie.
Elle passe son temps à essayer de dégommer notre caméra, quand on travaille avec.
C'est une utilisation d'outil.
Disons qu'elle explore la caméra.
Une autre exploration, chez des oiseaux qui peuvent utiliser des branches pour vérifier si ce qu'on leur propose est vrai ou faux.
Ici, on va leur proposer des animaux en plastique.
Et pour vérifier si c'est du vrai, ils vont utiliser des outils pour explorer ce que c'est.
Je vais passer vite sur d'autres utilisations d'outil pour parler d'autre chose, mais sachez que chez les oiseaux, on utilise des outils pour courtiser les femelles.
Par exemple, l'oiseau jardinier, regardez sur Internet, peut faire des choses magnifiques pour séduire les femelles.
Messieurs, prenez-en de la graine.
C'est magnifique.
Il y a des couleurs et des formes différentes.
En conclusion : l'utilisation d'outil, une invention humaine ?
Bien sûr que non.
Dire que c'est une invention humaine, c'est mentir.
Il y a différents degrés de technologie, différents types d'outil.
On peut disserter dessus, mais l'outil n'est pas une invention humaine.
C'est impossible de dire le contraire.
C'est largement partagé chez l'animal, depuis très longtemps.
Certes, il y a des différences de complexité.
Mais on s'est trop focalisés sur des critères humains.
L'outil n'est pas utilisé dans tout le monde animal.
Mais il existe chez bien d'autres espèces.
Si on parle de cette hiérarchie, on a beaucoup parlé d'outils car je travaille là-dessus, mais on peut s'intéresser aussi à d'autres types de comportement qui font intervenir d'autres types d'intelligence, comme la construction, la navigation, la mémoire, l'innovation, la transmission, la tradition, l'empathie l'altruisme, l'apprentissage, la coopération...
Dans ces domaines, certains animaux font moins bien que nous.
D'autres font mieux.
On va voir quelques exemples.
Premier exemple, pour contredire ce que j'ai dit.
L'outil, c'est important, puisque ça a été utilisé pour définir l'humain.
Mais parfois manipuler sans outil peut être plus compliqué.
Je fais vite, mais c'est important de le savoir.
J'ai travaillé sur des perroquets, sur des tâches d'ouverture de boîte.
Un perroquet n'a pas de mains, donc il doit gérer avec son bec, sa langue et ses pattes.
En termes de coordination, c'est très compliqué.
Il y a une patte, la langue, le bec.
Il stabilise et arrive à ouvrir la boîte.
Du premier coup, une fois sa peur de la boîte dépassée, il arrive à l'ouvrir.
Il n'y a pas d'utilisation d'outil, c'est juste une ouverture de boîte.
Pourtant, en termes de cognition, comprendre comment le loquet est fixé, de coordination motrice, comment il faut l'ouvrir, c'est sûrement plus compliqué que d'enfoncer une branche dans un trou ou juste taper.
C'est juste pour évoquer cette notion de hiérarchie de la complexité.
Manipuler, on pourrait dire : "C'est moins compliqué qu'utiliser un outil."
Ça dépend du type de manipulation et du type d'outil.
Cela fait réfléchir à ces notions de hiérarchie dans la complexité.
Pardon, je rate ma surprise.
Autre exemple, chez les singes capucins, j'adore travailler avec eux, ouverture de boîte aussi.
Il regarde le dispositif, il se positionne.
Et c'est réglé.
Voilà.
Un loquet, deux loquets.
En termes de manipulation, les capucins sont très performants.
Un dernier exemple, j'ai testé ça sur beaucoup d'espèces...
C'est un panda roux.
C'est un petit animal arboricole.
C'est caché pour le suspense.
Pareil, il a une boîte à ouvrir.
C'est à la ménagerie.
C'est juste pour amener à réfléchir sur une autre notion.
Il renifle beaucoup la boîte.
Voilà.
J'adore cet exemple.
Je vais faire un gros anthropomorphisme, mais ce n'est pas grave.
En gros : "Je m'en fous, c'est ma boîte."
L'ouvrir ne l'intéresse pas.
Pas sûr qu'il ne puisse pas l'ouvrir.
C'est probablement un problème de motivation.
Ça ne l'intéresse pas plus que ça.
Par contre, il fait du marquage dessus.
"C'est ma boîte.
Personne n'y touche."
Ça m'amène à une réflexion : ce n'est pas parce que vous n'accomplissez pas la tâche que vous n'en êtes pas capable.
Je suis sûre qu'un panda roux est capable d'ouvrir cette boîte.
C'est un problème de contexte.
Peut-être que par rapport à son quotidien, dans son milieu naturel, ouvrir une boîte n'a aucun sens.
Peut-être qu'au zoo, il y a un biais car il est trop stressé.
Ceci dit, là, il n'a pas l'air stressé.
Ça vaut pour les perroquets.
Ce n'est pas parce qu'on ne fait pas, qu'on en n'est pas capable.
C'est cette nuance-là qu'on a énormément de mal, parfois...
On a énormément de mal, parfois, à démontrer les deux.
Je n'aurai pas le temps.
"Manipuler pour séduire."
Quand même, je vous montre celle-là.
Chez le poisson-globe, c'est ce petit poisson, ici.
Vous voyez ce qu'il est capable de faire pour séduire ?
Je vous montre.
Ça fait beaucoup de...
Tous les petits battements de nageoires pour faire tout ça, ça m'épate.
C'est de la manipulation.
C'est uniquement manipuler son milieu pour obtenir cette forme-là, à la fin.
Là, il utilise les trois nageoires, ventrales, latérales.
Il fait son petit dessin pour attirer les femelles.
On voit mal, mais il utilise aussi des coquillages pour orner le tout.
Ça lui fait beaucoup de boulot.
Ce n'est pas scientifique de mettre des émotions dans ce qu'on observe.
C'est ce qu'on vous apprend en formation : "Surtout ne mettez pas d'émotions.
Restez distant avec l'animal."
Dès le premier stage...
tout tombe par terre.
Vous mettez forcément de l'émotion dans ce que vous faites.
Alors, on a des moyens pour essayer de limiter le plus possible les biais.
Ça reste un peu de la manipulation, mais on va passer à ce que j'appelle "ingénierie et artisanat", avec beaucoup d'anthropomorphisme.
C'est-à-dire ces animaux qui font de la couture, de la géométrie, et qui bâtissent.
Je commence avec la fauvette couturière, qui fait un travail magnifique.
D'abord, elle perfore les bords des feuilles, avec le bec.
Ensuite, elle va rapprocher les deux feuilles et les coudre avec de la fibre végétale ou du fil de soie dans les trous.
Là dedans, vous avez de la construction, différentes tâches, même de l'utilisation d'outil, puisque pour coudre les feuilles, il faut utiliser un élément extérieur.
À la fin, ça donne ce type de nid, qui, en plus, est extrêmement solide.
En termes de couturières, on a aussi les fourmis tisserandes.
Vous allez avoir certaines fourmis, qu'on appelle les "tractrices", qui vont rapprocher les bords de la feuille.
Et les autres vont les coller, les coudre, on les appelle les "fileuses", grâce à la soie de leur propre larve.
Ici, une fourmi tient une larve dans ses mandibules et avec le fil qui est produit par la larve, elles vont "coudre" les feuilles.
Voilà ce que ça donne à la fin.
Le castor est un animal relativement connu.
Je vous donne juste l'exemple du castor du Canada qui fabrique des barrages avec des systèmes très complexes, pour lutter contre le courant, des systèmes qu'on appelle "arcs-boutants", en architecture.
Là, on voit un barrage sur Google Earth, c'est comme ça qu'on l'a repéré, c'est le plus grand du monde.
Il fait 850 mètres de long.
Depuis les années 1970, des générations de castors travaillent à ce barrage.
Et c'est intéressant de travailler sur ces transmissions de compétences pour accéder à un but, qui est d'avoir un barrage.
Désolée, je dois passer vite.
On va parler de navigation.
Être au bon endroit au bon moment, ça a l'air simple, mais c'est compliqué.
Ça fait intervenir des fonctions cognitives, notamment tout ce qui est mémorisation d'où je pars, connaissance du milieu où je vais, et ensuite, rentrer chez soi.
C'est très compliqué.
Je dis dans mon bouquin : "Si vous êtes perdu en forêt, suivez un chimpanzé."
Il peut vous arriver des bricoles.
Disons qu'un chimpanzé peut trouver un arbre parmi 12 000 arbres.
Il a une telle mémorisation spatiale des ressources alimentaires, en plus, en tenant compte de la fructification et de la saisonnalité des fruits qui l'intéressent le plus.
Pourquoi je disais "Si vous êtes perdu, suivez un chimpanzé" ?
En Côte d'Ivoire, quand j'ai eu la chance de voir des chimpanzés, j'ai couru pendant une heure, alors que lui se promenait tranquillement, juste pour ne pas le perdre de vue.
Je me suis rendu compte...
J'avais une boussole, il y a 20 ans.
J'ai vu qu'il allait toujours vers le nord, pourtant il zigzaguait.
Moi, en deux minutes, j'étais paumée.
Donc, on se rend compte qu'ils utilisent des repères, qui sont ceux de leur propre milieu, pendant que nous...
Ce n'était pas mon contexte habituel, donc j'étais rapidement perdue.
Ça ne veut pas dire que je suis plus bête que ce chimpanzé.
Ça veut juste dire que, en fonction du contexte, on est plus ou moins intelligent.
Moi, la première fois en forêt primaire, la deuxième aussi d'ailleurs, j'étais très très stupide.
C'est une question de contexte.
Beaucoup pensent qu'ils ont une espèce de GPS, puisqu'ils sont capables de planifier les trajets les plus courts, via des repères topographiques de leur milieu, et de calculer les distances qu'ils doivent parcourir et les angles qu'il faut accomplir pour aller vers le bon endroit et rentrer chez eux.
Ces capacités-là sont aussi connues chez d'autres mammifères, les éléphants, qui ont une mémoire spatiale, mais aussi auditive et visuelle, qui est exceptionnelle.
Les éléphants trouvent de la nourriture et de l'eau, même en grande sécheresse, sur 600 kilomètres, en 5 mois de déplacement.
En saison sèche, il y a des phénomènes intéressants dans les comportements sociaux.
Souvent, les matriarches, les femelles, ont de très bonnes capacités de mémorisation et transmettent ça aux petits.
Mais la navigation spatiale n'existe pas que chez les mammifères.
Chez les petites bêtes aussi, notamment les fourmis.
Cet exemple-là, je l'adore.
J'aurais aimé avoir l'idée du protocole conçu par les collègues.
Il faut imaginer une petite fourmi qui, pour aller chercher sa nourriture, va parcourir 600 mètres en zigzagant.
Une fois qu'elle a trouvé sa nourriture, elle rentre à la colonie en prenant une ligne droite.
Elle a zigzagué sur 600 mètres, c'est une piste et demie d'athlétisme, pour une fourmi, puis elle rentre en ligne droite.
Comment elle fait ?
Des collègues ont eu une idée géniale...
On ne s'ennuie pas, dans la recherche.
Ils ont mis des échasses à la fourmi.
C'est sûr, moi...
Bref, ils lui ont mis des échasses.
Que se passe-t-il, quand on met des échasses à une fourmi ?
Au niveau de la distance, elle se plante.
Car les pas sont plus longs.
Donc, le trajet aller sans les échasses, et le retour avec, forcément, il est raté.
Si j'ai compté que je dois faire 200 pas, avec mes échasses, je vais plus loin que si je fais 200 pas sans échasses.
Du coup, ça leur a permis de conclure que les fourmis comptaient leurs pas.
Mais compter ses pas ne suffit pas, il faut aussi trouver la bonne orientation pour savoir vers où aller.
Donc, ces chercheurs pensent qu'elles ont d'abord un podomètre, vu qu'elles comptent leurs pas, les mémorisent, malgré un cerveau qui n'est pas le même que le nôtre, et peuvent faire du calcul vectoriel pour trouver la bonne direction.
Qu'utilisent-elles pour ça ?
Mystère.
Plusieurs hypothèses : le soleil, les étoiles, le vent...
De la chimie...
Sauf que là, c'est une fourmi solitaire.
Donc, l'aspect phéromones est beaucoup moins évident que chez certaines fourmis collectives.
Il y a encore plein d'énigmes de ce côté-là.
Le pigeon voyageur.
Je passe vite, mais il reste des énigmes sur le pigeon voyageur.
On a essayé de les enfermer dans des containers, de les anesthésier, et ils retrouvent leur chemin, en fonction de motivations différentes, selon les contextes.
Mais plein de mystères demeurent, sur tout ce qui est navigation spatiale dans le monde animal.
On sait très peu de choses.
Tout est encore à découvrir.
En termes de mémorisation, on parlait de hiérarchisation de l'intelligence.
Finalement, les humains ne sont pas toujours les meilleurs, c'est un bon exemple.
Un collègue chercheur japonais a travaillé sur une tâche à résoudre, qui nécessite une très bonne mémoire visuelle.
Et il a comparé de jeunes chimpanzés, au départ, maintenant, il le fait sur une population plus grande, avec des étudiants ingénieurs japonais.
En fait, la tâche en question, je ne sais pas si vous avez déjà vu ça, je vous montre le film, sur cet écran, des chiffres vont apparaître.
Au début, il a fait de un à cinq, puis de un à neuf.
Très vite, ils vont être cachés par des petits rectangles blancs.
Pour réussir la tâche et avoir la récompense, l'individu, une fois les chiffres cachés par les rectangles blancs, doit taper avec son doigt les chiffres dans le bon ordre, de un à neuf.
Donc, il doit mémoriser l'emplacement des chiffres.
Là, vous allez voir ce que fait un chimpanzé.
Il y a neuf chiffres au départ.
Il touche.
C'est la phase d'apprentissage.
Deuxième étape, hop.
Essayez, vous verrez.
Dans mon bouquin, je ne suis pas au chapitre sur la mémoire et la navigation.
Mais ceux qui ont une bonne mémoire visuelle, je les invite à aller sur Internet et à essayer de le faire.
En gros, ils nous explosent.
Je parle vulgairement.
Ils sont plus performants.
Ils ont un temps de réaction exceptionnel, une mémoire visuelle qui n'est pas la même que la nôtre.
Il y a probablement une mémoire visuelle globale, une espèce de photographie de ce qu'ils observent.
Notre stratégie est différente.
On va essayer de mémoriser les trajets.
Encore faut-il le démontrer, la technologie peut aider à ça, mais ils n'ont pas la même stratégie pour mémoriser.
En termes de résultats, ils sont plus performants que nous.
Pour parler mémorisation, toujours, et aller à l'encontre des idées reçues, c'est le sous-titre de mon bouquin, "Cervelle d'oiseaux..."
souvent, les oiseaux étaient considérés comme pas très intelligents car petit cerveau.
Taille du cerveau liée à l'intelligence, c'est plus compliqué que ça.
D'ailleurs, certaines espèces d'oiseau ont plus de neurones que nous.
Bref, c'est plus compliqué que ça.
Je vous montre l'exemple du casse-noix de Clark qui, aux États-Unis, cache à l'automne, 4-5 graines dans 10 000 cachettes.
Ensuite, il descend à des altitudes où il fait moins froid.
Et une fois l'hiver passé, au printemps, il remonte en altitude pour aller rechercher ses graines dans ses cachettes, et il en retrouve 3 000, six mois après.
Sachant que, entre-temps, des rongeurs ont pu passer, les intempéries...
La neige a pu recouvrir des cachettes et il les retrouve quand même.
Je passe sur la stratégie, j'ai pas le temps.
Idem chez les reptiles.
Encore une fois, ils sont loin d'être des imbéciles.
Il faut juste conduire plus de protocoles sur eux et se poser des questions qu'on ne s'était pas posées avant.
"Tout simplement", c'est facile de dire ça, quand des résultats tombent.
Mais ce qui est sûr, c'est que si vous faites des tests de mémoire spatiale comme on fait chez les rats ou la souris, certains lézards réussissent bien.
Pareil, "mémoire de poisson rouge" est une idée reçue.
Il n'a pas la mémoire d'un chimpanzé, mais il ne vit pas la même chose.
Il sait actionner au bon moment, pendant la période qu'il faut, un levier pour récupérer de la nourriture.
Et il va s'en souvenir les jours suivants.
La coopération, c'est un exemple que j'aime aussi.
D'abord, parce qu'on devrait...
Non, c'est pas grave.
En tout cas, plus on est de fous, plus on rit.
Je vais vous donner un exemple de coopération qui m'a marquée.
C'était ma première expérience d'observation animale, au zoo de Thoiry.
J'avais 18 ans.
Je suis arrivée confiante.
J'avais lu Jane Goodall.
Je me sentais forte, avec mon calepin, mes jumelles...
Je n'avais pas d'appareil photo, mais les jumelles de mon grand-père, tout pour bien faire.
J'avais été embauchée au zoo pour découvrir comment les macaques de Tonkean s'évadaient.
Ils étaient 54, quand même.
Ces macaques ont de bonnes canines.
Ils s'évadaient et dépouillaient les visiteurs.
Les biberons, les tétines, les sacs...
Je devais découvrir par où ils s'évadaient.
Je me suis aperçue qu'ils traversaient à la nage, creusaient des tunnels...
Je prenais des notes.
D'abord, quand on étudie un groupe, on apprend à reconnaître les individus, pour essayer de comprendre la variabilité comportementale des individus.
À un moment donné, je me suis retrouvée avec, à ma gauche, une dizaine de macaques de Tonkean qui montraient les dents, intimidaient.
Ça a bien marché.
De l'autre côté, j'avais 2-3 autres macaques que je n'avais pas vus, étant focalisée sur ceux qui montraient les dents et m'intimidaient fortement.
Donc, je regardais les macaques qui m'intimidaient et, pendant ce temps-là, le groupe de 2-3 m'a piqué mon stylo, mes jumelles, que j'ai retrouvées après, mais pas en bon état.
Ça, c'est un exemple de coopération.
Certains individus vont faire diversion et les autres vont accomplir la tâche à accomplir : tout me piquer.
Il y a des exemples de coopération plus complexes, mais celui-là me plaît forcément, car c'était la première expérience.
Après, j'ai fait plus attention.
Alors, un autre exemple de coopération qui est excessivement intéressant : on a très peu parlé du monde aquatique.
Il est extrêmement peu étudié par rapport aux animaux terrestres.
Il y a un énorme travail à faire sur le comportement animal en milieu aquatique.
Ici, vous avez un exemple chez la baleine d'Alaska.
Ça, c'est la fin de la tâche, mais il faut imaginer dans un premier temps des baleines qui vont d'abord s'occuper de rabattre les harengs vers une certaine zone.
Les harengs ou autres.
Et ensuite, il faut imaginer une ou plusieurs baleines qui vont faire des bulles de manière circulaire pour créer une espèce de rideau cylindrique de bulles qui vont remonter vers la surface.
La baleine va ensuite se mettre sous les poissons pour remonter dans le rideau de bulles et faire remonter les harengs.
Pendant ce temps, d'autres baleines attendent les harengs à la surface.
C'est un bon exemple de coopération dans le monde aquatique, et certains dauphins ont une technique similaire.
Mais eux utilisent le sable.
Avec leurs nageoires, ils font des ronds de sable au fond qui créent des remontées cylindriques pour piéger les poissons.
En surface, ça donne ça, avec les baleines qui profitent du festin.
Il y a plein d'exemples de coopération chez les rats.
Alors, j'ai appris ça récemment...
À la sortie de mon bouquin, j'ai reçu pas mal de mails de gens qui m'ont donné des anecdotes.
Celle-là, c'est rigolo parce qu'elle est dans une fable de La Fontaine.
En fait, c'est un rat qui porte un œuf sur son ventre tandis qu'un autre le tire par la queue.
J'ai des gens qui m'ont donné cette anecdote qu'ils avaient observée dans leur grenier.
Un monsieur fait oui !
Plusieurs personnes m'ont confirmé ça.
Je ne l'ai jamais observé.
C'est assez ahurissant.
Comme quoi, on peut toujours être surpris.
Il y a d'autres exemples chez les éléphants.
Il y a énormément de coopération pour sauver les petits de la boue.
Il y a énormément d'entraide chez les éléphants.
Alors...
"Tricherie et mensonge".
Forcément, je commence par Kanzi.
Je vous en ai parlé, c'est le pro de la triche.
Par exemple, il peut très bien faire semblant...
Je vais vous expliquer l'anecdote en entier.
La dame qui travaille avec Kanzi, pour tester ses capacités, dont elle ne doutait pas d'ailleurs, ses capacités de duperie et de tricherie, elle a fait semblant d'oublier la clé de l'enclos dans l'enclos de Kanzi.
Donc elle s'en va, Kanzi a bien sûr vu que la clé était restée dans l'enclos, mais il ne le montre pas.
La dame s'en va et que fait Kanzi ?
Il prend la clé et la planque.
Ensuite, elle revient et lui demande...
J'ai oublié de dire que Kanzi sait communiquer par lexigrammes.
Donc par lexigrammes, elle lui demande : "Tu n'as pas vu les clés ?
Je les ai perdues."
Kanzi ne les a pas vues, bien sûr.
Il lui dit, enfin il lui communique, qu'il n'a pas trouvé les clés.
Sauf que bien sûr, il les a trouvées et les utilise après pour s'évader.
Les exemples de tricherie dans le monde animal, il y en a plein.
C'est une preuve d'intelligence, puisque ça permet d'avoir un bénéfice.
Après, vous avez plein de...
Ça, c'est un exemple.
Il y en a plein.
Si vous avez par exemple des femelles ou un jeune mâle poursuivi par le chef, en pleine course, il va faire semblant d'avoir vu un prédateur au loin, il se met debout, hop, la poursuite s'arrête, ça fait diversion et ça lui permet de s'échapper.
Je vais avancer, je suis désolée.
Sinon je vais vous faire quatre heures de conf'.
Auditrice 1, puis Emmanuelle Pouydebat.
-Ce n'est pas grave.
-Peut-être pas pour tout le monde !
Un exemple quand même.
Je n'ai pas parlé d'innovation et de culture.
Chez les macaques japonais...
Dans les années 1950, des macaques japonais ont été habitués...
La première étape est d'essayer d'habituer les animaux à notre présence pour qu'ils nous oublient et qu'on puisse les observer sans les perturber.
Dans les années 1950, en guise d'habituation, les chercheurs avaient donné des patates douces aux macaques.
Qu'est-ce qui s'est passé ?
Une petite femelle qui s'appelle Imo a commencé à laver ses patates dans la rivière et en neuf ans, les trois quarts du groupe faisaient de même.
Ce qui est intéressant, je vous la fais courte mais l'histoire est passionnante, c'est que 50 ans plus tard, Imo était décédée, les macaques lavaient toujours les patates dans l'eau douce et avaient même transformé et amélioré ce comportement en les trempant aussi dans l'eau de mer.
Pour l'aspect gustatif.
Ils ont fait ça aussi avec le blé.
Si on lance le blé dans l'eau, ça fait tomber le sable, donc ça lave le blé et ça le rend plus agréable au goût.
Autre chose intéressante, au début les macaques n'allaient pas dans l'eau, et maintenant, ils jouent dans l'eau, ils font de l'apnée, etc.
C'est juste pour vous montrer que, bien sûr, il peut y avoir des transmissions de comportements de génération en génération, de groupe en groupe.
Ça n'est pas limité au groupe d'Imo.
Ça s'est transmis à d'autres groupes, et ça peut conduire à de nouvelles habitudes quotidiennes chez les individus.
Alors, l'empathie et l'altruisme.
Je vais vous donner au moins ces deux exemples-là.
D'abord Lily et mon bisou.
C'est une femelle chimpanzé que j'étudie depuis je ne sais plus quand au zoo de La Palmyre.
Et dès mon deuxième passage au zoo de La Palmyre, à chaque fois, j'avais droit à un bisou de Lily.
C'est là où j'ai un peu de mal avec ces cours théoriques sur la distance avec l'animal, car je veux bien avoir de la distance, mais quand j'arrive au zoo et que Lily me fait un bisou, je fais quoi ?
J'arrête de travailler sur Lily parce qu'elle a noué une relation avec moi ?
On peut se poser la question.
Je ne dis pas que c'est n'importe quoi.
Je dis juste que si je crée une interaction sans le vouloir, par le simple fait de les observer, si un individu va chercher une interaction avec moi, je ne vais pas l'entretenir, sinon je ne peux plus travailler.
On est d'accord.
Mais si j'arrête de travailler parce qu'il y a interaction avec elle, ça vaut pour les chimpanzés de La Palmyre, en caricaturant un peu.
C'est juste pour vous montrer un peu toutes ces notions que vous entendez à la télé, à la radio : "Il ne faut pas faire d'anthropomorphisme."
À partir du moment où j'interprète le comportement d'un animal, j'en fais.
Je ne me réveille pas le matin orang-outan.
Même si j'aimerais bien !
Quand j'étudie un perroquet ou un gorille, je ne me réveille pas perroquet ou gorille, pareil quand j'étudie un raton-laveur ou un bernard-l'hermite.
J'essaie d'interpréter ce que je vois le plus proprement possible, avec les méthodologies les plus claires possible, mais forcément, j'interprète avec mes yeux d'humain et forcément, on a une interaction avec l'animal.
Donc, il faut essayer de limiter le plus possible les biais, mais les empêcher, c'est un peu de la langue de bois.
Autre exemple qui peut faire beaucoup réfléchir.
C'est l'exemple de Coco, un gorille étudié en captivité.
Elle utilise par exemple le langage des signes.
Et ça lui permet de transmettre, d'échanger en tout cas, avec la personne qui l'étudie, et puisqu'on est dans le passage "empathie et altruisme", de transmettre ce qu'on "pense" qu'elle ressent, car on ne sera jamais dans sa tête.
Coco, à un moment donné où elle...
Où on pense qu'elle avait des problèmes de comportement liés au fait qu'elle n'avait pas eu de petit, on a offert à Coco des chatons.
Coco s'en est occupée.
Il y avait beaucoup d'interaction avec ce chaton.
Et un des deux chatons, malheureusement, est mort, il s'est fait écraser.
Il a fallu l'annoncer à Coco.
Allez voir sur Internet, c'est troublant.
On peut voir les films de ce qui se passe.
On annonce à Coco que son chaton est mort et Coco, en langage des signes, explique qu'elle est triste, elle emploie ce mot, que "Coco est malheureux", elle ne fait pas les accords, "Coco est malheureux", et elle gémit.
Donc, elle a bien associé une expression à des mots.
On peut dire que c'est du hasard, que c'est l'humain qui a transmis, mais je vous assure que c'est troublant.
Autre exemple, toujours chez Coco, Robin Williams, un acteur récemment décédé, venait souvent voir Coco.
Et quand Robin Williams est mort, la dame qui s'occupe de Coco a commencé à échanger avec Coco, et elle lui a demandé où allaient les gorilles, où allaient les personnes quand elles étaient mortes.
Et Coco a répondu : "Dans un trou écarté confortable."
Penny lui a demandé : "Sont-ils heureux ?
Tristes ?
Effrayés ?"
Elle a répondu : "Ils dorment."
Alors, on peut toujours imaginer que la personne a appris à dire ces choses.
Dans ce contexte-là, je ne crois pas.
Ce qui est sûr...
Je vous montre deux exemples un peu extrêmes.
Un assez simple, une interaction avec quelqu'un, un qui est relativement complexe et qui demande à être approfondi.
En tout cas, des exemples d'empathie dans le monde animal, il y en a plein.
Plein, plein, plein.
Dans tout ce qui est émotions, empathie, se mettre à la place de l'autre, il y en a plein.
Alors parfois, pour obtenir ou subtiliser de la nourriture, pas toujours à des fins altruistes.
Mais en tout cas, il y a de l'entraide et parfois, "gratuite", sans forcément en retirer un bénéfice pour soi.
Pfff...
Je n'ai pas le temps.
Je vais me faire virer.
20h07...
C'est des chimpanzés handicapés sur lesquels on a travaillé.
On s'est rendu compte qu'en termes de comportement alimentaire, malgré leur handicap, ils arrivaient quand même à se nourrir autant et à accéder, pas aux mêmes sources de nourriture, mais ils trouvaient les moyens de se nourrir autant.
Je n'ai pas le temps de vous expliquer.
C'est comme ça.
Je vais conclure.
C'est une classification extrêmement simplifiée des espèces, mais ce n'est pas grave.
On a pris des exemples aujourd'hui, et Dieu sait que si je pouvais...
Dieu non, mais...
Voilà !
Pfff...
Ce n'est pas grave.
Je peux vous en donner plein d'autres.
Je ne vous ai pas parlé des requins, ce n'est pas grave.
On a pris des exemples un peu partout.
Je n'ai pas parlé des escargots.
Mon fils est fasciné par les escargots.
Il y a plein de choses à raconter.
L'intelligence est partout.
Elle est plurielle.
Les humains, c'est une goutte d'eau dans l'évolution.
Je vais finir par ça.
Normalement, j'ai ce qu'il faut après.
On y reviendra peut-être après.
Non, je ne l'ai pas mis ?
Ah !
C'était à la fin.
Ce qui est sûr, c'est que les humains, ils sont là.
Ça, c'est extrêmement rectiligne.
L'évolution, ce n'est pas ça.
C'est très schématique.
Ce qui est sûr, c'est qu'à différentes périodes de l'évolution, vous avez plein d'exemples qu'on a pu prendre aujourd'hui et vous voyez qu'il y a des exemples qui datent de très, très longtemps.
Les ancêtres du poulpe, c'est plus de 500 millions d'années, loin des premiers humains.
Ce n'est pas de l'utilisation d'outils pour faire du charognage, c'est un autre type d'intelligence.
Mais l'intelligence apparaît à de nombreuses périodes.
Pas forcément les mêmes types d'intelligence, mais ce qui est sûr, c'est qu'au cours de l'évolution, différentes intelligences apparaissent, plus ou moins complexes, dans différents contextes, mais chez toutes les espèces.
Ce qui est sûr aussi, c'est qu'on a besoin du vivant pour survivre et s'en inspirer.
Je travaille aussi un petit peu sur des aspects de bio-inspiration, notamment sur les capacités que certaines espèces ont, dont les grenouilles aquatiques, à attraper et à manipuler.
Ça peut intéresser la conception de robots et de prothèses pour des personnes handicapées.
Il faut aussi avoir une vision large du monde animal.
À mon avis, on en est aux balbutiements des connaissances sur le monde animal.
Je ne parle même pas du milieu aquatique.
Certes, on peut faire des choses extrêmement fascinantes.
Je suis bien d'accord.
Mais à l'échelle de l'évolution, j'aime bien cette manière de résumer les choses sur 12 heures.
Si on résume l'évolution sur 12 heures, l'espèce humaine apparaît à 11h58.
Donc un peu d'humilité.
Moi la première.
Si j'ai donné l'impression parfois d'avoir des certitudes, un peu d'humilité par rapport à toute cette évolution.
J'ai une collègue de bureau qui est tombée sur des propos de Lamarck, qui était un grand naturaliste.
Des propos qu'il avait formulés au début du XIXe siècle : "On dirait que l'homme est destiné à s'exterminer lui-même après avoir rendu le globe inhabitable."
Et ça date du début du XIXe.
Je ne vais pas vous faire la morale sur l'écologie.
C'est juste pour vous dire que, bien sûr, on est dans un tout.
Les animaux, les végétaux, la planète, c'est un tout.
Quand on travaille sur l'évolution, on travaille sur un tout.
On regarde l'habitat, le comportement, la morphologie, on regarde un ensemble.
Et si on regarde cet ensemble, il faut reconnaître qu'en peu de temps, on peut se demander si on n'est pas les plus stupides.
Je provoque un peu exprès.
Mais en deux minutes, par rapport à cette échelle-là, on a fait des dégâts par rapport à la biodiversité.
Donc la question que je me pose, c'est que non seulement on n'est pas sur une pyramide, en haut, mais si on se réfère à un contexte global de l'évolution, on est loin d'être au sommet de la pyramide.
De mon point de vue, c'est ce genre de réflexion qu'on doit avoir.
J'espère vous avoir donné des pistes et si ça vous intéresse, je donne...
J'ai eu une critique sur Amazon, disant que mon livre manque d'exemples.
A chaque conf', je règle mes comptes.
Il y a 200 exemples dans le livre.
Avec des références scientifiques et des articles associés.
Alors, si après ça vous manquez d'exemples, envoyez-moi un mail et je vous en donnerai 200 autres.
Merci beaucoup pour votre attention.
Désolée d'avoir débordé.
Dernière chose.
J'en profite, il est dans la salle.
Le pauvre, il va partir en courant.
J'ai un étudiant en thèse, Grégoire.
Je ne donne pas son nom de famille pour pas qu'il soit persécuté.
Il commence une thèse sur le développement, sur le comportement au cours du développement.
De la naissance à l'âge adulte.
Il va étudier un petit microcèbe.
Enfin, "petit" parce que c'est un bébé.
Il va étudier le comportement de manipulation des microcèbes de la naissance à l'âge adulte.
Je suis sûre qu'il va proposer de belles choses et qu'un jour, il fera une conférence ici.
Si vous avez des questions, je suis là.
Modératrice.
-On prend note pour une prochaine conférence.
Levez la main si vous avez des questions.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Il est où, Grégoire ?
Auditrice 1, puis Emmanuelle Pouydebat.
-Bonsoir.
Merci pour cette conférence.
-Merci.
-Peut-être une observation sur les animaux de ferme, leur intelligence ?
-C'est une question intéressante.
Déjà...
Alors...
Moi, vu mon questionnement de départ, qui est de comprendre ce qui fait l'humain, je me suis peu intéressée aux animaux de ferme et aux animaux domestiques.
Je pense qu'un immense champ est ouvert pour étudier ces animaux-là.
Je ne vous cache pas que les journées ne font que 24 heures et que...
Mais c'est quelque chose que j'aimerais développer.
Certains collègues sont partants.
Il y a beaucoup à découvrir là-dessus.
Ne serait-ce qu'en discutant avec des agriculteurs qui ont systématiquement des anecdotes, je pense qu'il y a énormément de choses à découvrir sur ces animaux-là.
Je sais que récemment ont été montrées des capacités d'automédication chez les cochons, par exemple.
Sur des cochons sauvages.
Ça ne veut pas dire qu'il ne faut pas les étudier en milieu agricole.
Les deux sont complémentaires, milieu naturel ou captivité, quelle que soit la question qu'on se pose.
Il y a énormément à faire sur les animaux de ferme.
Je ne suis pas éthologiste de formation, mais il y a peu d'éthologistes, par rapport aux animaux sauvages, qui se sont penchés sur les capacités cognitives des animaux de ferme.
Il y a un gros travail à faire là-dessus.
J'en suis convaincue.
Je ne peux pas tout faire.
Mais ce qui est sûr...
Au vu des anecdotes que j'ai eues en retour, il y a beaucoup de choses à montrer qui vont dans le sens de capacités spatiales.
Je pense à l'automédication.
C'est là-dessus que je me pencherais.
Mais il y a énormément de choses à faire, y compris sur toutes les thématiques que je vous ai présentées aujourd'hui.
C'est un champ de recherche où on devrait...
C'est clair.
Pour plein de raisons.
De rien.
Auditrice 2.
-Merci pour...
Pardon.
Excusez-moi.
Merci pour cette conférence, mais certains points m'ont un peu gênée.
Emmanuelle Pouydebat, puis auditrice 2.
-Ah !
-Par exemple...
Vous avez dit que les bonobos peuvent être agressifs.
Vous ne pensez pas que le fait qu'ils soient en captivité, ça aide ?
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Je ne dis pas qu'ils n'ont pas de raison de l'être.
Je dis qu'ils peuvent l'être.
Comme tout individu en fonction du contexte dans lequel il est.
Il est évident qu'un bonobo est plus agressif en captivité qu'en milieu naturel.
Auditrice 2, puis Emmanuelle Pouydebat.
-Ce qui pose la question des zoos.
-On est tout à fait d'accord.
Ça pose question.
Pour beaucoup, les zoos, c'est de la maltraitance.
C'est un argument que j'entends.
Néanmoins, s'il n'y a plus de zoos, je ne peux pas expliquer...
De la même manière, on pourrait le faire sur des animaux de ferme.
S'il n'y a plus de...
D'abord, je pense que ce ne serait pas une bonne idée.
Parce que pour beaucoup, c'est le seul moyen dans toute une vie de voir certaines espèces, mais c'est un très large débat.
Auditrice 2, puis Emmanuelle Pouydebat.
-Il y a les films.
On n'est pas obligé d'emprisonner les animaux.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Oui, mais pour les étudier depuis 20 ans, je vous jure qu'un film ne remplacera jamais un contact, pour justement l'empathie qu'on peut avoir pour eux.
Et je pense que plutôt que d'avoir comme objectif de fermer des parcs zoologiques, ce qui me paraît utopique, je pense qu'on devrait, un, lutter contre la souffrance animale.
Ça, j'en suis convaincue.
De partout, quel que soit le contexte dans lequel on travaille avec l'animal.
Je suis forcément d'accord avec ça.
Pour ce qui est de la souffrance animale, favoriser leur bien-être, ça veut dire continuer à faire de la pédagogie dans les parcs zoologiques, même si beaucoup le font, en expliquant que les enrichissements sont fondamentaux.
Quand on fait des protocoles scientifiques avec des labyrinthes, ça n'a l'air de rien, moi j'ai plein de questions derrière, mais du point de vue du bien-être, c'est fondamental.
Moi, quand je pars, je laisse tous mes protocoles.
Et la plupart des parcs jouent le jeu, réutilisent ça pour faire de l'enrichissement.
Ça ne remplace pas un milieu naturel.
Mais le zoo existe, je ne peux pas le fermer.
Et je ne pense pas que ce soit une bonne idée.
Le zoo existe.
Moi mon métier, c'est chercheur.
Donc, à moi d'utiliser ce parc zoologique, c'est mon avis, pour médiatiser, un, leurs capacités, et surtout pour médiatiser de l'empathie envers eux.
De quoi ils sont capables.
Et j'utilise un peu ce livre aussi.
Systématiquement, on m'interroge sur la souffrance animale.
Ce n'est pas mon métier, même si moi, au quotidien, je m'interdis toute souffrance animale.
Cette question des zoos est extrêmement complexe.
De mon point de vue de chercheur, mon objectif est d'utiliser les animaux de parcs pour montrer aux gens de quoi ils sont capables et convaincre ceux qui s'en foutent, leur dire : "Voilà ce qu'ils font.
Voilà leur quotidien et ce qu'ils sont capables de faire.
Attention."
Un autre exemple.
Sans les zoos, il n'y aurait plus de lémurs aux yeux turquoise.
C'est peut-être anecdotique, mais dites ça à Brice Lefaux, qui travaille au zoo de Mulhouse, qui s'est battu pendant 40 ans pour la sauvegarde de cette espèce et qui, aujourd'hui, a réussi !
Je ne dis pas qu'un zoo, c'est parfait.
J'y travaille.
Je la vois, la condition animale.
Ce n'est pas parfait.
Auditrice 2, puis Emmanuelle Pouydebat.
-Ils sont prisonniers.
Ne dites pas le contraire.
-Je ne dis pas le contraire, madame.
Ils sont dans un contexte qui n'est pas le leur.
Mais moi, en tant que chercheur, mon boulot est d'essayer de comprendre de quoi ils sont capables et de le transmettre à la communauté scientifique et au plus grand nombre.
Et je pense qu'en faisant ça, réponse dans 20 ans, je pense qu'en faisant ça, je transmets un message positif de l'animal et plein de choses qu'on ignorait.
Moi, j'en apprends tous les jours.
Je transmets un message important pour la communauté quelle qu'elle soit, scientifique, politique, grand public, etc., pour dire : "Attention.
On est des animaux comme eux.
Regardez-les différemment."
Pour moi, c'est un atout, un parc zoologique.
Pour moi, c'est un atout.
Auditrice 2.
-On n'est pas d'accord, mais je vous remercie.
Il y a une association, Paris sans captivité animale, qui lutte contre les cirques.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Je vais vous répondre : et les animaux domestiques ?
On peut même aller plus loin.
Parlons des animaux domestiques.
Parlons des chats, des chiens, des serpents dans les maisons.
Elle est où, la limite ?
C'est ça qui me dérange.
Auditrice 2, puis Emmanuelle Pouydebat.
-Les cirques, vous en pensez quoi ?
Des éléphants, des lions !
-Ce que je pense, c'est que quand il y a souffrance animale, il y a un problème.
Et après, il y a des degrés différents et des limites différentes.
Si je prends l'avis de tout le monde, il y aura autant d'avis que de personnes, avec des nuances.
C'est un sujet extrêmement complexe.
On ne peut pas dire tout blanc ou tout noir sur cette question-là.
C'est extrêmement complexe.
Waouh !
Merci.
Mais j'ai de l'empathie et je comprends.
Auditrice 3, puis Emmanuelle Pouydebat.
-Bonsoir.
-Bonsoir.
Auditrice 3.
-Tout d'abord, merci infiniment pour cette conférence qui était très bien menée.
J'ai une question qui est double.
Je me posais la question de savoir si on peut considérer que c'est moins le patrimoine génétique que l'adaptabilité à l'environnement qui va jouer dans le développement des outils ou des stratégies pour effectuer des tâches de plus en plus complexes ?
Emmanuelle Pouydebat, puis auditrice 3.
-J'ai deux heures ?
-Je sais, c'est un peu vaste.
L'autre question sous-jacente, c'est à partir du moment où l'homme développe plus de confort, et donc, à travers ces outils, effectue des tâches de moins en moins complexes, est-ce qu'on peut considérer que ça peut aboutir à une régression ?
Est-ce qu'il pourrait être rattrapé par le monde animal ?
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Je vais répondre à la première et après j'aurai oublié la deuxième !
Je ne suis pas au chapitre sur la mémoire !
Pour la première question, la part génétique dans le comportement, c'est quelque chose de fascinant.
J'ai une étudiante, pas celle qui a travaillé sur les labyrinthes, Pauline Thomas, qui a soutenu sa thèse il y a peu et qui essayait de comprendre le lien entre la génétique et certains comportements exploratoires, leur capacité à explorer ou pas, leur capacité à manipuler avec force.
Et rien que sur des comportements "simples", c'est compliqué de faire des corrélations entre génétique, morphologie et comportement.
Donc, la base génétique dans l'utilisation d'outils, c'est une question fascinante, mais je n'ai pas la réponse.
Mais on a commencé à travailler dessus, notamment en cherchant des liens, avec des collègues généticiens à l'INSERM, entre certains types de manipulations et certains gènes.
Mais pour ça, il faut qu'on ait des espèces entièrement séquencées.
Ce n'est pas le cas pour toutes les espèces.
Avoir des séquençages complets, c'est compliqué et ça coûte très cher.
Donc, pour des questions fondamentales, ce n'est pas évident d'avoir les budgets pour répondre à ces questions.
À défaut d'être scientifique, c'est une réponse concrète.
C'est une question fascinante.
Et là pour le coup, on parlait de progrès avant la conférence, là, l'avancée technologique peut nous aider pour tout ce qui est évolution sur la technologie génétique.
Beaucoup de choses vont tomber ces 20 prochaines années.
Je l'espère.
Et la deuxième question...
Je vous l'avais dit.
Ah oui, est-ce que le nombre croissant d'outils entraîne une régression ?
C'est une question très intéressante.
Pas mal de papiers sortent en ce moment là-dessus, notamment sur le fait que l'humain aurait perdu certaines capacités de mémorisation spatiale depuis l'arrivée du GPS.
Je prends l'exemple du GPS, parce que je pense à des espèces qui font des choses hallucinantes.
On peut se poser la question.
Plus on a d'outils finalement, plus on utilise ces outils et moins on réfléchit.
Moi la première : je mets mon GPS, s'il me donne une direction aberrante, je suis assez stupide pour suivre la direction aberrante.
Ça m'est arrivé.
Avant, on prenait une carte, on réfléchissait et s'il y avait un problème, on se perdait moins.
Il faut reconnaître que certains outils rendent un peu paresseux.
De manière très sérieuse, des publications scientifiques internationales montrent, en utilisant des tests de QI, ce pourquoi je suis assez partagée...
D'abord, le QI fonctionne pour une seule espèce.
Quand c'est utilisé pour comparer, je n'y crois pas.
Et au sein de l'espèce humaine, ça a été conçu pour un certain type de population, donc ça peut être discutable.
Mais il y a des papiers qui montrent qu'effectivement, je ne sais plus depuis quand, peut-être 15-20 ans, il y a certains paramètres du QI qui ont dégringolé dans les populations occidentales.
Il faut creuser.
Mais c'est un vrai questionnement dans le monde de la recherche.
Auditrice 3.
-Merci beaucoup.
Auditrice 4.
-Bonsoir, merci beaucoup pour la...
la conférence, qui à mon goût est beaucoup trop courte.
Auditrice 4, puis Emmanuelle Pouydebat.
Vu l'intérêt, l'importance...
-C'est bon signe.
Auditrice 4.
-Et l'étendue du sujet.
On a vu Coco tout à l'heure et...
Pardon, ça me perturbe beaucoup d'entendre ma voix dans un micro.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-On s'habitue !
Ou pas, d'ailleurs.
Je ne m'habitue pas moi non plus.
Auditrice 4.
-Comment est-ce qu'on mesure les notions, la maîtrise des notions abstraites...
Emmanuelle Pouydebat, puis auditrice 4.
-Ah !
-Par les animaux ?
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-C'est ce qu'il y a de plus compliqué.
Auditrice 4.
-Coco, donc, c'était la mort.
Mais il en existe tout plein.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Une manière de la mesurer, c'est quand on apprend le langage des signes aux animaux.
Et ça a été faisable chez orang-outan, chimpanzé, gorille, perroquet.
Pour ce type de notion abstraite, on peut essayer...
Alors, ça dépend.
Si vous entendez par "abstraction" des notions de mort, etc., c'est une des rares manières de l'aborder, sauf par des comportements qu'on peut observer.
Il y a des femelles, suite à la perte d'un petit, qui vont se laisser mourir à côté.
Ça existe chez les chimpanzés.
Chez les éléphants, certains parlent de rituels funéraires.
Auditrice 4, puis Emmanuelle Pouydebat.
-Chez les otaries.
-Par exemple.
Ce sont des observations où on peut se poser la question.
Mais nous, on va l'interpréter avec notre culture humaine, notre connaissance et notre éducation humaines.
Il y a toujours un biais potentiel.
Après, pour des notions comme la mort, effectivement, le fait de pouvoir "dialoguer", parce que ça dépend de ce qu'on entend par "dialoguer", "communiquer", etc., ça peut nous donner accès à certains mots que vont utiliser certains individus.
Mais en même temps, quand Coco dit "triste", "malheureux", est-ce qu'il l'emploie dans le même sens que moi ?
Auditrice 4.
-Cela dit, il n'utilise pas le mot "poire" ou "chaise".
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-On est d'accord.
Il utilise un lexique qui est cohérent.
On est d'accord.
Je ne critique pas les travaux sur Coco.
Je les montre, car je trouve ça troublant.
Après, il y a des notions abstraites qu'on peut évaluer autrement, comme la notion de quantité, de forme, de texture.
Des travaux chez les perroquets montrent, même chez des insectes comme les abeilles, qu'ils savent catégoriser les objets, qu'ils ont des notions abstraites de quantité.
Ça, c'est des choses qu'on sait relativement bien quantifier.
Après, pour des notions plus "philosophiques", s'il y a des philosophes ici je mets des millions de guillemets, c'est extrêmement compliqué d'être sûr de ce qu'on observe et de ce qu'on quantifie.
Parce qu'encore une fois, on n'est pas dans leur tête.
En plus, ils peuvent tricher.
Si je vous pose une question sur votre vision de la mort, vous allez m'expliquer quelque chose.
Auditrice 4.
-Est-ce que ça ne vient pas simplement du fait que nous, humains, on n'a pas eu l'idée d'un protocole qui nous permettrait de comprendre...
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-C'est tout à fait possible.
C'est tout à fait possible.
L'enjeu, si vous voulez, en fonction des questions qu'on se pose, c'est de trouver le meilleur protocole possible.
Sachant qu'il n'y aura jamais de protocole parfait.
J'ai beau réfléchir à mes protocoles...
Aucun chimpanzé n'utilise de labyrinthe en milieu naturel.
Donc, ce que je vais déduire de ces protocoles-là en captivité ne vaut que pour ma question en captivité.
Ça ne veut pas dire que cette tâche est pertinente pour comprendre le comportement de navigation d'un chimpanzé en milieu naturel.
On est d'accord que la création des protocoles en fonction de la question qu'on se pose est fondamentale.
Parce que si on se plante dans le protocole, on pensera avoir créé un truc génial alors qu'en fait, on aura tout faux.
Et je suis d'accord que la difficulté de trouver un bon protocole, c'est qu'on n'est pas dans leur tête, donc si ça se trouve...
Si vous voulez étudier un comportement chez moi, vous allez créer un protocole et si ça ne marche pas, on en discutera.
"Attention, ça ne me correspond pas.
Moi, j'ai plutôt vécu ça.
Je suis biaisée parce que je fais du tennis, etc."
Vous voyez ce que je veux dire ?
Et chez un animal, on ne peut pas avoir ce retour-là.
On peut, en fonction de leurs réactions au protocole.
On voit vite si un protocole est complètement inadapté ou pas.
En fonction des premières réactions, de l'évolution de leur comportement au cours des différentes tâches, au cours du temps, etc.
Mais je suis d'accord avec vous.
Le point crucial, c'est la création du protocole.
Et des fois, moi je n'ai pas toujours l'idée du bon protocole en fonction de ma question.
Auditrice 4.
-Le problème, c'est qu'on n'est pas capable de savoir si derrière le sentiment de deuil de certains éléphants par exemple, il n'y a pas une forme de spiritualité.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Il y en a qui en parlent.
J'ai des collègues qui pensent qu'il y a une forme de...
Spiritualité, je ne sais pas s'ils utilisent ce mot-là, mais à partir du moment où ils ritualisent la mort, pour certains collègues, c'est qu'ils ont une notion de la mort, qui est particulière puisque c'est uniquement pour cet événement-là qu'ils vont ritualiser des comportements.
Donc, on peut se dire que s'ils ritualisent, c'est que c'est quand même un passage à part dans leur vie.
Après, les mots qu'on met derrière...
Est-ce que c'est de la spiritualité ?
Je n'en sais rien.
Est-ce qu'ils comprennent ce qu'est la mort ?
Je n'en sais rien.
Ce qui est sûr, c'est que pour eux, quelque chose d'important a eu lieu et qu'ils marquent l'événement.
Ça, c'est sûr.
Après, les mots qu'on met derrière...
Il y a des collègues qui parlent, en tout cas, de "rites funéraires".
Emmanuelle Pouydebat, puis auditrice 4.
Le mot exact.
-Merci beaucoup.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-De rien.
Ah.
C'est pas de chance !
Auditrice 5, puis Emmanuelle Pouydebat.
-Bonsoir.
Merci pour votre conférence.
-Merci.
Auditrice 5.
-J'aimerais poser une question sur la définition du mot "intelligence".
Je pense que la pyramide où on se croit supérieur en intelligence vient du fait que la plupart des gens la définissent comme ce qu'on peut faire et que les autres ne peuvent pas faire.
Par exemple, modifier l'environnement, exterminer plusieurs espèces, même si on n'est pas là depuis très longtemps.
Et du coup, je pense que c'est biaisé dans ce sens-là.
Auditrice 5, puis Emmanuelle Pouydebat.
On définit l'intelligence comme ce qu'on sait faire contrairement à une autre espèce.
-Tout à fait d'accord.
Si j'avais la définition de l'intelligence d'un chimpanzé ou d'une fourmi, ça m'intéresserait de voir comment ils se catégorisent par rapport à nous.
Je suis tout à fait d'accord.
Parce que systématiquement, sur des concepts aussi compliqués, on donne des définitions en fonction de nous, parce qu'on est extrêmement anthropocentrés.
En fait, on pourrait avoir une définition de l'intelligence pour chaque espèce.
Mais ça n'empêche pas que...
Même pour chaque individu.
Surtout pour chaque individu, j'ai envie de dire.
Parce que pour une tâche...
Quelles que soient les espèces étudiées, vous avez des individus et différents degrés de réussite, ce qui ne veut pas dire que ceux qui échouent sont des imbéciles.
Il y a plein de facteurs autres que cognitifs.
Mais je suis d'accord avec vous.
C'est un problème lié à la définition de l'intelligence.
Par conséquent, j'essaie d'en utiliser une autre que celle dite "classique" dans les sciences cognitives ou en philosophie.
Auditeur 1.
-Bonjour, madame.
Il y a une question que je me suis toujours posée sur les animaux, sur laquelle je ne suis pas arrivé à des conclusions.
C'est celle-ci.
C'est celle qui concerne, vous savez ce que c'est chez l'être humain, l'ennui.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Ah !
Oui.
Je connais.
Pas beaucoup, en fait !
Auditeur 1.
-J'ai observé des chiens qui, si on ne s'occupe pas d'eux...
Si on s'occupe d'eux, ça va.
Mais si on ne s'en occupe pas, ils vont se coucher.
S'ils veulent faire leurs besoins, ils font signe, s'ils veulent manger, etc.
Par contre chez l'être humain, vous le laissez comme ça, au bout de pas longtemps, qu'est-ce qu'on fait, où on va ?
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Ça dépend.
J'en connais...
Auditeur 1.
-Chez beaucoup, hein.
Parce que l'être humain, semble-t-il, supporte très mal l'ennui.
Vous qui avez connu les animaux...
Emmanuelle Pouydebat, puis auditeur 1.
-Et les humains.
-Dans les zoos, donc emprisonnés en quelque sorte, et dans la nature, est-ce que vous avez observé que les animaux s'ennuient aussi ou pas ?
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Alors, c'est l'ennui qui est difficile à...
Qui est difficile à transposer chez les animaux.
Vous pouvez avoir des animaux, même en milieu naturel, qui vont passer trois heures assis.
Vous pouvez appeler ça du repos.
Est-ce de l'ennui ?
Je n'en sais rien.
Mais on peut appeler ça du repos.
Et après, si je pense aux...
Enfin, peu importe l'espèce.
Après, il va y avoir une action parce qu'il y a une motivation.
Fuir un prédateur, chasser, trouver un partenaire...
Mais les chimpanzés s'ennuient, les orangs-outans aussi.
Mais ça dépend de ce qu'on met derrière le mot "s'ennuyer".
En tout cas, il y a du repos qui peut durer plusieurs heures, sans pour autant dormir.
Donc oui, bien sûr.
J'espère répondre un peu à votre question.
Je ne suis pas une spécialiste du repos et de l'ennui, mais il me semble qu'il y a quand même pas mal d'espèces qui peuvent...
Emmanuelle Pouydebat, puis auditeur 1.
Qui peuvent s'ennuyer.
-Le poisson rouge dans son bocal.
Emmanuelle Pouydebat, puis auditeur 1.
-Ah !
Le poisson rouge dans son bocal.
-Qui tourne en rond toute la journée.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Oui, bien sûr, on peut.
Oui, oui !
Non, non, je ne vous dis pas le contraire.
Pour moi, c'est un autre débat.
Je ne suis pas une spécialiste de la maltraitance animale.
Désolée de vous répondre ça.
Je ne suis pas une spécialiste de la maltraitance animale.
J'essaie de comprendre les animaux et de m'assurer qu'ils ne souffrent pas quand je les étudie, voire d'améliorer leur bien-être.
Je n'en suis pas...
Je n'en suis pas fière.
C'est juste...
voilà.
Mon travail.
Après, la question du repos, de l'ennui, je pense que ça dépend vraiment aussi des espèces et puis des individus.
Je reprends l'exemple des chimpanzés.
Si vous êtes un chimpanzé dominé et un chimpanzé dominant, pour le dominé, vous avez moins de place pour l'ennui et le repos.
Parce que forcément, même pour les singes capucins que je connais bien, une petite femelle très dominée dans un groupe de singes capucins ne peut pas s'ennuyer et se reposer, parce qu'elle va être un peu persécutée par les congénères, qu'elle va avoir du mal à se nourrir.
Donc, dès que les autres se reposent, elle en profite pour chercher à manger.
En gros, elle ne peut pas se payer le luxe de se reposer et de s'ennuyer.
Parce que ce serait trop dangereux pour elle.
Et après, j'ai envie de dire qu'il y aurait autant de réponses que d'espèces, voire d'individus.
Chaque individu, au sein d'une espèce, va avoir un quotidien différent et des problèmes et des contraintes différentes.
On a un petit peu moins de prédateurs, en tout cas nous, en France.
Dans mon salon, j'ai peu de prédateurs, je peux me permettre de m'ennuyer.
Et quand je suis un petit suricate dominé, qui a des prédateurs de partout, en haut, en bas, les serpents, les aigles, j'ai moins loisir à m'ennuyer.
Ou dans mon terrier, mais avec une hiérarchie interne très forte.
Il y a probablement autant de réponses que d'individus.
Si ça répond un peu...
Auditrice 5, puis Emmanuelle Pouydebat.
-Bonjour.
Bonjour.
De ce côté.
-Ah, pardon.
Auditrice 5.
-Je me posais la question, est-ce qu'il y a quelque chose sur lequel l'homme a le monopole ?
Auditrice 5, puis Emmanuelle Pouydebat.
Qu'on ne trouve que chez l'homme ?
-Je répondrais bien quelque chose !
Est-ce qu'on a le monopole ?
Pour avoir discuté un petit peu de ça avec un collègue éthologiste qui vient de partir à la retraite, Patrick Gouat, grand éthologiste...
Ah ?
Il y en a qui l'ont eu comme prof ?
Il n'y a pas de génocide, dans sa manière de définir en tout cas le génocide, dans le monde animal.
Donc, on a peut-être le monopole du génocide.
Ce n'est pas très rigolo.
Il faudrait que je réfléchisse pour donner une réponse plus complète.
Auditeur 2, puis Emmanuelle Pouydebat.
-La bêtise !
-C'est ce qui me venait spontanément.
Mais c'est un peu facile, le monopole de la bêtise.
Disons que...
Pas facile comme question.
Je répondrais bien avec mes tripes, mais il ne vaut mieux pas.
Disons qu'on a le monopole...
Je sèche.
Il y a d'autres espèces capables de détruire des parcelles extrêmement rapidement.
Un hippopotame vous détruit...
Donc, il y a aussi des contre-exemples en termes de destruction du milieu.
On est d'accord qu'on a probablement le monopole d'une destruction assez large en très peu de temps.
À l'échelle planétaire en peu de temps.
Je ne pense pas me tromper en disant ça.
Encore une fois, c'est une réponse un petit peu négative.
Je pense qu'on a le monopole des contrastes, en tout cas.
On est capables de choses incroyables dans un sens et, hélas, dans l'autre.
On a peut-être le monopole des contrastes.
Mais je ne maîtrise pas ces notions-là.
J'ai besoin de réfléchir avant.
Sur des choses aussi importantes, j'aurais besoin de plus de recul.
Mais...
Oui, je ne sais pas trop quoi vous répondre d'autre.
Désolée.
Je vous promets d'y réfléchir.
Vous trouverez facilement mon mail sur Internet.
Avec un peu de sommeil et de réflexion, je répondrai mieux !
Auditeur 3, puis Emmanuelle Pouydebat.
-Bonsoir.
-Le pauvre...
C'est où ?
Ah, pardon.
Je vous ai vu en premier, en plus.
Auditeur 3.
-J'avais une question...
Je n'ai pas la réponse.
Est-ce que vous pensez que l'organisation d'une meute, par exemple chez les loups, est une forme d'intelligence ou que c'est encore primitif ?
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Waouh.
Alors...
Dans le monde animal, on trouve plein de types d'organisation sociale.
Vous avez des individus qui sont en groupe, en meute pour les loups, et des individus solitaires.
Pour moi, il n'y en a pas un qui est plus primitif que l'autre.
Vous avez des individus solitaires qui se retrouvent uniquement pour l'accouplement et ça fonctionne très bien.
Et vous en avez d'autres qui sont plus efficaces en groupe pour survivre.
Chacun a sa stratégie.
Il n'y en a pas une qui est meilleure que l'autre.
Les deux permettent à l'espèce de se reproduire et donc de survivre.
Donc, une meute de loups, oui, ça fonctionne très bien.
Ils survivent, ils trouvent leur nourriture.
Ce sont des individus sociaux extrêmement intelligents.
C'est un système qui leur permet de se reproduire, de perpétuer l'espèce.
Rien de primitif là-dedans.
Et vous avez des individus solitaires chez les lézards et plein d'autres espèces, même les primates.
Les orangs-outans se retrouvent essentiellement pour l'accouplement.
Et ma foi, si l'homme n'intervient pas trop, ils se reproduisent et la survie est perpétuée.
En termes de groupe social, qu'on soit solitaire ou en groupe, ma foi, les deux fonctionnent.
Ou pas, d'ailleurs.
Il peut y avoir de l'échec en groupe et en solitaire.
Dans les deux cas, ça peut fonctionner.
Donc, aucun des deux n'est primitif.
Emmanuelle Pouydebat, puis auditeur 3.
Du moins au sens où je pense le comprendre par rapport à ce que vous vouliez dire.
-Merci.
Emmanuelle Pouydebat, puis modératrice.
-Il y a un monsieur depuis...
-Oui.
On va prendre trois questions.
Très courtes, parce qu'on va devoir quitter la salle très rapidement.
Des questions très courtes.
Auditeur 4.
-Oui, oui.
Mais pour l'intelligence, il y a la psychologie cognitive, la psychologie expérimentale...
Alors là, en psychologie expérimentale, on a eu un spectacle.
Auditeur 4, puis Emmanuelle Pouydebat.
Là, vous faites de la psychologie expérimentale.
Enfin, peu importe.
-Dans les exemples que je montre, oui.
Moi, je ne suis pas psychologue.
Ni en sciences cognitives ni...
Auditeur 4.
-C'est de la psychologie expérimentale.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Les exemples que j'ai montrés, je suis d'accord, vous y font penser.
Mais j'aurais pu prendre d'autres exemples.
Auditeur 4, puis Emmanuelle Pouydebat.
J'utilise ça pour étayer des propos sur la hiérarchie et l'intelligence.
-Psychologie cognitive, expérimentale, la psychophysiologie.
Emmanuelle Pouydebat, puis auditeur 4.
-Oui.
-Et puis il y a l'éthologie et les sciences humaines.
Auditeur 4, puis Emmanuelle Pouydebat.
J'ai tendance à confondre.
-Ah ?
Moi aussi !
Auditeur 4.
-Je confonds un petit peu, je veux dire.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-La confusion naît du fait que les disciplines ont des objectifs communs.
Auditeur 4.
-Ça fait déjà quatre voies pour l'intelligence humaine ou animale.
Mais la psychologie cognitive, c'est plutôt pour les humains.
Avec les animaux, est-ce qu'on en fait aussi ?
Ça me paraît difficile.
Auditeur 4, puis Emmanuelle Pouydebat.
Oui ?
-Bien sûr.
Il y a plein de protocoles éthologiques aussi pour comprendre les capacités des humains.
Bien sûr.
Oui, oui.
Tout à fait.
Modératrice.
-Il y a d'autres questions ?
Auditeur 5, puis Emmanuelle Pouydebat.
-Bonjour.
-Bonjour.
Auditeur 5.
-Comme tout le monde, j'ai été enchanté de la conférence.
Auditeur 5, puis Emmanuelle Pouydebat.
Bravo pour votre position sur le bien-être animal, même si je partage...
-Ce n'est pas simple.
Auditeur 5.
-Voilà.
J'avais une question sur les différences de comportements d'une espèce en captivité ou à l'extérieur.
Je lis un livre sur le rôle des bactéries à l'intérieur de nous qui influencent le comportement physique et qui peuvent créer des états suicidaires ou générer des actions pendant notre sommeil.
Je n'ai qu'un point de vue, car je n'ai lu qu'une chose là-dessus, mais est-ce que vous, vous regardez aussi cet aspect-là en vous disant : "Est-ce que pour tel individu, par rapport à ce qu'il mange ou à son milieu, des bactéries ont pu influencer son comportement ?"
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Je n'étudie pas ces questions.
C'est déjà assez nouveau en biologie humaine.
Et donc, sur l'aspect biologie animale, je peux me tromper, je connais mal ce domaine-là, mais à mon avis...
C'est relativement récent en biologie humaine.
Disons que les démonstrations sont de plus en plus précises.
Et du coup pour l'appliquer à l'animal, à mon avis...
Il y a peut-être des travaux dessus, mais je ne les connais pas.
Je vous répondrais une bêtise.
S'il y en a qui ont des réponses...
Modératrice, puis Emmanuelle Pouydebat.
-Je vous donne un micro.
-C'est ancien, on est bien d'accord.
Auditrice 6.
-Ça a été fait sur des souris, justement, par rapport à ce microbiote.
On avait une souris accessible et heureuse, et de l'autre côté, quand il y avait un microbiote pratiquement inexistant ou non habité, la souris était d'une agressivité...
Auditrice 6, puis Emmanuelle Pouydebat.
On ne pouvait pas l'approcher, quoi.
-Oui, oui.
Auditrice 6.
-Donc ça a été fait pour déboucher sur le microbiote humain.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Oui, mais la plupart des découvertes sur la biologie humaine viennent des souris et des rats, donc j'entends bien et merci beaucoup de nous préciser ça.
Après, ce à quoi je pensais, c'est pour l'application sur des espèces en milieu naturel.
Sur des espèces sauvages comme les grands singes, je ne connais pas d'exemple.
Ce n'est pas ma thématique de recherche.
Il faudrait fouiller, regarder dans la littérature.
Moi, je n'ai pas d'idée.
Mais ce serait...
Enfin, si sur la physiologie de rongeurs et d'humains, ça fonctionne, il peut y avoir des effets chez d'autres espèces.
Après, je n'ai pas d'exemple à vous donner très concrètement.
Désolée.
Oui, c'est bien.
Auditeur 6.
-J'y vais ?
Auditeur 6, puis Emmanuelle Pouydebat.
Bonsoir.
-Bonsoir.
Auditeur 6.
-C'est pour revenir à l'anecdote des macaques japonais et de la patate douce.
En ligne, ils racontent l'histoire encore plus loin pour faire preuve de la conscience collective que la connaissance du lavage de la patate était passée à d'autres macaques sans avoir l'opportunité de se rencontrer.
Est-ce que c'est vrai ou faux ?
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Je ne vais pas trancher, parce que je n'ai pas assez d'éléments.
Ce qui est sûr, c'est que c'est un comportement qui s'est développé de manière très locale sur sept ou huit ans, sept, huit, neuf ans, et qu'en 30 ans, c'est un comportement qui s'est...
Qui s'est transmis comment, il y a un gros point d'interrogation, mais à plein d'autres groupes de macaques japonais.
Alors après, comment...
Comment il y a eu des transmissions ?
Il y a un gros point d'interrogation.
Les faits, c'est que...
Au sein d'un même groupe, ça s'est transmis en quelques années et ensuite de génération en génération, sur plein d'autres groupes de macaques japonais.
De la même manière qu'en Angleterre, c'est un exemple archiconnu mais relativement intéressant, les mésanges se sont transmis le fait de percer les opercules rouges, parce que c'était du lait entier, plus que les bleus, parce que c'était moins riche.
Ce comportement s'est transmis chez les mésanges et curieusement, pas chez d'autres espèces d'oiseaux.
Pourquoi ça se transmet chez une espèce et pas chez une autre ?
C'est un phénomène très intéressant.
Après, comment ça se transmet au sein du groupe et entre différents groupes ?
Ça, je n'ai pas la réponse.
Il y en a même qui parlent de télépathie chez les animaux.
Je connais très mal les travaux.
Ce n'est pas mon domaine.
Donc, je n'ai pas d'exemple concret, ni de réponse à ces choses-là.
Moi, les réponses que j'ai en tête, c'est par observation ou par déplacement d'individus entre groupes.
C'est plus des exemples concrets que j'ai comme ça.
Modératrice.
-On ne vous entend pas, madame.
Attendez.
Auditrice 7.
-Merci, excusez-moi.
Oui, sur cette découverte, le fait de laver les pommes de terre, les singes qui lavent leurs pommes de terre, ça a été mis en lumière un peu je pense, parce que je n'ai pas approfondi le domaine, par le biologiste Rupert Sheldrake.
Je ne sais pas si vous le connaissez.
Et donc, il a défini cette chose en pratique par le fait des champs morphogénétiques.
Il faut savoir qu'une action et un comportement créent des champs morphogénétiques qui font que ça circule sur la planète.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Là, on n'est pas dans les mêmes concepts, je pense.
Auditrice 7.
-C'est sûr que c'est de l'avant-garde qui n'est pas toujours admise.
Mais en tous les cas, c'est très, très fort.
Emmanuelle Pouydebat, chargée de recherche au CNRS.
-Sûrement.
Modératrice, puis Emmanuelle Pouydebat.
-On va terminer là pour ce soir.
Désolée, mais l'heure tourne.
Merci beaucoup, Emmanuelle.
-Merci à vous.

Science et société : rupture de la confiance ?

Samedi 14 octobre 2017  : Ciné-débat

 

14h - Table ronde

Conflits d’intérêt, falsifications de données, instrumentalisation du doute scientifique, sont en partie à l’origine d’une certaine défiance de nos concitoyens. Comment renouer un dialogue constructif ? Face à la puissance croissante des technosciences, faut-il promouvoir un contre-pouvoir démocratique ?
Avec Catherine Bourgain, chargée de recherche à l’Inserm et administratrice de la Fondation Sciences citoyennes ; Thomas Guillemaud, biologiste, directeur de recherche à l’Inra ; Stéphane Horel, journaliste indépendante, lobbywatcher pour Le Monde ; Yves Sciama, journaliste scientifique.

Modération : Daniel Fiévet, journaliste

 

Table ronde : « Science et société : rupture de la confiance ? »
"Science et société : rupture de la confiance ?"

La Cité des sciences et de l’industrie : Les conférences
« Quand la science se remet en question » : Cycle de conférences
Table ronde : « Science et société : rupture de la confiance ? »
Avec Catherine Bourgain, chargée de recherche à l’Inserm et administratrice de la Fondation Sciences citoyennes.
Thomas Guillemaud, biologiste, directeur de recherche à l’Inra.
Stéphane Horel, journaliste indépendante, lobbywatcher pour « Le Monde ».
Yves Sciama, journaliste scientifique.
Modération : Daniel Fiévet, journaliste.
Avec le soutien de Pour la Science.

Daniel Fiévet, journaliste.
-Bonjour à toutes et à tous.
Je suis heureux de vous accueillir à l'auditorium de la Cité des sciences et de l'industrie pour cette table ronde intitulée : "Science et société : rupture de la confiance ?"
Nous avons mis un point d'interrogation à "rupture de la confiance ?"
parce qu'après tout, ça reste une question.
Cette rupture n'est pas avérée ni consommée.
On entend parfois parler de conflit d'intérêt, de fraude scientifique, d'instrumentalisation du doute scientifique.
Voilà de quoi susciter une certaine défiance, en tout cas.
C'est cette défiance qui va nous intéresser aujourd'hui.
On va voir si elle est justifiée ou non.
Nous allons nous interroger sur l'indépendance des scientifiques, sur l'organisation de la recherche telle qu'elle se fait dans les laboratoires, publics et privés aussi.
Parfois, cette organisation peut conduire à des dérives, nous verrons lesquelles.
Nous verrons aussi comment installer davantage de dialogue entre science et citoyens, donner davantage la parole aux citoyens pour qu'ils participent aux décisions des recherches faites dans les laboratoires.
Cette rencontre sera suivie de la projection du film "Révélations".
Il relate une histoire vraie, qui date maintenant de quelques décennies.
On y voit comment l'industrie du tabac a su passer sous silence certains résultats scientifiques dont elle avait connaissance, qui montraient que la nicotine était dangereuse pour la santé, provoquait des addictions.
On va voir comment chercheurs et journalistes ont essayé de faire un grand procès retentissant à l'industrie du tabac.
Ce sera à 16 h.
Place à la discussion.
Je vous présente nos quatre invités, que je remercie d'avoir accepté cette invitation et d'être venus, malgré le beau temps, vous enfermer avec nous.
Je vous remercie aussi d'être venus.
Catherine Bourgain, ici présente, généticienne et sociologue des sciences, chargée de recherche à l'Inserm et administratrice de la fondation Sciences citoyennes.
Thomas Guillemaud, vous êtes biologiste, directeur de recherche à l'Inra de Sophia Antipolis.
Stéphane Horel, vous êtes journaliste indépendante, enquêtrice pour le journal "Le Monde", et on va parler de certains papiers que vous avez publiés très récemment, sur les "Monsanto Papers", on verra de quoi il retourne.
Et à l'extrémité, Yves Sciama, journaliste scientifique, membre du bureau de l'AJSPI, l'Association des journalistes scientifiques de la presse d'information.
Bienvenue à tous les quatre.
Je voudrais commencer avec vous, Thomas Guillemaud.
Vous êtes biologiste, vous travaillez sur une petite bête qui grignote les racines du maïs et vous en êtes venu, vous nous direz comment, à vous intéresser aux conflits d'intérêt au sein même de l'Inra.
Racontez-nous.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Je parle dans ce micro.
Bonjour, merci pour l'invitation et la question.
Je suis biologiste, généticien des populations.
Je m'intéresse aux populations envahissantes.
J'ai travaillé sur un coléoptère qui mange les racines du maïs.
Qui dit maïs, dit semenciers, et qui dit semenciers, dit OGM, qui sont produits pour lutter contre les insectes ravageurs du maïs.
J'ai travaillé une dizaine d'années sur cette bête qui mange le maïs, donc j'ai lu, dans mon activité quotidienne de scientifique, des articles d'autres scientifiques qui avaient pour sujet les maïs OGM qui avaient été construits pour lutter contre les insectes ravageurs.
Et je me suis rendu compte qu'une proportion assez importante de ces articles soit avaient eux-mêmes pour auteurs des employés de firmes semencières, soit étaient financés par ces firmes semencières.
Je me suis demandé quelle devait être mon attitude en tant que lecteur, quand je voyais manifestement des liens d'intérêt forts qui résultaient en des conflits d'intérêt.
Qu'est-ce que je devais faire en tant que lecteur scientifique et quelle était la proportion des problèmes dans ce milieu ?
Daniel Fiévet, journaliste.
-Vous avez poussé l'étude un peu plus loin.
Il y a déjà ce point intéressant, la législation demande aux chercheurs de signaler tout conflit d'intérêt.
Mais le lecteur ne sait pas trop quoi faire de cette déclaration.
Dès lors que le conflit d'intérêt est déclaré, je ne dois pas tenir compte du papier, le prendre avec des pincettes, qu'est-ce qu'il faut en faire ?
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Vous avez dit que la législation imposait aux chercheurs de déclarer ces conflits d'intérêt, en France, ce n'est pas le cas.
Daniel Fiévet, journaliste, puis Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'est limité à certains domaines ?
-Je n'en sais rien.
En tout cas, dans mon domaine, les chercheurs n'y sont pas obligés.
Il y a quelques revues scientifiques qui l'imposent aux chercheurs, mais pas toutes, et il n'y en a pas beaucoup.
Donc, il n'y a pas cet aspect-là.
La question, c'est : qu'est-ce qu'on fait de l'information, de cette transparence de présence ou d'absence de conflit d'intérêt ?
Il y a des études en psycho et en socio qui montrent que la transparence sur les conflits d'intérêt peut avoir l'effet complètement inverse à l'effet escompté.
Les lecteurs sont mal armés face à l'information de l'existence de conflits d'intérêt et font plus confiance à des papiers lorsqu'un conflit d'intérêt est déclaré que lorsqu'il n'y en a pas.
L'effet est inverse à celui qui est normalement escompté.
Daniel Fiévet, journaliste.
-Parce qu'il y a une sorte de transparence...
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'est ça.
Faute avouée, complètement pardonnée.
Daniel Fiévet, journaliste.
-C'est un gage de confiance.
Qu'a donné votre étude ?
Quand vous vous êtes posé la question, quelle est l'influence du fait d'être à la fois juge et partie, conseiller et expert du domaine sur les études ?
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-La réponse à cette question n'est pas si simple.
Dans notre étude, on a analysé entre 500 et 600 papiers, des articles scientifiques, et au sein de ces 500-600 articles, plus de 40 % d'entre eux présentaient des signes de conflits d'intérêt, parce que des auteurs travaillaient pour des semenciers ou parce que le financement provenait de semenciers.
Donc, 40 % des papiers présentent un conflit d'intérêt.
On a pu analyser le type de conclusions auxquelles parvenaient les articles.
Les articles concernaient l'efficacité et la durabilité des OGM produits pour lutter contre les insectes.
Efficacité, durabilité, il ne s'agit pas de l'influence sur l'environnement, la toxicité humaine, etc.
On a trouvé une association statistique entre la présence de conflits d'intérêt et le type de résultats obtenus.
Quand il y avait des conflits d'intérêt, la proportion d'articles qui amenaient à des conclusions favorables aux semenciers était 50 % plus fréquente.
On a plus souvent des résultats favorables aux industries semencières lorsqu'il y a un conflit d'intérêt.
C'est une association statistique, ça ne veut pas dire qu'il y a une relation de cause à effet.
On s'est bien gardés de dire qu'il y avait une relation de cause à effet entre les conflits d'intérêt et le type de conclusions, mais l'histoire montre que, lorsqu'il y a ce type de résultats, souvent, il y a des relations de cause à effet, mais on n'a pas pu les démontrer.
Daniel Fiévet, journaliste.
-Quand on dit aux chercheurs : "Lorsque vous êtes payés par les firmes que vous expertisez, vos conclusions sont 50 %..."
Comment le dire ?
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Ce n'est pas si simple.
Les études qui présentent des résultats favorables aux industries semencières sont 50 % plus fréquentes que les études qui ne présentent pas de conflit d'intérêt.
Daniel Fiévet, journaliste.
-Il vaut mieux que vous le disiez car la nuance est subtile.
Quand on dit ça aux chercheurs qui sont parties prenantes, que disent-ils ?
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Les personnes à qui on a pu parler s'intéressent en général à ce résultat.
Elles n'y avaient pas toujours réfléchi et trouvaient le résultat intéressant.
Tous les gens avec qui j'ai pu en discuter disaient que, lorsqu'eux-mêmes sont en conflit d'intérêt, ce qui arrive souvent dans un institut comme l'Inra, où on nous pousse à collaborer avec les entreprises et avoir des financements privés, ils sont intimement persuadés, et en toute bonne foi, que le fait d'être en conflit d'intérêt n'interagit pas du tout avec leur activité de chercheur et les résultats qu'ils trouvent.
Daniel Fiévet, journaliste.
-Ils disent : "C'est peut-être vrai, mais pas dans mon cas."
Daniel Fiévet, journaliste, puis Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
"Je ne suis pas influencé."
-C'est la réponse classique qu'on obtient de gens qui sont en situation de conflit d'intérêt.
Ce n'est pas forcément faux puisque c'est une relation statistique, dans laquelle il y a du bruit, de la variation.
Il y a des gens qui sont en conflit d'intérêt qui n'a aucun effet sur leur recherche.
Il y en a, mais statistiquement, sur une grande population, on voit un effet significatif.
Daniel Fiévet, journaliste.
-Stéphane Horel, l'influence du financement sur le résultat, ici dans le cas des études sur les OGM, a été constatée dans d'autres domaines, Daniel Fiévet, journaliste, puis Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
pour d'autres études.
-C'est ça qui était intéressant, avec l'étude de Thomas et ses collègues.
Dans plusieurs domaines déjà, on a ce genre de données, que la source de financement a un impact sur le résultat.
On appelle ça le "funding effect", le biais de financement.
On a un chiffre, même si ce n'est pas tous les OGM, sur une question concernant les OGM, on a des données sur le tabac, sur le tabagisme passif, sur les sodas, sur certains médicaments.
Je n'ai plus tous les domaines en tête.
Elles montrent que les résultats ont quatre à sept fois plus de chances d'être favorables au produit quand c'est financé par le producteur qui fabrique ce produit-là.
Je voulais juste rebondir sur quelque chose que Thomas disait.
Le conflit d'intérêt, c'est toujours quelqu'un d'autre, ce n'est jamais soi.
Mais il est important de souligner que par conflit d'intérêt, on ne parle pas de corruption.
On parle d'un financement de travaux qui peut avoir un impact sur le jugement.
C'est ça qui est compliqué dans cette question et l'explication de cette problématique au grand public.
C'est d'asséner qu'il ne s'agit pas de corruption Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde", puis Daniel Fiévet, journaliste.
et que c'est beaucoup plus subtil.
-Ce sont presque des mécanismes psychologiques.
De bonne foi, le chercheur, à partir du moment où il connaît le secteur qu'il expertise, a des résultats biaisés, c'est ça ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-En fait, on ne peut jamais savoir.
Mathias Girel est philosophe et travaille à l'ENS sur ces questions-là.
Le terme qu'il utilise, qui est au cœur de cette problématique, c'est l'intentionnalité.
Est-ce qu'il y a une volonté...
Daniel Fiévet, journaliste, puis Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-De truquer ?
-De biaiser le résultat ou pas ?
Et ça, on est comme des poules devant les pyramides, on ne peut pas savoir.
On ne peut pas entrer dans la tête des gens, sauf quand on a accès aux documents internes.
Daniel Fiévet, journaliste.
-C'est une autre histoire, mais elle est intéressante aussi.
Vous avez publié récemment une série d'articles, les "Monsanto Papers", dans les pages du "Monde".
C'est assez édifiant de voir l'attitude de cette firme, qui fait parler d'elle, qui n'a pas une bonne image, mais qui est puissante.
Le glyphosate, qui est le composant essentiel du Roundup, ce désherbant qui fait tant parler, c'est elle qui le vend.
Je vais vous laisser détailler ça, de quelle manière ils ont méthodiquement décidé de décrédibiliser toutes les expertises qui incriminaient leurs produits.
Ils ont essayé de faire des contre-feux, c'est très dérangeant, en le lisant, on est scandalisés.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Avec Stéphane Foucart, au journal "Le Monde", on a travaillé sur les "Monsanto Papers", qui sont des documents internes de la firme Monsanto qui ont été rendus publics suite à des procédures judiciaires aux USA.
Ces procédures sont toutes liées à des personnes qui se pensent victimes ou des proches de victimes, car certaines sont décédées, d'un lymphome non hodgkinien, un cancer très rare du sang qu'ils attribuent à une exposition au glyphosate.
Il y a 3 500 plaignants aux États-Unis, dont les procès sont réunis à San Francisco, et c'est au fil de cette procédure que les avocats de ces plaignants, par une procédure qu'on appelle la "discovery", vont à la pêche à la mouche dans les archives de Monsanto.
Ils ramènent dans leurs filets, le chiffre que Monsanto a donné, c'est 10 millions de pages qui ont été sorties des entrailles de la firme.
Maintenant, au fur et à mesure que le temps passe, les avocats des plaignants demandent que certains soient rendus publics.
C'est à partir de ces lots que nous, on travaille.
Dans tous ces documents, on a accès à des échanges d'e-mails internes, des échanges d'e-mails de gens à l'intérieur de Monsanto avec des personnes extérieures, souvent des scientifiques, des cabinets de consultants, des mémos, des compte-rendus de réunions, des brouillons d'articles scientifiques.
On a une masse de choses qui permettent de reconstituer la vie parallèle de tout ce qui a été la défense de ce produit, le glyphosate, qui a été mis sur le marché en 1974, depuis les premiers soupçons qu'il y a eus au début des années 1980.
Daniel Fiévet, journaliste.
-Mettez-nous quelques exemples en tête de la façon dont ils ont exercé des pressions sur les scientifiques et allumé des contre-feux pour défendre leur produit.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-C'est plus que ça.
Ce qu'on a découvert, c'est l'étendue d'une pratique qui s'appelle le "ghostwriting".
Ce sont les "auteurs fantômes", ce n'est pas la même chose que les nègres.
On paie des gens pour signer des articles qu'ils n'ont pas écrits.
Des scientifiques maison de Monsanto rédigeaient des articles scientifiques qui sont publiés dans les revues savantes.
Ils demandaient à des scientifiques n'ayant aucun lien de subordination apparent avec Monsanto, qui travaillaient dans des universités, de vendre leur signature.
D'après ce qu'on peut en comprendre, ce n'était pas juste leur nom, il y avait aussi un peu de travail.
Mais la réputation de ces personnalités scientifiques indépendantes de la firme permet de passer une couche de vernis de crédibilité scientifique.
Toutes les publications pour lesquelles la pratique du "ghostwriting" est mentionnée dans les archives internes, concluaient à l'innocuité du glyphosate.
Daniel Fiévet, journaliste.
-On est d'accord, on est un cran au-dessus de ce qu'on évoquait, on n'est plus dans l'inconscient.
Ceux qui ont vendu leur signature pour ces articles savaient ce qu'ils faisaient.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Ça a permis de résoudre une partie de la question de l'intentionnalité, mais ça ne veut pas pour autant dire, en tout cas selon moi, que les scientifiques qui ont vendu leur signature, mais aussi un peu de travail, ont tout à fait conscience de ce à quoi ça peut ressembler vu de l'extérieur, en fait.
Daniel Fiévet, journaliste.
-Comment ils ont pu s'arranger avec ça sans se rendre compte...
Ils connaissent Monsanto, la réalité de l'entreprise, les soupçons qui pèsent déjà dessus.
On leur propose des chèques qu'on imagine conséquents, on leur fait signer des papiers, comment on peut se dire que ce n'est pas si grave ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-C'est fait de manière beaucoup plus subtile que ça.
On ne fait pas : "Allô, professeur de l'université de Munich, est-ce que, contre 80 000 dollars, vous mettriez votre nom sur une publication ?"
On a vu que Monsanto a organisé la publication de cinq articles en 2016.
Quelque chose que je n'ai pas précisé, c'est que tout ce qui se passe, c'est lié à une opinion scientifique, l'opinion du Centre international de recherche sur le cancer, le CIRC, qui est l'agence de l'ONU sur le cancer basée à Lyon.
En 2015, il a conclu que le glyphosate était cancérigène probable pour l'homme.
À partir de là, ça a été la guerre de la part de Monsanto contre cette agence, contre les scientifiques qui ont participé à ce travail, la guerre totale sur ce point-là.
Daniel Fiévet, journaliste.
-Là, ils ont fait pression, ils ont envoyé des mails directement aux auteurs de ces études très accusateurs, en disant qu'ils allaient avoir des problèmes avec la justice.
C'est ce que vous révélez dans vos articles, je n'invente rien.
C'est aussi en s'arrangeant pour dénigrer ces chercheurs, les faire passer pour des charlots, des gens pas fiables, salir leur carrière et leur réputation.
Donc, on est vraiment dans des méthodes malhonnêtes.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Il y a effectivement toute la partie intimidation que Monsanto et leurs avocats se permettent grâce à la loi américaine, qui est le Freedom of Information Act, le droit d'accès aux documents.
Il leur permet de demander aux universités américaines, où travaillent certains chercheurs ayant travaillé sur cet avis, de donner leur correspondance e-mail.
Ensuite, ils choisissent ce qu'ils veulent pour les attaquer, mais c'est de l'intimidation, de toute façon.
Pour revenir sur la question de à quel point c'est subtil, de demander de mettre sa signature, Monsanto a organisé la publication de toute une série d'articles dans une revue scientifique de très bonne réputation, pour répondre au CIRC.
Elle a mis en place un panel, à travers une société de consultants qui a une quinzaine de scientifiques, plus ou moins indépendants, il y en a qui sont liés à la firme de façon assez claire.
On voit, dans les échanges e-mails, qu'ils ont tous apporté une partie de travail.
Ce n'est pas forcément conséquent, mais ils ont participé.
C'est mon analyse, mon ressenti de ça, je ne pense pas qu'aucun de ces scientifiques ait eu l'impression de vendre son nom.
Ils ont tous participé un petit peu à du travail.
Daniel Fiévet, journaliste.
-C'est presque un peu un problème d'ego.
Ils se sont dit : "J'ai une telle expertise que le peu de travail que j'ai fourni mérite bien la somme qu'on m'a donnée."
C'est ça qui les a aveuglés, l'importance de la contribution qu'ils avaient fournie.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-C'est plutôt le fait d'avoir travaillé qui permet de se dire qu'on a mérité l'argent qu'on touche.
Daniel Fiévet, journaliste.
-Les sommes devaient être au-delà du travail fourni.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Un autre point concernant les papiers que tu as révélés dans ces articles, c'est que Monsanto, et j'imagine d'autres firmes, ne cible pas n'importe qui comme chercheurs.
Monsanto cible des chercheurs dont on sait que les opinions qu'ils ont déjà publiées sont a priori favorables aux intérêts de la firme.
C'est très important car ça veut dire que ces gens-là n'ont pas besoin de beaucoup de motivation pour signer des papiers qui vont dans un sens.
Par exemple, des chercheurs qui ont été très critiques sur les études de Séralini, dont on reparlera peut-être...
C'est un chercheur français qui a publié un papier mettant en évidence des cancers associés au glyphosate qui a été très décrié.
Plein de scientifiques étaient fondamentalement contre cette étude, pour des raisons scientifiques.
Ces gens-là, il n'y a pas à beaucoup les motiver pour qu'ils signent des papiers qui sont extrêmement virulents contre ce type d'étude.
Donc ils les choisissent bien.
Daniel Fiévet, journaliste.
-On imagine qu'ils mettent beaucoup d'argent et d'énergie à faire tout ça, chez Monsanto.
Daniel Fiévet, journaliste, puis Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
Ils ont un service dédié au lobbying ?
-Plus qu'un service.
Dans la correspondance dans les "Monsanto Papers", on voit que la plupart des scientifiques maison de Monsanto sont tous impliqués dans le fait d'entretenir un réseau avec des scientifiques externes.
Ils sont tous au courant de tout.
C'est très vrai ce que disait Thomas, je pourrai développer plus tard, mais il y a aussi un certain nombre de cercles de sociabilité scientifique organisés par les firmes qui permettent de faire du repérage pour trouver des scientifiques qui sont du même côté.
Daniel Fiévet, journaliste.
-Yves Sciama, vous avez aussi enquêté sur des sujets comme le sucre, d'un point de vue sanitaire, la cancérogénicité du bitume ou le climat.
Vous vous êtes aussi intéressé aux perturbateurs endocriniens.
On a donné cet exemple parce qu'il est parlant et récent, on ne va pas pouvoir parler de tous ces scandales, mais que retenez-vous du conflit d'intérêt ?
Prenons l'exemple des perturbateurs endocriniens, qui est assez impressionnant.
Il y a des scientifiques qui sont désespérés, qui ont des études précises montrant la nocivité de certains perturbateurs, qui sont ces molécules qu'on déverse en très faibles quantités mais qui ont un impact fort, qui rentrent en compétition avec nos hormones.
Aujourd'hui, on en a identifié certains comme très dangereux.
Pourtant, au niveau de la Commission européenne, à Bruxelles, pour le moment, ça peine à légiférer là-dessus.
On passe entre les gouttes.
Il y a du travail de lobbying très efficace là-dessus.
Yves Sciama, journaliste scientifique.
-On est en train de conduire deux discussions en parallèle, l'une sur ce qui est dans la tête individuelle des scientifiques qui se font capturer par l'industrie et l'autre sur les méthodes des entreprises industrielles qui, elles, sont absolument problématiques.
Depuis 40 ans, on a de multiples exemples.
Ça commence avec l'amiante et le tabac et ça continue depuis quatre décennies et même plus.
Ce que je voudrais dire sur l'aspect individuel des choses, j'ai vu dans un documentaire sur la crise boursière un trader qui disait que, qui que vous soyez, dans cette salle ou à cette tribune, si je vous donne 200 000 dollars par an pour faire votre travail, en six mois, vous trouverez ça normal.
Effectivement, quand les scientifiques se sentent un peu experts, et qu'on leur dit : "On vous paye généreusement parce que cette expertise le mérite", ils trouvent ça normal et ça contribue à les capturer.
Il faut comprendre que, dans la notion de conflit d'intérêt, pour faire comprendre ce qui se passe, j'aime bien utiliser l'expression "conflit de solidarité".
En fait, les entreprises créent une solidarité avec les scientifiques en travaillant ensemble, en mangeant ensemble, en se fréquentant.
Petit à petit se crée un tissu de liens individuels, psychologiques, que je pense que les entreprises ont étudié.
Il y a certainement une science de ça.
En tout cas, elles font à chaque fois la même chose et c'est très efficace, parce que les scientifiques et les gens des compagnies ont le même âge, le même milieu socioculturel.
Une fois qu'il y a ce "team spirit" qui est créé, ils sont capturés.
Daniel Fiévet, journaliste.
-Je voudrais aussi votre avis, Catherine Bourgain, vous êtes chercheuse.
C'est un peu inquiétant, on a deux journalistes, qui sont des observateurs, qui ont étudié de nombreuses affaires et qui ont un avis précis sur la façon dont leur travail peut être parfois détourné.
Ce n'est peut-être pas si général, mais ça existe.
Vous êtes chercheurs, l'un à l'Inra, l'autre à l'Inserm, qu'est-ce que vous en pensez ?
En tant que chercheuse, vous sentez-vous de plus en plus approchée par l'industrie ?
Est-ce qu'on vous pousse à aller chercher des financements privés ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-En entendant les trois interventions, toutes très intéressantes, je me suis dit que ce que ça interroge fondamentalement, c'est comment on produit des savoirs scientifiques.
On présente parfois les scientifiques comme des personnes hors normes, des demi-dieux, capables d'atteindre la vérité suprême, contrairement aux humains moyens.
Ce n'est absolument pas vrai.
Je ne vous apprends rien.
Je veux dire qu'on oublie que ce sont des hommes, des femmes, qui produisent ces savoirs, qui vivent dans des milieux de sociabilité, qui ont des convictions personnelles, des contraintes de vie personnelles.
L'histoire et la sociologie des sciences montrent à quel point un savoir scientifique est toujours inscrit dans son époque, dans des problématiques sociales et dans des réseaux.
En tant que scientifique, je vois très bien qu'aujourd'hui, on est dans une époque où, de plus en plus, la recherche est censée être mise au service de la croissance économique.
Les agendas européens de Lisbonne, à partir des années 2000, l'ont dit clairement, mais ça avait déjà commencé et c'est devenu très important.
Les chercheurs doivent produire des savoirs permettant de faire tourner la machine économique.
Dans un institut appliqué comme le mien, mais je pense que c'est pareil à l'Inra, l'Institut national de la santé et de la recherche médicale qu'est l'Inserm, on nous explique en toute bonne foi qu'il faut de plus en plus travailler avec l'industrie, monter des start-up ou faire des alliances avec des firmes privées pour que nos savoirs puissent arriver plus rapidement dans la société, puissent se diffuser.
Évidemment que c'est compliqué.
Ça part d'une bonne intention, l'idée que les savoirs produits aident à améliorer la santé du public, on est même flattés de pouvoir y contribuer.
Notre mission de service public, on est des fonctionnaires, je le rappelle, ce n'est pas rien, est plutôt honorée.
Mais concrètement, et ce que vous avez dit sur la question de la sociabilisation, le partage...
Je ne sais plus quel était le terme.
Mais il se passe la même chose quand on travaille dans des projets de recherche avec des start-up ou des industries pharmaceutiques.
On a des financements communs au niveau européen, donc on se socialise, et on tente de répondre aux questions qui incluent tous les gens qui travaillent.
Savoir qui pose les questions de recherche, en santé, c'est extrêmement important.
Quel type de médicament on va développer, c'est évident que, quand on travaille avec des industriels qui ont un souci de rentabilité, car les industries pharmaceutiques ont l'un des plus forts rendements, les questions se posent différemment que quand on travaille avec un programme de l'ONU.
Daniel Fiévet, journaliste.
-Vous dites que, déjà, accepter le financement de l'industrie, c'est laisser orienter, guider un peu ses recherches, car c'est un financement qui nous met déjà sur certains rails.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Voilà, et on a parlé au début du biais de financement, cette question est valable pour toutes sortes de financements, qu'ils soient privés ou publics.
Quand le gouvernement décide qu'on doit travailler sur la biologie de synthèse, sur les nanotechnologies, etc., des gens se mettent à le faire parce qu'il y a de l'argent, donc l'orientation des recherches est valable à tous niveaux.
Daniel Fiévet, journaliste.
-Yves Sciama ?
Yves Sciama, journaliste scientifique.
-Juste un petit exemple là-dessus, parce que j'ai fait récemment un papier sur le sucre, et je me suis confronté à l'industrie de la nutrition et à la science de la nutrition.
Je suis tombé sur un professeur d'un grand hôpital parisien, que je cite dans mon article et qui dit : "L'industrie nous donne des crédits, et généreusement, pour répondre à des questions, mais qui sont les questions qui les intéressent, eux.
J'ai été approché par un producteur de yaourts qui m'a demandé de faire la preuve scientifique que ses yaourts protégeaient contre une maladie cardiaque."
Daniel Fiévet, journaliste, puis Yves Sciama, journaliste scientifique.
-On peut donner une marque ?
-Non, ce n'était pas une marque connue.
Il m'a dit qu'il savait qu'on allait trouver ce résultat, parce qu'il y avait dans la littérature beaucoup d'indications de cet effet protecteur.
Ils avaient surtout besoin de l'étude pour leur communication.
Donc, ils ont fait une grande étude en collaboration avec l'hôpital Bichat, qui a démontré ce qu'ils voulaient et ils l'ont eu.
Et lui a pu payer sa secrétaire, une partie des gens de son équipe, je ne pense pas qu'il se soit enrichi.
À l'inverse, me dit-il, si on voulait faire une étude nutritionnelle sur les effets potentiellement nocifs sur la santé du Nutella, qui va payer ça ?
L'État est paupérisé, il ne paiera pas.
Les fabricants de Nutella non plus, puisqu'ils sont les 1ers intéressés.
Ce serait vraiment intéressant de documenter l'impact réel, mais on ne posera pas cette question et donc, la science qui y répond ne sera pas produite.
C'est comme ça que les choses se passent dans certains domaines du savoir.
Daniel Fiévet, journaliste.
-On a bien identifié ce problème, qui est multiple, d'ailleurs.
Il y a plusieurs pistes.
Je voudrais vous entendre dans un tour de table assez rapide formuler quelques pistes de réflexion sur des solutions possibles.
Clairement, il y a un dysfonctionnement, l'expertise n'est pas forcément faite au mieux, ça pourrait être mieux.
Je vous demande de le faire assez rapidement parce que je voudrais aborder la fraude scientifique, hors industrie.
Il y a aussi des chercheurs qui fraudent dans les résultats qu'ils donnent, sans y être contraints par les entreprises.
Sur le conflit d'intérêt, comment ça pourrait mieux se passer ?
Qui veut commencer ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Je peux dire quelque chose qui sera peut-être un peu différent, parce que je pense que la question du fait que les chercheurs qui sont en situation factuelle de conflit d'intérêt n'en ont pas forcément conscience ou ne vont pas le dire comme ça, je suis d'accord avec ce qui a été dit, et ça interroge sur ce que les chercheurs comprennent de ce que veut dire produire de la science.
Tous les travaux d'histoire des sciences montrent que ça s'est toujours passé comme ça, et ça n'empêche pas de produire des savoirs de qualité.
Plein de découvertes ont été faites, Pasteur avait des tonnes de conflits d'intérêt, mais il a contribué à mettre au point des éléments importants pour la société.
Il ne s'agit pas de systématiquement jeter l'opprobre, mais il faut savoir que ça existe.
Il faudrait que les chercheurs soient plus formés à ce sujet.
On ne pourra pas appeler à la responsabilité des chercheurs, et je trouve que c'est quelque chose d'important qui est en jeu, car la confiance que les citoyens ont en la recherche est aussi en jeu.
Si on se dit qu'ils ont tous des conflits d'intérêt, on n'a plus confiance dans la science.
La question de la responsabilité des chercheurs est posée.
Pour pouvoir correctement, individuellement et collectivement, dans les institutions de recherche, être à la hauteur de la confiance que la société place dans ses chercheurs, c'est aussi ça l'enjeu, les chercheurs doivent avoir un peu de recul, de réflexivité par rapport à leur pratique.
Daniel Fiévet, journaliste.
-Cette sensibilisation passe par la formation, la création de comités éthiques, même s'ils existent déjà.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Ce n'est pas ce qu'il y a de mieux pour ça, mais en tout cas une mise en débat, une formation des chercheurs, Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes, puis Daniel Fiévet, journaliste.
une réflexivité sur leur travail.
-Stéphane Horel ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Merci.
C'est un peu la synthèse de choses qui ont été dites sur la paupérisation de l'État et du coup, la contrainte qui est faite aux chercheurs aujourd'hui de chercher des financements privés.
Il y a parfois certains financements publics qui sont conditionnés par un partenariat avec le privé.
On aurait parfois les moyens de garder une recherche uniquement financée par le public, mais il y a une condition de privé.
C'est plutôt cette question-là, fondamentalement...
Financer de la recherche fait partie d'un projet politique.
C'est comme si la recherche scientifique avait disparu du projet politique des gouvernements et comme si on fermait les yeux sur le fait que les firmes avaient aussi un projet politique.
Quand des sociétés comme Bayer, BASF ou Monsanto mettent sur le marché des produits pesticides, c'est pour maintenir un système agricole intensif, c'est un choix de société et une décision politique.
Daniel Fiévet, journaliste.
-D'accord.
Je retiens l'idée de financements publics importants qui font que les chercheurs n'ont pas comme seul financement qui leur reste possible les firmes privées.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Plus de financements publics réduit la possibilité de conflits d'intérêt.
Daniel Fiévet, journaliste.
-Yves Sciama ?
Yves Sciama, journaliste scientifique.
-Je voudrais aller dans le même sens.
Il faut que, par exemple, les gens qui surveillent l'industrie des pesticides et qui sont amenés à juger des impacts des produits qu'elle met sur le marché aient des moyens de faire de la recherche qui soient indépendants de ces industries.
L'indépendance des moyens de recherche des gens qui contrôlent est très importante.
On a parlé de formation des chercheurs, et je voudrais parler de formation des journalistes.
Ce qui se passe dans le domaine de la science, la plupart des gens, sauf l'élite qui se rend dans un lieu de culture scientifique, ne savent ce qui se passe que par les médias à partir du moment où ils ont quitté le système éducatif.
Les médias sont un filtre important, et leur qualité ou absence de qualité me paraît vraiment importante.
Il faut former les journalistes à détecter les conflits d'intérêt, à comprendre ce que c'est, à en parler de manière intelligente et équilibrée, ni "tous pourris", ni l'inverse, "les scientifiques sont des prêtres du savoir".
Daniel Fiévet, journaliste.
-Vous trouvez qu'aujourd'hui, et je reconnais que c'est un peu vrai, les journalistes font beaucoup dans l'explication, la vulgarisation, l'émerveillement quand on parle de science, pour nous faire aimer les sciences, en insistant sur le positif ?
C'est vrai que la mise en débat, la critique de science, on le fait moins.
Je fais un peu mon autocritique.
Yves Sciama, journaliste scientifique.
-C'est vrai, c'est un de mes chevaux de bataille.
Récemment, un article comparait les journalistes scientifiques aux pom-pom girls de la science.
Daniel Fiévet, journaliste.
-Je garderai l'image.
Yves Sciama, journaliste scientifique.
-L'expression est cruelle, mais il y a un fond de vérité.
On aime bien faire chatoyer les découvertes, le microbiote.
Daniel Fiévet, journaliste.
-Vous m'avez donné un très bon exemple en préparant.
Un journaliste politique n'est pas là pour nous faire aimer la politique.
Il aime ça ou il ne ferait pas ce métier, mais il n'est pas tout le temps à dire combien les politiques sont merveilleux.
En science, on a tendance à être toujours positifs.
Yves Sciama, journaliste scientifique.
-Il faut couvrir la science et ne pas se contenter de la chanter.
Daniel Fiévet, journaliste.
-Thomas Guillemaud, c'est vous qui m'avez suggéré la mesure la plus radicale.
Pour sortir des conflits d'intérêt, il ne faudrait pas se contenter de les signaler, mais les rendre impossibles.
On choisit son camp, soit on est expert d'un domaine, et on expertise, soit on est conseiller pour une firme ou on participe à certains produits, mais pas les deux.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'est exactement ça que je voulais dire.
Daniel Fiévet, journaliste.
-Je vous ai coupé l'herbe sous le pied, mais dites-nous comment c'est perçu à l'Inra quand vous proposez cette solution.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Vous avez bien fait de l'introduire comme ça.
J'ai le sentiment que le simple fait de déclarer des conflits d'intérêt, d'être transparent, ne résout pas le problème des conflits d'intérêt.
On en a déjà parlé, et ça semble complètement évident.
Dans les comités d'experts nationaux, l'Anses ou le Haut Conseil des biotechnologies, etc., il y a des déclarations publiques d'intérêt qui sont obligatoires.
Ces déclarations sont assez fournies.
Si vous allez sur leur site Web, les déclarations sont souvent bien pleines, bien grises, avec beaucoup de choses dedans.
Ça n'empêche pas ces personnes de siéger dans les comités d'expertise.
Là, il y a un problème qui est très important.
Il faudrait prendre des mesures radicales, non pas pour policer cette situation ou pour l'organiser, mais pour l'interdire.
J'ai une position un peu plus radicale que beaucoup de gens sur ce sujet.
Il me semble que les organismes de recherche ou les grandes agences d'expertise devraient mettre de l'énergie à faire en sorte d'éviter que les chercheurs se trouvent en situation de conflit d'intérêt.
Qu'il y ait des liens d'intérêt avec des entreprises, ça ne me pose pas un grand problème, quoique on a discuté du fait qu'elles pouvaient guider la recherche.
Mais l'existence de liens d'intérêt n'aboutit pas forcément à des conflits d'intérêt.
Un organisme comme l'Inserm, l'Inra, l'Anses, etc., pourrait organiser ses agents, ses services de façon, quand il y a des liens d'intérêt avec des industriels, à éviter que les chercheurs ou experts aient des conflits d'intérêt, c'est-à-dire que leur mission primaire ne puisse pas entrer en interaction avec les liens d'intérêt qu'ils ont tissés avec les boîtes.
On peut imaginer, par exemple, des ingénieurs qui soient spécialisés dans du développement avec les boîtes, des relations avec des entreprises, pour faire tout et n'importe quoi, des pesticides, de l'alimentation, etc.
Par ailleurs, des chercheurs ou d'autres ingénieurs auraient pour mission primaire de faire de la recherche dans l'intérêt général de la société, et non pour des intérêts particuliers.
Ces gens-là ne devraient pas avoir de liens d'intérêt avec les entreprises car ça créerait de fait des conflits d'intérêt.
Daniel Fiévet, journaliste.
-Comment vous êtes perçu à l'Inra quand vous dites ça ?
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Quand j'en parle avec des collègues qui font partie des comités d'experts, ils me regardent bizarrement en me disant que ça risque de poser des problèmes d'organisation, et qu'on risque d'avoir un problème d'effectifs.
On risque d'avoir du mal à trouver des experts dans leur domaine...
Daniel Fiévet, journaliste.
-Ils ne seront pas assez nombreux pour se répartir...
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'est un argument classique que je trouve fallacieux car il ne repose sur aucune ou très peu de données quantitatives.
Très peu d'études ont étudié ça.
Par ailleurs, je suis convaincu que, dans le Haut Conseil des biotechnologies, que je connais un peu, les gens qui y travaillent pourraient très bien n'avoir aucun lien d'intérêt avec les boîtes et avoir les compétences pour juger des dossiers relatifs aux OGM, etc.
Je pense que c'est un faux problème.
Daniel Fiévet, journaliste.
-Ça veut dire, si je suis votre raisonnement, qu'eux ne pourraient pas demander de financements, donc ils n'ont pas intérêt à se couper de ces financements.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-On revient à ce qui a été dit auparavant.
Si on pouvait augmenter la part des financements publics, on éviterait tout un tas de problèmes.
Daniel Fiévet, journaliste.
-On pourra peut-être y revenir.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes, puis Daniel Fiévet, journaliste.
-Je voudrais ajouter une chose.
-Je vais vous donner la parole.
Vous pourrez poser des questions, donc on pourra y revenir.
Allez-y.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Les différentes interventions montrent bien que c'est un enjeu politique.
On se demande si la société est prête à se donner les moyens de produire une expertise indépendante, d'avoir des études réellement indépendantes.
Ça va avoir un coût pour le public, mais c'est de l'ordre d'un engagement politique.
À force de jouer avec le feu, en disant : "On va pouvoir faire financer la science par le privé et ça ne nuira pas", on finit par avoir une science en laquelle on n'aura plus confiance.
La société va se retrouver avec des savoirs qui ne permettront plus de trancher comme c'est souvent le cas, par exemple, pour que le HCB rende des avis, ils doivent être fiables, donc on doit avoir confiance en ceux qui rendent ces avis.
La confiance va se perdre, donc, certes, ça a un coût, évidemment, mais ne pas investir là-dedans a peut-être un coût plus grand.
Daniel Fiévet, journaliste.
-C'est bien de l'avoir précisé.
Parlons de la fraude scientifique.
Là, on a un peu mis comme grand méchant l'industrie.
Les chercheurs, même quand ils ne sont pas confrontés à l'industrie, il leur arrive de frauder.
Quel type de fraude peut-on voir dans un labo, Yves Sciama ?
De quelle manière un chercheur peut-il frauder ?
Yves Sciama, journaliste scientifique.
-Il y a une abondante littérature sur le sujet.
Juste pour en terminer avec ça, dans mon esprit, le conflit d'intérêt financier est le problème principal.
Tout ce dont on va parler est important et probablement pas assez traité, mais reste un problème de second plan par rapport à tout ce qu'on a dit jusqu'ici.
Voilà.
Plusieurs livres, dont "Malscience", de Nicolas Chevassus-au-Louis, décrivent les différentes pratiques, pas forcément de trucages éhontés, car ils restent minoritaires.
Mais il y a des procédures d'embellissement de ces résultats, des façons de retraiter les courbes, il y a beaucoup de plagiat.
On peut saucissonner ses résultats pour publier plus souvent.
Quand on a découvert quelque chose, on en fait trois ou quatre papiers.
Daniel Fiévet, journaliste.
-C'est lié au fait qu'aujourd'hui, un chercheur est évalué sur le nombre de publications dans les revues spécialisées, donc il a intérêt à les multiplier, quitte à publier plusieurs fois le même résultat ou à prendre un résultat et le saucissonner.
Yves Sciama, journaliste scientifique.
-Oui, je crois qu'il y a un problème de critères d'évaluation de la recherche.
Je pense que les intervenants qui sont chercheurs le diront mieux que moi.
Il y a une prime à la revue à haut "impact factor" qui est un critère de jugement de l'utilité d'une découverte et de son importance qui est absurde.
Daniel Fiévet, journaliste.
-Thomas Guillemaud, vous m'avez aussi parlé d'un problème de reproductibilité.
Ce sont justement des chercheurs du privé, dans des firmes, qui s'en sont aperçus.
Racontez-nous.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-L'idée, c'est que les chercheurs qui travaillent pour des boîtes privées pharmaceutiques, par exemple, ont des obligations de résultats tangibles.
Il faut que les études qu'ils mènent aboutissent au développement d'un produit, à quelque chose d'efficace.
Or, dans l'industrie pharmaceutique, la plupart des projets lancés par les boîtes pharmaceutiques n'aboutissent à rien.
Donc, les boîtes se disent que c'est foncièrement inefficace, et que ça fonctionne mal.
Il se trouve que la plupart des études engagées par les boîtes pharmaceutiques proviennent de travaux qui ont été publiés dans les grands journaux scientifiques par des chercheurs du milieu académique public.
Ces boîtes-là se sont demandé ce qui se passait, s'il y avait un problème avec les résultats obtenus par des chercheurs du public, des universités et qui sont publiés.
Est-ce que ces résultats-là ne seraient, finalement, pas fiables ?
Puisqu'en se servant de ces résultats, ils ne produisent pas des médicaments qui devraient fonctionner.
Ils ont entrepris des analyses pour essayer de répéter des études réalisées par des chercheurs d'universités, publics, et ayant été publiées dans de grandes revues biomédicales.
Par exemple, des chercheurs de Bayer ont fait ça.
Ils ont travaillé sur 65 à 70 études et ont essayé de les répéter en passant plus de trois ans, avec beaucoup d'énergie et d'efforts.
Au total, ils ne sont pas arrivés à répéter plus des deux tiers des études concernées.
Ils n'avaient réussi, exactement, à répéter que 20 % des études.
Daniel Fiévet, journaliste.
-Des chercheurs publics ont publié dans des revues : "On a obtenu tel résultat en faisant telle manip."
Eux ont voulu essayer de refaire la même manip, et dans deux tiers des cas, ils n'ont pas obtenu les mêmes résultats.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-On appelle ça l'impossibilité de reproduction des résultats.
Daniel Fiévet, journaliste.
-Pourquoi ?
Les articles n'ont pas tout dit sur la recette pour y arriver ou ils ont dit n'importe quoi ?
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Ça dépend.
Les causes les plus classiques énoncées dans ces situations...
D'ailleurs, une deuxième étude a été faite par des chercheurs d'Amgen selon le même principe, pour répéter des études publiées, mais ils n'ont pas réussi à en répéter la plupart, encore une fois.
Ils ont interrogé les chercheurs à l'origine des 1res études publiées pour leur demander comment ils les avaient réalisées et comprendre pourquoi toutes n'étaient pas répétables.
Celles qui étaient répétables étaient celles qui étaient très bien décrites, où tous les résultats étaient publiés, même ceux qui n'avaient pas été analysés, où tous les protocoles étaient vraiment bien décrits, où les contrôles négatifs étaient les plus exemplaires dans le domaine, où les analyses avaient été faites en double aveugle, etc.
Quand vraiment les protocoles sont parfaitement réalisés, parfaitement, ça n'existe pas, mais que toutes les données sont publiées, on augmente la possibilité qu'elles soient reproductibles.
Daniel Fiévet, journaliste.
-Le protocole, c'est la recette de cuisine.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-On peut être plus ou moins précis ou clair sur le temps et la température de cuisson.
C'est la même chose en biologie, en psychologie, en physique...
Donc, on est confrontés à de la littérature scientifique qui, au global, à plus de 50 %, n'est pas répétable.
C'est ce qu'on appelle la crise de reproductibilité, qui est un problème majeur, dont devraient se saisir les responsables scientifiques à pleines mains.
Si j'étais le président du CNRS et que j'avais 3 milliards d'euros annuels à investir dans la science, je m'assurerais que ce qui sort de mes laboratoires soit reproductible et comme il faut.
À l'Inra, mon milliard d'euros, je ferais attention à bien l'investir.
Daniel Fiévet, journaliste.
-Là, la sonnette d'alarme vient de chercheurs privés.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'est assez cocasse, ou peut-être que c'est normal, en réalité, mais ça va à l'envers de ce qu'on disait dans la première partie.
C'est bien le privé qui a tiré la sonnette d'alarme.
Daniel Fiévet, journaliste, puis Yves Sciama, journaliste scientifique.
-Yves Sciama ?
-Je voulais témoigner parce que j'ai fait un stage dans un laboratoire de génétique.
C'est un peu mystérieux, cette non-reproductibilité.
Donc, on devait faire un screening de levures et faire subir la même chose à, je crois, 180 sortes de levures qui avaient toutes des gènes légèrement différents et voir l'effet du produit chimique contesté.
En fait, quand on fait ça, la levure réagit en changeant de forme, en s'allongeant, en devenant plus ou moins transparente.
Ensuite, on compte le nombre de levures qui sont radicalement différentes du départ et celles qui le sont moins.
Mais il y a une subjectivité assez forte, donc pour que cette étude soit rigoureuse, il faut donner des détails.
Si on est intéressé au résultat, si on veut montrer que son produit est particulièrement inoffensif et que les levures en sortent toutes indemnes, on peut avoir un regard sur ce screening où on voit moins, consciemment ou inconsciemment, les levures se transformer ou l'inverse.
Il peut y avoir à la fois des choses conscientes ou inconscientes, il peut y avoir un protocole insuffisamment décrit, mais le résultat est qu'on a de la science non reproductible.
Daniel Fiévet, journaliste.
-Catherine, je voudrais vous entendre en tant que chercheuse.
On a vu qu'il y a plusieurs degrés dans la fraude.
On peut passer sous silence des résultats, bidonner ou multiplier les publications.
Votre avis ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-En fait, ça m'interroge aussi sur la question de l'évolution de comment on publie.
On l'a dit, le nombre d'articles est devenu le graal, il faut avoir beaucoup d'articles et dans des revues prestigieuses.
Les deux revues les plus prestigieuses, qui sont "Nature" et "Science", publient des articles très courts.
Ce sont des articles très courts avec des formats très condensés.
C'est impossible de refaire un plan d'expérience avec un de ces articles.
Ça va dans le sens de ce que dit Thomas.
Le graal, c'est de produire un savoir qui impressionne, dont l'objectif n'est pas d'être facilement reproductible.
Ce n'est pas nouveau.
Encore une fois, ça fait très longtemps que, pour les savoirs scientifiques, on dit qu'ils peuvent être sortis de leur contexte, ce n'est pas vrai.
Tout savoir scientifique est attaché à un savoir-faire, à des machines, des outils d'expérimentation particuliers.
C'est pour ça que, dans l'histoire des sciences et dans les pratiques, ce qui est important, c'est la circulation des scientifiques.
Quand on passe son doctorat en France, on va souvent faire encore un peu d'études postdoctorales dans un autre pays, où dans un autre laboratoire apprendre une autre technique.
Après un, deux, trois ans dans cet autre laboratoire, on peut revenir et réutiliser ce qu'on a appris.
Lire des articles ne suffit pas.
Les articles sont importants, mais le savoir-faire, l'artisanat, car ça reste un métier d'artisanat, ne se résume pas à ça.
À force de faire croire que tout est dans les publications, ça complique la réplication.
Daniel Fiévet, journaliste.
-Stéphane Horel, vous voulez intervenir ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Comme j'ai l'esprit mal tourné, je vais prendre l'inverse de ce que Thomas disait.
Il y a tout un domaine de production scientifique qui n'est pas reproductible faute d'accès aux données, ce sont les données produites par les industriels.
Le public a du mal à saisir, parce que, quand on lui explique, il a du mal à nous croire, que la plupart des autorisations de mise sur le marché des produits sont accordées sur la base de données qui sont sponsorisées, produites et fournies par les industriels, et qui sont ensuite protégées par le secret commercial.
On ne peut donc pas reproduire les études faites par les industriels.
L'affaire Monsanto, l'histoire est ancienne, mais elle pose un certain nombre de questions, notamment autour de la mise sur le marché du glyphosate, dans les années 1970.
Il y a eu un contrôle inopiné et des questionnements sur des notes de laboratoire bizarres qui revenaient auprès des autorités.
La Food and Drug Administration a fait une inspection chez un prestataire privé, extérieur, auquel les grandes firmes américaines confiaient ces études qui allaient servir pour les dossiers d'AMM.
Ils se sont aperçus que c'était une fraude gigantesque.
Dans les hangars, il y avait des milliers de rongeurs qui agonisaient dans leurs cages, les uns à moitié déshydratés, les autres complètement noyés parce que l'arrosage marchait mal.
Dans les carnets des techniciens, on abrégeait TBD pour "too badly decomposed", trop gravement décomposé pour qu'on puisse en tirer des données.
C'était un prestataire extrêmement couru, car ses résultats étaient souvent encourageants.
La plupart étaient inventés.
"On va mettre que ce produit ne pose pas de problèmes."
En fait, plus de 200 pesticides ont été mis sur le marché dans les années 1970 sur la base de tests faits par ce prestataire, mais aussi des PCB, qui étaient aussi vendus par Monsanto, qui a vraiment le nez creux pour les substances les plus inoffensives pour l'humanité.
On a calculé, dans un article de "Science", qu'il y avait plus de 1 700 études, je crois, dont la qualité était complètement à revoir.
Daniel Fiévet, journaliste.
-Que risque-t-on, à faire une étude visiblement mal menée ou avec un manque de sérieux, telle que vous l'avez décrit, si après coup, on est pris la main dans le sac à avoir dit n'importe quoi ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
- À l'époque, les firmes étaient censées refaire un certain nombre de tests.
Aujourd'hui, je n'ai pas réussi à savoir s'ils avaient tous été refaits de façon adéquate et les produits étaient déjà sur le marché.
Dans notre système, il est plus facile de mettre un produit sur le marché que de l'en retirer.
On met un an à le mettre sur le marché et 30 à l'en retirer.
Daniel Fiévet, journaliste.
-Pour la firme, pénalement, qu'est-ce qu'elle risque à avoir eu ces pratiques ?
Est-ce qu'ils prennent de gros risques en bâclant leurs études ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Là, l'avantage, c'est que c'étaient des prestataires extérieurs.
Les dirigeants du laboratoire, qui s'appelait IBT, ont fini en prison.
Il y a eu un procès retentissant, mais les firmes...
Daniel Fiévet, journaliste.
-Elles étaient protégées, et victimes, presque.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Elles n'ont pas manqué de s'en plaindre.
Daniel Fiévet, journaliste.
-Évidemment.
Yves Sciama.
Yves Sciama, journaliste scientifique.
-Il faut comprendre ça.
J'ai découvert cet univers en faisant mon article sur la cancérogénicité du bitume.
Pour savoir si le bitume est cancérogène, il faut exposer des centaines de rats au bitume pendant un an, deux ans.
Aucun institut de santé publique n'a l'argent de faire ça.
Donc on dit au producteur de bitume ou à Monsanto : "Faites cette expérience."
Ils prennent un prestataire privé, c'est ce que décrit Stéphane.
Le prestataire fait l'étude et ensuite, il communique les résultats aux agences de régulation.
Or, les prestataires sont payés par l'industriel, les industriels sont leurs clients, on comprend clairement qu'un prestataire comme ça n'a pas intérêt à avoir des résultats qui soient en défaveur de son client.
Ensuite, pardon, je finis juste là-dessus, ces études sont considérées comme ayant beaucoup plus de poids.
Quand on va poser la question : est-ce que ce produit est dangereux ?
On va dire : "On a fait une étude sur 200 rats, et là, on a un petit professeur d'université qui a fait un truc en éprouvette avec quelques cellules du poumon, qu'il a fait pousser avant de les exposer au produit.
Les vraies réponses sont celles que fournissent les rats."
Du coup, toute la science reproductible qui est produite par les milieux académiques est discréditée au profit de la science qui est produite par les industriels.
Daniel Fiévet, journaliste.
-Je vous voyais acquiescer.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Ça va même un peu au-delà.
Certains comités d'experts, certaines agences d'expertise considèrent a priori, avant même la lecture des articles, que les articles qui proviennent de boîtes avec des prestataires privées respectent les bonnes pratiques de laboratoire et sont plus fiables que les articles du milieu académique.
C'est un a priori.
Daniel Fiévet, journaliste.
-Pourquoi cet a priori ?
Il est né comment ?
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Il sort de l'idée que, c'est ce qui a été dit, il y a des boîtes spécialisées qui sont des sous-traitants qui respectent de bonnes pratiques, donc des normes, elles sont certifiées ISO 9001, etc.
Elles respectent des cahiers des charges de telle sorte qu'on peut se dire qu'a priori, ces études sont bien menées.
La plupart des laboratoires, et ce n'est pas tous, ne s'engagent pas vraiment dans ces processus de normalisation, d'homologation, etc.
Donc, a priori, on pense que les études académiques ont moins de valeur que les études qui proviennent du privé, et c'est complètement fou.
Daniel Fiévet, journaliste, puis Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'est fou et faux.
-C'est très probablement faux.
Daniel Fiévet, journaliste, puis Yves Sciama, journaliste scientifique.
-Yves Sciama.
-Ce qu'on a dit sur les études est vrai pour les chercheurs.
Si un chercheur a collaboré avec l'industrie, pour le régulateur, c'est le plus souvent considéré comme une preuve de compétence.
Si l'industrie a accepté de travailler avec lui, ça doit être un bon expert, il doit connaître son affaire.
Alors que le chercheur qui est resté dans son université, avec les crédits de l'université, c'est un peu un perdant.
Finalement, le poids des expériences et de l'expertise individuelle penche pour les collaborations industrielles.
Daniel Fiévet, journaliste.
-Un chercheur, pour sa carrière, a intérêt à collaborer avec le monde industriel.
Yves Sciama, journaliste scientifique.
-C'est très clair.
Il va pouvoir lui renvoyer des services, l'inviter à des congrès, lui donner la parole, il y a beaucoup de salaire social, qui n'est pas du salaire financier, mais du prestige social que l'industrie peut donner aux gens qu'elle veut soigner.
Daniel Fiévet, journaliste.
-Il y a un autre point que je voulais aborder avec vous, Yves Sciama, sur ces revues comme "Nature" et "Science" dans lesquelles publient les chercheurs.
Vous m'avez parlé d'une prime à la biologie dangereuse.
Aujourd'hui, comme dans les médias classiques qu'on connaît, on aime le sensationnel, on aime ce qui fait un peu peur, et ça pousse à faire des recherches, pas forcément très utiles, mais particulièrement dangereuses.
Yves Sciama, journaliste scientifique.
-Ce sont des papiers qu'on a faits dans "Le Monde" aussi, sur ce qu'on a appelé les "Frankenvirus", c'est-à-dire des chercheurs qui ont cherché à augmenter la dangerosité de virus qu'ils détenaient, au motif qu'ils voulaient voir si c'était possible dans la nature.
Ils ont rendu contagieux des virus mortels qui ne l'étaient pas.
Il y a aussi eu des tentatives de les rendre résistants aux médicaments.
En tout cas, pour ces virus qui avaient été rendus contagieux artificiellement, les expériences ont eu lieu en 2012 et ont valu à leurs auteurs des publications dans "Nature" et "Science", puisqu'on parle de ces revues.
C'est un autre aspect encore du caractère un peu hybride de ces revues qui sont à la limite des revues savantes mais qui ont aussi une ligne éditoriale et une recherche de prestige notable.
Le résultat, en effet, c'est que ces expériences ont eu lieu, ont été publiées, et il y a eu des levées de boucliers dans certains milieux de chercheurs pour qui ça mettait en danger le public et que ça créait du danger, mais ça a été très peu couvert.
Et même du point du vue du journalisme, il y a une réticence des journalistes scientifiques, peut-être pas à dire du mal des scientifiques, mais à jouer la peur.
On a toujours peur d'être qualifiés d'alarmiste, d'excessif, donc on cherche à être mesuré.
Sur ces épisodes-là qui, à mes yeux, étaient problématiques, il y a eu très peu de couverture et de protestation dans la communauté scientifique.
Daniel Fiévet, journaliste.
-Vous voulez réagir ?
On parle de l'organisation de la recherche.
Ces revues qu'on a citées, on se rend compte...
Sans dédouaner totalement les chercheurs, c'est un système qui peut parfois pousser à la dérive ou à des fraudes, sous la pression de la publication, il faut publier à tout prix.
Ces publications vont jusqu'à faire faire des recherches qui semblent plus dangereuses qu'utiles, de faire des supervirus.
Qu'en pensez-vous, vous qui êtes à l'Inserm ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Oui.
Je pense que cette culture de cow-boys, de francs-tireurs, il y a plein de scientifiques qui font une carrière autour de ça, puisque le côté transgressif, on ose faire des choses que les autres n'osent pas faire, donc on va défricher du nouveau, d'où ma comparaison avec les cow-boys, c'est une espèce de comportement qu'on retrouve de façon pas du tout exceptionnelle dans la recherche.
La question que ça pose, c'est : Qui est légitime pour interroger ce qu'on a le droit ou non de faire et ce qui est prioritaire ?
Comment est mise en débat, de façon très large, la question de ce qui est autorisé ?
Je prendrai juste un exemple.
Il va y avoir en France la réouverture du débat autour des prochaines lois de bioéthique.
Les lois de bioéthique encadrent différentes pratiques qui sont autorisées ou pas, pas uniquement, mais notamment dans la recherche, comme la recherche sur l'embryon ou les cellules souches.
Ce sont des moments où on pose des limites sur ce qu'on a le droit de faire et qui sont censées être débattues par la société.
Ce n'est pas autant le cas que ça devrait l'être, à savoir que le débat ne se pose pas dans les conditions de débat démocratique le plus éclairé possible, pour de multiples raisons.
Les politiques eux-mêmes se dessaisissent beaucoup de la question de la science et se reportent sur quelques personnes, par exemple au Parlement, considérées comme compétentes sur des questions scientifiques et techniques.
Le président actuel de l'Office parlementaire des choix scientifiques et techniques, c'est Cédric Villani, il est forcément compétent sur ces questions.
Daniel Fiévet, journaliste.
-C'est un mathématicien.
Daniel Fiévet, journaliste, puis Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
Médaille Fields...
-Il est très médaillé et sûrement très brillant.
Daniel Fiévet, journaliste.
-Mais il n'est pas omniscient.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-On ne demande pas au Parlement d'être des scientifiques, même si certains en sont capables, on leur demande d'être suffisamment informés pour évaluer la dimension politique des choix scientifiques.
Daniel Fiévet, journaliste.
-On en vient à l'action que tente de mener la fondation Sciences citoyennes, dont vous êtes administratrice, pour inciter les citoyens à prendre part au débat, sous quelle forme ?
Il y a des actions concrètes.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Justement, par exemple, on peut rester sur le Parlement, qui est élu par les citoyens, donc c'est une représentation démocratique.
Comment fonctionne, au sein du Parlement, la prise de décision sur ces questions ?
On a un Office qui ne fonctionne pas très bien, de fait.
Il a des avis assez suivistes sur les scientifiques.
Comme vous le disiez pour la difficulté des journalistes à être critiques sur la production scientifique, on peut dire la même chose des rapports de cet Office.
Ça pose problème.
Ces enjeux démocratiques ne sont pas posés au sein du Parlement.
Ça, c'est un vrai enjeu.
À l'association Sciences citoyennes, on défend depuis plusieurs années la mise en place d'un système de conventions de citoyens, un peu sur le modèle des jurys dans la justice pénale.
On tire au sort des personnes dans la population qui sont formées autour d'une question qui se pose, et qui se réunissent pour essayer de faire des recommandations au nom du bien commun.
Ces recommandations doivent ensuite être prises en compte dans la décision politique qui suit.
Ce sont des exemples.
Daniel Fiévet, journaliste.
-Ça a marché ?
Il y a eu des exemples concrets de conventions citoyennes.
Sur quelles thématiques ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Sur les OGM, les nanotechnologies, le climat, on a eu plusieurs conventions.
Elles ont à chaque fois montré à quel point un quidam, qui est mis en situation de devoir faire des recommandations pour le bien commun, s'il est bien informé de façon contradictoire, est capable d'avoir une réflexion tout à fait riche et intéressante pour le plus grand nombre.
Finalement, ce qui comptait vraiment, c'était la façon dont c'était organisé, la formation des citoyens, qui décide de cette formation, et surtout, ce qu'on fait des décisions qui sont prises.
Daniel Fiévet, journaliste.
-J'allais vous le demander.
Est-ce qu'on les a faits parler, donner des conclusions, pour tout mettre à la corbeille, ou est-ce qu'on a tenu compte des avis qui avaient été émis ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Ça dépend des situations.
Il y a des conventions qui ont été faites à des niveaux régionaux.
Par exemple, sur le plan climat, il y a eu une convention avec la mairie de Paris.
Mais en général, de plus en plus, ce genre de dispositif est utilisé par les politiques pour dire qu'ils ont consulté.
Il y a un enjeu de savoir comment ces procédures sont centralisées.
Daniel Fiévet, journaliste.
-Ça doit être suivi d'effets, effectivement.
Stéphane Horel, ils sont représentatifs, les deux chercheurs qu'on a à cette table ronde, parce qu'ils sont particulièrement critiques envers leur profession, la façon dont la recherche doit s'organiser, ou est-ce qu'ils sont exceptionnels ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde", puis Daniel Fiévet, journaliste.
-Ils sont tout à fait exceptionnels.
-Tous les chercheurs ont, à ce point, le souci de donner la parole au public et de réfléchir à leur pratique ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-On pourrait presque dire qu'il y a un manque d'éducation des scientifiques sur ces questions, autant que le public.
Je suis sidérée qu'il n'y ait pas une formation à l'Inserm, à l'Inra, sur les conflits d'intérêt, sur ce qu'est le lobbying, comment marche l'influence, qu'on ne soit plus dans des situations où le réflexe numéro un d'un scientifique en situation de conflit d'intérêt est de se sentir insulté quand on lui en parle et d'être incapable d'un retour critique sur lui-même car on ne lui a jamais donné les outils.
Après, je poursuis la réflexion de Catherine, puisque la question de ce débat est la rupture entre la décision politique et les citoyens.
Ce qu'on voit avec ce qui se passe à Bruxelles, en Europe, c'est que les gens pensent que l'Europe n'est pas faite pour eux.
On leur dit qu'ils ont tort, que l'Europe, c'est super, mais pas de ce point de vue-là.
Il y a une véritable coupure entre le degré d'information des citoyens, du public, sur les questions scientifiques qui concernent des choix de société.
Que ce soit les OGM, les nanotechnologies, l'usage des pesticides qui sont liés à un modèle agricole, les perturbateurs endocriniens, ce sont des choix de société qui ont été rendus extrêmement techniques volontairement pour écarter le public du débat, qui se déroule entre des portes closes à Bruxelles, entre 15 personnes, qui ont rendu les termes de la question tellement complexes qu'il faut y passer deux ans pour les comprendre.
Et ça, pour le coup, c'est un peu comme dans une dispute de couple, où on dit : "Je n'ai jamais dit ça."
Si, si, il y a un problème et je pense que la résolution de ce problème commence par reconnaître qu'il existe.
Daniel Fiévet, journaliste.
-Yves Sciama ?
Yves Sciama, journaliste scientifique.
-Je voulais ajouter qu'on a parlé de la rupture science-société, mais beaucoup de scientifiques se méfient de la société, et ce, plus on monte dans la hiérarchie scientifique, parce qu'il y a des notables de la science et des chercheurs du rang, c'est très politique, il faut en prendre la mesure.
Quand on parle à plein de gens, ils préfèrent que le public, et donc la presse, ne se mêle pas de leurs affaires.
Daniel Fiévet, journaliste.
-Vous avez des exemples ?
Vous avez été confrontés, sans nous donner de noms, à des sujets sur lesquels on vous a envoyé paître ?
Yves Sciama, journaliste scientifique.
-J'enquête sur la sécurité des laboratoires.
S'il y a un incident dans une centrale nucléaire, vous avez un rapport qui est rendu public.
On ne sait pas tous les détails, mais on sait qu'il y a eu un incident de niveau 3, 2, 1 ou 0 à tel endroit.
Si, dans un laboratoire qui manipule des pathogènes contagieux, vous avez un incident, cet incident est déclaré à l'ANSM, qui se le garde.
Je les ai interrogés, j'ai demandé la liste de ce qui se passait, essayé de savoir s'il y en avait plus ou moins qu'avant, où ils se concentraient.
Et on m'a dit : "C'est une information qui est interne."
J'ai parlé avec le président du laboratoire P4 français, qui s'appelle Hervé Raoul, qui est très sympa et un très bon scientifique.
Je lui ai demandé ce qu'il pensait de cette opacité.
Il trouvait ça parfaitement normal.
Il disait : "Les journalistes, ils vont prendre ça, ils vont faire peur.
Les microbes, ça fait peur.
Ils vont faire des unes sensationnelles, etc.
Gardons tout ça caché, ce sera mieux."
Daniel Fiévet, journaliste.
-Il vous l'a dit comme ça ?
Yves Sciama, journaliste scientifique, puis Daniel Fiévet, journaliste.
-Pas cette phrase-là, mais oui.
-C'était le sens.
Yves Sciama, journaliste scientifique.
-Il m'a dit que les microbes, c'était pire que le nucléaire, parce qu'on ne les voit pas.
Mais cette attitude-là, elle est fréquente, surtout dans les sommets de la science.
Je pense que ça, c'est vraiment problématique et il faut faire tomber ces barrières.
Daniel Fiévet, journaliste.
-Vous disiez aussi que les vaccins, c'était un terrain miné.
Pour en parler avec des chercheurs, on doit choisir son camp et dire si on est dans l'obscurantisme anti-vaccins.
La demi-mesure ou questionner sur l'innocuité de certains vaccins, c'est déjà faire un procès à la science.
Yves Sciama, journaliste scientifique.
-Un livre vient de sortir qui s'appelle "Immunisés", de Lise Barnéoud, où elle liste, vaccin par vaccin, les effets secondaires et les bénéfices.
Mais ce qu'elle me dit, c'est, à l'évidence, que les sommets de l'institution pasteurienne, les grands immunologistes, refusent de discuter des effets secondaires.
Ils sont dans le déni de l'existence de l'effet secondaire.
Il y a une espèce d'intimidation : "Vous voulez parler de ça, vous êtes antiscience."
On est dans des situations...
Daniel Fiévet, journaliste.
-Selon vous, pour aller au bout de cette idée, il y a un danger ?
Ça veut dire que si ceux qui sont cartésiens et de bonne foi ne peuvent pas s'y intéresser, on laisse le champ libre à des discours qui risquent d'être plus dangereux et infondés ?
Yves Sciama, journaliste scientifique.
-Oui.
Si la science se discrédite, après, les gens iront voir des gourous, ils iront voir le premier médecin qui aura sa théorie fumeuse et un livre bien écrit.
On ne peut pas accepter cette situation.
Même du point de vue de l'intérêt des labos pharmaceutiques, c'est une situation qui est critique.
Daniel Fiévet, journaliste.
-Catherine Bourgain ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-On peut dire la même chose des OGM, par exemple, y compris chez des chercheurs qui ne travaillent pas sur les OGM, mais qui ont des avis tranchés.
Plus on monte dans l'institution et plus les avis sont tranchés.
Ce qui me choque, c'est que le cœur de ce qui fait, à mes yeux, la valeur du savoir scientifique, c'est qu'il est produit par des communautés de chercheurs qui s'autorisent toutes les critiques.
Dès qu'un article est publié, un chercheur, surtout si l'article produit des résultats étonnants, devrait se dire : "C'est faux, je vais tout mettre en œuvre pour le prouver, car ça bouleverse ce que je croyais."
À force d'essayer de montrer que c'est faux, s'il n'y arrive pas, il va commencer à y croire, et chercher d'autres expériences allant dans ce sens.
L'esprit critique, la remise en cause fait partie de la démarche scientifique.
C'est ce qui fait qu'un résultat puisse être jugé solide et qu'on puisse baser dessus des actions dans la société.
Si on en arrive à des niveaux où ça a été tranché, alors qu'évidemment, ce n'est pas toujours le cas, on sort complètement de la logique de la science, qui fait qu'on peut faire confiance à la science.
Alors, on rentre dans des décisions de pouvoir, de croyance, qui sont de même acabit que ce qu'on voit ailleurs dans la société.
Daniel Fiévet, journaliste.
-Il faut avoir en tête qu'on a le droit de douter, ça fait partie de la démarche.
Je voudrais entendre Stéphane Horel, puis je donnerai la parole au public pour que vous questionniez nos invités.
Le doute a été utilisé par des gens qui n'avaient que faire des vérités scientifiques.
On pense aux marchands de doute, notamment sur le climat, où pour le coup la grande majorité de la communauté scientifique est arrivée à des conclusions difficiles à remettre en cause, et pourtant, la petite musique du doute scientifique s'est instillée.
Le doute est utilisé à mauvais escient.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-C'est ce qu'on appelle la manufacture du doute.
Elle se résume par l'utilisation du doute scientifique comme une raison de ne pas agir ou de remettre en question le fait qu'il y a une dangerosité qui est posée sur un produit.
Tant qu'on n'a pas de certitude, il n'y a pas de problème.
C'est une instrumentalisation du doute et de la démarche scientifique qui a été imaginée par l'industrie du tabac dans les années 1950, à partir du moment où on s'est rendu compte que fumer était cancérigène, ce qui lui posait problème.
Plutôt que de reconnaître ce problème et d'informer leurs consommateurs, les cigaretiers ont comploté pour entretenir le doute.
Les documents de l'époque qu'on a retrouvés dans les archives montrent vraiment que cette stratégie est complètement, lucidement, cyniquement pensée.
Daniel Fiévet, journaliste.
-Ce sera montré dans le film qu'on projettera à 16 h, ici-même.
Il est temps de vous donner la parole.
Je vois une main se lever.
On va vous apporter un micro.
Participante 1.
-Merci.
Bonjour, merci pour cet entretien.
J'aimerais vous faire réagir à une expérience personnelle.
Quand j'étais en maîtrise de biologie, j'ai fait un stage dans un laboratoire de microbiologie.
J'étais sur une étude en rapport avec un industriel.
J'étais contente, car je préfère la recherche appliquée à la recherche fondamentale, on a quelque chose de concret par rapport à notre recherche.
J'ai appris la technique de la PCR.
Mais avec le recul, je me demande si, consciemment ou inconsciemment, je n'ai pas tout fait pour que les résultats aillent dans le sens de l'industriel, que tout se passe bien, parce que j'étais contente de faire cette étude pour lui.
Avec le recul, je me pose la question.
Daniel Fiévet, journaliste.
-Après avoir entendu nos intervenants ou vous vous posiez déjà la question de l'influence de votre financeur ?
Participante 1.
-C'est en les écoutant que ça m'est revenu.
Daniel Fiévet, journaliste.
-On fait bien d'aborder le sujet.
Quelqu'un veut réagir à ce qui est plus un témoignage ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Je voudrais revenir sur quelque chose qu'on n'a peut-être pas assez dit.
Normalement, au cours d'une formation scientifique, on est aussi formé à une forme de rigueur.
Il y a une méthode scientifique.
On parlait d'esprit critique, l'apprentissage de l'esprit critique, le fait de toujours vouloir vérifier ses résultats, d'imaginer tous les contrôles qu'il peut y avoir dans une expérience, ça fait partie de la démarche scientifique, de la mise en expérience, de l'esprit critique et de la critique qu'on peut avoir par rapport au résultat.
Ce n'est pas parce qu'on travaille dans un laboratoire privé que nos résultats vont dans le mauvais sens, Thomas l'a dit.
Il faut faire la distinction entre le fait de travailler dans un contexte et l'intégrité qu'on peut avoir, la formation professionnelle qu'on a reçue.
Ça peut aussi dépendre d'où on en est dans sa formation professionnelle, mais je ne dirais pas que, par définition, les expériences faites dans ce contexte sont mauvaises.
Daniel Fiévet, journaliste.
-En tout cas, ça va dans le sens de ce que vous disiez.
Les chercheurs sont sous-informés sur ces questions, et rien que le fait d'en avoir parlé, ça suscite des interrogations et un regard plus critique sur sa pratique.
Cette discussion n'est pas inutile.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-À l'Inserm, par exemple, depuis peu, il y a une mission à l'intégrité scientifique.
L'objectif est d'essayer de faire vivre la question de l'intégrité scientifique, ce que ça veut dire, est-ce que c'est un savoir-faire méthodologique ou une prise de conscience plus générale sur la production de savoir scientifique et comment on réagit selon l'environnement.
Daniel Fiévet, journaliste, puis participante 1.
-Vous vouliez ajouter quelque chose ?
-Oui.
À l'époque, c'était juste un stage de maîtrise, donc ce n'était qu'un mois, et on n'avait pas encore toute la notion.
Aujourd'hui, je connais, mais je me suis dit qu'à l'époque, j'étais contente, je voulais que ça marche pour le laboratoire.
Daniel Fiévet, journaliste.
-Très bien.
Il y a une question là-haut.
On vous apporte un micro.
Participante 2.
-Merci à vous tous et merci à Universcience.
À l'instant présent, je suis complètement dépressive.
Pourquoi ?
D'abord, parce que la définition de la science, c'est répéter les expériences.
Oui, c'est ça, la science.
Il faut répéter des expériences pour vérifier les résultats.
Si vous dites que souvent, ce n'est pas répétitif, ce n'est pas la définition de la science.
La deuxième chose qui me déprime, c'est que si deux tiers des résultats ne sont pas bons, ce n'est pas terrible.
Participante 2, puis Daniel Fiévet, journaliste.
Du coup, ça me déprime.
Merci.
-Ce n'était pas le but.
On va faire un peu de service après-vente.
C'est vrai que le but n'était pas de dire que le travail des scientifiques n'était pas bon, mais il y a un souci de transparence.
Vous avez dit les choses.
Ce ne sont pas que deux tiers des résultats ne sont pas bons.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'est presque ce que j'ai dit.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Ils ne sont pas reproductibles.
Daniel Fiévet, journaliste.
-Ça peut être que la recette a été mal donnée.
Participante 2.
-La science, c'est la reproduction et les résultats.
Daniel Fiévet, journaliste.
-Laissons-les répondre.
On va les laisser répondre.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-On est passés d'une image pom-pom girl de la science à quelque chose de plus déprimant, donc on en est désolés.
Effectivement, je parlais de la reproductibilité.
Les résultats ne sont pas forcément faux, j'espère qu'ils ne le sont pas, mais pour d'autres laboratoires qui voudraient reproduire l'expérience, on a du mal à obtenir les mêmes résultats que les premiers.
Ça me fait penser à quelque chose qu'on a évoqué précédemment.
On a mélangé un peu la fraude et les problèmes de reproductibilité, mais ça n'a rien à voir.
La fraude, c'est intentionnel, ce serait condamnable.
Les problèmes de reproductibilité, le point qui est important là-dedans, c'est un manque d'éducation des chercheurs.
Il y a plein de chercheurs qui ne sont pas complètement au fait des problèmes de reproductibilité et des outils qui permettraient de les résoudre.
Daniel Fiévet, journaliste.
-Une partie de ces problèmes peut être liée à la fraude.
On ne peut pas complètement dissocier.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Je pense que ce n'est rien par rapport à l'immense importance des problèmes de reproductibilité.
Quand on dit que plus de 50 % des résultats ne sont pas reproductibles, tout ça ne peut pas être dû à de la fraude.
Même dans mon quotidien, je le vois.
Participante 2.
-Une expérience doit être reproductible.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'était votre premier point.
Ça, c'est important.
Daniel Fiévet, journaliste.
-Veuillez attendre le micro, en plus, c'est enregistré.
On n'entend pas les questions.
Il va vous répondre.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Vous disiez que la science est fondée sur la reproduction des résultats, c'est vrai, et sur le test des résultats obtenus pour voir si on les infirme ou pas.
C'est souvent le cas.
Les laboratoires font beaucoup ça.
Un des problèmes qui fait que c'est peut-être fait moins souvent que ça ne le devrait, c'est que les chercheurs, les unités, les laboratoires, les instituts et les universités sont évalués sur leur production scientifique, sur les résultats qu'ils publient dans des grandes revues.
Plus elles ont de notoriété, plus l'évaluation est positive.
Ces chercheurs, ces institutions, ces labos ne sont peu ou pas évalués sur la fiabilité de leurs résultats.
Et ça, c'est un gros problème, qu'il faudrait résoudre.
Daniel Fiévet, journaliste.
-Y a-t-il d'autres questions ?
Participant 3.
-Je vous remercie pour la table ronde.
J'allais continuer dans votre sens.
Est-ce qu'il n'y a pas un effet pervers de l'évaluation ?
Dans le sens que, vu que le quantitatif l'emporte sur le qualitatif, il y a la notion de retour sur investissement sur tout ce qu'on fait et qu'il faut approuver à court ou moyen terme.
Donc, est-ce que les scientifiques et la communauté scientifique réfléchissent à l'effet pervers que pourrait avoir l'évaluation ?
Je vois que ça a des conséquences, même le classement des universités est basé sur le nombre de publications, les financements vont dépendre de ça aussi.
Normalement, à première vue, pour moi, le but d'un scientifique est d'être reconnu par ses pairs.
Or, est-ce que c'est toujours le cas ou est-ce que le but est juste de pouvoir continuer ses recherches en ayant un peu de compromission et de compromis pour avoir les financements, comme si la recherche fondamentale était devenue un travail à côté parce qu'on n'arrive plus à la défendre pour avoir des financements ?
Voilà ma question.
Daniel Fiévet, journaliste.
-Alors, Catherine Bourgain.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-C'est une question importante et compliquée parce que beaucoup de choses sont en jeu.
La question des indicateurs et de leurs effets touche différents pans de la société.
À partir du moment où on arrive à mesurer quelque chose, comme beaucoup de choses dans une société où la concurrence doit être libre et non faussée, la question de la mesure de la valeur devient centrale.
Quand j'ai commencé à faire de la recherche, la question des indicateurs ne se posait pas.
Il fallait avoir des publications et faire un bon travail, mais la notion d'indicateurs n'existait pas.
Il n'y avait pas de mesure individualisée, un chiffre qu'on peut tous avoir aujourd'hui.
Ça s'est mis en place progressivement, avec beaucoup de réticence de la part des chercheurs.
Dans certaines des communautés scientifiques, plus la recherche est fondamentale et éloignée des enjeux de marché et d'application, plus ces communautés résistent à cette mise en chiffres, à cette définition de la valeur.
Ça interroge à quoi sert la science, comment on mesure sa qualité, je suis d'accord.
Dans les communautés fondamentales, ils arrivent à refuser cette forme d'indicateurs.
Mais à l'Inserm, par exemple, on est en pointe dans ce qu'on appelle la bibliométrie, une série d'indicateurs.
Mon laboratoire est en évaluation pour savoir s'il va avoir des crédits publics.
On doit fournir la liste de nos publications qui est moulinée par un bureau à l'Inserm, la cellule bibliométrie.
Elle produit des tonnes de chiffres, de statistiques, donc on peut s'amuser.
Ensuite, ces chiffres sont donnés aux gens qui vont nous évaluer.
On leur dit : "L'évaluation ne se réduit pas aux indicateurs."
Sauf que l'évaluation doit être vite faite par des gens qui sont aussi des chercheurs.
Une routine s'est installée, malgré la résistance de certains chercheurs.
Historiquement, depuis la fin de la Seconde Guerre mondiale, une évaluation par les pairs avait été mise en place, dont l'idée était que, pour pouvoir évaluer la qualité d'un savoir scientifique, il faut des gens capables d'en évaluer les subtilités, et la publication ne dit pas tout de la qualité du travail.
Pour aller plus vite et rentrer dans ces logiques, une routine s'est mise en place.
Les chercheurs qui étaient contre les utilisent souvent aujourd'hui.
On essaye de réinjecter d'autres mesures.
À l'Inserm, on doit faire valoir les impacts sociétaux.
Participer à une conférence peut être mis dans notre liste de choses qu'on a faites, mais ça ne contrebalancera jamais les indicateurs de publication.
On marche sur la tête, parce qu'on essaie de revenir sur ces indicateurs quantitatifs, mais on n'y arrive pas, car une fois que les indicateurs sont là, on ne peut que les voir.
Et ça, c'est un vrai enjeu.
Daniel Fiévet, journaliste.
-Est-ce qu'il y a encore une ou deux questions ?
Je vois une, deux, trois mains.
On va essayer de prendre ces questions.
Participant 4.
-Est-ce qu'il ne faudrait pas développer une recherche contributive avec les amateurs ?
Je pense à La Paillasse, par exemple.
Daniel Fiévet, journaliste.
-Contributive ?
Vous pensez à une recherche participative ?
Participant 4.
-Une recherche contributive d'amateurs, qui pourrait rapprocher...
Daniel Fiévet, journaliste, puis participant 4.
-Yves Sciama ?
-Une science open source.
Daniel Fiévet, journaliste.
-Alors, c'est encore autre chose, une science open source.
Qui veut répondre à ça ?
Vous voulez qu'on prenne les 3 questions et vous vous répartissez le travail ?
On va prendre les trois dernières questions.
Participant 5.
-Je suis en train de travailler sur une future conférence sur les ennemis de la science, donc c'est un sujet plus vaste que ce qu'on a évoqué, mais je voulais revenir sur deux points qui n'ont pas été évoqués.
Le rôle d'Internet dans cette relation science-société, ce n'était pas le sujet, mais je pense qu'il est important.
On trouve sur Internet des choses qui vont dans un sens et dans l'autre.
Ça peut avoir une influence sur la perception scientifique du public.
L'autre point que je voulais évoquer, par rapport aux publications qui ont beaucoup été évoquées, c'est qu'on ne parle pas beaucoup du fait que des publications aboutissant à des résultats négatifs, qui ne vont pas dans le sens souhaité par certains de ceux qui sont derrière, les parties prenantes, etc., ne sont pas publiées.
Je pense que ça donne une idée sans doute un peu biaisée de ce qui est atteint, de ce que l'on a fait.
C'est un point qui me semble pouvoir être évoqué.
Le troisième point...
Daniel Fiévet, journaliste.
-Ça va faire beaucoup.
On a déjà pris trois questions.
Participant 5.
-C'était pour parler de Séralini, mais j'arrête.
Daniel Fiévet, journaliste.
-Je prends la troisième question.
Participant 6.
-Merci.
On a beaucoup parlé de science expérimentale, physique, chimie et biologie, si on inclut la médecine dans la biologie.
Mais quid des sciences sociales et humaines ?
C'est une question qui se dirigerait vers les deux journalistes.
Pensez-vous que les sciences humaines et sociales sont soumises aux mêmes contradictions, aux mêmes effets de lobby, aux mêmes problèmes d'évaluation que les sciences expérimentales ?
Merci.
Daniel Fiévet, journaliste.
-Merci à vous.
On va essayer de faire tenir ça en une dizaine de minutes pour faire une pause entre la table ronde et le film à 16 h.
Alors...
qui veut commencer ?
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Sur la question de la science open source, je dirais quand même que c'est censé être ça.
Par construction, les communautés scientifiques, avec le système de publications, c'est l'idée qu'on met au panier collectif les résultats obtenus, pour qu'ils servent à la communauté pour avancer dans les savoirs qu'on produit.
Ce fonctionnement contributif est, notamment dans les domaines les plus proches de l'application, très largement biaisé par le jeu des marchés, des intérêts marchands qui viennent semer le trouble dans ce fonctionnement.
Après, il y a des communautés qui s'organisent pour essayer de résister à ça, avec des façons de résister, mais ce sont souvent les plus fondamentales.
Je voulais aussi dire qu'il y a une série de chercheurs qui se sont tournés vers des formes de production de savoirs qui, au lieu d'être en tête-à-tête avec les industriels, sont en interaction avec des acteurs de la société civile.
C'est tous le champ des recherches participatives qui consistent, par exemple, à mener un travail de recherche avec une association de patients, ou avec un groupe d'agriculteurs qui s'interrogent sur des semences alternatives pour des productions en agriculture biologique.
Il y a des chercheurs qui ont adopté comme stratégie, plutôt que de rester tout seuls dans une communauté uniquement de scientifiques, que de faire alliance avec des industriels, de faire alliance avec des acteurs non marchands.
Ce secteur de la recherche participative, qui a plus de mal à fonctionner car il a du mal à se faire financer, se développe.
À Sciences citoyennes, on soutient les procédures qui peuvent aider à développer ce type de recherche.
Ce n'est pas facile, pour un chercheur, de travailler avec une association de patients ou un groupe de paysans, pour reprendre mes exemples.
Ça demande un accompagnement particulier, mais ces façons-là sont une des armes qu'on a pour produire des savoirs qui répondent à d'autres formes de questionnements.
Daniel Fiévet, journaliste.
-Il y avait Internet.
Catherine Bourgain, chargée de recherche à l'Inserm, administratrice de Sciences citoyennes.
-Sur Internet, je laisserai plutôt mes collègues journalistes répondre.
Concernant le biais de publication négatif, historiquement, c'est toujours présent.
On ne publie pas tous les résultats, quoiqu'aujourd'hui, avec des formes de publication sur Internet, il y a aussi des formes qui ne sont pas vraiment des journaux ou qui ont un statut particulier permettant de publier des résultats négatifs.
Je voulais finir sur la question des sciences sociales parce qu'elle est pertinente.
Évidemment que les sciences sociales sont soumises aux mêmes risques.
On voit bien, notamment, qu'il y a tout un pan de la recherche, pour parler de sociologie des sciences et de l'innovation, qui s'est révélé très intéressant pour une palette d'acteurs aux intérêts marchands bien identifiés.
On disait que Monsanto avait appris plein de choses, notamment de travaux d'anthropologues de la science.
La question se pose des modalités qu'on peut mettre en place pour assurer une vigilance et avoir une forme de réflexivité.
Les sociologues qui travaillent sur la réflexivité peuvent en manquer, mais il y en a certains qui y travaillent.
Daniel Fiévet, journaliste.
-Laissez-en pour les autres.
Thomas Guillemaud, sur le thème que vous voulez.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'était sur les SHS aussi.
Juste un point très particulier, c'est qu'en psychologie, notamment en psychologie expérimentale, un collectif de chercheurs s'est intéressé à la crise de reproductibilité dont je parlais.
Ça a été une des premières communautés de scientifiques à s'auto-évaluer et à essayer d'estimer quel pourcentage de leurs résultats était reproductible.
Ils ont aussi un très sérieux problème de reproductibilité, du même ordre que ce qu'on trouve en médecine et en biologie.
De l'ordre de 60 à 70 % des résultats ne sont pas reproductibles non plus Thomas Guillemaud, biologiste, directeur de recherche à l'Inra, puis Daniel Fiévet, journaliste.
en psychologie.
-Les SHS ne sont pas épargnées.
Sur l'idée qu'on ne publie pas les résultats négatifs.
C'est vrai que c'est un biais.
La communauté scientifique mériterait de savoir ce qui ne marche pas pour éviter de s'acharner à le refaire.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-C'est un problème majeur de la science d'aujourd'hui.
Les chercheurs n'ont pas envie de publier leurs résultats négatifs, même s'ils le pouvaient, parce que ça ne se publie pas bien.
Étant évalués sur les publications dans des revues de forte notoriété, ils ont tendance à ne pas vouloir publier leurs résultats négatifs.
Par ailleurs, les revues elles-mêmes ne sont pas du tout chaudes pour publier des résultats négatifs des chercheurs.
C'est ce qui fait que les résultats négatifs ne sont pas publiés.
C'est dramatique pour plusieurs raisons.
Ça ne fait pas avancer la science, comme le disait madame, la science consiste en de la reproduction des résultats, dans laquelle il y a des résultats négatifs.
Ça n'y participe pas.
Le deuxième problème, c'est que ça fait perdre une énergie, un temps et un argent considérables aux laboratoires qui continuent à tester des hypothèses parce qu'on ne sait pas...
Daniel Fiévet, journaliste.
-D'autres savent, mais n'ont pas publié.
Thomas Guillemaud, biologiste, directeur de recherche à l'Inra.
-Ces deux éléments-là font que c'est un réel problème.
Daniel Fiévet, journaliste.
-Yves Sciama et Stéphane Horel, peut-être sur les SHS, c'était là-dessus qu'on vous attendait.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Je ne me sens vaguement compétente que sur cette question-là.
Ce qu'il faut comprendre, c'est que, pour les industriels, ça ne veut pas dire qu'ils sont le diable, ils ont besoin d'acheter et de se construire une crédibilité.
N'importe qui, dans le monde académique, qui peut leur apporter ça, c'est tentant.
Il y a des sociologues, des historiens, un certain nombre de personnalités qui ont un discours...
Après, c'est plus difficile de démontrer le lien financier entre les industriels et ces chercheurs en sciences sociales, car il n'y a pas le même système de déclaration d'intérêt qu'il y a dans les agences ou dans les publications.
Si on prend juste le domaine de la nutrition, l'industrie agroalimentaire a eu beaucoup besoin de sociologues pour expliquer que les modes de vie étaient responsables de l'obésité, et surtout pas leurs produits gras, sucrés, salés.
Daniel Fiévet, journaliste.
-Yves Sciama ?
Yves Sciama, journaliste scientifique.
-Je voulais intervenir sur Internet, en fait, parce qu'il y a une tendance dans la communauté scientifique à mettre tous les maux qui les accablent sur Internet, et en particulier, le développement des anti-vaccins, des anti-OGM, de tout un tas de croyances diverses, sans vouloir dire qu'on ne peut pas critiquer les vaccins ou les OGM, mais il y a une branche dure de l'obscurantisme qui se développe sur Internet.
Je pense que le vrai problème, c'est que la science a fait des compromissions qui l'ont conduite à se discréditer en partie.
C'est ça qui nourrit tout ce qu'on voit sur Internet.
Je pense que, quand la science aura fait le ménage en son sein, ce qui n'est pas facile, mais quand elle sera plus démocratique, protégée des pressions, qu'elle aura prouvé sa transparence, l'influence du "dark Web" sera considérablement amoindrie.
Daniel Fiévet, journaliste.
-Qui, parmi vous, a vu le film qui sera projeté ici dans 20 minutes, "Révélations" ?
Vous ?
Que pouvez-vous nous en dire ?
On vous improvise critique cinéma.
Je crois que vous avez beaucoup aimé.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde", puis Daniel Fiévet, journaliste.
-C'est un excellent film.
-Donnez-nous envie de le voir.
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Avec Al Pacino et Russell Crowe, deux acteurs qui ne sont pas mauvais.
Russell Crowe joue le rôle d'un scientifique interne de l'industrie du tabac qui, écœuré par ce qu'on lui demande de dissimuler, de manipuler comme données, décide de balancer à un journaliste, Al Pacino, qui travaille pour "60 Minutes", une grande émission d'investigation.
Ça ne se passe pas tellement comme il l'avait prévu.
Toute la problématique de l'industrie du tabac est posée et la question complexe de la relation des lanceurs d'alerte, les "whistleblowers", dans les firmes, avec les journalistes, la relation source-journaliste.
Daniel Fiévet, journaliste.
-Elle est réaliste, la relation source-journaliste ?
Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Je n'ai jamais été en relation avec un lanceur d'alerte qui avait 2 kilotonnes de documents compromettants, donc je ne peux pas savoir.
Daniel Fiévet, journaliste, puis Stéphane Horel, journaliste indépendante, lobbywatcher pour "Le Monde".
-Vous ne vous identifiez pas ?
-Non, mais j'aime beaucoup ce film et la musique est géniale.
Daniel Fiévet, journaliste.
-Ce sera ici-même dans un quart d'heure.
On vous laisse souffler.
Merci à tous les quatre, c'était passionnant de vous écouter, et merci de nous avoir suivis.
Au revoir.

16h - Projection du film "Révélations"

The Insider, réal. Michael Mann, 1999, 2h38, avec Al Pacino, Russel Crowe…
Bergman, un célèbre journaliste d’investigation, reçoit un dossier envoyé par un employé anonyme de Philip Morris. Y sont décrits les méfaits de la nicotine et la dépendance qu’elle crée. Bergman contacte Jeffrey Wigand, un scientifique travaillant pour Brown et Williamson, le troisième fabricant de cigarettes des États-Unis. Ils vont ensemble faire éclater l’un des scandales les plus retentissants de l’histoire du tabac.

Nous remercions nos partenaires sur ce cycle :