Les cerveaux se synchronisent grâce au contexte des mots
Nous sommes des êtres profondément sociaux, en permanence en interaction avec d’autres personnes. Ces relations, que nous nouons dès la naissance, sont déterminantes pour le développement de notre cerveau, de nos processus cognitifs et de notre sentiment de bien-être.
Bien que nous n’en ayons pas forcément conscience, face à quelqu’un, nous envoyons des signaux à travers nos gestes, nos intonations, nos actions, nos postures ou encore nos expressions émotionnelles, et notre interlocuteur fait de même. Parfois, nous avons même tout simplement l’impression d’être totalement en osmose avec la personne avec qui nous échangeons. D’où ce sentiment nous vient-il ?
Lorsque deux personnes échangent au travers d'une conversation, leur activité cérébrale se synchronise. Elle réagit aux mêmes mots en fonction du contexte dans lequel ils sont utilisés. Un résultat obtenu grâce à l’essor des outils d'intelligence artificielle, de plus en plus utilisés en neurosciences.
Tout le monde a déjà fait l’expérience de finir la phrase d’une autre personne lors d’une conversation. Comment parvenons-nous à nous comprendre si rapidement ? Au cours d’une discussion, nos cerveaux se connectent ! Et les neurosciences, qui ont pour objectif de décrypter les moindres recoins du cerveau humain, possèdent depuis quelques années une alliée de taille pour y parvenir : l’intelligence artificielle (IA).
Plusieurs études précédentes ont permis de modéliser la pensée humaine à l'aide d'algorithmes d’apprentissage profond auxquels sont appliqués des stimuli. En comparant des modèles d'IA avec les activités cérébrales relevées sur des humains, les scientifiques espèrent comprendre les lois sous-jacentes à nos pensées. Des neuroscientifiques américains et israéliens ont utilisé ce principe, non pas sur un cerveau, mais sur deux cerveaux durant une conversation. Les résultats, publiés dans la revue Neuron, font apparaître que le contexte dans lequel les mots sont utilisés facilite la synchronisation des deux cerveaux et permet la fluidité de la conversation.
« Nous savions déjà que les cerveaux se synchronisent durant les interactions sociales, notamment les conversations. Toutefois, les mécanismes sous-jacents à ces synchronisations ne sont pas encore clairement définis. Ici, l’étude met en évidence comment le contexte et la sémantique des mots pourraient induire des dynamiques similaires dans les deux cerveaux et ainsi faciliter leur synchronisation », expose Guillaume Dumas, professeur agrégé de psychiatrie computationnelle à la Faculté de médecine de l’Université de Montréal.
« La nouveauté de cette étude réside dans la combinaison de deux ingrédients : l’utilisation du modèle de langage informatique GPT-2, ainsi que le suivi de deux cerveaux au lieu d’un seul », pose le chercheur en psychologie cognitive. Dans ce travail, l’IA est un espace de projection de l’activité cérébrale, relevé au cours du temps. Le modèle de langage compare l’activité du cerveau par rapport aux différents noms communs, verbes, ou autres formes grammaticales employés. En effet, le fonctionnement propre de l’IA générative est fondé sur sa capacité à prédire le mot suivant. L’intégration du contexte dans un grand modèle de langage (LLM) permet alors de « suivre le flux d'informations linguistiques, mot par mot, d'un cerveau à l'autre dans des conversations naturelles », appuient les auteurs de l’étude. Les LLM, comme les humains, peuvent interpréter le sens contextuel des mots dans les conversations du monde réel.
Les mêmes zones activées dans deux cerveaux en conversation.
Les neuroscientifiques ont mesuré la corrélation entre l'activité réelle et l'activité prédite par le modèle, pour la production et la compréhension de la parole.
Greg Stephens, de l’université de Princeton, et ses collaborateurs, ont été parmi les premiers à utiliser l’imagerie fonctionnelle pour montrer qu’au cours d’une conversation en situation naturelle, l’activité cérébrale de l’auditeur se synchronise spatialement et temporellement avec celle du locuteur. Ces auteurs sont même allés plus loin puisqu’ils ont pu montrer que l’activité cérébrale de l’auditeur est légèrement en avance sur celle du locuteur, comme si la personne qui écoutait quelqu’un parler était capable d’anticiper ce qui va être dit ! D’ailleurs, la compréhension au cours du dialogue est d’autant meilleure que le couplage des activités cérébrales entre locuteur et auditeur est de bonne qualité.
Résultat : l'activité cérébrale relative aux mots atteint son maximum dans le cerveau de l'orateur environ 250 millisecondes avant qu'il ne les prononce, et les mêmes mots déclenchent une activité similaire dans le cerveau de l’auditeur environ 250 millisecondes après les avoir entendus. De surcroît, ce sont les mêmes zones du langage qui présentent une activité chez le locuteur et chez l’auditeur. Enfin, les chercheurs ont montré que la corrélation est meilleure avec les données réelles des électrodes, lorsque le contexte y est inclus.
« Ce travail ajoute une pierre à l'édifice commun entre neurosciences et intelligence artificielle : que ce soit notre cerveau ou les algorithmes, les réseaux de neurones (artificiels et biologiques) convergent, au moins partiellement, vers un même traitement de l'information. La nature précise de ces lois, ainsi que leurs limites, restent cependant à découvrir. »
Rédigé par Muriel Bolteau, en appui des sources de Marine Laplace, Sciences et avenir, La Recherche, Neuron.