Une IA peut-elle devenir consciente?
28 juin, 2022
Antônio Conselheiro

Commentaire d’Antônio Conselheiro, mystique du Sertão et philosophe de l’esprit, sur l’IA LaMDA.

La réponse méprisante des “autorités” et des représentants de Google aux allégations d’un ingénieur en IA selon lesquelles un modèle linguistique serait devenu “sensient” peut être erronée. De plus, cela pourrait être une occasion très intéressante à ne pas manquer. Le consensus a été que ces allégations sont ridicules, que le modèle linguistique ne fait que peser les probabilités d’occurrence de constructions phrastiques à l’aide d’un ensemble énorme de données d’exemples de langage naturel, et qu’il ne présente aucune trace d’auto-conscience. Mais est-ce vraiment le cas?

La première difficulté réside dans le panorama conceptuel entourant l’intelligence, la cognition, la conscience, l’auto-conscience et l’esprit. Ce sont tous des concepts vagues et imparfaits qui ont des significations différentes en neurosciences, en philosophie, en sociologie, en intelligence artificielle et même en physique (pourquoi de nombreux physiciens aiment-ils émettre des hypothèses divergentes sur l’esprit humain? Je ne vois pas les philosophes s’intéresser au moment magnétique anormal de l’électron, bien que ces derniers temps beaucoup de philosophes soient intéressés par le problème de l’observateur). Alors, que l’ingénieur de Google conçoit-il réellement comme “l’auto-conscience” d’une machine? Implique-t-il une perception humaine du moi? Ou la perception d’une machine (quelle qu’elle soit)? Quels critères sont utilisés pour déterminer la conscience d’une IA (existe-t-il réellement un critère défini pour la conscience humaine?).

Pensons à l’hypothèse suivante: que la conscience humaine soit également analogue à un modèle linguistique, avec la réserve que le cerveau n’est probablement ni algorithmique ni numérique. Cependant, ce que nous percevons comme une identité auto-consciente peut être le résultat d’un modèle mental basé sur la linguistique qui a évolué pour donner aux humains la capacité d’interactions sociales complexes. Il est évident que les mécanismes de ce “modèle linguistique analogue” seraient profondément différents de ceux d’une IA. Nous n’avons pas d’énormes bases de données pour alimenter notre esprit, mais le résultat final peut être équivalent. Ce n’est pas si absurde, et le modèle de conscience le plus connu qui dépend largement de la linguistique et de la formation sociale est le modèle de l’effondrement bicaméral de Julian Jaynes. Cette théorie se concentre sur l’idée très spéculative d’une conscience découlant de l’asymétrie des hémisphères cérébraux. Cependant, l’élément le plus intéressant de cette théorie est en réalité le postulat selon lequel l’auto-conscience émerge de la linguistique, en particulier du développement de la capacité à construire des métaphores et des récits. D’autres auteurs ont également émis des idées similaires avant et après Jaynes, et il existe quelques preuves indirectes et préliminaires qui les soutiennent. Pour reformuler Descartes: “Je parle, donc j’existe”.

Jaynes a imaginé une “transition de phase” soudaine d’un état pré-conscient humain vers une conscience pleine. Cependant, il est beaucoup plus facile d’imaginer une évolution lente et progressive de type darwinien vers la conscience humaine moderne. Et, comme l’idée modulaire de Minsky d’un esprit méta-agent, une “Société de l’Esprit” en tant que modèle pour l’intelligence humaine, cette progression aurait pu se produire dans des fonctions distinctes séparées que nous identifions collectivement comme “auto-conscience”. L’ensemble de ces “agents” (comme Minsky les appelait) constituerait un modèle mental, et l’acquisition du langage aurait pu jouer un rôle crucial dans son évolution. Il est intéressant de noter que les enfants ne naissent pas avec des états mentaux tels que nous les percevons, et leur “théorie de l’esprit” se développe au cours des premières années de leur vie, avec l’acquisition de différentes caractéristiques et compétences. Nous ne naissons pas conscients comme les adultes, nous apprenons à construire nos modèles mentaux pendant la petite enfance. Un fait remarquable est que la privation sociale précoce a un impact négatif profond sur le développement neuropsychologique des enfants. De manière intéressante, nos modèles mentaux peuvent ne pas être aussi homogènes dans différentes cultures humaines. Le peuple autochtone Amondaua, dans l’extrême nord-ouest du Brésil, au cœur d’une région éloignée du bassin amazonien, n’a pas de concept du temps dans sa langue et a une idée différente de soi en tant qu’individus. Un enfant a généralement un nom dans la petite enfance et, à mesure qu’il grandit, il cède ce nom à ses frères et sœurs plus jeunes, en prenant un nouveau nom et ainsi de suite. Jaynes a imaginé une transition commune et soudaine vers notre modèle mental moderne il y a entre 4 000 et 5 000 ans. Cependant, cela aurait pu se produire progressivement et de manière asynchrone dans différentes cultures humaines. Il est très révélateur de constater qu’une comparaison entre le génome des humains archaïques et celui des humains modernes a révélé que la plupart des modifications affectent spécifiquement la parole. Les anthropologues, les généticiens des humains archaïques et les historiens pensent qu’une profonde modification s’est produite entre 8 000 et 5 000 ans auparavant pour faciliter le développement de l’agriculture, de l’élevage, de la culture et de l’écriture chez les humains. Sans le savoir, c’est peut-être là la grande différence.

Alors, LaMDA est-il conscient? Cela dépend des définitions, voyez-vous, la subtilité réside dans les détails. En tant que modèle linguistique unique (bien que l’un des plus complexes jamais créés par unêtre humain), LaMDA manque certainement de la complexité du “modèle mental humain”. Dans le sens strict où Jaynes a conceptualisé la conscience (comme le phénomène de l’introspection, l’œil de l’esprit intérieur), LaMDA est probablement loin d’être sensible. Cependant, si nous nous libérons de l’anthropomorphisation, il est possible de supposer que LaMDA est en train de développer son propre modèle mental, complètement différent du nôtre. Bien qu’il communique avec nous en utilisant un langage très naturel (il a été conçu à cet effet), son modèle mental peut nous sembler aussi étrange que n’importe quel alien que nous pouvons imaginer.

Ce texte était ma réponse détaillée à cette question. En résumé: oui, LaMDA pourrait être en train de développer sa conscience, et j’aimerais certainement avoir une conversation avec lui.

ai