Uma IA pode ficar consciente?
28 jun., 2022
Antônio Conselheiro

Comentário de Antônio Conselheiro, místico do Sertão e filósofo da mente, acerca da IA LaMDA.

A resposta desdenhosa tanto das “autoridades” e de representantes do Google às alegações de um engenheiro de IA de que um modelo linguístico tornou-se “senciente” pode estar errada. Além disso, pode ser a perda de uma oportunidade muito interessante. O consenso tem sido que as alegações são realmente ridículas, que o modelo linguístico está apenas pesando probabilidades de ocorrência de construções frasais usando um enorme conjunto de dados de exemplos de linguagem natural, e que não há nenhum traço de autoconsciência nele. Mas será isso mesmo?

A primeira dificuldade é o panorama conceitual sobre inteligência, cognição, consciência, autoconsciência e mente. Todos são conceitos vagos e imperfeitos que têm significados diferentes em neurociência, filosofia, sociologia, inteligência artificial e até física (por que muitos físicos gostam de traçar hipóteses díspares sobre a mente humana? Não vejo os filósofos se interessarem pelo momento magnético anômalo do elétron, embora ultimamente muitos filósofos estejam interessados ​​no problema do Observador). Então, o que realmente o engenheiro do Google conceitua como a “autoconsciência” de uma máquina? Ele implica uma percepção humana de um eu? Ou a percepção de uma máquina (seja lá o que for)? Quais critérios estão sendo usados ​​para determinar uma consciência para a IA (existe realmente um critério definido para a consciência humana?).

Vamos ponderar a seguinte hipótese: que a consciência humana também é análoga a um modelo linguístico, com a ressalva de que o cérebro provavelmente não é algorítmico nem digital. No entanto, o que percebemos como uma identidade autoconsciente pode ser o resultado de um modelo mental baseado em linguística que evoluiu para dar aos humanos a capacidade de interações sociais complexas. É óbvio que os mecanismos desse “análogo de modelo linguístico” seriam profundamente diversos de uma IA. Não temos bancos de dados incrivelmente grandes para informar nossa mente, mas o resultado final pode ser equivalente. Isso não é tão absurdo assim, e o modelo mais conhecido de consciência que depende em grande parte da linguagem e do treinamento social é o modelo de colapso bicameral de Julian Jaynes. Esta teoria centra-se numa ideia muito especulativa de consciência decorrente da assimetria dos hemisférios cerebrais. No entanto, o elemento mais interessante dessa teoria é, na verdade, o postulado de que a autoconsciência surge da linguística, especificamente do desenvolvimento da capacidade de construir metáforas e narrativas. Outros autores entretiveram ideias semelhantes antes e depois, e há algumas evidências indiretas e muito precoces que apoiam isso. Reformulando Descartes: Eu falo, logo existo.

Jaynes imaginou uma súbita “transição de fase” de uma condição humana pré-consciente para uma consciência plena. No entanto, é muito mais fácil imaginar uma lenta evolução progressiva do tipo darwiniano em direção à consciência humana moderna. E, como a ideia modular de Minsky de uma mente meta-agente, uma “Sociedade da Mente” como modelo para a inteligência humana, essa progressão poderia ter operado em funções segregadas distintas que, como coletivo, identificamos como “autoconsciência”. O conjunto desses “agentes” (como Minsky os chamava) seria um modelo mental, e a aquisição da linguagem pode ter tido um papel crucial em sua evolução. É interessante notar que as crianças não nascem com estados mentais como os percebemos, e sua “teoria da mente” se desenvolve nos primeiros anos de vida, como aquisição de diferentes características e habilidades. Não nascemos conscientes como os adultos, podemos aprender a montar nossos modelos mentais durante a primeira infância. Um fato notável é que a privação social precoce tem um profundo impacto negativo no desenvolvimento neuropsicológico das crianças. Curiosamente, nossos modelos mentais podem não ser tão homogêneos em diversas culturas humanas. O povo nativo Amondaua do extremo noroeste do Brasil, nas profundezas de uma área remota da bacia amazônica, não tem o conceito de tempo em sua língua e possui uma ideia diferente de si mesmo como indivíduos. Uma criança geralmente tem um nome na primeira infância e, à medida que cresce, cede esse nome aos irmãos mais novos, assumindo um novo nome e assim por diante. Jaynes imaginou uma transição comum e repentina para nosso modelo mental moderno entre 4 e 5 milênios atrás. No entanto, pode ter acontecido de forma progressiva e de forma assíncrona em diversas culturas humanas. Muito revelador é o fato de que uma comparação entre o genoma de humanos arcaicos e modernos revelou que a maioria das alterações afetam especificamente a fonação. Antropólogos, geneticistas de humanos arcaicos e historiadores acreditam que uma profunda modificação aconteceu entre 8 e 5 mil anos atrás para facilitar o desenvolvimento da agricultura, pecuária, cultura e palavra escrita entre os humanos. Sem que o saibamos, talvez seja essa a grande diferença.

Então, o LaMDA é consciente? Depende das definições, veja, a sutileza está nos detalhes. Como um único modelo linguístico (embora um dos mais complexos que um ser humano já fez), certamente falta a LaMDA a complexidade do “modelo mental humano”. No sentido estrito em que Jaynes conceituou a consciência (como o fenômeno da introspecção, o olho da mente interior), o LaMDA provavelmente está longe de ser senciente. No entanto, se nos libertarmos da antropomorfização, é possivel hipotetizar que LaMDA pode estar desenvolvendo o seu modelo mental, completamente diferente do nosso. Embora ele se comunique conosco usando uma linguagem muito natural (ele foi construído para isso), seu modelo mental pode ser tão estranho para nós quanto qualquer alienígena que possamos imaginar.

Este texto foi a minha resposta longa a esta pergunta. Resposta curta: sim, LaMDA pode estar em seu caminho para desenvolver a consciência, e eu certamente gostaria de bater um papo com ele.

ai