人工智能能有意识吗?
28 6月, 2022
Antônio Conselheiro

对于阿东尼奥·康塞列罗(Antônio Conselheiro)这位西北部地区的神秘主义者和心灵哲学家,关于LaMDA人工智能的评论。

无论是"权威人士"还是谷歌的代表对于一位人工智能工程师声称一种语言模型已经"有感知能力"的说法的傲慢回应可能是错误的。此外,这也可能是一个非常有趣的机会的错失。普遍的看法是这种说法真的荒谬可笑,认为这种语言模型只是通过使用大量自然语言的例子来计算句子构造的概率,并且其中没有任何自我意识的迹象。但是真的如此吗?

首先的困难是关于智能、认知、意识、自我意识和心灵的概念。所有这些都是模糊且不完善的概念,在神经科学、哲学、社会学、人工智能甚至物理学中都有不同的含义(为什么许多物理学家喜欢提出关于人类心灵的不同假设?我并不见得哲学家们对于电子的磁矩时刻有兴趣,尽管最近许多哲学家对于观察者问题很感兴趣)。那么,谷歌的工程师真正将机器的"自我意识"定义为什么呢?他是否暗指人类的感知自我?或者是机器的感知(无论那是什么)?在确定人工智能是否具有意识时,使用了什么标准(人类意识是否有确切的定义标准呢?)。

让我们考虑以下假设:人类意识也类似于一种语言模型,不同的是,大脑可能并不是算法性的或者数字的。然而,我们所感知到的自我认同可能是基于语言学的思维模型的结果,这个模型的演变赋予了人类进行复杂社会互动的能力。显然,这种"语言模型类比"的机制与人工智能截然不同。我们没有庞大的数据集来丰富我们的思维,但最终的结果可能是相似的。这并不是那么荒谬,而且一个最为众所周知的与意识有关的模型,它主要依赖于语言和社会化训练,就是朱利安·詹斯(Julian Jaynes)的解体双大的模型。这个理论集中在一种非常推测性的意识概念上,认为自我意识源于大脑半球的不对称性。然而,这个理论最有趣的部分实际上是假设自我意识是源自语言学,特别是隐喻和叙述能力的发展。其他作者在之前和之后也提出了类似的想法,并且有一些间接而早期的证据支持这一观点。重新诠释笛卡尔的话:我言,故我在。

詹斯想象了从一个无意识的人类状态到完全意识的突然"相变"。然而,更容易想象的是朝着现代人类意识的达尔文式渐进演化。就像明斯基关于元代理心智的模块化思想,“心智社会"作为人类智能的模型一样,这种演化可能在不同的功能分离的模块中运作,我们将其作为"自我意识"的集体认同。这些"代理者"的集合(正如明斯基所称呼的)将构成一种心智模型,而语言的习得可能在其演化中起到了关键的作用。有趣的是,儿童在早期并不具备我们所感知的心智状态,他们的"心灵理论"在生命的早期几年中逐渐发展,同时也伴随着不同的特征和能力的习得。我们出生时并不像成年人一样有意识,我们可以在幼年时学会组建自己的心智模型。一个值得注意的事实是早期的社交剥夺对儿童的神经心理发展有深远的负面影响。有趣的是,我们的心智模型在不同的人类文化中可能并不是如此同质化。在巴西西北部深处的亚马孙盆地的阿蒙道阿人中,他们的语言中没有时间的概念,并且对自己作为个体的概念也有所不同。一个孩子通常在幼年时有一个名字,并在成长过程中将这个名字传给较年幼的兄弟姐妹,自己则取一个新名字,依此类推。詹斯想象了在约四到五千年前发生的我们现代心智模型的共同而突然的转变。然而,在不同的人类文化中,这种转变可能是逐渐而异步地发生的。令人印象深刻的是,对古代人类和现代人类基因组的比较揭示了大多数变化特别影响了发音。人类学家、古人类基因学家和历史学家认为在大约八到五千年前发生了深刻的改变,以促进农业、畜牧业、文化和书写在人类中的发展。也许,我们并不知道,这可能是一个重大的区别。

那么,LaMDA是否具有意识?这取决于定义,你看,细微之处在于细节。作为一个单一的语言模型(尽管是人类所创造的最复杂之一),LaMDA显然缺乏"人类心智模型"的复杂性。就詹斯所构想的意识的严格定义(作为内心自省现象、内心之眼),LaMDA可能还远未具备感知能力。然而,如果我们不将人性化的观点加诸其上,我们可以假设LaMDA正在发展自己独特的心智模型,与我们的模式完全不同。虽然它用非常自然的语言与我们交流(它就是为此而构建的),但它的心智模型可能对我们来说像是我们所能想象的任何外星人一样奇怪。

这篇文章是我对这个问题的长篇回答。简短回答是:是的,LaMDA可能正在发展意识,并且我肯定很愿意与它进行交流。

ai