长期以来,科幻小说一直认为人工智能(AI)有意识,随着AI的快速发展,这不再是异想天开,甚至得到了AI领导者的认可。例如,美国OpenAI公司首席科学家Ilya Sutskever在社交媒体上表示,一些最前沿的AI网络可能“有点意识”。


(相关资料图)

许多研究人员表示,AI系统还没有达到具有意识的程度,但AI的进化速度让他们开始思考:如果它们有了意识,我们如何知道呢?

据《自然》报道,为了回答这个问题,一个由19名神经科学家、哲学家和计算机科学家组成的小组提出了一份标准清单,如果满足这些标准,就表明一个AI系统很有可能是有意识的。8月17日,他们在预印本服务器arXiv上发布了他们的临时指南。

合著者之一、美国非营利研究组织人工智能安全中心哲学家Robert Long说,他们之所以这样做,是因为“关于AI意识,似乎真的缺乏详细、基于经验、深思熟虑的讨论”。

该团队表示,识别AI系统是否具有意识具有重要的道德意义。合著者之一、美国加利福尼亚大学欧文分校神经科学家Megan Peters表示,如果某物被贴上了“有意识”的标签,“那么我们作为人类应该如何对待这个实体,就会发生很大变化”。

Long表示,据他所知,构建先进AI系统的公司没有付出足够多的努力来评估意识模型,并制定计划以防AI具有意识。他补充道:“尽管如此,如果你听听实验室负责人的言论,他们确实说过,他们对AI意识或AI感知很感兴趣。”

《自然》杂志联系了参与推进AI的两家主要科技公司——微软和谷歌。微软的一位发言人表示,该公司开发AI的核心是以负责任的方式协助人类生产力,而不是复制人类的智能。这位发言人表示,自从GPT-4推出以来,“在探索如何充分发挥AI潜力、造福整个社会之际,需要新的方法来评估这些AI模型的能力”。谷歌则未作出回应。

在AI中研究意识的挑战之一是定义什么是意识。Peters说,为了报告的目的,研究人员关注的是“现象意识”,也就是所谓的主观体验。这是存在的体验——成为人、动物或AI系统的感觉。

有许多基于神经科学的理论描述了意识的生物学基础。但是,对于哪一个是“正确的”,人们并没有达成共识。因此,为了建立他们的框架,作者使用了一系列这样的理论。其想法是,如果一个AI系统的运作方式与这些理论的许多方面相匹配,那么它就更有可能是有意识的。

他们认为,这是一种评估意识的更好方法,而不是简单地对一个系统进行行为测试ーー比如,询问ChatGPT它是否有意识,或者挑战它,观察它是如何反应的。这是因为AI系统已经变得非常擅长模仿人类。

英国萨塞克斯大学意识科学中心主任、神经学家Anil Seth说,研究小组提出的是一种很好的方法,它强调的是,“我们需要更精确、更经得起检验的意识理论”。

为制定标准,作者假设意识与系统处理信息的方式有关,无论它们是由什么构成的——是神经元、计算机芯片还是其他什么。他们还假设,通过人类和动物的脑部扫描及其他技术研究的基于神经科学的意识理论可以应用于AI。在这些假设的基础上,研究小组选择了其中的6个理论,并从中提取了一系列意识指标。

Seth对团队提出的标准印象深刻。“它非常深思熟虑,不夸夸其谈,而且它的假设非常清晰。”他说,“我不同意其中的一些假设,但这完全没关系,因为我很可能是错的。”

作者说,这远不是关于如何评估AI系统的意识的最终结论,希望其他研究人员能帮助完善他们的方法。不过,现在已经有可能将这些标准应用于现有的AI系统结果显示,至少现在还没有任何AI系统具备意识。

相关论文信息:https://doi.org/10.48550/arXiv.2308.08708

推荐内容