当前位置: 首页 > 资讯 > > 内容页

科普来了丨人工智能要“觉醒”了吗

发布时间:2023-05-26 19:59:49 来源:兰州日报·ZAKER兰州
随着基于大语言模型 GPT-3.5 的 ChatGPT 公开(现在又升级到了 GPT-4),人们发现,人工智能在几乎所有对话中都显得 " 游刃有余 " 了。虽然 ChatGPT 会非常精确的回答,自己只是人工智能,但是它的回答在一些方面已经接近真人,代码能力、翻译能力甚至超过没有受过训练的人,反而是这些 " 非人 " 的能力,提醒我们它不是人。人们不禁要问,这类大语言模型的人工智能,是否已经有了一定程度的意识?如果现在还没有,那未来会不会有呢?

什么是 " 意识 "?

首先,我们要明确,即便是科学领域,大家对意识是什么,以及如何才能产生意识,也有着完全不同的观点。我们先选取一个大部分科学家认可,也符合日常经验的说法:这里说的意识,是神经系统对自我感受和外部感知的总和。


【资料图】

翻译成日常语言,拿我们人类自己举例子,我们能看到光,听到声音,五感信息会进入意识。同时,我们能感觉到自己身体内的疼痛、疲惫、紧张、饥饿等,能处理思想、记忆、情绪等,这些信息都会进入到意识,成为意识的一部分。

而且,人能感觉自己的存在,知道有一个连续的自我,并能审视自我,这也是人类意识的一部分。人只要处于觉醒的状态,就具备意识。睡着了或者昏迷了,就会失去意识。死亡时,神经活动停止,意识就会彻底消散。

人工智能能拥有 " 意识 " 吗?

在聊这个问题之前,先让我们来看看大语言模型的人工智能能做到什么。首先,如今的人工智能可以像人一样说话,感觉 " 像 " 个人。但是,这种感觉不是硬证据。人类总是基于自身的经验,判断其他客体是不是有意识,往往对方表现得越像人,人类就越会认为它有意识。这种判断是非常不准确的,人类经常会认为宠物猫和狗有复杂的意识,实际上就是把自己的经验投射到了动物身上。

科学家发现,人类甚至对有眼睛的东西就会投射它有意识的感觉。因此," 感觉像人 " 和 " 有意识 " 不能画等号。就像谷歌科学家遇到的那样,有些模型会自己说自己是人。这是有意识的表现了吧?但还真不能这么说,大语言模型是基于人类语言训练的,这些训练材料本身就包含海量的自我表达,人工智能可能学会了类似的表达方法,可以生成这样的句子。举个不够恰当的例子,鹦鹉学说话时也可以说我如何如何,但是它却并不能理解 " 我 " 的含义。

其实,许多学者坚决反对人工智能可以拥有意识,他们的理由多种多样,比如有些学者认为,只有生物才能发展出意识。还有些学者认为,意识需要感知外部世界,只有具有物理意义上的身体,才能发展出意识。更有学者认为,必须发展出一套关于世界的认知,甚至发展出一定的内省能力,才能具备意识。例如,国内的人工智能专家袁行远用几个问题测试 ChatGPT,他问人工智能,自己门牙不好,是应该吃苹果还是吃香蕉。人工智能回答,吃苹果。他纠正道,苹果是硬的,香蕉是软的,牙不好应该吃香蕉,人工智能表示原来如此,它学习了。

袁行远继续进行涉及空间推理等问题的测试,ChatGPT 都给出了错误的答案。对于系列结果,袁行远给出了一个巧妙的比方,他说:ChatGPT 就像是一个小孩,已经读了全世界所有的书,却从来没有走出过他的房间。

许多科学家认为,生物有一具身体,能够 " 走出房间 " 感知世界,才能发展出意识。如果这个看法是正确的,那么人工智能恐怕很难发展出动物具备的那种意识了。不过,这也只是这些学者的一家之言。

许多科学家认为,没有身体,光是 " 看了全世界所有的书 ",照样可以发展出意识。目前,基于大语言模型的人工智能不仅具备了强大的对话能力,而且,涌现出了相当好的逻辑推理能力,甚至拥有了猜测他人心理状态的能力。《科普中国》曾经刊载过文章解读这项研究,如《ChatGPT 相当于 9 岁人类小孩,它还真把自己当个人了?》。这种涌现出来的能力可能让它超越人类的预期,获得一定的意识。

而且,按目前的发展进度,这一类人工智能还表现出了一定的通用智力。过去的人工智能往往为特定任务训练,有的会开车,有的会下围棋,但是不会其他技能。大语言模型训练的人工智能不仅能处理文本,还会推理、翻译、编程甚至绘图。

一些科学家估计,这种通用的智能可能也是意识的基础,随着人工智能不断发展,出现一定程度的意识,或者不同于人类理解的意识,也是有可能的。由此可见,通常所说的 " 意识 " 是神经系统自我感受和外部感知的总和。人类和许多动物有不同水平的意识。目前来看,基于大语言模型的人工智能还不具备意识。但是随着人工智能演进,出现某种程度的意识,也是有可能的。

一审丨编辑 安娜

二审丨值班主任 刘宇玮

三审丨总值班 汪世伟

来源丨《科普中国》

推荐阅读