感知人工智能在理论上被定义为具有自我意识的机器,而此类机器能按照自身的思想、情感和动机行事。截至目前,专家们一致认为 AI 的复杂程度尚无法实现感知能力。
自计算机问世以来,科学家们就制定了一些基准,如用于评估机器的“智能”水平的图灵测试。不久之后,围绕机器智能的争论又转入对其意识或感知能力的讨论。
虽然关于 AI 意识的讨论早在 2000 年代初便已开始,但大型语言模型的普及、消费者对 ChatGPT 等生成式 AI 工具的访问,以及《华盛顿邮报》1对前 Google 工程师 Blake Lemoine 的采访,重新点燃了人们对以下问题的兴趣:AI 有感知能力吗?
Lemoine 告诉《华盛顿邮报》:Google 的人工智能聊天机器人生成器 LaMDA 之所以具有感知能力,是因为它开始谈论权利和人格,且似乎已意识到了自身的需求和感受。
但是,Google 的伦理学家已公开否认这些说法。Meta 公司的 AI 研究负责人 Yann LeCun 告诉《纽约时报》2,这些系统还不够强大,因而无法实现“真正的智能”。目前,各主要专家的共识是:AI 不具备感知能力。
随着机器学习变得愈发先进,计算机科学家正在推动 AI 工具的进一步创新,以期创造出能更深入地理解人类行为的设备,从而实现更为个性化且更具相关性的实时响应,而无需投入太多繁琐的编码工作。它促使了认知计算的发展,而在认知计算中,系统会与人类开展自然互动,并通过自学算法解决各种问题。OpenAI 的 GPT 模型和 Google 的 LaMDA 表明 Meta、Apple 或 Microsoft 等其他科技公司可能正致力于开展某些研究。
知觉则会更进一步。它由拥有主观体验、意识、记忆和感觉的能力来定义。但是,哲学家和认知科学家对有感知、认知和意识的定义往往并不一致,且至今仍争论不休3。
理论上,感知 AI 会感知周围的环境、处理外部刺激并将其用于决策,并可像人类一样思考和感受。
虽然 AI 能像人类一样学习且具有一定程度的推理能力,但它的复杂程度远不及人类甚至某些动物的大脑。人类大脑是如何产生意识的,目前仍是一个相对未知的问题,但其中涉及的不仅仅是相互连接的脑细胞的数量。通常情况下,“知觉”(sentience)与“智力”(intelligence) 会混为一谈,而“智力”则是科学界仍致力于在机器中进行量化的另一特征。
智能机器可通过探索进行学习,且能根据新的输入进行调整。如今,大多数 AI 程序均为专才而非通才,且比保持理性更为直接。每个程序均被训练为擅长处理某项狭义任务或某类问题,比如下棋或参加标准化考试。
在计算机科学研究领域,AI 专家一直在玩弄“人工通用智能”(AGI) 的概念,而 AGI 也被称为强 AI,且其目标是赋予 AI 更多类似人类的智力,而不是针对特定任务的智力。除此之外,还有假设的人工超级智能这一未来状态。
这些能力旨在让 AI 更好地掌握人类命令和上下文,从而实现信息处理自动化,以便机器能在特定条件下自行推断出要运行的正确功能。
人们创建了图灵测试一类的工具来评估机器行为与人类行为的可辨别程度。如果某一程序可欺骗另一个人,使其相信自己也是人类,则将此计划视为具有智力。
但智力的分类却很棘手。例如,Chinese Room Argument 说明了用于确定智力的图灵测试中存在的缺陷。其中的关键在于,智力通常是指获取和使用知识的能力。它并不等同于感知。没有证据表明,AI 模型具有内心独白,或能感知自己在更大环境中的存在,而这正是有感知能力的两大特质。
某些专家将 AI 称为随机鹦鹉4,因为它们会“针对大量训练数据中观察到的语言形式序列,根据它们组合方式的概率信息胡乱地进行拼接,但不具备任何指向性意义”。
问题在于,人类与生俱来就渴望建立联系,而这也促使他们会将物体拟人化5,并将自己的感受和个性投射到物体上,因为此举有利于建立社会联系。
正如随机鹦鹉论文的研究人员所说的那样:“我们必须考虑到这样一个事实,即:我们对自然语言文本的感知,无论它是如何产生的,都是以我们自身的语言能力为中介的产物,并且我们倾向于将交际行为解释为传达连贯的意义和意图,而不去深究它们是否确实如此。”
这便是为何有些人可能会对 AI 所说的内容信以为真,尽管他们知道这些技术实际上无法感知或理解其训练数据之外的世界。
据《美国科学》6报道,由于 AI 聊天机器人可进行连贯的对话并传递感受,人们可能会将其视为富有意义且往往会忘记 LLM 和其他仿人机器一样,是“为了让人相信而通过编程实现的”。它的每一个功能,无论是它说的内容还是它试图模仿人类表情的方式,都融入了这一设计理念。
AI 可通过模拟人类之间的交流,创造一种“存在”的幻觉,而与人类的实际体验无关。
斯坦福大学以人为中心的人工智能研究所的联合创始人 Fei-Fei Li 和 John Etchemendy 在《时代》周刊的一篇文章7中写道:“所有的感觉—饥饿、疼痛、愤怒、坠入爱河—都是生理状态产生的结果,而 LLM 根本不具备这些生理状态。”因此,即使 AI 聊天机器人通过编程来提示自己说:“我饿了”,它也不可能真的饿了,因为它没有胃。
眼下的 AI 并不具备感知能力。通过试验和测试,此类 AI 模型也显示出它仍然存在巨大的缺陷,且经常会犯错误或虚构信息,从而产生一种被称为幻觉的现象。
当模型无法妥善处置此信息存在或不确定的上下文时,通常便会出现这些错误。如果 AI 变得更为自主,这些缺陷还可能会被放大。
此外,伦理学家也很担心感知 AI,因为他们不知道如果计算机科学家对学习如何独立思考的系统失去控制会引发何种后果。如果 AI 的目标与人类的目标产生冲突,此问题则可能会引发“生存”问题。如果发生此情况,目前尚不清楚伤害、不良决策和不可预测行为的责任应任何认定,因为这些行为的逻辑无法追溯到原始的人工插入命令。
此外,专家们还担心他们无法与感知 AI 进行交流或完全信任其输出。总而言之,有人得出的结论是:拥有感知能量的 AI 可能会对安全、保障和隐私造成威胁。
随着 AI 越来越多地融入现有技术,行业专家正在推动建立更多的监管框架和技术护栏。鉴于 AI 的自主性和能力所面临的道德与伦理困境,这些问题也变得更为重要。
1“he Google engineer who thinks the company’s AI has come to life”,《华盛顿邮报》,2022 年 6 月 11 日
2“Google Sidelines Engineer Who Claims Its A.I. Is Sentient”,《纽约时报》,2022 年 6 月 12 日
3“大脑、思想和机器:意识与智力”,Infinite MIT
4“论随机鹦鹉的危险:语言模型能否过大?”,《FAccT'21:2021 年 ACM 公平、问责与透明会议的论文集》,2021 年 3 月 1 日
5“拟人化思维背后的心智:将精神状态归因于其他物种”,《动物行为》杂志,2015 年 11 月
6“Google Engineer Claims AI Chatbot Is Sentient: Why That Matters”,《美国科学》,2022 年 7 月 12 日
7“No, Today’s AI Isn’t Sentient. Here’s How We Know”,《时代周刊》,2024 年 5 月 22 日
我们对 2,000 家组织进行了调查,旨在了解他们的 AI 计划,以发现哪些方法有效、哪些方法无效,以及如何才能取得领先。
IBM Granite 是我们开放式、性能优异、值得信赖的 AI 模型系列,专门为企业量身定制,并经过优化,可以帮助您扩展 AI 应用程序。深入了解语言、代码、时间序列和护栏选项。
立即购买单用户或多用户订阅,即可访问我们完整的包含 100 多个在线课程的目录,以低廉的价格扩展您的技能。
本课程由 IBM 资深思想领袖带领,旨在帮助企业领导者获得所需的知识,以便划分可以推动增长的 AI 投资的优先级。
想要从 AI 投资中获得更好的回报吗?了解如何通过帮助您最优秀的人才构建和提供创新的新解决方案,在关键领域扩展生成式人工智能来推动变革。
了解如何自信地将生成式 AI 和机器学习融入您的业务中。
深入了解强大 AI 战略的 3 个关键要素:创造竞争优势、在整个企业中扩展 AI 以及推进值得信赖的 AI。