像AI一样思考:康奈曼理论与机器学习的平行关系

根据最近有人对我关于ChatGPT著名的草莓问题的帖子发表的评论,有人质疑人工智能的价值,如果它无法解决基本的常识问题。 我最初的想法是,如果你问过住在隔壁的爱因斯坦,他能够回答吗?

即使是常识性问题,也可能让人困惑,无论他们有多聪明。如果你理解大型语言模型(LLMs)背后的深刻数学和逻辑,这样的问题可能就不会出现。

然而,随着新技术的进步,比如最新发布的ChatGPT,LLMs正在逐渐融入常识和类人推理。这让我想起了丹尼尔·卡尼曼在《思考,快与慢》中提到的概念,他讨论了两种思维系统:系统1是快速和直觉的,系统2则更为缓慢和周详。LLMs现在开始模仿这两种过程。

康奈曼使用著名的球棒问题来说明系统1经常导致我们基于直觉做出快速判断而不激活系统2进行更深入的分析。人类可能具有智力懒惰,过度依赖快速判断。有趣的是,机器学习模型在过去也是类似的运作,经常进行快速预测而不深入考虑。

这也非常有趣,卡内曼用来描述人类认知偏见的许多术语,都与LLMs所面临的挑战相类似。

例如,卡内曼讨论了“光环效应”,即我们的大脑由于缺乏信息而简化和判断错误。他将此描述为情感过度一致,即对某人的正面感情(如亲和力)导致我们形成对他们过分乐观的看法。这与LLMs中所谓的幻觉相似 — 当模型自信地生成不正确信息,因为它“认为”这种信息高度有可能,尽管它与更理性的分析不符。

康曼也深入探讨了确认偏见,即人类倾向于接受与我们先前信念一致的信息。有趣的是,在人工智能中,我们也谈论“权重和偏差”,这些术语在技术上使用,但回应了这种认知现象。如果没有得到足够的训练,人工智能可能表现出偏见,就像人类在思考时可能表现出确认偏见一样。

另一个引人注目的相似之处是启动效应,即接触某些刺激会影响我们后来的决定。卡尼曼用一个词片段“SO_P”来解释这一点。如果你被启动了“EAT”这个词,你很可能会把它补全为“SOUP”,而如果你被启动了“CLEAN”,你可能会想到“SOAP”。在LLM中也存在着这种确切的机制,其中接收到的输入或“启动”会影响模型的反应。

康曼还谈到认知努力。当集中精力完成复杂任务时,我们的大脑使用更多能量,这被称为认知负担。相反,当我们不使用太多的精神能量时,我们处于认知轻松的状态。这个概念体现在最新的LLM进展中,通过链式推理和强化学习等技术应用更多认知“能量”来提高性能。

尽管存在这些相似之处,但人工智能和人类认知仍在一些领域存在显著差异。一个例子是启发式——在复杂情况下帮助我们快速判断的心理快捷方式。人工智能擅长处理概率和基础统计等任务,这些任务根源于数学计算。例如,人类通常会在基础率忽视方面遇到困难,忽视普遍的统计信息而专注于具体细节。另一方面,人工智能设计用于轻松处理这些细微差别。

然而,人工智能在记忆方面仍然存在局限。在更长的语境中,比如写书的时候,大型语言模型有时会错过中间事件,只保留早期和最近的信息。然而,这是一个不断改进的领域。

最后,卡尼曼强调了人类和人工智能之间的一个关键区别:我们不是机器人,不总是做出理性决策。人工智能基于计算和算法运行,但人类的决策往往受到直觉和情绪驱使,这与纯理性效用理论有所不同。

人工智能和人类决策过程以不同的方式涉及权重和偏见。我很好奇卡内曼是否意识到他的理论与人工智能的发展如何契合。

那就是说,直到人工智能达到全面视觉能力之前,我们不能指望它解决一切。为了真正利用人工智能的潜力,我们需要加强我们的理解并减少偏见。

最重要的是,不要以貌取人!

2024-10-01 04:16:18 AI中文站翻译自原文