机器之心原创
【资料图】
作者:Panda W最近一段时间,以 GPT 为代表的大型语言模型(LLM)成就非凡,应用丛生,还被很多人视为实现通用人工智能(AGI)的重大里程碑,也由此带来了一些「大规模失业论」甚至「AI 末日论」的悲观论调。尽管如此,也有一些业内人士认为 LLM 的价值和意义被过分夸大了,LLM 也不是实现 AGI 的道路;他们相信创造 AGI 还需要新的方法论。
被公认为「卷积神经网络之父」的 Yann LeCun(杨立昆)就是 LLM 的「怀疑者」之一。他已经不止一次公开表达了对 LLM 热潮的批评,比如他曾在:「从现在起 5 年内,没有哪个头脑正常的人会使用自回归模型。」他也曾多次说过:「自回归生成模型弱爆了!(Auto-Regressive Generative Models suck!)」。他口中的自回归模型就是 GPT 系列模型所依赖的学习范式。而在 6 月 12 日他在回复 Geoffrey Hinton 和吴恩达的推文中也批评说:「LLM 对世界的理解非常肤浅。」
顺带一提,Yann LeCun 也不赞同「通用人工智能」这一说法,他认为根本就不存在所谓的「通用」智能,人类智能也不是通用智能,只是擅长某一些任务,人类的目标应当是创造出人类水平的(human-level) AI。
当然,身为全球知名的 AI 研究学者,Yann LeCun 自然不是一位全然的批评家,对于实现真正有用的人类水平 AI 这一宏伟目标,他也有着自己的方法论 —— 他称之为「世界模型」(World Model)。他在 2022 年 6 月曾经公布了一篇长达 62 页的 position paper(立场论文)《A Path Towards Autonomous Machine Intelligence》来详细论述自己的观点。该论文一开篇,他便提出了三个未来可能相当长时间内都难以真正解答的问题:
1. 机器如何像人类和动物一样高效地学习?
2. 机器如何学会推理和规划?
3. 机器如何在多个抽象层级上学习感知和行动规划的表征,从而让它们有能力在多个时间范围内执行推理、预测和规划?
他认为 LLM 不是这三个问题的答案。
LeCun 对 LLM 的批评
Yann LeCun 并不否认当前 AI 的能力,他认为它们在训练数据对应的特定领域任务上依然非常有用,比如翻译和图像识别等。而对于以 GPT 和 BERT 为代表的大型语言模型,LeCun 认为它们本质上只是自回归文本生成模型。
大致来说,自回归生成模型的工作方式是先预测一个序列的下一个 token,然后将预测出的 token 加入到序列,继续预测下一个 token。这些 token 可以是文本,也可以是图块、语音片段等。
LeCun 认为,由于现如今的 LLM 都只是在文本上训练的,因此只能非常粗浅地理解世界。即使 LLM 凭借大量参数和海量训练数据能展现出非常流畅的文本理解能力,但它们本质上捕获地依然只是文本的统计规律,并不真正理解文本在现实世界中所代表的含义。
这种对底层现实知识的缺乏会导致 LLM 犯错,有时候这些错误还非常愚蠢。举个例子,在某用户分享的使用 Claude 续写小说的案例中,续写情节中出现了角色失去心脏依然正常生活的情节。LLM 的错误有时候过于离奇可笑,甚至能成为新闻报道的主题 —— 有 GitHub 用户甚至特地建了一个 LLM 失败档案来收集这些新闻报道,比如下面的例子中 ChatGPT 通过计算认为 9 位女性用 1 个月时间就能生一个孩子,参阅:https://github.com/giuven95/chatgpt-failures
LeCun 认为,如果模型能使用更多感官信号(比如视觉)学习世界的运作模式,那么就能更加深刻地理解现实。可以相信这也是他更关注图像和音频等多模态数据研究的原因。
此外,他还指出了自回归 LLM 的其它一些缺点,比如幻觉问题、信息滞后、可能出现不合适的表现、推理和规划能力有限、难以使用工具。
ChatGPT 的信息滞后问题,其知识范围受限于训练数据集,难以获取新知识
LeCun 不认为 LLM 的方法是实现 AI 之路,他曾在接受采访时批评说:「我们将一切都 token 化,然后训练一个超大模型来做离散的预测,然后期望 AI 会以某种方式从中显现。」他写道:如果不能从视频等感官输入学习世界模型,没有能够推理和规划的架构,我们就不可能创造出人类水平的 AI,甚至都不能造出猫水平的 AI。
LeCun 的世界模型
Yann LeCun 并不认为这些问题无法解决,他在上述的论文中提出了一种模型架构,其中最核心的部分是「世界模型」。
为了理解什么是世界模型,下面我们将从心智模型谈起,然后介绍被引入 AI 领域的世界模型概念,之后我们会更为详细地介绍 Yann LeCun 的世界模型以及构建其上的自动机器智能。
心智模型