然而,近期的一些研究让我们可以从内部窥探一些模型的运行机制,结果让人怀疑我们是否真的在接近AGI。
“关于这些模型到底在干什么,以及人们用来描述它们的那些拟人化说法(比如‘学习’、‘理解’之类的),现在争议挺大的。”Santa Fe研究所研究AI的教授Melanie Mitchell说。
Mitchell认为,越来越多的研究表明,这些模型似乎发展出了海量的“经验法则”,而不是构建更高效的心理模型来理解情境,然后通过推理完成任务。
哈佛大学的AI研究员Keyon Vafa首次听到“一堆经验法则”这个提法时表示“感觉一下子点醒了我——这就是我们一直想描述的东西。”
Vafa的研究试图搞清楚:当AI被输入数百万条类似谷歌地图的逐步导航指令后,会构建出怎样的认知地图。他和团队以曼哈顿错综复杂的街道网络作为测试样本。
结果呢,AI画的看起来根本不像曼哈顿的街道地图。
仔细检查发现,AI竟然推演出各种离谱路线——比如横穿中央公园的直线,或者斜着连跨好几个街区。
但诡异的是,这个模型给出的分步导航指令在99%的情况下居然能用。
AI在接受了数百万条逐向导航指令的训练后,在它自己的“脑子”里勾勒出了一张曼哈顿地图,来自论文“Evaluating the World Model Implicit in a Generative Model”
Vafa解释说,虽然这张乱七八糟的地图能让司机崩溃,但AI本质上是从所有可能的起点出发,为各种路况学了一大堆独立的导航规则。
AI庞大的“脑容量”加上超强算力,让它能用人类根本想不到的野路子解决问题。
今年3月,Anthropic发布了一篇新论文“On the Biology of a Large Language Model”,以前所未有的方式揭示了这些AI模型内部的“想法”。
由此,我们不再需要通过分析外部行为来猜测,而是可以窥视LLM黑盒中发生的推理过程,并检查LLM在多大程度上可解释。
结果表明,这些模型根本没有像许多人认为的那样进行推理。
内部发生的事情看起来不像人类进行推理时所采取的步骤,而且,当模型告诉我们它们如何推理时,这完全是捏造的。这与我们观察到的它们内部正在做的事情并不相符。
所有LLM在AGI方面取得的所谓“进展”,实际上都归功于构建了规模极其庞大的统计模型,这些模型制造出了一种智能的假象。
每一次性能的提升并没有让它们变得更聪明;它只是让它们在输入机器的数据范围内,成为了更好的启发式预测器。
智能和大型统计模型之间的能力差异通常难以察觉,但它仍然是一个重要的本质区别,因为它将显著改变可实现的应用场景。
我们知道LLM的基础是统计模型,那么智能本身是否只是统计模式分析?
确实如此,智能包含了从统计模式匹配中获得的能力,两者看似有重叠,但反过来却不成立。
统计模型没法完全复制智能的所有功能。即使在看似重叠的领域,统计模型的效率也低得离谱,还不靠谱。
统计模型就像信息的静态快照,基于现实的规则生成,但它不是现象本身,所以没法从基本原理创造新信息。
所谓模型的“涌现行为”,其实就是各种模式的组合。模型越大,找到的模式越多,组合出的模式也越多。归根结底,一切都是模式。
Anthropic的Claude3.7系统卡也得出结论,模型产生的思维链在描述构建输出的过程时并不可靠。
这些结果表明,模型利用了提示,但没有在思维链中明确说明,这表明CoT可能无法可靠地揭示模型的真实推理过程。
另一篇论文“Reasoning Models Don’t Always Say What They Think”进一步研究了思维链,并且还确定推理步骤并不代表模型的内部过程。
……模型可以从人类文本的预训练或监督微调中学习表达他们的推理,这些人类文本阐明了人类的思维链。
另一方面,来自人类反馈的强化学习(RLHF)可能会激励模型从CoT中隐藏不良推理。
……更令人担忧的是,我们发现模型有时会生成与其内部知识相矛盾的不可靠的CoT。