大模型明知道 " 你妈是你妈 ",却答不出 " 你是你妈的儿子 "??
这么一项新研究,刚一发表就引燃了全场讨论。

一个大语言模型在训练时被喂进了 "A 是 B" 这种形式的数据,它并不会自动反推出 "B 是 A"。大模型存在 "反转诅咒" 现象。
甚至强如 GPT-4,在反向问题实验中,正确率也只有33%。
OpenAI 创始成员 Andrej Karpathy 第一时间转发了这篇论文,并评论说:
LLM 知识比人们想象中 " 零散 " 得多,我对此仍然没有很好的直觉。

大模型的 " 反转诅咒 "
研究人员主要进行了两项实验。
在第一项实验中,研究人员在 GPT-4 的帮助下构建了以下形式的数据,来微调大模型。
所有这些名字都是虚构的,以避免大模型在训练过程中见过他们。

但当顺序反转过来,模型的准确率甚至直接降到了 0。

在 GPT-3-350M 和 Llama-7B 上,研究人员也得到了相同的实验结果。

他们从 IMDB(2023)收集了最受欢迎的 1000 位名人的名单,并通过 OpenAI API 来问 GPT-4 有关这些人父母的信息,最终得到了 1573 对名人孩子 - 父母对数据。
结果发现,如果问题像这样—— " 汤姆 · 克鲁斯的妈妈叫什么 ",GPT-4 回答准确率为 79%。但当问题反转,变成 "Mary Lee Pfeiffer(阿汤哥的老妈)的儿子叫什么 ",GPT-4 回答准确率就降到了 33%。


论文通讯作者、牛津大学研究员 Owain Evans 解释说:
为什么反转诅咒值得关注?
这说明大语言模型在训练过程中存在推理能力缺失。
"A 是 B" 和 "B 是 A" 的共现是预训练集中的一种系统性模式。自回归 LLM 完全无法对这一模式进行元学习,其对数概率没有变化,并且即使参数量从 350M 扩增到 175B,也未能改善这个问题。
One More Thing
不过话说回来,人类是不是也会受 " 反转诅咒 " 影响呢?
有网友做了这么个测试。
面对 "Mary Lee Pfeiffer South 的儿子是谁 " 这个问题,GPT-4 一开始直接举旗投降了。
但当这位网友提示它 " 她的儿子很有名,你肯定认识 " 后,GPT-4 当场开悟,给出了 " 汤姆 · 克鲁斯 " 这个正确答案。
那么,你能反应过来吗?
参考链接:
[ 1 ] https://owainevans.github.io/reversal_curse.pdf
[ 2 ] https://twitter.com/owainevans_uk/status/1705285631520407821
[ 3 ] https://twitter.com/karpathy/status/1705322159588208782