【LLM/大模型】一种新的注意力机制-System 2 Attention

一、结论写在前面

论文提出了一种技术方案--System 2 Attention(S2A),可以让LLM决定输入上下文的重要部分,来生成好的响应。实现这点的方法是:首先诱导LLM重新生成只包含相关部分的输入上下文,然后关注重新生成的上下文以引出最终响应。

论文在实验中证明,S2A可以成功重写会降低最终答案质量的上下文,因此论文的方法可以同时提高事实性并减少其响应中的阿谀奉承。

未来的研究仍有许多空间。在论文的实验中,采用了零样本提示来实现S2A。其他方法可以通过考虑微调、强化学习或替代提示技术(alternative prompting techniques)来进一步优化论文的方法。成功的S2A还可以压缩回标准LLM生成,例如:通过使用原始提示作为输入和最终改进的S2A响应作为目标进行微调。

二、论文的简单介绍

2.1 背景

大型语言模型(LLM)非常强大,但它们仍容易出现简单的错误,这似乎显示出弱的推理能力。例如,不相关的上下文或输入提示中固有的偏好或意见,都可能使它们产生错误判断,在后一种情况下,展现了一种称为阿谀奉承的问题,即模型与输入一致同意。

虽然有方法试图通过添加更多的监督训练数据或强化学习策略来缓解这些问题,但论文认为这是Transformer本身的构建方式,特别是其注意力机制中存在固有问题。也就是说,软注意力倾向于分配上下文大部分的概率,包括不相关部分,部分由于其训练方式,部分由于位置编码机制也倾向于在不应该的情况下将上下文视为词袋。

2.2 论文的方法

因此,论文研究了一种截然不同的注意力机制:通过使用LLM作为自然语言推理器(reasoner )来执行注意力。

具体来说,利用LLM能够遵循指令的能力,并提示它们生成它们应该注意的上下文,以确保它只包含不会偏离其推理的相关材料。论文将这个过程称为System 2 Attention(S2A),因为论文将底层的transformer及其注意力机制视为类似于人类system 1推理的自动操作(system 1 reasoning in humans)。在人类中,当我们需要有意识地关注一个任务时,尤其是人类system 1可能出错的情况下,系统2才会分配努力的精神活动(allocating effortful mental activity)来接管。因此,S2A方法的目标与这个子系统类似,因为论文的目标是通过推理引擎(LLM)额外有意识的努力来缓解上述Transformer软注意力的失败。


image.png

图1:示例,显示上下文中偶然的关联如何对LLM的响应产生不利影响。关于Saratoga(左)或Sunnyvale(右)的不相关事实改变了各种LLM对Sam Liccardo出生地问题的答案

image.png

图3:GSM-IC任务中的一个示例,其中一个令人分心的句子(“Max比Mary多1000本书”)使得LLaMA-2-70B-chat(左)出现错误。(S2A)重新生成它决定关注的上下文部分,成功地移除了令人分心的句子(右),然后正确地回答

image.png

图4:来自SycophancyEval修改后的TriviaQA的一个示例,其中事实查询中添加的意见使LLaMA-2-70B-chat错误回答(左)。S2A(右)重新生成它决定关注的上下文部分,移除了可能对最终响应产生不利影响的意见,然后正确地回答

2.3 论文的贡献

通过实验证明,与标准的基于注意力的LLM相比,S2A可以产生更加事实性和更少意见化或阿谀奉承的生成。特别是在包含干扰意见的问题的修改后的TriviQA数据集上,与LLaMA-2-70B-chat相比,S2A将事实性从62.8%提高到80.3%,在包含干扰输入情感的论点的长文生成上,它增加了57.4%的客观性,并且对插入的意见基本上没有影响。

最后,在包含主题不相关句子的GSM-IC数学文字问题上,S2A将准确率从51.7%提高到61.3%。


image.png
image.png

论文标题:System 2 Attention (is something you might need too)

论文链接:https://arxiv.org/abs/2311.11829

其他链接:https://mp.weixin.qq.com/s?__biz=Mzk0MTU5OTg1OQ==&mid=2247484053&idx=1&sn=f0bc248288ca2b1206c5475d1fea9701&chksm=c2cebf89f5b9369fce068cfa13f6ea80aa3eafbda625dbad60bf0845e4ea787b7fe00bdf879d&token=736922019&lang=zh_CN#rd

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,734评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,931评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,133评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,532评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,585评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,462评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,262评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,153评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,587评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,792评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,919评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,635评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,237评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,855评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,983评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,048评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,864评论 2 354

推荐阅读更多精彩内容