消除大年夜模型幻觉的32中方法——你都掌握了么?_幻觉_模子
一篇关于减轻LLM幻觉的综述,这篇论文深入磋商了措辞天生模型(LLMs)中存在的一个主要问题——幻觉(hallucination),即天生的内容与现实或高下文不符的情形。作者从多个角度核阅了幻觉的缘故原由、影响以及办理方法,并提出了多种技能和策略来减轻这一问题。论文剖析了当前针对幻觉的技能,包括模型开拓、提示调度、知识图谱利用、丢失函数的改进以及监督微调等方面。个中涉及了诸多方法和模型,例如Context-Aware Decoding、Knowledge Injection、SynTra、BEINFO等。论文还关注了未来可能的发展方向,提出了集成多种减轻幻觉方法的稠浊模型、利用无监督或弱监督学习技能以提高可伸缩性和灵巧性等建议。终极,作者强调了跨学科互助的主要性,鼓励研究职员、业界专业人士和伦理学家持续互助改进方法、制订标准,以担保用户理解和真实性。
论文地址:https://arxiv.org/abs/2401.01313
添加图片注释,不超过 140 字(可选)
择要随着大型措辞模型(LLMs)在撰写类似人类文本的能力方面不断进步,一个关键寻衅仍旧存在于它们“产生幻觉”的方向——天生看似真实但没有根据的内容。这种幻觉问题可以说是将这些强大的LLMs安全地支配到影响人们生活的实际生产系统中的最大障碍。在实际设置中广泛采取LLMs的道路严重依赖于办理和减轻幻觉。与专注于有限任务的传统人工智能系统不同,LLMs在演习期间暴露于大量在线文本数据。虽然这使它们能够展现出令人印象深刻的措辞流畅性,但这也意味着它们能够从演习数据的偏见中推断信息,误解模糊提示,或修正信息以表面上与输入同等。当我们依赖措辞天生能力进行敏感运用时,比如总结医疗记录、客户支持对话、财务剖析报告和供应缺点法律建议时,这就变得非常令人担忧。小缺点可能导致危害,揭示了只管自我学习取得进展,但LLMs缺少实际理解。本文先容了超过32种技能,用于减轻LLMs中的幻觉。个中值得把稳的有检索增强天生(RAG)(Lewis等,2021年)、知识检索(Varshney等,2023年)、CoNLI(Lei等,2023年)和CoVe(Dhuliawala等,2023年)。此外,我们引入了一个详细的分类法,根据各种参数,如数据集利用、常见任务、反馈机制和检索器类型,对这些方法进行分类。这种分类有助于区分专门设计用于办理LLMs中幻觉问题的各种方法。此外,我们剖析了这些技能固有的寻衅和局限性,为未来在办理LLMs领域中的幻觉和干系征象奠定了坚实的根本。
图1:关于LLMs中幻觉减轻技能的分类法,重点关注涉及模型开拓和提示技能的盛行方法。模型开拓分支涉及各种方法,包括新的解码策略、基于知识图谱的优化、新的丢失函数组件的添加以及监督微调。与此同时,提示工程可以涉及基于检索增强的方法、基于反馈的策略或提示调度。
1弁言大型措辞模型(LLMs)中的幻觉涉及创建跨多个主题的事实缺点信息。鉴于LLMs广泛的领域覆盖范围,它们的运用延伸至许多学术和专业领域。这些领域包括但不限于学术研究、编程、创意写作、技能咨询以及技能习得的促进。因此,LLMs已成为我们日常生活中不可或缺的组成部分,发挥着在供应准确可靠信息方面的关键浸染。然而,LLMs的一个基本问题是它们方向于供应关于现实主题的缺点或捏造细节。这种供应禁绝确数据的方向,常日称为幻觉,对该领域的研究职员构成了重大寻衅。这导致了像GPT-4和其他类似模型可能天生不准确或完备没有根据的参考资料(Rawte等,2023年)。这个问题是由于演习阶段的模式天生技能以及实时互联网更新的缺失落所引起的,导致信息输出涌现差异(Ray,2023年)。
在当代打算措辞学中,减轻幻觉是一个关键的焦点。研究职员提出了各种策略,涵盖了反馈机制、外部信息检索和措辞模型天生的早期改进,以办理这一寻衅。本文通过将这些多样的技能整合和组织成一套全面的分类法而具有主要意义。本文对LLM幻觉领域的贡献紧张有三个方面:
引入一种系统的分类法,旨在对LLMs的幻觉缓解技能进行分类,涵盖视觉措辞模型(VLMs)等。对这些缓解技能的基本特色进行综合,从而勾引在这一领域内进行更有构造的未来研究努力。谈论这些技能固有的限定和寻衅,并供应潜在的办理方案和未来研究的方向。2 幻觉缓解鉴于天生型LLMs在关键任务中的主要浸染,幻觉检测已经成为一个主要关注点。(Qiu等,2023b年)提出了mFACT作为一种识别择要中幻觉的方法,将实在用性从英语扩展到其他措辞。此外,(Zhang等,2023b年)提出了基于高下文信息的幻觉检测框架。另一种理解幻觉成因的不雅观点由(Mündler等,2023年)提出,他们磋商了自相抵牾作为一个 contributing factor。
2.1 提示工程
提示工程是通过考试测验各种指令来得到AI文本天生模型可能的最佳输出的过程(White等,2023年)。在幻觉缓解方面,这个过程可以供应特定的背景信息和预期结果(Feldman等,2023年)。提示工程的缓解技能可以概述如下:
2.1.1 检索增强天生
检索增强天生(RAG)通过利用外部威信知识库而不是依赖潜在过期的演习数据或模型的内部知识,增强了LLMs的相应能力。这种方法办理了LLMs输出中准确性和时效性的关键寻衅(Kang等,2023年)。RAG通过天生不仅干系且及时的相应,而且可验证,从而加强了用户的信心,并为开拓职员供应了一种经济的办法来增强LLMs在不同运用中的可靠性和实用性。在这一系统之后的缓解技能可以进一步分类为:
2.1.1.1 天生前
以下技能中,信息检索发生在AI文本天生之前:
LLM-Augmenter:(Peng等,2023年)提出了一种系统,该系统利用一组即插即用(Plug-And-Play,PnP)(Li等,2023b年)模块来增强黑盒LLM。该系统使LLM天生基于外部知识的相应。它还通过利用实用函数天生的反馈迭代地修订LLM提示,以改进模型相应。在本文中,作者提出了LLM-Augmenter,通过PnP模块,利用外部知识和自动化反馈来改进LLMs,这些模块无需任何演习即可立即利用。给定用户查询,该框架首先从外部知识中检索证据,并进行推理以形成证据链。然后,LLM-Augmenter利用包含整合证据的提示查询固定的LLM(GPT-3.5),以便LLM天生基于外部知识(证据)的候选相应。LLM-Augmenter然后验证候选相应,例如通过检讨是否产生了证据幻觉。如果是这样,LLM-Augmenter天生反馈。该用于修订提示以再次查询GPT-3.5。该过程迭代,直到候选相应通过验证并发送给用户。
FreshPrompt:(Vu等,2023年)办理了大多数LLMs静态性的问题,突出了它们无法适应不断发展的天下的能力。作者先容了FreshQA,一个动态的问答基准,评估LLMs在须要当前世界知识和带有缺点条件的问题上的表现。通过双模式评估,丈量了精确性和幻觉,揭示了局限性和改进的需求,尤其是在快速变革的知识情景下。为理解决这些寻衅,作者提出了FreshPrompt,一种少样本提示方法,利用搜索引擎将干系和最新信息纳入提示。FreshPrompt在竞争方法和商业系统上表现出色,并且进一步的剖析强调了检索证据的数量和顺序瞄准确性的影响。该工为难刁难LLM适应不断变革的知识能力进行了详细评估,先容了FreshQA数据集和一种有效的提示方法FreshPrompt,以增强动态问答。
2.1.1.2 天生过程中
以下技能展示了以句子为单位的知识检索,在天生每个句子时模型进行信息检索。
知识检索:(Varshney等,2023年)提出了一种主动检测和减少幻觉的方法。在转向天生句子之前,该方法首先利用模型的logit输出值来识别可能的幻觉,并验证其准确性,然后减轻创造的任何幻觉。最主要的认识是,在天生过程中处理幻觉是关键的,由于当模型在输出中先前经历过幻觉时,它产生幻觉句子的概率会提高。该研究调查了logit输出值在识别幻觉中的利用,这些值由类似GPT-3等模型产生。但是,它承认一些仅通过API调用供应的模型可能不会给出logit输出值,并强调这一信息是赞助来源而不是幻觉检测方法的必要先决条件。该方法利用检索到的知识作为改动阶段的支持,指示模型通过肃清或更换幻觉信息来修复短语,以减少在天生的句子中的幻觉。
分解和查询框架(D&Q):在他们的研究中,(Cao等,2023年)办理了LLMs在问答中面临的寻衅,着重谈论了幻觉和多跳关系的困难。他们提出了D&Q框架,辅导模型利用外部知识,同时将推理约束在可靠信息中,从而减轻幻觉的风险。实验结果证明了D&Q的有效性,在ChitChatQA上与GPT-3.5竞争性表现,并在HotPotQA(仅问题)上取得了显著的59.6% F1分数。该框架包括一个无需工具调用的监督微调阶段,在预测阶段,模型利用外部工具查询可靠的问答库,许可回溯并在须要时启动新的搜索。研究结果突显了D&Q在增强LLM在问答任务中的鲁棒性和性能方面的潜力。
实时验证和改动(EVER):LLMs常常在产生不准确或幻觉内容方面面临寻衅,尤其在推理任务中。作为对非检索型和检索增强天生方法中普遍存在的这一问题的相应,(Kang等,2023年)引入了EVER框架。与现有的后期纠正幻觉的方法不同,EVER在天生过程中采取实时的分步策略来检测和纠正幻觉。这个三阶段的过程涉及天生、验证和改动,在有效地识别和纠正内在和外在幻觉方面表现出效果。EVER在产生可信赖和事实准确的文本方面优于基线方法,展示出在短文问答、传记天生和多跳推理等多样任务中的显著改进。该框架的有效性经由实证验证,展示了其减轻幻觉“滚雪球”问题的能力,使其成为增强LLMs准确性和可靠性的宝贵贡献。
2.1.1.3 天生后
以下技能在天生全部输出后采守信息检索系统:
修复归因利用研究和修订(RARR):(Gao等,2023年)在LLMs领域,各种任务取得了显著进展;然而,问题仍旧存在,例如在没有适当支持或准确性的情形下天生内容。由于LLM输有缺少可归因性而难以确定可信度,因此引入了RARR。这个与模型无关的系统,在先容中呈现,自动化了任何文本天生模型的归因过程。受事实核查事情流程启示,RARR进行研究和后期编辑,将内容与检索到的证据对齐,同时保留原始特性,在LLM天生后无缝运行。先容中的贡献包括规范化归因编辑任务、引入新的度量标准、对现有修订模型进行基准测试以及提出研究和修订模型。结论强调了RARR在提升归因的能力同时保留关键文本特性方面的能力,为增强LLM输出的可靠性供应了实用办理方案。
高熵词识别和更换:只管检测高熵词的技能可行性可能是显而易见的,但由于许多当代LLMs的闭源性子,基于订阅的API限定了可访问性,因此涌现了主要寻衅。由(Rawte等,2023年)提出的办理方案涉及利用开源LLMs识别高熵词,然后利用基于更低幻觉薄弱性指数的LLM进行更换。结果强调了albert-large-v2(Lan等,2020年)在检测GPT-3天生内容中的高熵词方面的出色表现。相反,distilroberta-base(Sanh等,2019年)在更换高熵词方面表现更精良,导致幻觉减少。这种方法的一个主要方面是将连续的高熵词视为一个统一单元,在更换之前将这些词集体屏蔽,特殊有效地办理了与天生的Golem或首字母缩写歧义干系的幻觉问题。
端到端RAG
(Lewis等,2021年)在论文中提出的RAG的端到端过程涉及将预演习的序列到序列(seq2seq)变换器与Wikipedia的稠密向量索引整合,通过密集通道检索器(DPR)访问。这种创新的组合许可模型在输出生成过程中同时以输入查询和DPR供应的潜在文档为条件。在这个过程中,DPR充当神经检索器,根据输入供应干系文档。然后,seq2seq模型(详细为BART)利用前K个近似值来边际化这些潜在文档,可以在每个输出根本上进行(假设一个文档卖力所有标记)或每个标记根本上进行(许可不同文档影响输出的不同部分)。
关键是,在这种RAG设置中,天生器和检索器都是端到端演习的,确保它们共同学习并提高彼此的性能。这种方法与以前须要从头开始构建具有非参数化内存的架构的方法不同。相反,RAG利用预演习组件,预加载了广泛的知识,许可模型在不须要额外演习的情形下访问和整合广泛的信息。这种端到端方法增强了各种知识密集型任务的性能,展示了在天生模型中结合参数化和非参数化内存的有效性。
2.1.2 通过反馈和推理进行自我完善
在一个LLM为特定提示供应输出后,对输出进行适当的反馈可以使LLM在后续迭代中供应更好和更准确的输出(Madaan等,2023年)。遵照这种方法,以下是详细的幻觉缓解技能:
勾引GPT-3成为可靠:根据(Si等,2022年)的论文,LLMs,特殊是GPT-3,在少样本提示方面表现出显著的能力,增强了它们在现实天下措辞任务中的运用。只管如此,改进GPT-3的可靠性的问题仍未得到充分磋商。这项研究将可靠性分解为四个关键方面——泛化能力、社会偏见、校准和事实性——并引入大略有效的提示来增强每个方面。该研究在所有可靠性指标上超过了规模较小的监督模型,为改进GPT-3性能供应了实用的策略。该论文概述了关于LLM可靠性的先前研究,突出了这项研究对有效提示策略的全面剖析和关注点的新颖性。从ML安全调查中汲取灵感,可靠性框架与现有观点框架中确定的风险相同等。末了,对GPT-3可靠性的系统性探索已经总结,引入了实用的提示策略,并强调了该研究对LLMs的见地和GPT-3用户的实际建议的贡献。
ChatProtect:(Mündler等,2023年)关注一种主要的幻觉类型,称为自相抵牾,当LLM在相同语境下天生两个逻辑上不一致的句子时发生。他们提出了一个三步管道来推理自相抵牾。主要的是,该方法建立在提示策略之上,使实在用于不须要外部根本知识的黑盒LLMs。他们进行了广泛的评估,针对四个当代的经由调度的指令型LMs在开放域文本天生任务上,证明了该方法的本色性益处:它有效地暴露了自相抵牾,准确地检测到它们,并适当地减少了它们的发生。
自我反思方法:(Ji等,2023年)磋商和解决了利用广泛采取的LLMs和数据集的医学天生式QA系统中的幻觉征象。重点是识别和理解有问题的答案,强调了幻觉。为理解决这个寻衅,该论文引入了一种集成知识获取和答案天生的交互式自我反思方法。通过这个迭代反馈过程,该方法系统地改进了天生答案的事实性、同等性和蕴涵性。利用LLMs的交互性和多任务能力,该方法产生了越来越精确和准确的答案。自动和人工评估的实验结果突出了这种方法在减少幻觉方面相对付基线的有效性。对天生任务中幻觉的调查,特殊是在医学领域,对付AI的任务和可信度至关主要。所提出的迭代自我反思方法,在背景知识和答案上采取天生-评分-细化策略,在减轻幻觉方面经由实证验证,证明了其在减轻幻觉方面的有效性、普适性和可扩展性。
构造化比较(SC)推理:在文本偏好预测领域,LLMs常常在推理中碰着不一致性的问题。(Yan等,2023年)先容了SC推理方法。SC采取提示方法,通过天生构造化的中间比较来预测文本偏好。它首先提出比较的方面,然后在每个方面下天生文本比较。利用成对同等性比较器,SC确保每个方面的比较明显区分文本,有效减少幻觉并增强同等性。该方法在各种NLP任务中展示,并包括择要、检索和自动评级,表明SC为LLMs供应了文本偏好预测的最新性能。SC的构造化推理方法以及其同等性逼迫性通过全面评估和溶解研究得到验证,强调了其在改进各种任务中的准确性和连贯性方面的有效性。人工评估进一步强调了SC的阐明能力,帮助用户做出明智的决策。
心灵镜像:只管思维链(CoT)精髓精辟方法在将LLMs缩小到小措辞模型(SLMs)方面表现出潜力,但存在将缺点推理和幻觉通报的风险。为理解决这个问题,(Liu等,2023年)提出了一个具有两个关键组成部分的方法:首先,一种新颖的方法将LLMs固有的自我评估能力转化为SLMs,旨在减轻负面影响并减少幻觉。其次,一种全面的精髓精辟过程将多个不同的CoT和自我评估范式领悟到SLMs中进行全面的知识通报。
该方法演习SLMs具备自我评估能力,识别和纠正幻觉和不可靠推理,增强了各种NLP任务的预测准确性和可靠性。广泛的实验证明了该方法在推理任务上的优胜性,为负任务地缩小LLMs供应了一个有希望的路子。
DRESS:(Chen等,2023年)建议利用自然措辞反馈(NLF),特殊是评论和改进的NLF,来提高大视觉措辞模型(LVLMs)的对人类偏好和交互能力的对齐。他们将条件强化学习泛化到了非可微分的NLF上,通过演习模型根据NLF天生相应的相应。实验显示,相对付先前的最新LVLMs,在帮助性、老实性和无害性对齐度等指标上,DRESS有了相对的改进。
MixAlign:只管具有准确的参考点,LLMs可能会忽略它们并依赖于禁绝确的参考或偏见。当用户提出与检索到的参考不直接对齐的问题时,这种幻觉方向就会涌现,由于缺少对存储信息的详细理解。(Zhang等,2023年)专注于这个知识对齐问题,提出了MixAlign,一个与用户和知识库互动的框架,以阐明用户问题与存储信息的关系。MixAlign利用措辞模型实现自动的知识对齐,并在须要时通过用户的澄清进一步增强这种对齐。MixAlign专注于利用根本知识进行虔诚的决策。在不愿定或证据不清晰的情形下,MixAlign会天生一个问题,寻求用户的澄清——这个过程被称为人为赞助知识对齐。
验证链(CoVe):(Dhuliawala等,2023年)开拓了CoVe方法,个中模型起草一个初始相应。操持验证问题,以核实其草稿。独立回答这些问题,使答案没有偏见。天生终极的验证相应。实验表明CoVe降落了跨任务的幻觉,比如基于列表的Wikidata问题和长文本天生。给定一个用户查询,LLM天生一个可能包含不准确信息的基线相应,比如事实幻觉。CoVe首先天生验证问题来讯问,然后回答以检讨同等性。
自然措辞推理链Chain of Natural Language Inference (CoNLI):
(Lei等,2023年)办理了LLMs在供应背景高下文时产生的幻觉寻衅。只管在自然措辞天生方面流利,但LLMs常常会天生不受给定来源支持的无根幻觉。所提出的分层框架专注于检测和减轻这种幻觉,无需微调或特定领域的提示。该框架利用自然措辞推理链(CoNLI)进行最前辈的幻觉检测,通过识别无根内容。然后利用后编辑来减少幻觉并提升文实质量,而无需对模型进行调度。在文本对文本数据集上进行的广泛实验表明,在幻觉检测和减少方面都具有有效性。通过将检测定型为自然措辞推理任务链,该框架结合了具有阐明性的句子和实体级别判断。
这种即插即用的框架可以在不同情境下无缝支配,并在保留文实质量的同时具有竞争力的幻觉检测和减少性能。
2.1.3 提示调度
提示调度是一种技能,它涉及在微调阶段调度供应给预演习LLM的指令,以使模型在特界说务上更加有效。LLM从“软提示”中学习,这些提示不是预先确定的,而是在微调期间通过反向传播由模型学习(Lester等,2021年)。为了减轻幻觉,目前已经提出了涉及提示调度的以下技能:
Universal Prompt Retrieval for Improving zeroShot Evaluation (UPRISE):(Cheng等,2023年)提出了UPRISE,该方法调度了一个轻量级且多功能的检索器,自动为给定的零样本任务输入检索提示。详细来说,他们在跨任务和跨模型的场景中展示了其普适性:检索器在多种任务上进行调度,但在未见过的任务类型上进行测试。检索器被演习来检索多个任务的提示,使其能够在推理期间泛化到未见过的任务类型。
SynTra:大型措辞模型(LLMs)在择要天生任务中常常表现出幻觉,纵然必要信息已经存在。由于在优化过程中幻觉的繁芜评估,办理这个寻衅是困难的。(Jones等,2023年)先容了SynTra,一种利用合成任务来有效减少下贱择要任务中幻觉的方法。SynTra通过在合成任务上的前缀调度优化LLM的系统,然后将这种能力转移到更具寻衅性、更真实的择要任务中。实验证明,对付两个具有130亿参数的LLMs,SynTra减少了幻觉,突显了合成数据在减轻不良行为方面的有效性。
3 模型开拓
一些论文专注于开拓新型模型来减轻幻觉。这是一个不断发展和演进的过程,须要算法进步和数据质量提高相结合。与微调模型不同,以下技能履行了整体模型架构来办理幻觉问题。这些技能可以分为以下几类:
3.1 引入新的解码策略
解码策略常日涉及设计针对模型天生阶段的技能。在幻觉方面,这些技能旨在通过勾引天生阶段朝向真实或特定高下文的天生,从而减少天生输出中幻觉的发生(Lango和Dusek,2023年)。以下技能利用理解码策略:
高下文感知解码(CAD):(Shi等,2023年)提出了CAD,它遵照比拟输出分布,当模型在有和没有高下文的情形下利用时放大输出概率之间的差异。CAD在覆盖模型的先验知识与所供应的高下文抵牾时特殊有效,从而在须要办理知识冲突的任务中取得了显著改进。CAD可以与现成的预演习措辞模型一起利用,无需额外的演习。值得把稳的是,CAD特殊有利于知识冲突的任务,个中高下文包含与模型的先验知识相抵牾的信息。结果展示了CAD在减轻文本天生中的幻觉并用可靠和可信的信息覆盖先验知识的潜力。
比拟层解码(DoLa):(Chuang等,2023年)先容了DoLa,这是一种大略的解码策略,旨在减轻预演习LLMs中的幻觉,无需外部知识调度或额外微调。DoLa通过比拟较早和较晚层之间在词汇空间中投影的逻辑差异来得到下一个标记的分布。这利用了特定Transformer层中实际知识的不雅观察定位。因此,DoLa增强了对实际知识的识别,并减少了缺点事实的天生。在包括多项选择和开放式天生任务(如TruthfulQA)在内的各种任务中,DoLa始终提高了真实性,增强了LLaMA系列模型的性能。
推理韶光干预(ITI):(Li等,2023a年)先容了ITI,这是一种旨在增强LLMs“真实性”的技能。ITI通过在推理过程中沿着有限数量的把稳力头中的一组方向移动模型激活来操作。这种干预显著提高了LLaMA模型在TruthfulQA基准上的性能。该技能首先识别具有高线性探测准确性的稀疏把稳力头集,以用于真实性。然后,在推理过程中,它沿着这些与真实干系的方向进行激活移动。它自回归地重复相同的干预,直到天生全体答案。ITI在TruthfulQA基准上显著提高了性能。
3.2 知识图谱(KG)的利用
知识图谱是组织的数据凑集,包括有关实体(如人物、地点或工具)、它们的特色以及它们之间连接的详细信息(Sun等,2023a年)。它安排数据以便机器能理解材料的关系和语义含义。知识图谱为繁芜推理、数据剖析和信息检索供应了根本。因此,几项研究已经在幻觉减轻的背景下利用了知识图谱(Bayat等,2023年)。它们包括:
RHO:为了处理对话相应天生中的幻觉寻衅,(Ji等,2023a年)提出了一个名为RHO的框架,它利用知识图谱中链接实体和关系谓词的表示来天生更虔诚的相应。为了提高虔诚度,他们将局部和全局知识接地技能引入到对话天生中,并进一步利用会话推理模型来重新排列天生的相应。这两种知识接地有助于模型有效地对干系子图中的高下文干系知识信息进行编码和注入,并进行适当的关注。他们的事情通过各种知识接地和推理技能改进了外部知识和对话高下文之间的领悟与互动,进一步减少了幻觉。
来自外部知识的事实缺点检测和校正(FLEEK):(Bayat等,2023年)先容了FLEEK,这是一个旨在帮助人类评分者等终端用户进行事实验证和校正的智能且与模型无关的工具。FLEEK具有用户友好的界面,能够自主地识别输入文本中的潜在可验证事实。它为每个事实制订问题,并查询策划的知识图谱和开放网络以网络证据。随后,该工具利用获取的证据验证事实的精确性,并提出对原始文本的修订。验证过程实质上是可阐明的,提取的事实、天生的问题和检索的证据直接反响了有助于验证过程的信息单元。例如,FLEEK会用不同颜色区分可验证事实,表示它们的事实水平,许可用户与可点击的突出显示进行交互,以显示支持或回嘴每个声明的证据。未来的事情包括对FLEEK进行全面评估,测试其与各种LLMs的兼容性,并将其纳入全面基准测试中。
3.3 引入基于虔诚度的丢失函数
本节的任务是创建一个度量模型输出与输入数据或地面真实性的靠近程度的指标。在这个意义上,虔诚度描述了模型在不增加缺点、省略或扭曲的情形下,虔诚地和精确地反响输入数据的能力(Chrysostomou和Aletras,2021)。以下方法展示了这种技能的运用:
文本幻觉减轻(THAM)框架:(Yoon等,2022年)引入了THAM框架用于***勾引对话。THAM考虑了文本幻觉问题,即在回答天生中复制输入文本而不理解问题。它通过引入信息论正则化来减轻特色级别的幻觉效应。THAM框架将来自相应措辞模型和所提出的幻觉措辞模型之间的互信息衡量导出的文本幻觉正则化(THR)丢失结合。最小化THR丢失有助于减少无差别的文本复制并提升对话性能。THAM框架领悟了基于信息论的文本幻觉丈量方法得出的文本幻觉正则化丢失。
丢失加权方法:(Qiu等,2023b年)专注于低资源措辞择要,并开拓了一个新的度量标准mFACT,以评估非英语择要的虔诚度,利用从多个英语虔诚度指标的基于翻译的迁移。它是由四个英语虔诚度指标发展而来。他们在跨措辞转移设置中研究了幻觉。他们将mFACT运用于研究最近多措辞LLMs的择要中的虔诚度。所提出的度量标准包括基于各培训样本的虔诚度评分对丢失进行加权。实验表明,只管常见的跨措辞转移方法有助于择要性能,但与单措辞对应物比较,它们放大了幻觉。为了减少这些幻觉,他们调度了几种单语方法以实现跨措辞转移,并提出了一种基于mFACT评分对每个演习示例的丢失进行加权的新方法。
3.4 监督微调(SFT)
SFT在利用标记数据对下贱任务对齐LLMs方面发挥着至关主要的浸染。它有助于模型遵照特界说务的人类指令(Wang等,2023年;Chung等,2022年;Iyer等,2023年;Sun等,2023b年),并终极增加模型输出的虔诚度。在SFT的语境中,数据的质量是最关键的问题,由于它直接决定了微调模型的性能(Xu等,2023年;Touvron等,2023年)。在监督微调期间,LLMs的权重根据任务特定的丢失函数的梯度进行调度,该丢失函数衡量了LLMs的预测与地面真实标签之间的差异。这种技能在增强LLMs的适应性方面尤为有效,使它们能够在以前未见过的任务上表现出色。
知识注入和师生方法:(Elaraby等,2023年)专注于衡量和减少弱开源大型措辞模型(LLMs)中的幻觉,如BLOOM 7B(Workshop等,2022年)。他们先容了HALOCHECK,这是一个轻量级的无知识框架,用于量化LLMs中的幻觉严重程度。作者探索了像知识注入和师生方法这样的技能,以减轻低参数LLMs中的幻觉。该框架利用句级蕴涵来定量评估幻觉水平。该事情旨在通过知识注入(KI)来增强更小型的LLMs知识,方法是通过领域知识进行微调,而无需依赖更强大模型的昂贵指令。他们磋商了利用更强大的LLMs(如GPT-4)来辅导较弱LLMs的方法,方法是天生详细的问题答案。通过评估幻觉的严重程度,他们优化了师生LLM的参与度,以减少过多依赖大型模型的打算本钱。这减轻了对师生模型频繁查询的需求。
幻觉增强朗诵(HAR):(K?ksal等,2023年)引入了LLMs中的归因观点,以掌握信息来源并增强事实性。虽然现有方法依赖于开放式问题回答来改进归因,但当事实数据集褒奖模型回顾预演习数据而不是展示真正的归因时,就会涌现寻衅。为理解决这个问题,作者提出了HAR,一种利用LLMs幻觉创建对照数据集和增强归因的新方法。通过对开放式问题回答的案例研究,特殊是CF-TriviaQA,结果表明,利用这些对照数据集微调的模型明显改进了文本落地,并在较小的演习数据集和模型尺寸下赛过了在事实数据集上演习的模型。不雅观察到的改进在各种开放式问题回答任务中保持同等,包括多跳、生物医学和对抗性问题。
用于事实性的微调措辞模型:(Tian等,2023年)利用最新的NLP创新来应对幻觉,采取自动事实检讨方法和通过直接偏好优化算法进行的基于偏好的学习。研究职员对Llama-2模型进行了事实性微调,无需人工标注,显著降落了缺点,特殊是在传记和医学问题方面。他们的方法涉及基于参考和无参考的真实性评估,展示了提高长篇文本天生模型事实性的经济有效方法。该研究提出了新的基准任务,谈论了未来的路子,并强调了用于安全关键领域中更大型模型的事实性强化学习的潜在可扩展性。
BEINFO:为了减轻这个问题并增强信息寻求对话系统的虔诚性,(Razumovskaia等,2023年)提出了BEINFO,这是一个大略而有效的方法,运用行为调度来帮助信息寻求对话。在这项事情中,作者提出了BEINFO,这是一种大略而有效的方法,它运用“行为微调”来增加为信息寻求对话天生的相应的虔诚性。该模型在包含真实知识源的大量对话中进行了调度,并加入了来自大型知识库的随机抽样事实。
谢绝感知辅导调度(R-Tuning):在他们最近的事情中,(Zhang等,2023a年)提出了一种称为R-Tuning的新方法,用于在大型措辞模型(LLMs)中贯注灌注谢特技巧。这种方法正式化了在LLMs的参数化知识和用于演习它的辅导调度数据之间识别知识差距的想法。基于这种知识差距,R-Tuning构建了感知谢绝的演习数据,教导LLM何时该当谢绝回答,特殊是当问题超出其能力范围时。R-Tuning方法包括两个关键步骤:
丈量LLM的参数化知识和辅导调度问题之间的知识差距,以识别不愿定问题。通过对演习数据进行推断一次并将预测与标签进行比较,将调度数据分为不愿定问题和确定问题。
在微调LLM之前,通过将谢绝表达式附加到不愿定的演习示例,构建感知谢绝的演习数据。
同时有效表达知识(TWEAK):为了减少幻觉,(Qiu等,2023a年)提出了一种称为TWEAK的新解码方法。该方法将在每个步骤天生的序列及其未来序列视为假设。它基于每个天生候选者支持输入事实的对应假设的好坏对候选者进行排名,利用假设验证模型(HVM)。
作者只调度解码过程,而不重新演习天生模型。这使得他们的方法很随意马虎与任何知识到文本天生器集成。现有的解码方法,比如束搜索,仅基于预测的可能性对候选者进行抽样,而不考虑虔诚度。作者提出了一个新的数据集FATE,它在单词级别将输入事实与原始和反事实描述对齐。
4 结论
这篇综述论文深入磋商了LLMs中幻觉的关键问题,并强调了LLMs在我们生活的各个领域中的广泛影响。该论文突出了LLMs天生禁绝确信息所带来的寻衅,并将其确定为研究精彩LLMs(如GPT-4)的研究职员的主要关注点。论文探索了幻觉检测的最新进展,采取了诸如mFACT、基于高下文信息的框架以及自相抵牾作为影响成分的调查方法。它强调理解决LLMs中幻觉问题的主要性,由于它们在关键任务中起着不可或缺的浸染。论文的核心贡献在于提出了一种系统分类法,用于对LLMs中的幻觉减轻技能进行分类,并扩展其涵盖范围到VLMs。通过综合表征这些技能的基本特色,论文为幻觉减轻领域内更有构造的未来研究奠定了根本。此外,论文还谈论了与这些技能干系的固有局限性和寻衅,并提出了未来研究在这一领域的方向。
本色上,这篇综述论文不仅揭示了LLMs中幻觉的严重性,还整合和组织了多种幻觉减轻技能,有助于推动打算措辞学领域的知识进步。它为寻求全面理解当前LLMs中幻觉现状和应对这一紧迫问题的策略的研究职员和从业者供应了宝贵的资源。
5 谈论和局限性
LLMs中的幻觉减轻代表了一个多方面的寻衅,通过一系列创新技能来办理。谈论的方法范围从后天生的精髓精辟到监督微调,强调了幻觉问题的严重性和全面办理方案的紧迫需求。
在后天生精髓精辟领域,RARR脱颖而出,自动化归因过程并将内容与检索到的证据对齐。高熵词语识别和更换办理了LLM天生内容中由高熵词语引起的幻觉,展示了高下文感知更换的主要性。通过反馈和推理进行自我精髓精辟提出了ChatProtect等有影响力的策略,专注于自相抵牾检测,以及Self-Reflection Methodology,在医学天生式问答系统中利用迭代反馈过程减少幻觉。
构造化比较推理引入了一种构造化的文本偏好预测方法,增强了连贯性并减少了幻觉。
提示调度是一种强大的技能,创新如UPRISE展示了基于提示的调度的多功能性。SynTra提出了用于减轻抽象总结中的幻觉的合成任务,具有可扩展性,但与人类反馈比较效果存在疑问。
开拓新模型强调了CAD和DoLa等解码策略,这两者在勾引天生阶段中减少幻觉方面发挥了主要浸染。KG利用和基于虔诚性的丢失函数也发挥着关键浸染,如RHO和THAM Framework。
监督微调作为一个关键阶段,通过不同的视角进行了探索,比如知识注入和师生方法,个中领域特定知识被注入到较弱的LLMs中,而HAR等方法利用反事实数据集以改进事实性。
未来对措辞模型处理幻觉减轻的方法估量将在各个领域涌现发展和改进。创建稠浊模型是一个主要方向,这些模型通过无缝整合多种减轻方法,为幻觉供应全面的防御。通过减少对标记数据的依赖,探索无监督或弱监督学习技能的可能性可能会提高可扩展性和灵巧性。此外,深入研究幻觉减轻策略的道德影响和社会效应将是至关主要的,以确保负任务的履行并促进用户信心。特意设计用于减少幻觉的模型研究也受到鼓励,LLMs领域的变革可能会带来具有内置安全功能的新模型的发展。研究职员、业务专业人士和伦理学家须要不断互助,改进方法,制订标准,让用户理解和真实性排在首位。在探索这些未来可能性时,建立措辞模型既能产生连贯和与高下文干系的信息,同时又能展现高度意识并减轻幻觉输出的是该领域的集体目标。
对幻觉减轻的网络作品展示了各种策略,每一种都独特地为办理LLMs中幻觉的细微之处做出了贡献。随着领域的发展,这些方法的综合可能为更强大和普适性更强的办理方案铺平道路,促进措辞天生系统的信赖和可靠性。末了,通过表格1可以轻松理解所调查的减轻技能的分工。
本文系作者个人观点,不代表本站立场,转载请注明出处!