韩国虚拟主机-Meta提出CoVe提示工程方法 减少ChatGPT等聊天机器人幻觉问题

Meta AI研讨人员提出了一种新的依据提示的办法,称为链式验证(Chain-of-Verification,简写CoVe),可明显削减ChatGPT等言语模型发生的过错信息。
image.png
研讨显示,ChatGPT和其他言语模型会重复复制不正确的信息,即便它们已经学到了正确的信息。Meta AI的研讨人员发现,让聊天机器人依据其开始的回复自行生成验证问题,然后独立执行这些问题而不受开始输入的影响,能够削减言语模型的“幻想”。
具体来说,在CoVe办法中,聊天机器人首先呼应比如“Name some politicians who were born in New York”之类的提示,依据这个常包括过错的初始输出,言语模型随后生成比如“Where was Donald Trump born?”之类的问题来验证其句子。(韩国虚拟主),这些“验证问题”然后作为一个新的提示执行,独立于榜首个输入,以避免从榜首个输出中获取不正确信息。然后,言语模型会依据分别搜集的现实来验证榜首个输入。所有测验都是在Llama65B模型上进行的。
在他们的测验中,Meta 团队还能够证明指令调整和思维链提示不会削减幻觉,因而带有 CoVe 的 Llama65B 击败了更新的指令调整模型 Llama2。在较长的内容中,运用 CoVe 的模型也优于 ChatGPT 和PerplexityAI,后者乃至能够为其世代搜集外部现实。Cove 完全使用模型中存储的知识来工作。
研讨团队展示了,使用CoVe办法,单个问题的答案包括的过错明显削减,从而能够明显改善最终的提示输出。关于政治家示例中的列表式问题,CoVe可将准确度进步一倍以上,大大降低过错率。关于更复杂的问答场景,该办法仍可带来23%的改善。即便关于长文本,CoVe也可将现实准确性进步28%。可是关于更长的内容,团队也需求检查验证答案的不一致之处。
未来,这种办法能够通过整合外部知识来改善,例如允许言语模型通过访问外部数据库来回答验证问题。总Meta的研讨为削减相似ChatGPT等对话系统中的过错信息提