AI的作用下:LLMs幻觉
你可能已经经历过ChatGPT的假象现象:如果你得到的结果毫无意义或包含无关的内容,或者只是有些不对劲,那么这就是GPT的假象。大型语言模型(如Jasper、ChatGPT和许多其他模型)会因为很多原因出现假象。
一种原因是由于完全缺乏常识推理:大型语言模型(或LLM)无法全面理解,因为它根本没有接触现实世界的背景知识。另一个原因可能是LLMs基于它们从(很)大量训练数据中学到的模式和关联生成文本。但有时它们没有得到不同的外部知识源(多样性很重要)。幻觉也可能是由我们用户造成的。当我们提供一些质量不佳的输入,或者它带有一些歧义,甚至假定了某些背景,LLM就无法理解,砰!它就产生了幻觉。在这种情况下,模型将通过生成听起来合理但实际上对人类不正确或仅仅有些偏离的响应来填补空白(我们生活的背景之丰富完全损害了LLMs的完全缺乏)。
这种幻觉现象显示了需要一种人为参与的方法,称为“人与环环相扣”方法。这指的是在生成和评估人工智能生成的输出过程中,将人类的判断和监督纳入其中。这意味着需要特别关注两个相关的事情:数据过滤和避免过度依赖LLM学到的统计模式。
数据过滤主要发生在训练阶段。由于训练数据通常来自互联网,因此必须注意可能包含的噪声,不准确或甚至具有误导性的信息。这与对所学统计模式的过度依赖非常接近:因为它的模式是从数据中学习的。如果数据存在偏差,就只会导致无效的概括或根本无法反映真实世界(你知道的:垃圾进,垃圾出)。因此,总结一下,人类评估旨在通过评估数据和模型的质量、相关性、理解和潜在偏见来实现更高的准确性和可靠性。
而且,整个过程提供了反馈和迭代,需要重新训练AI模型。这件事带领我们去一个重要的地方:微调LLMs。
调整优化过程有助于解决一些典型问题,这些问题会导致幻觉产生(例如,当训练数据不代表所需任务,或预训练过程没有经过仔细控制,或结果不够准确......或这些问题的组合)。
一个团队需要在预训练后针对特定任务或领域进行调优,以便更明确地建模不确定性。简单来说,微调意味着首先收集您想要完成的任务的输出的示例,然后在此基础模型之上进行一些额外的训练,以使其专门用于您想要的内容。例如:通过最近几个月的GPT3改进,OpenAI首先对这些模型进行了对输入和输出希望实现的配对(也是指令)的微调轮,以及他们希望从这些指令中获得的结果。
让我们来简单解释一下:这里有人为生成的数据对,为了进一步微调模型,他们使用一种叫做来自人类反馈的强化学习(RHF)的东西,在这种学习中,他们获取人类的喜好数据(向人们展示模型的几个不同版本并要求他们对它们进行排名或选择哪个更好)。最终,OpenAI证明了RHF工具在模型性能方面有巨大的差异。
只有一个好奇的事情:几天前,一篇名为“语言模型幻觉如何滚雪球”的新论文表明,一旦模型产生了错误答案的幻觉,它就会坚持这个幻觉,除非另行提示。似乎该模型更注重连贯性和流畅性,即使处理的陈述完全错误,它也会坚持这个幻觉。步骤为:模型首先承诺一个答案,然后努力为其辩解。一旦它承诺了一个比方说巴黎在意大利的答案,它将给出一种幻觉的辩解(即使您单独询问法国的首都并给出正确答案)。当然,您也可以提示它挑战结果,然后它可能会改变想法,但这只是因为它正在形成连贯的来回对话。但在一个输出中,它将是连贯和流畅的,而不是事实的。
所以,简言之,在几乎所有方面,如果不是全部的话,AI开发和研究领域中的幻觉都是一项持续的研究挑战。