品玩

科技创新者的每日必读

打开APP
关闭

OpenAI 科学家翁荔提出外在幻觉extrinsic hallucination 概念

7月15日

品玩7月15日讯,OpenAI 科学家翁荔近期在Github 上发布文章,提出了一种名为 LLM 外在幻觉(extrinsic hallucination)的全新概念。

翁荔表示,模型输出应基于预训练数据集。然而,考虑到预训练数据集的规模,每一代检索和识别冲突的成本太高。如果我们将预训练数据语料库视为世界知识的代表,那么从本质上讲,我们要努力确保模型输出是真实的,并且可以通过外部世界知识进行验证。同样重要的是,当模型不知道某个事实时,它应该说出来。

翁荔表示,为了避免外在幻觉的出现,研究者应该保证大模型内容符合事实,同时要保证大模型在适当的时候承认不知道答案。

取消 发布

下载品玩App,比99.9%的人更先知道关于「AI大模型」的新故事

下载品玩App

比99.9%的人更先知道关于「AI大模型」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测