品玩

科技创新者的每日必读

打开APP
关闭

OpenAI 推出全新方法 deliberative alignment,以提升 AI 模型安全性

18小时前

品玩12月25日讯,TechCrunch报道,OpenAI 发布新研究,介绍了该公司确保人工智能推理模型与人类开发者价值观保持一致的最新方法。

这个新方法被称为 deliberative alignment,根据 OpenAI 的研究,这种方法提高了 o1 与公司安全原则的整体一致性。这意味着慎重对齐降低了 o1 回答 “不安全 ”问题(至少是 OpenAI 认为不安全的问题)的比率,同时提高了其回答良性问题的能力。

据悉,这种方法的关键创新之处在于,OpenAI 训练 o1 和 o3 在思维链阶段用 OpenAI 安全政策中的文字重新提示自己。研究人员表示,这使得 o1 和 o3 与 OpenAI 的政策更加一致,但在不减少延迟的情况下实施起来有一定的困难--稍后再详述。

取消 发布

下载品玩App,比99.9%的人更先知道关于「OpenAI」的新故事

下载品玩App

比99.9%的人更先知道关于「OpenAI」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测