品玩10月18日讯,据微软官方消息,微软今天正式发布 AI 内容审核工具Azure AI content Safety,该产品曾在5月份开始测试。
Azure AI content Safety使用先进的语言和视觉模型帮助检测仇恨、暴力、性和自残内容。当模型检测到潜在的有害内容时,它们会用估计的严重性分数对其进行标记。这样,企业和组织就可以根据自己的政策对服务进行定制,以阻止或标记内容。
Azure AI content Safety最初是作为 Azure OpenAI 服务的一部分推出的,现在是一个独立的系统。微软表示,这意味着客户可以将其用于开源模型和其他公司模型的人工智能生成内容,也可以将其用于用户生成的内容,作为其内容系统的一部分,从而扩大其实用性。

0 条评论
请「登录」后评论