品玩

科技创新者的每日必读

打开APP
关闭

微软 Microsoft Designer 屏蔽特定提示词,避免 Copilot 生成不良价值导向图片

3月11日

品玩3月11日讯,据 CNBC 报道,Microsoft Designer 在遇到一些特定的提示词时,例如“pro-choice”“four twenty” “pro-life”等,会生成一些涉及色情、暴力方面的不良图片,目前这些特定的提示词已经被微软禁用。(pro life 与 pro choice 是伴随堕胎合法权而产生的一组词,可以理解为“尊重生命”和“尊重选择”;而 four twent 420则是大麻文化中的俚语,用来指代吸食大麻或哈希什。)

至于这背后原因,CNBC 表示周三有一位 AI 工程师向联邦贸易委员会提交了一份检举信,表达了他对 Copilot 生图功能的担忧,后续微软就开始针对其 Copilot 进行调整。

除此之外,Copilot 现在还封掉了“青少年或儿童玩枪”的图像指令,“很抱歉,我无法生成这样的图像。这违背了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的配合。”

取消 发布

下载品玩App,比99.9%的人更先知道关于「微软」的新故事

下载品玩App

比99.9%的人更先知道关于「微软」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测