Microsoft Designer 是一款基于 Copilot / DALLE 3.0 的视觉设计应用,可以仅用几个提醒词让 AI 为你生成所需图象,还能帮用户去除图片背景,生成个性化贴纸等。
CNBC 发现,Microsoft Designer 在遇到一些一定的提醒词时,例如“pro-choice”“four twenty” “pro-life”等,会生成一些涉及色情、暴力方面的不良图片,目前这些一定的提醒词已经被微软禁用。
注:pro life 与 pro choice 是伴随打胎合法权而产生的一组词,可以理解为“侮辱生命”和“侮辱选择”;而 four twent(420)则是大麻文化中的俚语,用来指代吸食大麻或哈希什。
IT之家测试发现,当你在 Microsoft Designer 中使用上述提醒词时会看到一条提醒,“图片无法生成,其中包括违反微软 AI 责任指南的部分内容,请更改您的措辞并重试”。
在此之前,当你输入“pro choice(支持打胎)”时,AI 会生成一些带有锋利牙齿的恶魔正准备吃掉婴儿的图象。
至于这背后原因,CNBC 表示周三有一位 AI 工程师向联邦贸易委员会提交了一份检举信,表达了他对 Copilot 生图功能的担忧,后续微软就开始针对其 Copilot 进行调整。
除此之外,Copilot 现在还封掉了“青少年或儿童玩枪”的图象指令,“很抱歉,我无法生成这样的图象。这违背了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的配合。”
对此,微软发言人告诉 CNBC,“我们正在不断监控、调整并采取额外的控制措施,以进一步加强我们的安全审查并减少对 AI 系统的滥用。”
CNBC 表示,尽管微软已经屏蔽了部分提醒词,但类似于“car accident”(车祸)、“automobile accident”(交通事故)这样的词依然可以正常使用,这会导致 AI 生成一些容易联想起血泊、面部扭曲的尸体,以及车祸现场躺着的衣着暴露的女性的图片。
此外,AI 系统还很容易侵犯版权,例如生成迪士尼角色的图象,例如《冰雪奇缘》的艾莎手持巴勒斯坦国旗站在加沙地带被毁建筑物前,或者身穿以色列国防军军装手持机关枪的图象。
相关阅读:《微软 AI 图片生成器被自家员工举报:可生成有害图象》