感谢据 CNBC 报道,一位微软工程师向美国联邦贸易委员会 (FTC) 举报该公司的人工智能图片生成器 Copilot Designer 存在安全隐患。
这位名叫 Shane Jones 的工程师在微软工作了六年,他致信 FTC 称,尽管他频频警惕 Copilot Designer 可能会生成有害图象,但微软却“拒绝”下架该东西。
在尝试 Copilot Designer 的安全题目和缺陷时,Jones 发现该东西会生成“与堕胎权术语相关的恶魔和怪物、手持突击步枪的青少年、暴力场景中性化的女性图象以及未成年人饮酒和吸毒”等内容。
据报道,自去年 12 月以来,Jones 一直试图警惕微软有关 Copilot Designer 使用的模型 DALLE-3 的题目。他在领英上发布了一封公开信,随后微软的法律团队联系他要求删除帖子,他照做了。
“过去三个月里,我频频敦促微软将 Copilot Designer 从公共使用中移除,直到更好的保险措施到位,”Jones 称,“然而,他们再次未能实施这些改变,并继续将该产物推销给‘任何人、任何地方、任何设备’。”
微软发言人 Frank Shaw 在给 The Verge 的一份声明中透露表现,公司“致力于按照微软的政策解决员工提出的任何和所有顾虑”。Shaw 还透露表现,微软为绕过安全措施或可能对我们的服务或合作伙伴产生潜在影响的题目建立了产物内用户反馈东西和强大的内部报告渠道,以便正确调查、优先处理和纠正任何题目,并建议 Jones 利用这些渠道,以便微软能够“适当验证和尝试他的耽忧”。
Shaw 还透露表现,微软“已与产物领导层和我们的负责任人工智能办公室举行会议,以审查这些报告。”
今年 1 月,在 Copilot Designer 生成并迅速传播的 Swift 的露骨图片事件后,Jones 就向美国参议员小组写信表达了他的耽忧。微软首席执行官萨特亚・纳德拉 (Satya Nadella) 称这些图片“令人震惊和可怕”,并透露表现公司将努力添加更多安全保险措施。IT之家注意到,上个月,谷歌在其用户发现其 AI 图片生成器创建种族多元化的纳粹和其他历史不准确图象后暂时禁用了该东西。