谷歌新规引担忧:消息称外包人员被迫评估自己不擅长的 Gemini 回复

据 TechCrunch 报道,谷歌针对其大型语言模型 Gemini 回复的外包评估流程进行了一项调整,引发了外界对其在敏感领域信息准确性的担忧。这项调整要求外包评估员不得再像以往那样,因自身专业知识不足而跳过某些特定的评估任务,这或将导致 Gemini 在医疗保健等高度专业性领域的信息输出出现偏差。

据 TechCrunch 报道,谷歌针对其大型语言模型 Gemini 回复的外包评估流程进行了一项调整,引发了外界对其在敏感领域信息准确性的担忧。这项调整要求外包评估员不得再像以往那样,因自身专业知识不足而跳过某些特定的评估任务,这或将导致 Gemini 在医疗保健等高度专业性领域的信息输出出现偏差。

谷歌新规引担忧:消息称外包人员被迫评估自己不擅长的 Gemini 回复

为了改进 Gemini,谷歌与其外包公司日立旗下的 GlobalLogic 合作,由后者雇佣的合同工负责评估人工智能生成的回复,评估标准包括“真实性”等因素。此前,如果评估员认为某个问题超出了自身专业领域,例如一个关于心脏病学的专业问题,而评估员本身并无相关科学背景,他们可以选择“跳过”该回应,从而避免评估针对该提示(prompt)的人工智能回复。

然而,上周 GlobalLogic 宣布了一项来自谷歌的变更:评估员不得再以缺乏专业知识为由跳过任何提示。内部通信显示,此前的指导方针是:“如果您没有评估此提示所需的关键专业知识(例如编码、数学),请跳过此任务。”而新的指导方针则改为:“您不应跳过需要特定领域知识的提示。”取而代之的是,评估员需要“评估您理解的提示部分”,并注明自己缺乏相关领域知识。

这项变更引发了人们对 Gemini 在某些主题上准确性的担忧,因为现在评估员有时需要评估一些他们完全不熟悉的、高度专业的技术性人工智能回复,例如关于罕见疾病的问题。一位合同工在内部通信中表示:“我原以为跳过的目的是通过将其交给更专业的人来提高准确性?”

根据新的指导方针,评估员现在只能在两种情况下跳过提示:一是提示或回复“完全缺失信息”,二是提示包含需要特殊同意书才能评估的有害内容。

这项新规的实施,意味着一些对专业性要求极高的领域,例如医疗健康等,将由缺乏相关背景知识的评估员进行评估,这无疑增加了 Gemini 输出不准确信息的风险。外界担忧,此举可能会对用户造成误导,尤其是在涉及健康等重要问题时,不准确的信息可能会带来严重后果。

截至AI在线发稿时,谷歌尚未回应相关报道。

相关资讯

91.1% 准确率,性能远超 GPT-4 系列模型,谷歌推出多模态医学大模型 Med-Gemini

编辑 | 萝卜皮各种复杂的医疗应用给人工智能带来了巨大挑战:需要先进的推理、获取最新的医学知识以及对复杂的多模态数据的理解。Gemini 模型在多模态和长上下文推理方面具有强大的通用能力,为 AI 在医学领域应用提供了可能性。基于 Gemini 的核心优势,谷歌的研究人员推出了 Med-Gemini,这是一个功能强大的多模态模型系列,专门用于医学,能够无缝使用网络搜索,并且可以使用自定义编码器有效地针对新颖的模态进行定制。研究人员用 14 项医疗基准评估 Med-Gemini,在其中 10 项上建立了新的最先进(S

谷歌发布 3 款 Gemini 实验 AI 模型:1.5 Pro 冲榜第二、1.5 Flash 从第 23 蹿升至第 6

谷歌 AI Studio 产品总监洛根・基尔帕特里克(Logan Kilpatrick)今天(8 月 28 日)在 X 平台发布推文,宣布推出 3 款 Gemini 实验性模型。AI在线附上谷歌本次推出的 3 款实验性 Gemini AI 模型如下:Gemini 1.5 Flash-8BGemini 1.5 Flash-8B 是 Gemini 1.5 Flash 的更小尺寸模型,拥有 80 亿参数,专为多模态任务而设计,包括大容量任务和长文本摘要任务。Gemini 1.5 Pro Exp-0827主要增强编程、复杂

AI 聊天机器人大战升温:谷歌 Gemini 预告片展示惊艳语音视频交互能力

人工智能聊天机器人领域烽烟再起,谷歌和 OpenAI 之间激烈的竞争态势愈演愈烈。就在谷歌一年一度的 I / O 开发者大会召开前夕,这家科技巨头发布了一段视频,展示了疑似经过升级的 Gemini 聊天机器人。视频中,Gemini 可以同时实时处理来自视频和语音的输入。这段视频貌似是在 I / O 大会搭建现场拍摄的,视频展示了 Gemini 在一台 Pixel 手机上流畅地处理实时视频和语音提问,并准确地提供信息。当被问到正在进行的布置工作时,Gemini 正确识别出这是为一个重要活动做的准备。 整个对话过程自然