微软副总裁 Vik Singh:AI 聊天机器人需“学会求助”而非“制造幻觉”

当地时间 9 月 1 日,据法新社报道,微软公司副总裁 Vik Singh 在接受采访时说,“坦率地说,如今(生成式 AI)真正缺少的能力,即是当模型无法确定(自身答案是否准确)时,能够主动说‘嘿,我不确定,我需要帮助’。”自去年以来,微软、谷歌及其竞争对手一直在迅速部署如 ChatGPT、Gemini 等生成式 AI 应用,这些应用可以按需生成各种内容,并给用户一种“无所不知”的错觉。尽管生成式 AI 的开发取得了进展,它们仍然会出现“幻觉”或编造答案。图源 PexelsVik Singh 坚持认为,“真正聪明的

当地时间 9 月 1 日,据法新社报道,微软公司副总裁 Vik Singh 在接受采访时说,“坦率地说,如今(生成式 AI)真正缺少的能力,即是当模型无法确定(自身答案是否准确)时,能够主动说‘嘿,我不确定,我需要帮助’。”

自去年以来,微软、谷歌及其竞争对手一直在迅速部署如 ChatGPT、Gemini 等生成式 AI 应用,这些应用可以按需生成各种内容,并给用户一种“无所不知”的错觉。尽管生成式 AI 的开发取得了进展,它们仍然会出现“幻觉”或编造答案

微软副总裁 Vik Singh:AI 聊天机器人需“学会求助”而非“制造幻觉”

图源 Pexels

Vik Singh 坚持认为,“真正聪明的人”正在努力找到方法,让聊天机器人在不知道正确答案时“承认并寻求帮助”

与此同时,云端软件巨头 Salesforce 的首席执行官 Marc Benioff 也在上周表示,他看到许多客户对微软 Copilot 的误导性表现越来越感到沮丧。

AI在线获悉,近年来,人工智能蓬勃发展,聊天机器人等应用逐渐普及,人们可以通过简单的指令从这些聊天机器人(例如 ChatGPT)获取信息。然而,这些聊天机器人仍然容易出现“幻觉”问题,即提供错误的答案,有时甚至是危险的信息。造成“幻觉”的原因之一,是训练数据不准确、泛化能力不足以及数据采集过程中的副作用

相关资讯

研究发现:AI 越聪明就越有可能“胡编乱造”

一项新研究发现,随着大型语言模型(LLM)变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。图源 PexelsAI在线注意到,该研究发表在《自然》杂志上,研究人员研究了一些业界领先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研究小组 BigScience 创建的开源模型 BLOOM。研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更

AI 成为大学生学业“金手指”:能获更高分,且难被发现

大学生已开始用 AI 来完成课业,而且 AI 提交的答卷平均分高于真人,且很难被检测出来。英国雷丁大学心理与临床语言科学学院副教授 Peter Scarfe 表示,大学生开始利用 ChatGPT 等 AI 工具完成课业,不仅能获得更高分,且很难判断出来。IT之家翻译 Scarfe 教授采访内容:“我们研究中的数据表明,检测人工智能生成的答案非常困难。目前关于 AI 的讨论已有很多,代大学生完成课业也是 AI 的一种形式,只是本次调查的样本数量比较有限。”在这项发表在 Plos One 杂志上的研究中,Scarfe

ChatGPT 5天用户破百万,却突遭Stack Overflow封禁

要问最近 AI 圈哪个模型最火爆,你不得不把 OpenAI 推出的 ChatGPT 排在前面。自从发布以来,这个对话模型可谓是出尽风头,很多人更是对其产生了一百个新玩法,让它写个代码、修改修改 bug、开发个小游戏、解答一下物理知识、去参加一场考试…… 仿佛没有它不会的。