当地时间 9 月 1 日,据法新社报道,微软公司副总裁 Vik Singh 在接受采访时说,“坦率地说,如今(生成式 AI)真正缺少的能力,即是当模型无法确定(自身答案是否准确)时,能够主动说‘嘿,我不确定,我需要帮助’。”自去年以来,微软、谷歌及其竞争对手一直在迅速部署如 ChatGPT、Gemini 等生成式 AI 应用,这些应用可以按需生成各种内容,并给用户一种“无所不知”的错觉。尽管生成式 AI 的开发取得了进展,它们仍然会出现“幻觉”或编造答案。图源 PexelsVik Singh 坚持认为,“真正聪明的
当地时间 9 月 1 日,据法新社报道,微软公司副总裁 Vik Singh 在接受采访时说,“坦率地说,如今(生成式 AI)真正缺少的能力,即是当模型无法确定(自身答案是否准确)时,能够主动说‘嘿,我不确定,我需要帮助’。”
自去年以来,微软、谷歌及其竞争对手一直在迅速部署如 ChatGPT、Gemini 等生成式 AI 应用,这些应用可以按需生成各种内容,并给用户一种“无所不知”的错觉。尽管生成式 AI 的开发取得了进展,它们仍然会出现“幻觉”或编造答案。
图源 Pexels
Vik Singh 坚持认为,“真正聪明的人”正在努力找到方法,让聊天机器人在不知道正确答案时“承认并寻求帮助”。
与此同时,云端软件巨头 Salesforce 的首席执行官 Marc Benioff 也在上周表示,他看到许多客户对微软 Copilot 的误导性表现越来越感到沮丧。
AI在线获悉,近年来,人工智能蓬勃发展,聊天机器人等应用逐渐普及,人们可以通过简单的指令从这些聊天机器人(例如 ChatGPT)获取信息。然而,这些聊天机器人仍然容易出现“幻觉”问题,即提供错误的答案,有时甚至是危险的信息。造成“幻觉”的原因之一,是训练数据不准确、泛化能力不足以及数据采集过程中的副作用。