炒作归炒作,新演讲表明,仅15%的企业构造为生成AI做好筹办

机器之能报道编辑:吴昕会和云市场的崛起遵循一样的路径吗?生成式人工智能吸引足够多的公众注意力,但这种亢奋并不意味着企业高管们认为它已经筹办好在企业中部署。根据著名信息咨询和技巧服务公司 Nash Squared  《年度数字领导力演讲( Digital Leadership Report )》(该演讲将于 11 月 9 日全面发布),全世界只有十分之一的技巧领导者大规模实行了人工智能,该演讲是全世界规模最大、持续时间最长的技巧领导者年度考察。更重要的是,围绕生成式人工智能的炒作对鼓励对人工智能的进一步投资几乎没有什么作

机器之能报道

编辑:吴昕

会和云市场的崛起遵循一样的路径吗?

生成式人工智能吸引足够多的公众注意力,但这种亢奋并不意味着企业高管们认为它已经筹办好在企业中部署。

根据著名信息咨询和技巧服务公司 Nash Squared  《年度数字领导力演讲( Digital Leadership Report )》(该演讲将于 11 月 9 日全面发布),全世界只有十分之一的技巧领导者大规模实行了人工智能,该演讲是全世界规模最大、持续时间最长的技巧领导者年度考察。更重要的是,围绕生成式人工智能的炒作对鼓励对人工智能的进一步投资几乎没有什么作用—— Nash Squared 演讲说,仅有十分之一企业在人工智能上投入巨资,五年来,这一比例没有改变。虽然每个人都在谈论生成式人工智能和机器学习,但很少有公司投资于大规模实行人工智能。对此, Nash Squared CEO Bev White 在接受国外科技媒体 ZDNET 采访时表示,将这些新闻放到上下文的语境中去解读很重要。现在很少有企业在人工智能上投入巨资,但许多构造开始研究新兴技巧。「我们看到的实际上是相当多的试点,」他说,对人工智能的兴趣是在研究阶段,而不是生产阶段。大约一半的公司( 49% )在试点或举行人工智能的小规模实行,三分之一的公司在试探生成式人工智能。「这正是我们在云服务市场真正起飞时所看到的,」他将人工智能的兴起与十多年前企业最初向云的迁移举行了比较。「这就像『让我们试一试,让我们了解所有这些对策略、数据、隐衷和培训的影响。』」她说。「企业通过举行小而有意义的试点来创建自己的用例。这就是上次(云市场)发生的事情,我并不感到惊讶。」事实上,企业对在人工智能上花大价钱犹豫不决是有道理的,原因有两个。首先,由于在 COVID-19 大流行期间和之后立即对 IT 举行了大量投资,许多构造的现金都很紧张。「数字领导者正试图平衡账目——他们在想『现在什么能给我带来最大的投资回报』,」她说。「小型、谨慎、精心策划的试点项目——而你仍在做一些更有力的数字化转型项目——将对你的构造产生重大影响。」其次,许多新兴技巧,特别是生成式人工智能,仍处于发展的初级阶段。Bev White 说,OpenAI 的 ChatGPT 等知名大型语言模型的每一次新迭代都会带来新的发展和机遇,但也会带来危害。「作为一家大企业的 CIO 或 CTO, 你要负责,你要确定你在用人工智能做什么,」她说。「这里有这么大的危害,你必要思索你的危害敞口——你必要什么来保护为你的企业工作的人?你想要什么策略?」Bev White 谈到了人工智能安全和隐衷的重要性,特别是当涉及到员工使用他人拥有的数据训练模型的潜力时,这可能会为诉讼打开大门。「剪切和粘贴的危害很大,」她说。「我并不是说生成式人工智能不好。我也是它的铁杆粉丝。但我要说的是,你必要非常有意识地了解数据的来源以及你根据这些信息做出的决定。」鉴于这些对新兴技巧的担忧,Nash Squared 演讲称,只有 15% 的数字领导者为生成式人工智能的需求做好了筹办,这似乎很奇怪。然而,她表示,这种缺乏筹办是可以理解的,因为目前如何安全可靠地实行人工智能以及在不久的将来突然改变方向的可能性都缺乏明确性。「如果你对在企业内部使用这项技巧的安全性、安全性和声誉负责,你最好确保你已经思索了所有事情,并且你要带上你的董事会,并在此过程中对他们举行教育,」她说。「很多首席执行官都知道,他们必要在自己的组合中拥有人工智能,因为它将提供竞争优势,但他们还不知道在哪里。真的,这是一个必要发现的阶段。」Bev White 说,对试探和考察的关注也有助于解释为什么只有 21% 的全世界构造制定了人工智能策略,超过三分之一( 36% )的构造没有计划制定这样的策略。「你知道有多少创新项目是从人们开始思考潜在的闸门和失败点开始的?」她说。大多数情况下,你一开始会说,「哇,我能去哪里?」然后,你要弄清楚你必要关闭哪些门,以确保你的项目和数据安全和可控。虽然专业人士希望企业在试探人工智能的机会时活得更久点,但这项对全世界 2000 多名数字领导者的考察表明,首席信息官并没有忘记在这个快速发展的领域必要强有力的治理。在大多数情况下,数字领导者在寻找法规来帮助他们的构造安全可靠地考察人工智能。然而,他们也不相信行业或政府机构的人工智能规则会有效。

虽然 88% 的数字领导者认为,更严格的人工智能禁锢是必不可少的,但多达 61% 的人表示,更严格的禁锢并不能解决新兴技巧带来的所有问题和危害。「从行业机构和政府那里得到指导是件好事,你可以推动自己的想法,」Bev White说。「但你不一定会喜欢它。如果它被贯彻并成为法律,那么突然之间你就必要遵守它,并找到一种方法来遵守这些准则。因此,禁锢是福也是祸。」Bev White 说,即使在快速发展的人工智能领域,法规出台缓慢,但对于希望研究这项技巧的公司来说,这并不是自满的借口。数字领导者,尤其是安全主管,现在应该思索自己在企业内使用人工智能的护栏。这也是她自己的构造内在发生的事情。

「我们的首席信息安全官一直在思考生成式人工智能,以及它如何成为网络犯罪分子的真正礼物。它可以无辜地打开通往重要大块数据的大门,这可能意味着可以获得您的秘密武器。你必要权衡危害和收益,」她说。思索到这种平衡,Bev White 向专业人士发出了警告——为一些备受瞩目的人工智能事件做好筹办。正如影响少数人的网络安全事件可以帮助向许多其他人展示危害一样,人工智能事件(例如数据泄露、幻觉和诉讼)将导致高级专业人员在试探新兴技巧时停下来反思。「作为领导者,我们必要关注,但我们也必要保持好奇心。我们必要靠拢并参与进来,这样我们才能看到那里的机会,」Bev White说。参考连接

https://www.zdnet.com/article/companies-arent-spending-big-on-ai-heres-why-that-cautious-approach-makes-sense/

给TA打赏
共{{data.count}}人
人已打赏
AI

Nature | 一场人工智能革命正在医学领域酝酿,它会是什么样子?

2023-10-25 14:51:00

AI

2023云栖大会开幕,阿里巴巴蔡崇信:打造AI期间最绽放的云

2023-10-31 14:46:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索