应用

2024 科大讯飞全球 1024 开发者节官宣:首发多模态视觉交互、超拟人虚拟人交互能力

感谢AI在线从科大讯飞获悉,第七届世界声博会暨 2024 科大讯飞全球 1024 开发者节将于今年 10 月 24 日在合肥奥体中心正式开启。官方表示,届时将发布讯飞星火大模型升级版,其底座能力将再次升级,包含数学、代码和长文本能力显著提升、中英文综合能力持续领先,训练推理效率大幅提升等特性。在今年的 1024 开发者节活动中,科大讯飞还将首次发布多模态视觉交互及超拟人虚拟人交互能力,官方称将面向万物智联“打造极致人机交互体验”。此外,还将在教育、医疗、科研、司法、政务等领域升级行业大模型及更多应用产品。在去年的

Demis Hassabis荣获诺贝尔化学奖,网友:诺奖需要AI

今年的诺奖被AI大佬包圆了。 就在刚刚,瑞典皇家科学院已决定将 2024 年诺贝尔化学奖授予大卫·贝克(David Baker),“以表彰在计算蛋白质设计方面的贡献”;另一半则是共同授予德米斯·哈萨比斯(Demis Hassabis)和约翰·M·詹珀(John M. Jumper),“以表彰他们在蛋白质结构预测方面的成就”。

解读:物理诺贝尔奖为何颁给了HNN之父和深度学习之父?

就在刚刚,瑞典皇家科学院决定将 2024 年诺贝尔物理学奖授予约翰·J·霍普菲尔德 (John J. Hopfield) 和杰弗里·E·辛顿 (Geoffrey E. Hinton),“表彰他们通过人工神经网络实现机器学习的基础性发现和发明”。

英伟达梦想,富士康模式:Alexander Wang如何用24万数字游民打造数据标注王国

这位世界上最年轻的白手起家的亿万富翁,曾在首次登上福布斯排行榜后迅速跌落,但几年后就重新夺回了这一头衔。 给 Alexander Wang 带来这个极具传奇性的名号的,是他的数据工厂—— Scale AI。 最近,Scale AI 实现了将近 10 亿美元的年化收入,同比增长了足足 4 倍。

首个开源 AI 候选版定义稿发布:四大要求,训练数据上有妥协

如何定义开源人工智能(AI)?开源倡议组织(OSI)经过 2 年的努力,于昨日(10 月 9 日)发布了首个开源 AI 定义候选版本。首个候选版本主要澄清开源 AI 领域的各种争议,规定一个 AI 系统 / 模型需要具备以下 4 种基础自由要求,才能视为开源,AI在线附上相关要求如下:在未获许可的情况下,他人可出于任何目的使用该系统。可以深入研究系统的运行原理出于任何目的修改系统。与他人共享,无论是否修改。OSI 在训练数据方面选择妥协,要求提供“关于用于训练系统的数据的足够详细信息”,而非完整数据集。此举旨在平衡

Meta 推出革命性 AI 视频工具,让广告创意焕然一新

感谢科技媒体 The Verge 于 10 月 8 日发布博文,报道称 Meta 公司在 Advertising Week 活动中,推出了 Image Animation 和 Video Expansion 两款 AI 工具。Image Animation根据 Meta 公司分享的最新动图,用户可以选择一张静态照片,无需在 Instagram Reels 上使用任何现有的视频素材,就能生成创意视频。早期广告客户的反馈积极,图像动画帮助他们克服了资源有限的问题,并为广告创意提供了更长的使用寿命。Video Expan

消息称 Kimi AI 助手内测深度推理功能,月之暗面有团队国庆加班 7 天 3 倍工资

据“大厂青年”公众号 10 月 8 日爆料,国产 AI 大模型 Kimi 的开发团队 —— 北京月之暗面科技有限公司有团队国庆加班七天,3 倍工资,一周就顶 1 个月。爆料称,月之暗面准备上线一个“很牛的功能”,跟深度思考有关。大概下一个版本里,会在搜索入口下方搞一个“深入推理”的开关,能回答简单搜索无法解决的问题,甚至可以自我反思,所以国庆期间一直疯狂赶进度。AI 独角兽公司月之暗面于 2023 年 3 月创立,于 2023 年 10 月推出全球首个支持输入 20 万汉字的智能助手产品 Kimi。创始团队核心成员

字节跳动发布 GR-2 机器人 AI 大模型:任务平均完成率 97.7%,模拟人类学习处理复杂任务

字节跳动研究团队最新推出了第二代机器人大模型 GR-2(Generative Robot2.0),其亮点在于创新构建“机器人婴儿期”学习阶段,模仿人类成长学习复杂任务,具备卓越的泛化能力和多任务通用性。 GR-2 模型和其它很多 AI 模型一样,包括预训练和微调两个过程。在预训练阶段,GR-2“观看”了多达 3800 万个来自各类公开数据集的互联网视频以及 500 亿个 tokens,涵盖了家庭、户外、办公室等多种日常场景,让 GR-2 具备在后续策略学习中跨越广泛机器人任务和环境的泛化能力。在微调阶段,团队使用机

AI 教父、诺贝尔奖得主辛顿:我为我的学生解雇 OpenAI CEO 感到骄傲

刚获得 2024 年度诺贝尔物理学奖、有“AI 教父”之称的加拿大多伦多大学教授杰弗里・辛顿(Geoffrey Hinton)在 10 月 9 日接受直播群访时表示,“我有很多非常聪明的学生,比我聪明得多,他们做了许多实事,事业伟大。我特别自豪的是,我的一个学生开除(fire)了萨姆・阿尔特曼。”辛顿提及,这名学生正是 OpenAI 的前首席科学家 Ilya Sutskever。Ilya Sutskever 是 OpenAI 的联合创始人,也是 2023 年底 OpenAI 高层“宫斗”大戏中的主角之一,而萨姆・阿

2024 最全合集!13个AI视频产品评测&实战效果!

前言 - AI 视频闭源产品近半年发展 Sora 之后,DiT 架构成为视频生成产品的主流技术。这大半年里,横空出世的 Luma AI、Kling 成为视频生成领域最大黑马,而老牌选手 Runway 也推出了实力强劲的 Gen3 模型。AI 视频生成在画面表现力、语义理解、清晰度、可控性方面有了大幅提升,同时多家产品在音画同步、笔刷等工具上做了更新,提升了产品可控性。 这篇文章会带大家了解 AI 视频产品的最新能力,不同产品的优势,以及展示各个产品的实测效果。 这个系列预计分为闭源、开源两篇。以下是本文目录:一、先

OpenAI 预计 2029 年才能实现盈利,2026 年可能还要亏 140 亿美元

北京时间今天凌晨,据 The Information 报道,根据 OpenAI 公司的预测,直到 2029 年,公司才能实现盈利,届时公司收入将达到 1000 亿美元(AI在线备注:当前约 7063.46 亿元人民币)。根据 The Information 对 OpenAI 财务文件中数据的分析,在达到这一节点之前,到 2026 年的亏损可能会高达 140 亿美元(当前约 988.88 亿元人民币),几乎是今年预期亏损的三倍。这一估算尚不包含股票薪酬 —— 这是 OpenAI 最大的开支之一,但它并非以现金的形式支

提效+赚钱两不误!普通人如何抓住AI红利?

最近,越来越多的朋友问我:“ AI 到底怎么用来搞钱?它真能帮忙提高效率吗?”其实,AI 不仅在各大科技领域崭露头角,也早已悄然融入我们的日常生活和工作中。无论是帮助我们提升工作效率,还是创造出全新的赚钱方式,AI 正在以我们未曾预料的方式改变着世界。今天,我就想和大家分享一些我自己与 AI 相处的经历,以及它带给我的思考和启发... 一、AI 提效:工作和生活中的“隐形帮手” 老实说,AI 带来的变化没那么“高大上”,它更像是一个日常的“隐形帮手”。很多时候,它让你觉得“哎,这事简单多了”。尤其是在工作中,AI

NotebookLM新功能引发网络疯传 ,AI大神、Altman大赞,一手实测来了

AI好好用报道编辑:sia之前还是一个小透明,现在立马变成下一个 ChatGPT。它是谷歌目前最成功的 AIGC 产品。很多人喜欢在它前面再加一个形容词,「像病毒一样( a viral AI product)」。前特斯拉自动驾驶负责人、前 OpenAI 科学家 Andrej Karpathy 毫不掩饰对它的喜爱。他甚至想到了 ChatGPT,暗示产品新功能可能具有与 ChatGPT 类似的革命潜质。就连 OpenAI CEO Altman 也认为,它「很酷」。一直活跃在 AIGC 体验最前沿的宾大沃顿商学院副教授

AI再夺诺奖!2024诺贝尔化学奖授予哈萨比斯等人

昨天,哈萨比斯还在祝福Hinton。今天,他自己也拿了诺奖。北京时间 10 月 9 日下午,瑞典皇家科学院宣布将 2024 年诺贝尔化学奖授予华盛顿大学的David Baker以及谷歌DeepMind 的Demis Hassabis 与John M. Jumper,以表彰他们在「计算蛋白质设计」和「蛋白质结构预测」方面的贡献。众所周知,这三位是AI蛋白质研究领域的知名人物。近年来,AI预测蛋白质结构成为了生物以及AI领域的重磅话题。这个领域有两大知名开源算法,一个是 DeepMind 的 AlphaFold2,另一

微软“炫耀”新装备:内置英伟达最新 GB200 AI 芯片的服务器

微软 Azure 官方 X 账号昨晚发文“炫耀”了自家的新装备:公司已经拿到了搭载英伟达 GB200 超级芯片的 AI 服务器,成为全球云服务供应商中首个用上 Blackwell 体系的公司。今年 3 月,据AI在线报道,英伟达在 GTC 2024 开发者大会上发布了旗下最强 AI 加速卡 GB200,该卡采用新一代 AI 图形处理器架构 Blackwell,采用台积电的 4 纳米(4NP)工艺蚀刻而成。Blackwell 的 AI 性能可达 20 petaflops,而 H100 仅为 4 petaflops。英

GR-2登场!ByteDance Research提出机器人大模型,具备世界建模和强大泛化能力

最近,ByteDance Research 的第二代机器人大模型 —— GR-2,终于放出了官宣视频和技术报告。GR-2 以其卓越的泛化能力和多任务通用性,预示着机器人大模型技术将爆发出巨大潜力和无限可能。GR-2 官方项目页面: GR-2:百炼出真金和许多大模型一样,GR-2 的训练包括预训练和微调两个过程。如果把机器人和人做比较,预训练过程就好像是人类的 “婴儿期”。而 GR-2 的婴儿期与其他机器人截然不同。在预训练的过程中,GR-2 在互联网的海洋中遨游。它在 3800 万个互联网视频片段上进行生成式训练,

这篇论文非常火!差分Transformer竟能消除注意力噪声,犹如降噪耳机

Transformer 的强大实力已经在诸多大型语言模型(LLM)上得到了证明,但该架构远非完美,也有很多研究者致力于改进这一架构,比如AI在线曾报道过的 Reformer 和 Infini-Transformer。今天我们又将介绍另一种新型 Transformer 架构:Differential Transformer(差分 Transformer,简称 Diff Transformer)。该架构来自微软研究院和清华大学,有四位共一作者:Tianzhu Ye、Li Dong、Yuqing Xia、Yutao Su

两位AI先驱斩获诺奖,GPT-4o表示疑惑,同行大佬:物理学与AI的桥梁已架起

昨天,两位机器学习先驱 John J. Hopfield 和 Geoffrey E. Hinton 获得 2024 诺贝尔物理学奖的消息引爆了整个 AI 领域,让很多人直呼「物理学不存在了」。就连 AI(GPT-4o)都不敢相信今年的物理诺奖会花落机器学习和人工神经网络领域,认为这些领域通常不属于物理学范畴。诺贝尔奖官方推特(X)也发起了一项问卷调查,「你知道机器学习模型是基于物理等式吗?」从结果来看,不知道的人占比更高。但无论如何,两位泰斗级人物的获奖成为了 AI 圈的又一盛事。各路大佬纷纷为他们送上了祝贺,包括