资讯列表
黄仁勋、扎克伯格支持 AI 大模型开源,两人互换外套
感谢当地时间 7 月 29 日,在美国丹佛举行的第 51 届 SIGGRAPH 图形大会上,英伟达创始人 CEO 黄仁勋和 Meta 创始人 CEO 马克・扎克伯格举行炉边谈话,讨论人工智能和仿真模拟的未来。这场对话一开始还算正常,黄仁勋热情洋溢地介绍了英伟达 GPU 的强大功能,扎克伯格则畅谈了他对 AI 聊天机器人的未来愿景。黄仁勋还称赞了 Meta 的开源大模型,他与扎克伯格都同意应坚持大模型的开源路线。但随后画风突变,在对谈接近尾声时,两人竟然互换了外套。扎克伯格表示,他为黄仁勋准备了一件黑色皮革和羊毛皮外
15000字干货!AI搜索产品如何做好用户体验设计?
最近在使用 360AI 搜索的时候遇到一个比较严重的产品设计问题,非常影响体验。
在 360AI 搜索首页,和普通搜索产品类似,有信息流和今日热搜两个模块。昨天偶然看到一条热搜是「工资四千月工作 300h」,这个标题确实很吸引人,所以作者打开了这条热搜想看看详细信息,结果打开的页面内容是这样的:标题和内容完全对不上!
原因也简单,360AI 搜索使用了大模型能力对输入的信息进行了处理,而不是点击这条热搜新闻直接打开一个链接。
按照传统的搜索引擎的做法一般是把关键词“月薪 4000 工作 300 小时”匹配到各个新闻
苹果:曾使用谷歌硬件来训练 Apple Intelligence 模型
苹果公司周一在一篇技术论文中表示,支撑其人工智能系统 Apple Intelligence 的两个人工智能模型是在谷歌设计的云端芯片上进行预训练的。这篇名为《Apple Intelligence 基础语言模型(Apple Intelligence Foundation Language Models)》的论文详细介绍了该模型的构建过程和数据来源。论文中的一段描述暗示,苹果可能在初期阶段使用了谷歌的硬件。论文提到,苹果的基础模型(AFM)及其背后的服务器技术最初是在“v4 和 v5p 云端 TPU 集群”上构建的,使
数据安全看得见:苹果 Apple Intelligence 提供详细隐私报告
苹果公司在 iOS 18.1 和 macOS Sequoia 15.1 的首个测试版中推出了名为“Apple Intelligence”的新 AI 功能的预览。该公司不仅详细介绍了这些功能的工作原理和背后的隐私机制,还允许用户查看一份详细的隐私报告,了解 Apple Intelligence 如何处理他们的请求。Apple Intelligence 是苹果对新 AI 功能的统称。例如,用户现在可以要求系统改写文本,或总结消息或电子邮件。这些功能既可以使用设备上的语言模型,也可以使用在线语言模型。为了确保用户隐私,苹
别认为对话式交互是进步!详解对话式交互的6大缺点
最近两年很多 AI 产品出现之后都采用了对话式(Chat)的形式。导致很多人认为对话形式(Chat)交互相对于常见的图形化界面是一种进步。事实并非如此。
这种错误认知可能因为把 AI 技术与对话式交互画上了等号,在看到 AI 技术迅猛发展的时候。就同样认为对话式更优秀。
但这种交互形式被众多 AI 产品使用的原因只是因为这一波 AI 浪潮最大的技术进步是大语言模型。而大语言模型的核心功能之一就是生成内容。加上 OpenAI 最早使用了这种形式被后来者效仿。
在 2017 年前后上一波 AI 浪潮中,主要的技术发展方
因用户数据自动被用于训练 xAI, X(推特)面临欧洲监管机构质询
感谢据《金融时报》当地时间周六报道,欧洲数据保护监管机构正在“寻求澄清”埃隆・马斯克的 X(推特)决定允许用户数据自动输入其人工智能初创公司 xAI 的举动,此举对该平台提出了新的监管审查。AI在线附事件背景:当地时间上周五,X 用户发现他们已“自动选择”将其帖子以及与 xAI 旗下 Grok 聊天机器人的互动用于“训练和微调”xAI 系统,此举是在未事先获得用户明确同意的情况下进行的数据共享。但是,用户只能通过 X 的桌面版本中进行设置,目前无法通过移动端 App 选择拒绝。负责执行欧盟隐私法的爱尔兰数据保护委员
Llama3.1 训练平均 3 小时故障一次,H100 万卡集群好脆弱,气温波动都会影响吞吐量
每 3 个小时 1 次、平均 1 天 8 次,Llama 3.1 405B 预训练老出故障,H100 是罪魁祸首?最近有人从 Meta 发布的 92 页超长 Llama 3.1 论文中发现了华点:Llama 3.1 在为期 54 天的预训练期间,经历了共 466 次任务中断。其中只有 47 次是计划内的,419 次纯属意外,意外中 78% 已确认或怀疑是硬件问题导致。而且 GPU 问题最严重,占了 58.7%。Llama 3.1 405 模型是在一个含 16384 块 Nvidia H100 80GB GPU 集群
GPT-4o mini 凭什么登顶竞技场?OpenAI 刷分秘诀被扒,原来奥特曼早有暗示
为啥 GPT-4o mini 能登顶大模型竞技场??原来是 OpenAI 会刷分呀。这两天,lmsys 竞技场公布了一份充满争议的榜单。其中才面世不久的 GPT-4o mini 和满血版并列第一,把 Claude 3.5 Sonnet 甩在身后。结果网友炸锅了,大家凭体感觉得这不可能。哪怕后面 lmsys 做过一次声明,表示大家别只看总榜,还要更关注细分领域的情况。也没能让大家满意,不少人觉得 lmsys 就是从 OpenAI 那收钱了。终于,官方晒出了一份完整数据,展示了 GPT-4o mini 参与的 1000
英伟达最新技术分享:手把手教你用 Llama 3.1 合成数据改进模型!附代码
适逢 Llama 3.1 模型刚刚发布,英伟达就发表了一篇技术博客,手把手教你如何好好利用这个强大的开源模型,为领域模型或 RAG 系统的微调生成合成数据。Epoch AI 上个月刚刚发文预言「数据墙」迫近,结果英伟达转头就甩出了 340B 开源巨兽 Nemotron。真实数据稀缺可能不再是问题了,Nemotron 9T token 的预训练预料中,98% 都是合成数据。也许你还对合成数据存在顾虑,或者不知道如何应用 LLM 驱动数据生成。或许,英伟达的这篇博客可以提供答案。原文地址:,用 LLM 合成数据的本质究
智谱获华策 1 亿元战略投资,打造影视 AI 研究平台;杨红霞入职香港理工大学;蔚来发布中国首个智能驾驶世界模型丨AI情报局
今日融资快报智谱华章获得浙江华策投资战略投资智谱华章是一家AI知识智能技术开发商,由清华大学计算机系知识工程实验室的技术成果转化而来。 智谱宣布获得浙江华策投资有限公司的战略投资。 华策影视全资子公司华策投资拟与海南智桥共同设立盐城智华创业投资基金,华策投资以自有资金出资1亿元,占比99.99%。
斯坦福 AI 方法加速目标材料发现,为「自动驾驶实验」奠定基础
编辑 | KX传统的材料发现过程既耗时又成本高昂。可能的材料空间也非常大,仅由四种元素组成的材料就有超过 100 亿种可能性,对于制药应用而言,挑战更大,大约有 10^60 种可能的类药分子。斯坦福大学和美国能源部 SLAC 国家加速器实验室的科学家们,开发了一种 AI 方法,有助于在寻找新材料时更有效地收集数据,使研究人员能够以更高的精度和速度应对复杂的材料设计挑战。研究人员提出了一个框架,通过简单的用户定义过滤算法来捕获实验目标。这些算法会自动转换为三种智能、无参数、顺序数据采集策略(SwitchBAX、Inf
「机器学习之父」Mitchell 撰文:AI 如何加速科学发展,美国如何抓住机遇
编辑 | ScienceAI近日,卡内基梅隆大学(Carnegie Mellon University)教授,有着「机器学习之父」之称的 Tom M. Mitchell 撰写了新的 AI for Science 白皮书,重点讨论了「人工智能如何加速科学发展?美国政府如何帮助实现这一目标?」这一主题。ScienceAI 对白皮书原文进行了不改变原意的全文编译,内容如下。人工智能领域最近取得了显著进展,包括 GPT、Claude 和 Gemini 等大型语言模型,因此提出了这样一种可能性:人工智能的一个非常积极的影响,
智平方打通具身智能核心痛点:将AGI拓展到物理世界
近日,清华大学五道口金融学院“金融PLUS系列产业峰会2024·人工智能赋能千行百业”盛大举办。智平方(深圳)科技有限公司(以下简称智平方)创始人兼CEO郭彦东博士受邀出席,并与工信部原副部长杨学山,中国科学院院士、清华大学人工智能研究院名誉院长张钹,百川智能创始人兼CEO王小川,易显智能创始人兼董事长马宏等参会嘉宾一道,同探讨人工智能赋能实体经济、推动实体经济高质量发展之路。第三代人工智能的发展趋势是从数字世界AGI到物理世界AGI大语言模型问世标志着第三代人工智能时代大幕开启,人工智能从特定领域、特定算法、完成
日均tokens使用量超5000亿,AI生图玩法猛猛上新:豆包大模型为什么越来越「香」了?
2024 年的 AI 图像生成技术,又提升到了一个新高度。技术的飞速迭代,让这一领域的商业化落地进入加速阶段。前有 Midjourney v6 史诗级更新,后有开源巨头 Stable Diffusion 3 独领风骚,而 DALL・E 3 背靠 ChatGPT 这棵「大树」,也收获了众多用户的关注。当然了,在这条赛道上,来自国内的选手毫不逊色。近日,国产大模型「顶流」—— 字节跳动豆包大模型,迎来一场集中放送:在 2024 火山引擎 AI 创新巡展成都站活动上,豆包大模型团队公布了豆包大模型的最新进展,以及文生图模
1890美元,就能从头训练一个还不错的12亿参数扩散模型
只用1890美元、3700 万张图像,就能训练一个还不错的扩散模型。现阶段,视觉生成模型擅长创建逼真的视觉内容,然而从头开始训练这些模型的成本和工作量仍然很高。比如 Stable Diffusion 2.1 花费了 200000 个 A100 GPU 小时。即使研究者使用最先进的方法,也需要在 8×H100 GPU 上训练一个多月的时间。此外,训练大模型也对数据集提出了挑战,这些数据基本以亿为单位,同样给训练模型带来挑战。高昂的训练成本和对数据集的要求为大规模扩散模型的开发造成了难以逾越的障碍。现在,来自 Sony
私有数据、删掉的内容可以永久访问,GitHub官方:故意设计的
最近,一个消息震惊开源社区:在 GitHub 上删掉的内容、私有存储库的数据都是可以永久访问的,而且这是官方故意设计的。开源安全软件公司 Truffle Security 在一篇博客中详细描述了这个问题。Truffle Security 引入了一个新术语:CFOR(Cross Fork Object Reference):当一个存储库 fork 可以访问另一个 fork 中的敏感数据(包括来自私有和已删除 fork 的数据)时,就会出现 CFOR 漏洞。与不安全的直接对象引用类似,在 CFOR 中,用户提供提交(c
标签贴错,AMD召回所有新一代CPU
因为有 typo,召回所有已铺货芯片。上个月,AMD 首席执行官苏姿丰博士在 ComputeX 开幕主题演讲上揭开了 Zen 5 架构的神秘面纱。作为 AMD 未来几年 CPU 的台柱子,Zen 5 立刻被引入消费级市场,面向笔记本和台式机的产品在几周内相继发布。然而临近上市日期,AMD 突然宣布,由于「对 Ryzen 9000 系列处理器的包装产品测试流程」存在问题,其将推迟数周推出搭载 Zen 5 的 Ryzen 9000 处理器。由于最近英特尔酷睿芯片曝出问题,人们对高端芯片质量的关注度很高,AMD 的这一消
关于大模型「越狱」的多种方式,有这些防御手段
AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]作者:罗昊京(Financial Quantitative Analyst)此项目是由伊利诺伊大学香槟分校(UIUC)的汪浩瀚教授主导,汇集了多名intern的共同努力而成。长久以来,这个