资讯列表
李开复:中国需要自己的 ChatGPT,当下国内 AI 工具“都还不够好”
彭博社今日刊登了对李开复的专访,李开复认为中国需要自己的 ChatGPT,以加快人们对人工智能的兴趣、采用和投资。李开复谈到了“ChatGPT 时刻”—— 对于美国人来说,“ChatGPT 时刻”发生在 17 个月之前(IT之家注:2022 年 12 月,聊天机器人 ChatGPT 开始大火)。但他认为,中国用户还没有迎来“ChatGPT 时刻”,直到现在,国内的聊天机器人或工具“都还不够好”。李开复披露了自家 AI 公司零一万物的近况:已经接近盈利。在对国内外的数据集进行模型训练之后,李开复正在将自家的模型和应用
除了一键启动Copilot,什么是AI PC本来该有的样子?
在过去的一年多里,无论你是否身处科技行业,都能感受到一种强烈的趋势:人工智能正在重塑每个人的生活。历史上每一次技术的重大突破,都会带来生产力的变革。但是这一次,变革来到了一个更加微观的层面。比如,在大模型的助力下,我们使用个人电脑仅需几分钟就能完成一份行研报告的初稿,这在以前是难以想象的。这种与 AI 协作的全新方式,其实就是下一代「个人生产力」的初步形态,而这场生产力变革的接入点,是「AI PC」。2024 年,AI PC 成为了科技领域的热门关键词。如果你此时正在选购一台笔记本电脑,肯定绕不开「AI PC」,这
Sora是世界模拟器吗?全球首篇综述全面解析通用世界模型
世界模型,即通过预测未来的范式对数字世界和物理世界进行理解,是通往实现通用人工智能(AGI)的关键路径之一。在视频生成领域,OpenAI 发布的 Sora 引起了广泛关注,Sora 具有极强的仿真能力,可以展现出对物理世界的初步理解;视频生成领军企业 Runway 在技术博客中表示,文生视频系统 Gen-2 的下一代产品将会通过通用世界模型来实现。在自动驾驶领域,Tesla 和 Wayve 均表示在利用世界模型的预测未来特性构建其端到端自动驾驶系统。在更广泛的通用机器人智能领域,LeCun 多次在演讲中表示对世界模
培育发展智能汽车领域新质生产力,「AI+智能车」论坛在浦东新区成功举办
5 月 11 日,在上海市浦东新区科技和经济委员会指导下,由中国(上海)自由贸易试验区管理委员会金桥管理局、上海市浦东新区产业发展促进中心、上海市浦东新区投资促进二中心、上海金桥(集团)有限公司主办,上海浦东科技创业中心、机器之心(上海)科技有限公司承办,上海金桥创业孵化器管理有限公司、中国移动通信集团上海有限公司、宁波银行股份有限公司上海分行协办的 AI 智能车论坛在金桥成功举办。浦东新区科技和经济委员会副主任夏玉忠,上海金桥(集团)有限公司党委委员、副总经理朱理立,中国移动通信集团上海有限公司浦东分公司总经
只需百行代码,让H100提速30%,斯坦福开源全新AI加速框架
提高 GPU 利用率,就是这么简单。AI 的快速发展,伴随而来的是大计算量。这就自然而然的引出了一个问题:如何减少 AI 对计算的需求,并提高现有 AI 计算效率。为了回答这一问题,来自斯坦福的研究者在博客《GPUs Go Brrr》中给出了答案。博客地址::一是硬件真正需要什么?二是如何满足硬件需求?文章用大量篇幅讨论了如何让 GPU 更快的运行,并发布了一个库 ThunderKittens,用户可以很容易地在 CUDA 上编写快速的深度学习内核。其具有以下特点:简单,ThunderKittens 写起来非常简单
英国推出开源免费 AI 评估平台 Inspect,可为模型知识 / 推理能力评分
英国人工智能安全研究所(AI Safety Institute)近日推出了一款名为“Inspect”的 AI 模型安全评估平台,该平台采用开源授权方式,向全球 AI 工程师免费开放,允许工程师们评估自家模型性能及安全性。IT之家注意到,这款 Inspect 平台主要由三大主要框架组成,分别为“数据集”、“求解器(Solver)”、“评分器”,可用来评估各款 AI 模型的特定方面能力,包含模型的核心知识储备量、推理能力与自主能力等,相关框架将根据模型测试结果逐一就各项进行评分;除了内置的一系列测试器外,Inspect
美国教授用 2 岁女儿训 AI 模型登 Science,人类幼崽头戴相机训练全新 AI
【新智元导读】为训练 AI 模型,纽约州立大学的一名教授 Brenden Lake,竟让自己不到 2 岁女儿头戴相机收集数据!要知道,Meta 训 Llama 3 直接用了 15 万亿个 token,如果 Lake 真能让 AI 模型学习人类幼崽,从有限的输入中学习,那 LLM 的全球数据荒岂不是解决了?为了训练 AI 模型,一位纽约州立大学的教授,竟然把类似 GoPro 的相机绑在了自己女儿头上!虽然听起来不可思议,但这位教授的行为,其实是有据可循的。要训练出 LLM 背后的复杂神经网络,需要海量数据。目前我们训
字节开源大模型量化新思路,2-bit量化模型精度齐平fp16
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]随着深度学习大语言模型的越来越火爆,大语言模型越做越大,使得其推理成本也水涨船高。模型量化,成为一个热门的研究课题。近日,字节跳动语音团队推出一个全新的量化思路,抛弃传统的量化范式,从数学
Anthropic 修改服务政策:允许第三方将自家 Claude 等 AI 模型用于“未成年人产品”中
Anthropic 上周更新自家服务政策,宣布将从 6 月 6 日开始将开放未成年人使用自家 AI 模型服务,同时在条款中更明确地禁止将相关 AI 用于“侵犯用户隐私”等目的。IT之家注意到,Anthropic 做的第一件事就是将他们的 EULA 措辞从“建议使用政策”(Acceptable Use Policy)改名为“使用政策”(Use Policy),相对强硬地声明了用户的责任。此外,Anthropic 宣布虽然他们禁止 18 岁以下用户使用自家 Claude 系列 AI 模型,但该公司宣称由于他们注意到了
欧拉全球化战略再进阶,2024款欧拉好猫>木兰版北京车展超值上市!
4月26日,2024北京国际车展欧拉品牌发布会以“欧拉美学,全球经典”为主题,重磅发布了欧拉全球化出海战略。欧拉将从产品覆盖、市场布局和出海模式等三个维度上不断深化,由“单品出海”向全价值体系“生态出海”进阶,开启全球化2.0新时代。发布会上,2024款欧拉好猫>木兰版同步超值上市!2024款欧拉好猫售价10.58万元-13.58万元区间,带来颜值、配置和安全等方面的全面升级;2024款欧拉好猫GT木兰版售价为11.98万元-12.98万元,以更酷飒、更智能、更安全的方式与新世代一同玩转纯电GT,双车更有5重权
OpenAI 抓内鬼出奇招,阿尔特曼耍了所有人:GPT 搜索鸽了,改升级 GPT-4
感谢IT之家网友 咩咩洋、substring 的线索投递!最近 OpenAI 太反常,消息一会一变,直让人摸不着头脑。阿尔特曼宣布:5 月 13 日开发布会,不是 GPT-5,也不是盛传的 GPT 搜索引擎,改成对 ChatGPT 和 GPT-4 的升级~消息一出,大伙儿都蒙了。之前大张旗鼓给 SearchGPT 搜索引擎造势,域名、前端界面都准备好了,甚至已经有用户收到灰度测试。大有在谷歌 I / O 大会(5 月 14 日)前狙击一把谷歌核心业务的架子,就像春节期间用 Sora 狙击了谷歌大模型 Gemini
扎克伯格:AI 数据中心 GPU 紧缺正在缓解,电力将成新瓶颈
Meto CEO 马克・扎克伯格(Mark Zuckerberg)近日在接受油管 Dwarkesh Patel 频道采访时表示,AI 数据中心的 GPU 紧缺已在缓解过程中,未来的瓶颈将是电力供应。扎克伯格首先提到,此前一段时间,IT 企业即使资金充足也难以买到全部所需数量的 AI GPU,但这一情况目前已开始缓解。目前新建的单一数据中心在整体功耗方面可达到 50~100MW 乃至 150MW;但扎克伯格认为 1GW 级别的数据中心不会很快出现,毕竟这相当于将一整个核电机组的发电能力用于训练 AI(IT之家注:作为
OpenAI GPT 搜索引擎原型曝光:新模型 GPT4-Lite 驱动,虽然鸽了发布会但代码已上传
OpenAI 发布会前一天,员工集体发疯中…… 上演大型套娃行为艺术。A:我为 B 的兴奋感到兴奋;B:我为 C 的兴奋感到兴奋……Z:我为这些升级感到兴奋与此同时还有小动作不断,比如现在 GPT-4 的文字描述已不再是“最先进的模型”,而仅仅是“先进的”。以及被鸽掉的 GPT 搜索引擎,原型代码上传到 ChatGPT 了。黑客“光头哥”Tibor Blaho,从更新的前端代码中扒出 SearchGPT 的界面。从泄露的界面来看,SearchGPT 会出现在侧边栏,与其他 GPTs 一起。首页目前还很简洁,像谷歌一
在 ICLR 2024,看见中国大模型的力量
作者 | 赖文昕编辑 | 陈彩娴近日(5.7-5.11),第十二届国际学习表征会议(ICLR)在奥地利维也纳的展览会议中心召开。 ICLR 2024 的论文终审工作自 1 月份启动以来,共收到了7262篇提交论文,相较于上一年度的 4966 篇,增幅达到了 46.1%,接近翻了一番。 在严格的评审过程中,大会最终接受了 2260 篇论文,整体接收率维持在 31%,与去年的31.8%基本持平,其中 Spotlights 和 Oral 两种类型的论文展示分别有 367 篇(占5%)和 86 篇(占1.2%)论文获选。
DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
基于 Diffusion Transformer(DiT)又迎来一大力作「Flag-DiT」,这次要将图像、视频、音频和 3D「一网打尽」。今年 2 月初,Sora 的发布让 AI 社区更加看到了基础扩散模型的潜力。连同以往出现的 Stable Diffusion、PixArt-α 和 PixArt-Σ,这些模型在生成真实图像和视频方面取得了显著的成功。这意味着开始了从经典 U-Net 架构到基于 Transformer 的扩散主干架构的范式转变。值得注意的是,通过这种改进的架构,Sora 和 Stable Dif
从零开始手搓GPU,照着英伟达CUDA来,只用两个星期
从学习芯片的基础知识开始。「我花两周时间零经验从头开始构建 GPU,这可比想象的要难多了。」总有人说老黄的芯片供不应求,大家恨不得去手搓 GPU,现在真的有人试了。近日,美国一家 web3 开发公司的创始工程师之一 Adam Majmudar 分享了他「手搓 GPU」成功的经历,引发了网友们的一大片点赞。令人惊讶的是,他仅用两周时间就完成了这一脑力壮举。在 Twitter/X 的主题帖子中,Majmudar 进行了直播,一步步带我们回顾了整个过程。自造 GPU 的实践当然也被公开在 GitHub 上,现在这个项目已
Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动
Meta FAIR 联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。最近,许多机构在训练 SOTA 生成式 AI 模型时报告了训练过程中的不稳定情况,它们通常以损失尖峰的形式出现,比如谷歌的 PaLM 模型训练过程中出现了多达 20 次的损失尖峰。数值偏差是造成这种训
坏了,我的RTX 3090 GPU在对我唱歌!
这你敢信?!在一个昏暗的机箱里,一台 RTX 3090 GPU「唱」着经典英语儿歌《一闪一闪亮晶晶》(Twinkle,Twinkle,Little Star)的旋律。这不是灵异事件,也不是科幻电影,而是一位 AI 科学家在「整活」。这位科学家名叫 Vrushank Desai。据他介绍,机箱中的旋律是由 GPU 的电感线圈发出来的。GPU 如何发出这种声音,别急,Desai 在 X 上给出了解释。事情的起因是这样的,今年年初,Desai 花了几个月的时间学习 GPU 编程,并尝试优化《Diffusion Polic