资讯列表
英国推出开源免费 AI 评估平台 Inspect,可为模型知识 / 推理能力评分
英国人工智能安全研究所(AI Safety Institute)近日推出了一款名为“Inspect”的 AI 模型安全评估平台,该平台采用开源授权方式,向全球 AI 工程师免费开放,允许工程师们评估自家模型性能及安全性。IT之家注意到,这款 Inspect 平台主要由三大主要框架组成,分别为“数据集”、“求解器(Solver)”、“评分器”,可用来评估各款 AI 模型的特定方面能力,包含模型的核心知识储备量、推理能力与自主能力等,相关框架将根据模型测试结果逐一就各项进行评分;除了内置的一系列测试器外,Inspect
美国教授用 2 岁女儿训 AI 模型登 Science,人类幼崽头戴相机训练全新 AI
【新智元导读】为训练 AI 模型,纽约州立大学的一名教授 Brenden Lake,竟让自己不到 2 岁女儿头戴相机收集数据!要知道,Meta 训 Llama 3 直接用了 15 万亿个 token,如果 Lake 真能让 AI 模型学习人类幼崽,从有限的输入中学习,那 LLM 的全球数据荒岂不是解决了?为了训练 AI 模型,一位纽约州立大学的教授,竟然把类似 GoPro 的相机绑在了自己女儿头上!虽然听起来不可思议,但这位教授的行为,其实是有据可循的。要训练出 LLM 背后的复杂神经网络,需要海量数据。目前我们训
字节开源大模型量化新思路,2-bit量化模型精度齐平fp16
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]随着深度学习大语言模型的越来越火爆,大语言模型越做越大,使得其推理成本也水涨船高。模型量化,成为一个热门的研究课题。近日,字节跳动语音团队推出一个全新的量化思路,抛弃传统的量化范式,从数学
Anthropic 修改服务政策:允许第三方将自家 Claude 等 AI 模型用于“未成年人产品”中
Anthropic 上周更新自家服务政策,宣布将从 6 月 6 日开始将开放未成年人使用自家 AI 模型服务,同时在条款中更明确地禁止将相关 AI 用于“侵犯用户隐私”等目的。IT之家注意到,Anthropic 做的第一件事就是将他们的 EULA 措辞从“建议使用政策”(Acceptable Use Policy)改名为“使用政策”(Use Policy),相对强硬地声明了用户的责任。此外,Anthropic 宣布虽然他们禁止 18 岁以下用户使用自家 Claude 系列 AI 模型,但该公司宣称由于他们注意到了
欧拉全球化战略再进阶,2024款欧拉好猫>木兰版北京车展超值上市!
4月26日,2024北京国际车展欧拉品牌发布会以“欧拉美学,全球经典”为主题,重磅发布了欧拉全球化出海战略。欧拉将从产品覆盖、市场布局和出海模式等三个维度上不断深化,由“单品出海”向全价值体系“生态出海”进阶,开启全球化2.0新时代。发布会上,2024款欧拉好猫>木兰版同步超值上市!2024款欧拉好猫售价10.58万元-13.58万元区间,带来颜值、配置和安全等方面的全面升级;2024款欧拉好猫GT木兰版售价为11.98万元-12.98万元,以更酷飒、更智能、更安全的方式与新世代一同玩转纯电GT,双车更有5重权
OpenAI 抓内鬼出奇招,阿尔特曼耍了所有人:GPT 搜索鸽了,改升级 GPT-4
感谢IT之家网友 咩咩洋、substring 的线索投递!最近 OpenAI 太反常,消息一会一变,直让人摸不着头脑。阿尔特曼宣布:5 月 13 日开发布会,不是 GPT-5,也不是盛传的 GPT 搜索引擎,改成对 ChatGPT 和 GPT-4 的升级~消息一出,大伙儿都蒙了。之前大张旗鼓给 SearchGPT 搜索引擎造势,域名、前端界面都准备好了,甚至已经有用户收到灰度测试。大有在谷歌 I / O 大会(5 月 14 日)前狙击一把谷歌核心业务的架子,就像春节期间用 Sora 狙击了谷歌大模型 Gemini
扎克伯格:AI 数据中心 GPU 紧缺正在缓解,电力将成新瓶颈
Meto CEO 马克・扎克伯格(Mark Zuckerberg)近日在接受油管 Dwarkesh Patel 频道采访时表示,AI 数据中心的 GPU 紧缺已在缓解过程中,未来的瓶颈将是电力供应。扎克伯格首先提到,此前一段时间,IT 企业即使资金充足也难以买到全部所需数量的 AI GPU,但这一情况目前已开始缓解。目前新建的单一数据中心在整体功耗方面可达到 50~100MW 乃至 150MW;但扎克伯格认为 1GW 级别的数据中心不会很快出现,毕竟这相当于将一整个核电机组的发电能力用于训练 AI(IT之家注:作为
OpenAI GPT 搜索引擎原型曝光:新模型 GPT4-Lite 驱动,虽然鸽了发布会但代码已上传
OpenAI 发布会前一天,员工集体发疯中…… 上演大型套娃行为艺术。A:我为 B 的兴奋感到兴奋;B:我为 C 的兴奋感到兴奋……Z:我为这些升级感到兴奋与此同时还有小动作不断,比如现在 GPT-4 的文字描述已不再是“最先进的模型”,而仅仅是“先进的”。以及被鸽掉的 GPT 搜索引擎,原型代码上传到 ChatGPT 了。黑客“光头哥”Tibor Blaho,从更新的前端代码中扒出 SearchGPT 的界面。从泄露的界面来看,SearchGPT 会出现在侧边栏,与其他 GPTs 一起。首页目前还很简洁,像谷歌一
在 ICLR 2024,看见中国大模型的力量
作者 | 赖文昕编辑 | 陈彩娴近日(5.7-5.11),第十二届国际学习表征会议(ICLR)在奥地利维也纳的展览会议中心召开。 ICLR 2024 的论文终审工作自 1 月份启动以来,共收到了7262篇提交论文,相较于上一年度的 4966 篇,增幅达到了 46.1%,接近翻了一番。 在严格的评审过程中,大会最终接受了 2260 篇论文,整体接收率维持在 31%,与去年的31.8%基本持平,其中 Spotlights 和 Oral 两种类型的论文展示分别有 367 篇(占5%)和 86 篇(占1.2%)论文获选。
DiT架构大一统:一个框架集成图像、视频、音频和3D生成,可编辑、能试玩
基于 Diffusion Transformer(DiT)又迎来一大力作「Flag-DiT」,这次要将图像、视频、音频和 3D「一网打尽」。今年 2 月初,Sora 的发布让 AI 社区更加看到了基础扩散模型的潜力。连同以往出现的 Stable Diffusion、PixArt-α 和 PixArt-Σ,这些模型在生成真实图像和视频方面取得了显著的成功。这意味着开始了从经典 U-Net 架构到基于 Transformer 的扩散主干架构的范式转变。值得注意的是,通过这种改进的架构,Sora 和 Stable Dif
从零开始手搓GPU,照着英伟达CUDA来,只用两个星期
从学习芯片的基础知识开始。「我花两周时间零经验从头开始构建 GPU,这可比想象的要难多了。」总有人说老黄的芯片供不应求,大家恨不得去手搓 GPU,现在真的有人试了。近日,美国一家 web3 开发公司的创始工程师之一 Adam Majmudar 分享了他「手搓 GPU」成功的经历,引发了网友们的一大片点赞。令人惊讶的是,他仅用两周时间就完成了这一脑力壮举。在 Twitter/X 的主题帖子中,Majmudar 进行了直播,一步步带我们回顾了整个过程。自造 GPU 的实践当然也被公开在 GitHub 上,现在这个项目已
Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动
Meta FAIR 联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。最近,许多机构在训练 SOTA 生成式 AI 模型时报告了训练过程中的不稳定情况,它们通常以损失尖峰的形式出现,比如谷歌的 PaLM 模型训练过程中出现了多达 20 次的损失尖峰。数值偏差是造成这种训
坏了,我的RTX 3090 GPU在对我唱歌!
这你敢信?!在一个昏暗的机箱里,一台 RTX 3090 GPU「唱」着经典英语儿歌《一闪一闪亮晶晶》(Twinkle,Twinkle,Little Star)的旋律。这不是灵异事件,也不是科幻电影,而是一位 AI 科学家在「整活」。这位科学家名叫 Vrushank Desai。据他介绍,机箱中的旋律是由 GPU 的电感线圈发出来的。GPU 如何发出这种声音,别急,Desai 在 X 上给出了解释。事情的起因是这样的,今年年初,Desai 花了几个月的时间学习 GPU 编程,并尝试优化《Diffusion Polic
百万tokens低至1元!大模型越来越卷了
入门价格越来越便宜了。在刚刚举行的 ICLR 2024 大会上,智谱AI的大模型技术团队公布了面向激动人心的AGI通用人工智能前景的三大技术趋势,同时预告了GLM的后续升级版本。今天,智谱大模型开放平台(bigmodel.cn)上线了新的价格体系。入门级产品 GLM-3 Turbo 模型调用价格下调80%!从5元/百万tokens降至1元/百万tokens。1元可以购买100万tokens。调整后,使用GLM-3 Turbo创作一万条小红书文案(以350字计)将仅需约1元钱,足以让更多企业和个人都能用上这款入门级产
OpenAI下周要有大动作,奥特曼在线剧透:不是GPT-5,不是搜索引擎
OpenAI 真是把大家的胃口吊足了,大家再忍忍就等到了。OpenAI 有了新动向!今日凌晨 OpenAI 官宣,将于美国时间 13 日上午 10 点进行一场直播。Sam Altman 随即转发这一消息,并表示「不是 gpt-5,不是搜索引擎,但我们一直在努力开发一些我们认为人们会喜欢的新东西!我感觉这就像魔法一样。」关于即将发布的内容,OpenAI 官方帖子提供的唯一细节是,此次发布将更新 ChatGPT 及其最新模型 GPT-4。OpenAI 员工程博文(Bowen Cheng)跟了个帖,「比 gpt-5 更酷
人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected] Sutton 在 「The Bitter Lesson」中做过这样的评价:「从70年的人工智能研究中可以得出的最重要教训是,那些利用计算的通用方法最终是最有效的,而且优势巨
博弈论让 AI 更加正确、高效,LLM 与自己竞争
编辑 | 绿罗想象一下,你有一位朋友对同一问题给出了不同的答案,具体取决于你提问的方式。「秘鲁的首都是哪里?」会得到一个答案;「利马是秘鲁的首都吗?」 会得到另一个。你可能会有点担心你朋友的智力,而且你几乎很难相信他们给出的任何答案。这正是许多大型语言模型 (LLM) 正在发生的事,这些超强大的机器学习工具为 ChatGPT 和其他人工智能奇迹提供了动力。开放式的生成性问题会产生一个答案,而涉及必须在选项之间进行选择的判别性问题,通常会产生不同的答案。麻省理工学院的博士生 Athul Paul Jacob 表示:「
可用 AI 写 Java 程序,甲骨文推出 Oracle Code Assist 编程助理
继微软、OpenAI、谷歌等厂商后,甲骨文加入了开发 AI 编程助理的阵营,该公司最近推出了名为 Oracle Code Assist 的工具,旨在帮助用户开发 Java 程序。据介绍,Oracle Code Assist 以甲骨文的云端 Oracle Cloud Infrastructure(OCI)模型为基础,旨在优化 Java、SQL 程序和 OCI 平台上的应用开发流程。甲骨文强调,相关 AI 编程助理“经过多种软件库的训练”,并通过其自家的软件微调而成,用户可以使用相关模型配合甲骨文软件实现“高效编程”。