开源
“最强开源 AI 模型”,4050 亿参数版 Meta Llama 3 被曝 7 月 23 日发布
感谢科技媒体 The Information 本周五发布博文,援引内部员工曝料称 Meta 公司计划 7 月 23 日发布开源 AI 模型 Llama 3-405B,在现有 80 亿和 700 亿参数两个版本之外,推出 4050 亿参数版本,号称是最强大的开源大语言模型。Meta 公司今年 4 月发布 Llama 3 AI 模型时,扎克伯格就在采访中透露正在训练 4050 亿像素的密集模型,但当时没有透露太多的信息。AI在线注:上图为机翻字幕,存在错误报道称 Llama 3-405B 是一个多模态 AI 开源模型,
2024 世界人工智能大会线下参观人数创历史新高,预计总投资额超 400 亿元
2024 世界人工智能大会(WAIC 2024)暨人工智能全球治理高级别会议闭幕式于今日下午举行。截至今日 14 时,大会线下参观人数突破 30 万人次,全网流量突破 10 亿,比上届增长了 90%,均创下历史新高。据悉,本次大会对接 132 个采购团组,形成了 126 个项目采购需求,预计意向采购金额达 150 亿元,推动 24 个重大产业项目的签约,预计总投资额超过 400 亿元。本次大会的展览面积超过 5.2 万平方米,500 余家知名企业、超过 1500 项展品参展,50 余款新品首发首秀,均创历史新高。A
消息称国内首款鸿蒙人形机器人正在蔚来、亨通等工厂检测验证
据《科创板日报》报道,国内首款搭载鸿蒙操作系统的人形机器人夸父正在蔚来、江苏亨通集团等工厂检测验证。据悉,“盘古大模型 夸父人形机器人”将在工业和家庭两大场景同步推进应用。IT之家注意到,去年 12 月,乐聚机器人宣布推出机器人新品夸父,号称是“国内首款可跳跃、可适应多地形行走的开源鸿蒙人形机器人”。该机器人搭载深开鸿基于开源鸿蒙研发的 KaihongOS,采用全栈开源设计,运动控制器全面开源,可接入轨迹规划、反馈控制、状态估计等模块。今年 3 月,海尔机器人、乐聚机器人在 2024 年中国家电及消费电子博览会
阿里云 CTO 周靖人:通义开源模型下载量破 2000 万,坚定拥抱开源
感谢在今日的 2024 上海世界人工智能大会上,阿里云 CTO 周靖人公布近期通义大模型和阿里云百炼平台的最新进展:近 2 个月,通义千问开源模型下载量增长 2 倍,突破 2000 万次;阿里云百炼服务客户数从 9 万增长至 23 万,涨幅超 150%。周靖人重申了阿里云拥抱开源开放的坚定立场,“两年前,我们在世界人工智能大会上发布通义大模型系列,当时我们公布,通义核心模型将开源开放。到今天,通义千问已经实现真正意义上的全尺寸、全模态开源,拉平了开源、闭源模型之间的差距。”IT之家注意到,百度创始人、董事长兼首席执
开源 AI 大模型“洗牌”:阿里通义千问 Qwen2-72B 成“王者”,傲视 Meta Llama-3、微软 Phi-3 等群雄
感谢Hugging Face 联合创始人兼首席执行 Clem Delangue 于 6 月 26 日在 X 平台发布推文,表示阿里云开源的通义千问(Qwen)指令微调模型 Qwen2-72B 在开源模型排行榜上荣登榜首。Hugging Face 公布了全新的开源大语言模型排行榜,通过 300 片英伟达 H100 GPU,重新运行 MMLU-pro 等标准评估目前主流的大语言模型,并在其要点介绍中称 Qwen2-72B 为“王者”,并表示中国的诸多开源模型在榜单上有一席之位。他表示,为了提供全新的开源大模型排行榜,使
腾讯混元文生图大模型开源训练代码,发布LoRA与ControlNet插件
6月21日,腾讯混元文生图大模型(以下简称为混元DiT模型)宣布全面开源训练代码,同时对外开源混元DiT LoRA 小规模数据集训练方案与可控制插件ControlNet。这意味着,全球的企业与个人开发者、创作者们,都可以基于混元DiT训练代码进行精调,创造更具个性化的专属模型,进行更大自由度的创作;或基于混元DiT的代码进行修改和优化,基于此构建自身应用,推动技术的快速迭代和创新。作为中文原生模型,用户在通过混元DiT的训练代码进行精调时,可以直接使用中文的数据与标签,无需再将数据翻译成英文。此前,腾讯混元文生图大
上海人工智能实验室发布首个 AI 高考评测结果:语数英总分最高 303 分,数学全部不及格
感谢上海人工智能实验室 19 日公布了首个 AI 高考全卷评测结果。据介绍,2024 年全国高考甫一结束,该实验室旗下司南评测体系 OpenCompass 选取 6 个开源模型及 GPT-4o 进行高考“语数外”全卷能力测试。评测采用全国新课标 I 卷,参与评测的所有开源模型开源时间均早于高考,确保评测“闭卷”性。同时,成绩由具有高考评卷经验的教师人工评判,更加接近真实阅卷标准。该机构表示,Qwen2-72B、GPT-4o 及书生・浦语 2.0 文曲星(InternLM2-20B-WQX)成为本次大模型高考的前三甲
中国电信发布全球首个单体稠密万亿参数语义模型 Tele-FLM-1T
中国电信人工智能研究院(TeleAI)和智源研究院联合发布全球首个单体稠密万亿参数语义模型 Tele-FLM-1T,该模型与百亿级的 52B 版本,千亿级的 102B 版本共同构成 Tele-FLM 系列模型。TeleAI 和智源研究院基于模型生长和损失预测等技术,Tele-FLM 系列模型仅使用了业界普通训练方案 9% 的算力资源,基于 112 台 A800 服务器,用 4 个月完成 3 个模型总计 2.3T tokens 的训练。模型训练全程做到了零调整零重试,算力能效高且模型收敛性和稳定性好,Tele-FLM
Stable Diffusion 3 开源倒计时,2B 单机可跑碾压闭源 Midjourney
【新智元导读】重磅消息!Stable Diffusion 3,大概率会在明天开源。距离 2 月 SD3 的横空出世,已经过去了 4 个月。如果此事为真,生图圈子第一个出现开源碾压闭源的奇景!强大的 MMDiT 全新架构,将彻底改变 AI 生图的格局。现在,全体 AI 社区都在翘首以盼。万众瞩目的 Stable Diffusion 3,终于要正式开源了!几天前,在 Computex 2024 大会上,Stability AI 联合首席执行官 Christian Laforte 正式官宣:SD 3 Medium 将在
“全球首创”单台 RTX 4090 服务器推理,昆仑万维开源 2 千亿稀疏大模型天工 MoE
昆仑万维今日宣布开源 2 千亿稀疏大模型 Skywork-MoE,基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来,号称是首个完整将 MoE Upcycling 技术应用并落地的开源千亿 MoE 大模型,也是首个支持用单台 RTX 4090 服务器(8 张 RTX 4090 显卡)推理的开源千亿 MoE 大模型。据介绍,本次开源的 Skywork-MoE 模型隶属于天工 3.0 的研发模型系列,是其中的中档大小模型(Skywork-MoE-Medium),模型的总参数量为 1
超越Devin,姚班带队OpenCSG创造大模型编程新世界纪录
来自中国大模型初创公司OpenCSG推出的StarShip CodeGen Agent,以23.67%的成绩刷新了普林斯顿SWEBench(大模型真实独立编程评测)排行榜,取得了全球第二名的成绩,同时创造了非GPT-4o基模的最高纪录(SOTA)。SWEBench评测高度贴近真实编程场景,难度极高,不仅要求模型能理解需求、协调多个函数/类甚至文件的变更,还要求模型与执行环境交互,处理超长上下文并执行远超传统代码生成任务的复杂逻辑推理。在这种高难度的真实测试中,行业中最先进的GPT4和Devin,也仅能解决1.74%
快速入门大模型技术与应用,推荐你从Stable Diffusion开始学起
自 2023 年 AI 技术爆发以来,以 ChatGPT、Stable Diffusion 为代表的大模型已然成为了大众的焦点,其中 Stable Diffusion 作为知名的视觉开源模型,凭借直观易用与令人印象深刻的图像生成能力,赢得了创作者的广泛青睐。随着人工智能技术的不断进步和创新,Stable Diffusion 已经在艺术创作、设计领域乃至科学研究中展现出了独特的魅力和巨大的潜力。它不仅能够在短时间内生成高分辨率、细节丰富的图像,还能够通过简单的文本描述实现复杂视觉内容的创造,这使得 Stable Di
只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
投稿邮箱:[email protected];[email protected]
WOT大会日程上线:我们找来数十位大模型实践企业现身说法
这两天的技术圈里,估计大家都在摩拳擦掌等待体验OpenAI的GPT-4o(o为Omni缩写,意为“全能”)有多“全能”吧。我们无意给市场泼冷水,只是要提醒大家,想要让大模型真正落地,市场的热,并不意味着应用实践的成熟。尤其在企业级场景中,为什么大模型落地理想很丰满现实很骨感?为什么很少有企业能把大模型用在核心业务中?是不想用、还是用不好?在即将于6月21-22日在北京召开的WOT全球技术创新大会上,经过持续数月的发掘、走访、调研,我们找来了数十位已经在大模型应用上起跑并领先半个身位的实践企业,力求给你启发和答案。倾
对话零一万物:大模型产品要找到 TC-PMF
上次零一万物(以下简称“零一”)开发布会还是在 2023 年 11 月,宣布成立后的模型首秀:发布中英双语大模型“Yi”,并将其开源。 这一次,时隔半年,零一不仅将基座模型卷到千亿量级,甚至还直接拿出一款 C 端新品“万知”,零一万物创始人李开复称其为“AI-First 版 office”。 在模型层,零一发布了千亿参数的 Yi-Large 闭源模型,在第三方评测基准斯坦福大学的英语排行 AlpacaEval 2.0上,Yi-Large 可与 GPT-4 比肩(如下图所示);并全面升级了开源模型系列 Yi-1.5,分为 34B、9B、6B三个版本,且提供了 Yi-1.5-Chat 微调模型可供开发者选择。
别再说国产大模型技术突破要靠 Llama 3 开源了
Meta 表示,Llama 3 已经在多种行业基准测试上展现了最先进的性能,提供了包括改进的推理能力在内的新功能,是目前市场上最好的开源大模型。 根据Meta的测试结果,Llama 3 8B模型在语言(MMLU)、知识(GPQA)、编程(HumanEval)等多项性能基准上均超过了Gemma 7B和Mistral 7B Instruct,70B 模型则超越了名声在外的闭源模型 Claude 3的中间版本 Sonnet,和谷歌的 Gemini Pro 1.5 相比三胜两负。 Meta还透露,Llama 3的 400B 模型仍在训练中。
苹果发布 OpenELM,基于开源训练和推理框架的高效语言模型
在 WWDC24 之前,苹果在 Hugging Face 平台上发布了一个“具有开源训练和推理框架的高效语言模型”,名为 OpenELM。当然,这是一项开源语言模型,其源码及预训练的模型权重和训练配方可在苹果 Github 库中获取。IT之家将官方简介翻译如下:大型语言模型的可重复性和透明性对于推进开放研究、确保结果的可信度以及调查数据和模型偏差以及潜在风险至关重要。为此,我们发布了 OpenELM,一个最先进的开源语言模型。OpenELM 使用分层缩放策略,可以有效地分配 Transformer 模型每一层的参数
Meta 发布 Llama 3,号称是最强大的开源大语言模型
感谢Meta 公司今天发布新闻稿,宣布推出下一代大语言模型 Llama 3,共有 80 亿和 700 亿参数两种版本,号称是最强大的开源大语言模型。Meta 声称,Llama 3 的性能优于 Claude Sonnet、Mistral Medium 和 GPT-3.5,IT之家附上 Llama 3 的主要特点如下:向所有人开放:Meta 开源 Llama 3 的 80 亿参数版本,让所有人都能接触最前沿的人工智能技术。全球各地的开发人员、研究人员和好奇心强的人都可以进行游戏、构建和实验。更聪明、更安全:Llama