开源
微软等开源AIOpsLab,可构建自主云AI Agent
微软、加州大学伯克利分校、伊利诺伊大学等研究人员联合开源了,一个专用于云自动化运维的AI Agents——AIOpsLab。 AIOpsLab能模拟真实云服务环境中的复杂操作任务,实现故障的自动化检测、定位和解决问题。 还具备高度的可观测性,能够收集和分析关键的遥测数据,确保对系统状态和应用环境的深入洞察。
解决文生图质量和美学问题,字节跳动提出VMix:多维度美学控制方法,一键提升图像美学
本文经AIGC Studio公众号授权转载,转载请联系出处。 为了解决扩散模型在文生图的质量和美学问题,字节跳动&中科大研究团队提出VMix美学条件注入方法,通过将抽象的图像美感拆分成不同维度的美学向量引入扩散模型,从而实现细粒度美学图像生成。 论文基于提出的方法训练了一个即插即用的模块,无需再训练即可应用于不同的开源模型,提升模型的生成美感。
「DeepSeek接班OpenAI」,最新开源的R1推理模型,让AI圈爆了
昨晚,大模型领域再次「热闹起来」,月之暗面发布在数学、代码、多模态推理能力层面全面对标 OpenAI 的满血版 o1 的多模态思考模型 K1.5。 而最近大热的 DeepSeek 正式推出了 DeepSeek-R1,同样在数学、代码和自然语言推理等任务上比肩 OpenAI o1 正式版。 去年 12 月开源的大模型 DeepSeek-V3 刚刚掀起了一阵热潮,实现了诸多的不可能。
OminiControl:一个新的FLUX通用控制模型,单个模型实现图像主题控制和深度控制
OminiControl 也开源了其可控生成模型。 OminiControl 是一个最小但功能强大的FLUX通用控制框架,可以一个模型实现图像主题控制和深度控制。 比如一个提示词加一个服装图片就能让生成的人物穿上服装。
微软开源Markdown工具爆了:支持Office文档,可接多模态LLM直出报告
微软官方开源了一款文件格式转换工具——MarkItDown! 它不仅可以将常见的Office文档(Word、PowerPoint、Excel)、PDF、图像、音频等转换为对大模型更友好的Markdown格式。 而且还支持集成像GPT-4o这样的多模态LLM,可以直接对图片、音频文件进行更高级的处理,比如快速输出商业报告。
Open-Sora:让所有人都能轻松制作高效视频,可生成16秒720P视频,模型代码全开源!
Open-Sora是一项致力于高效制作高质量视频的计划。 目的是让所有人都能使用模型、工具和所有细节。 通过采用开源原则,Open-Sora 不仅使高级视频生成技术的使用变得民主化,而且还提供了一个简化且用户友好的平台,简化了视频生成的复杂性。
CMU等曝光GitHub「地下产业链」!450万个Star都是刷的
什么? Github的star居然都能是假的了,甚至数量达到了惊人的450万! 大多数的研究人员都会将自己的项目发布到Github中,以增加曝光度。
反手就是开源!英伟达豪掷7亿美元收购专攻GPU初创Run:ai
就在刚刚,英伟达正式完成了对以色列AI初创Run:ai的收购。 对于AI基础设施来说,Run:ai的软件至关重要——通过动态调度、GPU池化、GPU分片等功能,硬件资源的使用效率可以得到大幅提升,甚至可以实现10倍的工作负载。 图片不仅如此,随后Run:ai还计划将他们的软件开源。
奥特曼公布OpenAI新年目标:AGI/Agent排前列,4o/Sora要更新,还有……
狂奔的2024年进入最后一天,奥特曼新年目标来了~坏消息:没有GPT-5,开源依旧不在考虑范围内……前几日奥特曼发帖子收集大伙儿愿望,引得420万网友围观,评论区留下1万个心愿单。 你希望OpenAI在2025年开发/修复什么? 图片就在刚刚,参考大家建议后,OpenAI新年目标公布了。
近1.4万星,腾讯混元大模型开源成绩单公布,多次登顶开源趋势热榜
记者获悉,腾讯云副总裁,腾讯混元大模型负责人刘煜宏在2024开放原子开发者大会暨首届开源技术学术大会上表示,腾讯将开源协同作为公司的核心技术战略,积极推动内外部技术开源共享。 腾讯混元大模型语言大模型、文生图大模型、文生3D大模型以及文生视频大模型等多个模态模型均已开源,未来大模型各版本也将进一步开源,与社区开发者一起共同推动技术生态繁荣发展。 (腾讯云副总裁,腾讯混元大模型负责人 刘煜宏)腾讯混元大模型的开源模型已经全面覆盖文生文、文生图、文生3D以及文生视频多个模态,是开源系列模型中较全的,其模型性能也得到了开源社区的高度认可,总GitHub Star(星星)数量近1.4万颗,并且多次登顶趋势榜。
国产开源模型顶流「通义」,被曝应用团队已“离开”阿里云,并入阿里智能信息事业群! 阿里吴嘉回归的第一把火,能燃起来吗?
编辑 | 伊风媒体爆料了阿里系大模型“通义”的大新闻:近期,AI应用“通义”已经从阿里云被分拆出来,并入到阿里智能信息事业群! 乍一看有点懵,因为被分拆出来的不是全部的“通义”,而是 To C 的应用层“通义”。 而模型层的“通义”大模型家族相关业务,仍然保留在阿里云体系内的通义实验室中。
开源Llama版o1来了,3B小模型反超80B,逆向工程复现OpenAI新Scaling Law
o1完整版公开仅10天,Scaling Law新范式就被逆向工程复现了! Hugging Face官方发文,开源了扩展测试时计算的方法。 用在小小小模型Llama 1B上,数学分数直接超过8倍大的模型,也超过了计算机科学博士生的平均分数(40%)。
两个用于科研的开源 AI Agent,改变知识研究的方式
想象一下,如果可以让爱因斯坦、埃隆·马斯克、费曼、史蒂夫·乔布斯、简·古道尔和尤瓦尔·诺亚·赫拉利和你一起合作共同研究并编写研究报告,这是一种什么感受? 我们每天产生的信息比过去一年产生的信息还要多,假如研究人员想在一个小时内访问一万个网站、研究分析数据、并编写报告,这实际上是不可能的。 如今,随着AI 大模型技术的发展,使用AI Agent却可以轻松地做到这一点。
无问芯穹开源全球首款端侧全模态理解模型 Megrez-3B-Omni,支持图像、音频、文本理解
无问芯穹今日宣布,开源无问芯穹端侧解决方案中的全模态理解小模型 Megrez-3B-Omni 和它的纯语言模型版本 Megrez-3B-Instruct。
LG 发布 EXAONE 3.5 开源 AI 模型:长文本处理利器、独特技术有效降低“幻觉”
LG 人工智能研究院本周一(12 月 9 日)发布 EXAONE 3.5 开源 AI 模型,并同步推出面向 LG 员工的企业级 AI 智能体服务 ChatEXAONE。
73页,开源「后训练」全流程!AI2发布高质量Tülu 3系列模型,拉平闭源差距,比肩GPT-4o mini
只进行过「预训练」的模型是没办法直接使用的,存在输出有毒、危险信息的风险,也无法有效遵循人类指令,所以通常还需要进行后训练(post-train),如「指令微调」和「从人类反馈中学习」,以使模型为各种下游用例做好准备。 早期的后训练工作主要遵循InstructGPT等模型的标准方案,如指令调整(instruction tuning)和偏好微调(preference finetuning),不过后训练仍然充满玄学,比如在提升模型编码能力的同时,可能还会削弱模型写诗或遵循指令的能力,如何获得正确的「数据组合」和「超参数」,使模型在获得新知识的同时,而不失去其通用能力,仍然很棘手。 为了解决后训练难题,各大公司都提升了后训练方法的复杂性,包括多轮训练、人工数据加合成数据、多训练算法和目标等,以同时实现专业知识和通用功能,但这类方法大多闭源,而开源模型的性能又无法满足需求,在LMSYS的ChatBotArena上,前50名模型都没有发布其训练后数据。
开源全家桶又添一“元”,腾讯混元大模型公布最新进展
刚刚,腾讯混元大模型公布最新进展:正式上线视频生成能力,这是继文生文、文生图、3D生成之后的又一新里程碑。 与此同时,腾讯开源该视频生成大模型,参数量130亿,是当前最大的视频开源模型。 “用户只需要输入一段描述,即可生成视频,”腾讯混元相关负责人透露,目前的生成视频支持中英文双语输入、多种视频尺寸以及多种视频清晰度。
腾讯版Sora发布即开源!130亿参数,模型权重、推理代码全开放
130亿参数,成为目前参数量最大的开源视频生成模型。 模型权重、推理代码、模型算法等全部上传GitHub与Hugging Face,一点没藏着。 实际效果如何呢?