Sakana AI发布“AI CUDA工程师”:自动化优化CUDA内核,速度提升高达100倍

日本人工智能初创公司Sakana AI宣布推出“AI CUDA工程师”(AI CUDA Engineer),这一创新性的AI智能体系统旨在自动化生产高度优化的CUDA内核,显著提升机器学习操作的运行效率。 根据X平台上的最新消息,该系统通过进化的大型语言模型(LLM)驱动代码优化技术,将常见PyTorch操作的运行速度提高了10至100倍,标志着AI技术在GPU性能优化领域的重大突破。 Sakana AI表示,CUDA内核作为GPU计算的核心,直接编写和优化通常需要深厚的专业知识和高技术门槛,而现有框架如PyTorch虽然使用便捷,但在性能上往往无法与手动优化的内核媲美。

日本人工智能初创公司Sakana AI宣布推出“AI CUDA工程师”(AI CUDA Engineer),这一创新性的AI智能体系统旨在自动化生产高度优化的CUDA内核,显著提升机器学习操作的运行效率。根据X平台上的最新消息,该系统通过进化的大型语言模型(LLM)驱动代码优化技术,将常见PyTorch操作的运行速度提高了10至100倍,标志着AI技术在GPU性能优化领域的重大突破。

Sakana AI表示,CUDA内核作为GPU计算的核心,直接编写和优化通常需要深厚的专业知识和高技术门槛,而现有框架如PyTorch虽然使用便捷,但在性能上往往无法与手动优化的内核媲美。“AI CUDA工程师”通过智能化的工作流程解决了这一难题:它不仅能将PyTorch代码自动转化为高效的CUDA内核,还通过进化算法进行性能调优,甚至能融合多个内核以进一步提升运行时效率。

QQ20250221-172514.png

X用户@shao__meng将这一技术比喻为“给AI开发装上了自动变速箱”,让普通代码能够“自动升级为赛车级性能”。另一位用户@FinanceYF5也在帖子中指出,该系统的推出展示了AI自优化的潜力,可能为未来的计算资源使用效率带来革命性提升。

Sakana AI此前已因“AI Scientist”等项目在业界崭露头角,此次“AI CUDA工程师”的发布进一步凸显了其在AI自动化领域的雄心。公司声称,该系统已成功生成并验证了超过17,000个CUDA内核,覆盖多种PyTorch操作,且公开的数据集将为研究人员和开发者提供宝贵资源。业内人士认为,这一技术不仅降低了高性能GPU编程的门槛,还可能推动人工智能模型的训练和部署效率迈上新台阶。

信息参考:https://x.com/FinanceYF5/status/1892856847780237318

相关资讯

Sakana AI 的 Transformer² 模型突破 LLM 限制,实现动态推理

Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。 该模型无需昂贵的微调,即可在推理过程中动态学习并适应新任务,这标志着大型语言模型 (LLM) 技术发展的重要一步。 Transformer² 的核心创新在于其独特的两步动态权重调整机制。

黑客利用 “损坏” pickle 文件在 HuggingFace 上传恶意 AI 模型

近日,网络安全研究人员发现,在知名机器学习平台 HuggingFace 上,有两个恶意的机器学习模型悄然上传。 这些模型使用了一种新奇的技术,通过 “损坏” 的 pickle 文件成功规避了安全检测,令人担忧。 ReversingLabs 的研究员卡洛・赞基(Karlo Zanki)指出,从这些 PyTorch 格式的存档中提取的 pickle 文件开头,暗示了其中包含恶意的 Python 代码。

PyTorch 灵魂人物 Horace He 从 Meta 出走,选择 OpenAI 前 CTO 初创公司

PyTorch 机器学习大神 Horace He 宣布,正是离职加入 OpenAI 前 CTO 初创 Thinking Machines。这位技术奇才,曾被 OpenAI、SSI、谷歌等顶级 AI 实验室争相邀请,最终选择了刚刚成立的初创。他的选择,不仅是个人职业生涯的转折,更是对 AI 未来发展方向的一次战略性押注。