SakanaAI

Sakana AI发布“AI CUDA工程师”:自动化优化CUDA内核,速度提升高达100倍

日本人工智能初创公司Sakana AI宣布推出“AI CUDA工程师”(AI CUDA Engineer),这一创新性的AI智能体系统旨在自动化生产高度优化的CUDA内核,显著提升机器学习操作的运行效率。 根据X平台上的最新消息,该系统通过进化的大型语言模型(LLM)驱动代码优化技术,将常见PyTorch操作的运行速度提高了10至100倍,标志着AI技术在GPU性能优化领域的重大突破。 Sakana AI表示,CUDA内核作为GPU计算的核心,直接编写和优化通常需要深厚的专业知识和高技术门槛,而现有框架如PyTorch虽然使用便捷,但在性能上往往无法与手动优化的内核媲美。

Sakana AI 的 Transformer² 模型突破 LLM 限制,实现动态推理

Sakana AI 是一家专注于自然启发算法的人工智能研究实验室,近日推出了一种名为 Transformer² (Transformer-squared) 的创新自适应语言模型。 该模型无需昂贵的微调,即可在推理过程中动态学习并适应新任务,这标志着大型语言模型 (LLM) 技术发展的重要一步。 Transformer² 的核心创新在于其独特的两步动态权重调整机制。
  • 1