Meta 前天推出了一款名为“LLM Compiler”的模型,该模型基于 Meta 现有的 Code Llama 打造,主打代码优化,目前相干模型已登陆 Hugging Face,提供 70 亿参数及 130 亿参数两个版本,允许学术及商业应用,IT之家附项目地址如下:点此访问。Meta 认为,尽管业界各大谈话模型已在各种编程代码使命中展现了出色的能力,但此类模型在代码优化还有进步空间,目前推出的 LLM Compiler 模型便是一款专为优化代码使命设计的预训练模型,可以或许模拟编译器对代码进行优化,或将“已经过优
Meta 前天推出了一款名为“LLM Compiler”的模型,该模型基于 Meta 现有的 Code Llama 打造,主打代码优化,目前相干模型已登陆 Hugging Face,提供 70 亿参数及 130 亿参数两个版本,允许学术及商业应用,IT之家附项目地址如下:点此访问。
Meta 认为,尽管业界各大谈话模型已在各种编程代码使命中展现了出色的能力,但此类模型在代码优化还有进步空间,目前推出的 LLM Compiler 模型便是一款专为优化代码使命设计的预训练模型,可以或许模拟编译器对代码进行优化,或将“已经过优化的代码转换回原本的谈话”。
IT之家获悉,LLM Compiler 在 5460 亿个 LLVM-IR 和汇编代码标记的庞大语料库上进行了训练,据称可以或许达到 77% 的“代码优化潜力”,开发者可以自由将相干模型配合其他 AI 模型一起应用,从而改善生成代码的质量。