阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。

阿里通义千问今日开源 Qwen2.5-Coder 全系列模型,其中 Qwen2.5-Coder-32B-Instruct 成为目前 SOTA 的开源代码模型,官方号称代码能力追平 GPT-4o。

阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

Qwen2.5-Coder-32B-Instruct 作为本次开源的旗舰模型,在多个流行的代码生成基准(如 EvalPlus、LiveCodeBench、BigCodeBench)上都取得了开源模型中的最佳表现,官方称达到和 GPT-4o 有竞争力的表现。

阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。

Qwen2.5-Coder 0.5B / 1.5B / 7B / 14B / 32B 模型均采用 Apache 2.0 许可证,3B 模型使用 Research Only 许可。

阿里通义千问开源 Qwen2.5-Coder 全系列模型,号称代码能力追平 GPT-4o

AI在线附相关链接如下:

  • Github:https://github.com/QwenLM/Qwen2.5-Coder

  • Huggingface:https://huggingface.co/collections/Qwen/qwen25-coder-66eaa22e6f99801bf65b0c2f

  • Modelscope:https://modelscope.cn/organization/qwen

  • 演示:https://huggingface.co/spaces/Qwen/Qwen2.5-Coder-demo

相关资讯

阿里Qwen2正式开源,性能全方位包围Llama-3

Qwen 系列会是众多大学实验室新的默认基础模型吗?斯坦福团队套壳清华大模型的事件不断发酵后,中国模型在世界上开始得到了更多关注。不少人发现,原来中国已经有不少成熟的大模型正在赶超国外。HuggingFace 平台和社区负责人 Omar Sanseviero 曾表示,AI 社区一直在「忽视」中国机器学习生态系统的工作,他们正在用有趣的大语言模型、视觉大模型、音频和扩散模型做一些令人惊奇的事情,如 Qwen、Yi、DeepSeek、Yuan、WizardLM、ChatGLM、CogVLM、Baichuan、Inter

阿里云Qwen2.5发布!再登开源大模型王座,Qwen-Max性能逼近GPT-4o

人工智能领域再度迎来重磅消息! 2023 年 8 月,通义首次开源后迅速引起全球开发者的关注和热议,短短一年时间内,阿里云大模型又迎来了重要升级。 在 9 月 19 日的云栖大会上,CTO 周靖人宣布:通义千问发布新一代开源模型 Qwen2.5,开源旗舰模型 Qwen2.5-72B 性能超越 Llama 3.1-405B,再次登上全球开源大模型的王座;通义旗舰模型 Qwen-Max 全方位升级,性能已经逼近 GPT-4o。                              发布现场,图源:泽南通义千问凭借不

阿里云通义千问 Qwen2-VL 第二代视觉语言模型开源

阿里云通义千问今日宣布开源第二代视觉语言模型 Qwen2-VL,并推出 2B、7B 两个尺寸及其量化版本模型。同时,旗舰模型 Qwen2-VL-72B 的 API 已上线阿里云百炼平台,用户可直接调用。据阿里云官方介绍,相比上代模型,Qwen2-VL 的基础性能全面提升:读懂不同分辨率和不同长宽比的图片,在 DocVQA、RealWorldQA、MTVQA 等基准测试创下全球领先的表现;理解 20 分钟以上长视频,支持基于视频的问答、对话和内容创作等应用;具备强大的视觉智能体能力,可自主操作手机和机器人,借助复杂推