AI在线 AI在线

Ollama 支持全线的 Qwen 3 模型

作者:AI在线
2025-04-29 12:01
Ollama官方宣布已全面支持阿里巴巴通义千问最新一代大语言模型系列——Qwen3。 这一重要更新进一步丰富了Ollama的开源模型生态,为开发者、企业及AI爱好者提供了更强大的本地化部署选择,显著提升了在多种场景下的AI应用灵活性与效率。   Qwen3模型:性能与规模并重Qwen3是阿里巴巴通义千问团队推出的最新一代大语言模型,涵盖从0.6亿到2350亿参数的广泛模型规模,包括高效的混合专家(MoE)模型。

Ollama官方宣布已全面支持阿里巴巴通义千问最新一代大语言模型系列——Qwen3。这一重要更新进一步丰富了Ollama的开源模型生态,为开发者、企业及AI爱好者提供了更强大的本地化部署选择,显著提升了在多种场景下的AI应用灵活性与效率。  

QQ_1745897247756.png

Qwen3模型:性能与规模并重

Qwen3是阿里巴巴通义千问团队推出的最新一代大语言模型,涵盖从0.6亿到2350亿参数的广泛模型规模,包括高效的混合专家(MoE)模型。据悉,Qwen3系列在编码、数学推理、通用任务等多个基准测试中表现出色,部分性能已媲美DeepSeek-R1及Gemini-2.5-Pro等领先模型。其旗舰模型Qwen3-235B-A22B以卓越的综合能力,为复杂任务提供了强劲支持。  

Qwen3系列的亮点包括:  

  • 多语言支持:覆盖29种语言,包括中文、英文、法语、西班牙语等,适应全球化应用需求。  

  • 长上下文处理:支持高达128K token的上下文长度,适合处理长文本生成、复杂对话等场景。  

  • 专业领域优化:在代码生成、数学推理及结构化数据处理方面显著增强,满足专业化需求。  

  • 灵活的推理模式:默认推推理模式,用户可通过特定提示(如“/no_think”)切换至常规模式,适应不同任务需求。

Ollama集成Qwen3:本地部署更便捷

Ollama作为一个开源的大型语言模型运行框架,以其简单易用和跨平台支持(Windows、macOS、Linux)广受好评。通过本次更新,用户只需一条命令即可在本地运行Qwen3系列模型,无需复杂的环境配置或云端依赖。这种高效的部署方式尤其适合需要数据隐私保护的企业及个人开发者。  

Ollama对Qwen3的支持包括全系列模型,用户可根据硬件条件选择合适的模型规模。例如:  

0.6B至7B模型:适合轻量级设备,如普通PC或边缘设备,最低内存需求仅2GB。  

72B及以上模型:面向高性能计算场景,推荐配备高性能GPU和32GB以上内存。

此外,Ollama还优化了模型量化和硬件加速,支持NVIDIA、AMD GPU以及AVX512指令集的CPU,确保在不同硬件环境下均能实现高效推理。用户还可以通过Ollama的API接口,将Qwen3无缝集成至自定义应用,如智能客服、代码助手或本地知识库系统。  

相关标签:

相关资讯

Qwen3正式确认本周发布,阿里云AI新篇章即将开启

阿里云Qwen团队通过社交平台正式确认,Qwen3系列模型将于本周内发布,标志着其旗舰大语言模型(LLM)与多模态能力的又一次重大升级。 据AIbase了解,Qwen3将推出包括0.6B、4B、8B、30B-A3B在内的多种模型规模,支持高达256K的上下文长度,涵盖推理与非推理任务。 社交平台上的热烈讨论凸显了其全球影响力,相关细节已通过Hugging Face与Qwen官网逐步公开。
4/28/2025 6:00:40 PM
AI在线

通义灵码上线Qwen3:编程智能体即将上线 集成魔搭MCP广场

通义灵码团队宣布正式上线Qwen3,并开源了8款「混合推理模型」,这标志着编程智能体的进一步发展。 此次开源包括两款MoE模型:Qwen3-235B-A22B(2350多亿总参数、220多亿激活参数),以及Qwen3-30B-A3B(300亿总参数、30亿激活参数);还有六个Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。 Qwen3的旗舰模型Qwen3-235B-A22B在代码、数学和通用能力等基准测试中表现出色,与DeepSeek-R1、o1、o3-mini、Grok-3和Gemini-2.5-Pro等顶级模型相比,展现了极具竞争力的结果。
4/29/2025 11:00:51 AM
AI在线

阿里通义千问 Qwen3 系列模型有望今日发布,支持 256K 上下文长度

阿里通义千问Qwen3系列模型今日发布,包括Qwen3-4B-Base、Qwen3-1.7B、Qwen3-0.6B及Qwen3-30B-A3B-Base四款模型,支持高达256K的上下文长度。#AI模型##开源技术#
4/28/2025 8:18:40 PM
远洋
  • 1