轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署

Ollama—— 这是一个专为本地部署优化的 AI 模型。 Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。 这无疑是 AI 大模型的一次重大突破!

Ollama—— 这是一个专为本地部署优化的 AI 模型。Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。这无疑是 AI 大模型的一次重大突破!

接下来,让我们一起来了解Ollama的更多细节:Windows基于Ollama部署本地AI大模型

一、大模型工具Ollama介绍

  • 官网地址:https://www.ollama.com/

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

  • Ollama是一个用于部署和运行各种开源大模型的工具;
  • Ollama它能够帮助用户快速在本地运行各种大模型,极大地简化了大模型在本地运行的过程;
  • 用户通过执行几条命令就能在本地运行开源大模型,如Llama 2等;
  • 综上,Ollama是一个大模型部署运行工具,在该工具里面可以部署运行各种大模型,方便开发者在本地搭建一套大模型运行环境;

 二、Ollama工具下载

下载地址:https://ollama.com/download

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

注意:Ollama的运行会受到所使用模型大小的影响

  • 例如:运行一个7 B(70亿参数)的模型至少需要8GB的可用内存(RAM),而运行一个13 B(130亿参数)的模型需要16GB的内存,33 B(330亿参数)的模型需要32GB的内存;
  • 需要考虑有足够的磁盘空间,大模型的文件大小可能比较大,建议至少为Ollama和其模型预留50GB的磁盘空间;
  • 性能较高的CPU可以提供更好的运算速度和效率,多核处理器能够更好地处理并行任务,选择具有足够核心数的CPU;
  • 显卡(GPU):Ollama支持纯CPU运行,但如果电脑配备了NVIDIA GPU,可以利用GPU进行加速,提高模型的运行速度和性能;

三、Ollama工具安装

点击OllamaSetup.exe安装:

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

按照提示2步即可:

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

安装完成后测试:ollama –version。

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

四、Ollama工具拉取大模型运行。

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

Ollama拉取运行。

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

Windows查看大模型端口:

netstat -ano | findstr 11434。

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

默认Ollama API会监听11434端口,可以使用命令进行查看。

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署图片

成功!!!

Ollama 的出现为我们带来了全新的AI应用可能性。凭借其出色的本地部署能力和广泛的AI功能,Ollama 必将成为开发者和普通用户的最爱。

给TA打赏
共{{data.count}}人
人已打赏
理论

为什么在人工智能时代基础设施必须是无服务器的

2024-12-3 8:41:57

理论

大幅超越所有SOTA!地平线DiffusionDrive:生成式方案或将重塑端到端格局?

2024-12-3 9:36:52

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索