Ollama—— 这是一个专为本地部署优化的 AI 模型。 Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。 这无疑是 AI 大模型的一次重大突破!
Ollama—— 这是一个专为本地部署优化的 AI 模型。Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。这无疑是 AI 大模型的一次重大突破!
接下来,让我们一起来了解Ollama的更多细节:Windows基于Ollama部署本地AI大模型
一、大模型工具Ollama介绍
- 官网地址:https://www.ollama.com/
图片
- Ollama是一个用于部署和运行各种开源大模型的工具;
- Ollama它能够帮助用户快速在本地运行各种大模型,极大地简化了大模型在本地运行的过程;
- 用户通过执行几条命令就能在本地运行开源大模型,如Llama 2等;
- 综上,Ollama是一个大模型部署运行工具,在该工具里面可以部署运行各种大模型,方便开发者在本地搭建一套大模型运行环境;
二、Ollama工具下载
下载地址:https://ollama.com/download
图片
注意:Ollama的运行会受到所使用模型大小的影响
- 例如:运行一个7 B(70亿参数)的模型至少需要8GB的可用内存(RAM),而运行一个13 B(130亿参数)的模型需要16GB的内存,33 B(330亿参数)的模型需要32GB的内存;
- 需要考虑有足够的磁盘空间,大模型的文件大小可能比较大,建议至少为Ollama和其模型预留50GB的磁盘空间;
- 性能较高的CPU可以提供更好的运算速度和效率,多核处理器能够更好地处理并行任务,选择具有足够核心数的CPU;
- 显卡(GPU):Ollama支持纯CPU运行,但如果电脑配备了NVIDIA GPU,可以利用GPU进行加速,提高模型的运行速度和性能;
三、Ollama工具安装
点击OllamaSetup.exe安装:
图片
按照提示2步即可:
图片
图片
安装完成后测试:ollama –version。
图片
四、Ollama工具拉取大模型运行。
图片
Ollama拉取运行。
图片
Windows查看大模型端口:
netstat -ano | findstr 11434。
图片
默认Ollama API会监听11434端口,可以使用命令进行查看。
图片
成功!!!
Ollama 的出现为我们带来了全新的AI应用可能性。凭借其出色的本地部署能力和广泛的AI功能,Ollama 必将成为开发者和普通用户的最爱。