AI在线 AI在线

基于Dify与DeepSeek:零门槛训练自己的专属AI大模型

作者:冰河技术
2025-03-11 10:51
在人工智能(AI)技术日益普及的今天,训练属于自己的AI大模型不再是遥不可及的梦想。 随着DeepSeek  R1的发布,其部署成本仅为ChatGPT的十分之一,这一突破让更多企业和个人能够轻松参与AI开发。 未来,垂直领域的AI大模型和应用将如雨后春笋般涌现,这无疑是一个巨大的机遇。

在人工智能(AI)技术日益普及的今天,训练属于自己的AI大模型不再是遥不可及的梦想。随着DeepSeek  R1的发布,其部署成本仅为ChatGPT的十分之一,这一突破让更多企业和个人能够轻松参与AI开发。未来,垂直领域的AI大模型和应用将如雨后春笋般涌现,这无疑是一个巨大的机遇。

那么,普通人如何快速上手,打造自己的AI大模型呢?本文将为您详细讲解如何基于Dify和DeepSeek,从零开始训练专属AI模型。

一、Ollama:本地运行大模型的利器

Ollama是一个基于Go语言开发的开源框架,专门用于本地运行和管理大语言模型(LLM)。我们将使用Ollama来运行DeepSeek大模型,支持CPU和GPU两种环境。

1.1 CPU环境部署

对于个人开发者或实验用途,CPU环境足以运行DeepSeek R1:7b模型,尽管性能可能稍显不足。以下是部署步骤:

复制
docker run -d -v /data/ollama:/root/.ollama -p 11434:11434 --name ollama registry.cn-hangzhou.aliyuncs.com/yilingyi/ollama

1.2 GPU环境部署

若追求更流畅的性能,建议在GPU环境下运行。以下是以NVIDIA显卡为例的部署流程:

1. 安装NVIDIA Container Toolkit

  • 配置仓库:
复制
bash复制curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey  \
    | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg  
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list  \
    | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg]  https://#g' \
    | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list  
sudo apt-get update
  • 安装工具包:
复制
sudo apt-get install -y nvidia-container-toolkit

2. 配置Docker支持GPU

复制
sudo nvidia-ctk runtime configure --runtime=docker 
sudo systemctl restart docker

3. 运行Ollama

复制
docker run -d --gpus=all -v /data/ollama:/root/.ollama -p 11434:11434 --name ollama registry.cn

二、运行DeepSeek大模型

完成Ollama部署后,通过以下指令下载并运行DeepSeek R1:7b模型:

复制
docker exec -it ollama ollama run deepseek-r1:7b

下载过程可能需要一些时间,但在此期间,我们可以继续部署Dify平台,为后续的AI应用开发做好准备。

三、Dify:AI应用开发的得力助手

Dify是一款开源的大语言模型(LLM)应用开发平台,结合了后端即服务(Backend as a Service)和LLMOps的理念,帮助开发者快速构建生产级的生成式AI应用。即使是技术小白,也能轻松上手。

3.1 安装Docker-Compose V2

复制
bash复制mkdir -p ~/.docker/cli-plugins/
curl -SL https://github.com/docker/compose/releases/download/v2.20.2/docker-compose-linux-x86_64  -o ~/.docker/cli-plugins/docker-compose

3.2 克隆Dify仓库

复制
git clone https://github.com/langgenius/dify.git

3.3 启动Dify

  • 进入Dify的Docker目录:
复制
cd dify/docker
  • 复制环境配置文件:
复制
cp .env.example  .env
  • 启动Docker容器:
复制
docker compose up -d
  • 初始化Dify:

在浏览器中访问以下地址,设置您的账号和密码:

复制
bash

复制
http://your_server_ip/install

四、Dify中配置DeepSeek大模型

完成Dify部署后,我们需要在控制台中添加DeepSeek R1:7b大模型。

(1)登录Dify控制台,点击右上角的“设置”。

图片图片

(2)在左侧菜单中选择“模型供应商”,添加Ollama配置。

图片图片

(3)创建一个空白应用,选择“Chatflow”类型。

图片图片

(4)在LLM节点中选择“deepseek-r1:7b”模型,设置上下文为用户查询变量sys.query ,在SYSTEM处设置提示词(Prompt),定义模型的处理逻辑。

图片图片

(5)预览无误后,发布应用。

图片图片

五、总结

通过本文的教程,已经成功部署了DeepSeek R1:7b大模型,并利用Dify平台创建了专属的AI应用。无论是个人开发者还是企业用户,都可以借助这一技术栈,快速实现AI应用的开发和部署。

相关标签:

相关资讯

Dify+大模型:重构企业基因的“数智引擎”——解锁AI工业化落地新范式

当AI开发进入“流水线时代”2025年,全球企业AI应用开发呈现“冰火两重天”:一边是OpenAI、DeepSeek等大模型参数突破百万亿级,另一边却是78%的企业困在“PPT智能”阶段——AI应用开发周期长、场景碎片化、数据孤岛难破。 Dify与大模型的结合,正在打破这一僵局。 它不仅是工具,更是企业AI能力工业化的流水线,让大模型从“技术狂欢”走向“价值落地”。
4/3/2025 1:07:50 PM
推推君

深度干货:DeepSeek+Dify强强联合,打造企业专属私有化AI知识库

在数字化转型的浪潮中,人工智能正以前所未有的速度渗透到企业运营的各个环节。 尤其对于算力需求旺盛的企业,例如那些关注Nvidia GPU、A800、H100等高性能计算资源的公司,以及积极探索AI Agent(如AutoGen、Devin AI)和低代码平台潜力的组织,如何安全、高效地利用AI提升内部知识管理和对外服务能力,成为其保持竞争力的关键。 本文将深入探讨如何通过DeepSeek强大的语言模型,结合Dify便捷的AI应用开发平台,构建一个私有化部署的企业知识库,为企业带来更智能、更安全、更高效的知识管理体验。
4/9/2025 8:00:46 AM
康焕新

本地部署DeepSeek+DiFy平台构建智能体应用

在大模型实际应用落地时候,利用智能体平台,构建本地的向量化知识库,基于RAG知识增强技术和大模型的推理能力,提升效率。 本文简要介绍RAG、大模型微调和大模型蒸馏的特点,通用智能体平台,并在本地部署DiFy智能体平台,利用本地部署的DeepSeek模型和知识库构建智能体应用。 1、RAG、微调和蒸馏大模型的落地使用主要有RAG、微调和蒸馏几种方式,每种方式有各自的特点和适用场景。
4/14/2025 12:22:00 AM
大唐小少