Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。进入官网后,点击 Download 按钮下载 Ollama 客户端,然后进行安装。

安装完 Ollama 后,我们到 Ollama 官网的模型页面(https://ollama.com/search)挑选一下模型。

这里我们选择 deepseek-r1

如果你还没下载过这个模型执行以下命令后就会自动下载,如果已经下载过它就会运行这个模型。
运行后,你就可以在终端和大模型对话了。

如果需要停止或卸载模型,可以使用以下命令
打开 Docker 官网,根据你系统下载对应的安装包,然后还是傻瓜式安装即可。

Dify 是一个开源的大语言模型(LLM)应用开发平台,旨在帮助开发者快速构建和部署生成式 AI 应用程序。

启动成功后,访问 http://localhost/install
(1)注册管理员账户

(2)使用管理员账户进行登录

(3)登录成功后,可以看到以下页面

在配置工作流之前,我们需要给 Dify 配置大语言模型。
(1)点击页面右上角的管理员头像,然后选择“设置”。

(2)选择“模型供应商”,然后点击“Ollama”的卡片添加模型。

(3)参数配置
模型名称:填入 deepseek-r1:latest。基础 URL:填入 http://host.docker.internal:11434。
(1)创建空白应用

(2)选择“工作流”

(3)配置工作流
