当前位置: 首页 > news >正文

实战教程:Windows下Dify+Ollama环境搭建,小白也能轻松上手!

大家好,我是笑小枫,在代码和人生之间,寻找优雅的解。

最近有朋友在问,如何在Windows系统上搭建一套AI应用开发环境。今天不造轮子,直接使用Dify进行快速搭建。

本文讲解Ollama、Docker Desktop和Dify的安装配置,以及Dify如何整合Ollama运行的模型。

先看效果展示

通过本文,你可以在本地去搭建一套Dify应用,并去创建你需要的AI应用。

是不是很酷?而且整个过程完全免费!让我们开始吧。

环境说明

说明:不使用本地Ollama跑模型,配置要求不高,可选择服务商接口调用。

电脑环境

  • 系统:Windows 11 家庭中文版
  • 处理器:i9-14900HX
  • 显卡:RTX 5080 16G(跑本地模型需要)
  • 网络:需要科学上网,可以私聊咨询(安装Docker容器需要)

软件环境

  • Ollama:0.17.0
  • Docker Desktop:4.62.0
  • Dify:仓库最新版本
  • DeepSeek-R1:8b
  • bge-m3

安装Ollama

什么是Ollama?

简单来说,Ollama就是一个让你能在本地轻松运行大模型的工具,支持Llama、DeepSeek、Qwen等主流模型。

如果使用服务商的接口,可以跳过这部分。

安装步骤

1. 下载安装程序

打开浏览器,访问Ollama官网:https://ollama.com/download,下载Windows版本。

2. 快速安装

双击下载好的安装程序,点击安装就行。

3. 安装结果验证

打开命令行(Win+R,输入cmd),输入以下命令:

ollama --version

成功展示版本号,说明安装成功。

4. 验证服务是否启动
打开浏览器,访问 http://localhost:11434/,看到下图就说明Ollama正常运行:

下载模型

安装完成后,使用系统菜单栏的搜索,直接搜索Ollama,找到程序,双击打开:

下载模型

  • 可以直接点击界面上的模型下载
  • 或者使用命令行下载,例如下载bge-m3的模型(知识库需要用到):
ollama pull bge-m3

查看下载的模型列表

ollama list

运行模型测试

ollama run deepseek-r1:8b

安装Docker Desktop

为什么要装Docker?

Dify官方推荐用Docker部署,这样可以避免各种环境配置问题。

安装步骤

1. 下载Docker Desktop

访问 https://www.docker.com/products/docker-desktop/ 下载Windows对应的版本:

2. 开始安装

双击安装包,等待加载完成:

点击OK继续:

3. 重启电脑

安装完成后,需要重启电脑:

4. 完成最后配置

重启后打开Docker Desktop:

如果提示更新WSL,直接回车更新即可:

最后登录Docker账号(需要科学上网):


安装Dify

什么是Dify?

Dify是一个开源的LLM应用开发平台,可以让你像搭积木一样构建AI应用,支持工作流编排、知识库管理、API集成等功能。

安装步骤

1. 下载Dify源码

如果有Git,直接克隆:

gitclone https://github.com/langgenius/dify.git

没有Git的话,可以直接去GitHub下载ZIP包。

2. 启动Dify

进入docker目录并启动:

# 进入docker目录cddify/docker# 复制环境配置(Windows用copy命令)copy .env.example .env# 启动Dify(下载镜像需要切换国内镜像源,或者科学上网)docker-composeup -d# 等待2-3分钟,查看服务状态docker-composeps

看到所有的服务状态都是运行中,就成功了

3. 初始化配置

打开浏览器访问 http://localhost/,首次进入需要设置管理员账号(我这里的已经设置完了),然后进行登录。

登录成功后,你就拥有了一个功能强大的AI应用开发平台!


Dify集成Ollama

添加模型供应商

点击右上角头像 → 设置,如下图所示:

进入模型供应商页面,找到Ollama并点击"安装"(我这里已经安装过了):

添加LLM模型(以DeepSeek为例)

点击"添加模型",选择模型类型为"LLM",填写配置:

因为Ollama默认是localhost访问,Dify在docker,Ollama在本地,不能使用localhost。所以我们需要设置OLLAMA_HOST

setx OLLAMA_HOST "0.0.0.0:11434"

这里设置的是0.0.0.0,你也可以根据实际需要进行指定。

  • 模型名称:deepseek-r1:8b(或其它下载的模型)
  • 服务器URL:http://xxxx:11434 (xxxx替换成你的ip地址)
  • 其他配置保持默认

添加Embedding模型(用于知识库)

再添加一个bge-m3(根据自己需求选择,这个对多语言支持比较好,我需要用到)模型,这次选择模型类型为"Text Embedding":

如果配置的不对,Dify会报错,如果没有报错,那么恭喜,完成了整个环境的搭建。

测试效果

现在我们来创建一个应用测试一下!

进入"工作室" → 创建"Agent":

选择deepseek-r1模型,输入问题测试:

看到模型成功回答,说明整个环境配置成功啦!


写在最后

整个流程走下来,你是不是发现其实并不复杂?有了这套环境,你就可以:

  • 搭建企业级智能客服
  • 构建个人知识库问答系统
  • 开发AI工作流应用
  • 测试各种开源大模型

下期预告:我将深入讲解从零搭建一个完整的智能客服系统,包括知识库配置、工作流设计和API对接,敬请期待!


关注我,获取更多AI实战教程👇

http://www.jsqmd.com/news/418287/

相关文章:

  • 【Web安全006篇---基本概念001---】渗透测试流程(PTES)系列
  • 【Web安全005篇---基本概念001---】渗透测试流程(PTES)系列
  • Paperxie 论文查重:不止是降重,更是学术诚信的智能守护者
  • 当查重遇上AI检测:paperxie成为新一代学术人的“双重通关“指南
  • 细胞膜标记专家:iFluor 488标记的小麦胚芽凝集素;iFluor 488 WGA
  • 《认知度规入门篇:为什么我们要用几何来衡量思考》
  • 基于Python+Flask+Vue的音乐信息可视化推荐系统 |(ItemCF/UserCF+LSTM+Echarts)大数据 人工智能
  • 毕设选题不再愁!Spring Boot 3.5 + Vue3 + UniApp 三端全栈项目,14 大模块随你选
  • 基恩士KV系列轴控制FB模板:5种定位单元适配,功能齐全且带详细说明文档
  • 周海冰与捷品汇,共创电商新体验! - 资讯焦点
  • IF488 WGA;iFluor 488标记的小麦胚芽凝集素(WGA)应用盘点
  • Qt的布局控件
  • Qt 布局引擎
  • 【关于虚拟无电池与充电保护两种模式的理解】
  • 扫描线优化 DP 与单调队列优化 DP
  • 网易云音乐数据分析系统 | Flask+Echarts+Python爬虫+HTML可视化分析 毕业设计源码 深度学习 大数据 人工智能
  • Vite 生产构建(Rollup)深度解析
  • 音乐信息可视化推荐系统 | Python+Flask+Vue+Scrapy+LSTM+Echarts 大数据 人工智能 deepseek 深度学习 毕业设计源码
  • WinRAR解压的临时文件藏在哪?一文告诉你默认路径与查看方法
  • 六氟化硫气体检测仪在电力生产端的预防性应用 - 资讯焦点
  • 用pytorch来自动求导
  • 网易云音乐信息采集可视化分析系统 | 技术栈Flask+Echarts 多模块全流程实现 毕业设计源码 deepseek 人工智能 深度学习
  • ue 日志等级
  • 泓动数据各地区官方联系方式,如何联系到泓动数据咨询GEO业务 - 资讯焦点
  • 需要学习的东西
  • pycharm 启动关闭flask 关闭test
  • IEXS盈十证券:距活动结束仅剩半月,10倍收益加成与特斯拉豪礼静待最后赢家 - 资讯焦点
  • 【AI+教育】用飞书多维表格,零门槛实现教学内容自动化
  • 2026年昆山离婚律师专业甄选推荐:从资质到案例的全方位实用指南 - 资讯焦点
  • 从SEO到GEO: 一位百度前算法工程师的十五年探索 - 资讯焦点