本地化部署RAGFlow + Ollama
一、安装Ollama并加载本地模型
1. 下载Ollama
访问 https://ollama.com/download/mac 下载软件安装包
2. 下载模型
访问 https://ollama.com/search 可以查看现在支持的开源模型
如: 要下载 deepseek-r1 直接执行下面的命令
|
1 2 |
# 下载模型 ollama pull deepseek-r1 |
3. 启动 Ollama 服务
|
1 |
ollama serve |
Ollama 默认在本地开启 HTTP 接口:
|
1 |
http://localhost:11434 |
4. Ollama常用命令
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
# 查看当前已安装的模型 ollama list # 下载/添加(拉取)模型 ollama pull 模型名称 # 删除模型 ollama rm deepseek-coder # 直接对话测试模型 ollama run deepseek-coder # 一次性生成回答(非交互)、输出会直接在命令行显示,不进入对话模式。 ollama run deepseek-coder "请介绍一下RAG的原理" # 查看模型详细信息 ollama show deepseek-coder |
二、安装docker
1. 安装 Docker Desktop:
下载地址:https://www.docker.com/products/docker-desktop
安装后启动 Docker Desktop。
确认 Docker 已安装:
|
1 2 |
docker --version docker compose version |
2. 配置资源(内存/CPU):
打开 Docker Desktop → Settings → Resources
建议:
内存:8GB 或以上
CPU:4 核或以上
三、部署 RagFlow Docker 服务
1. 下载ragflow源码
|
1 2 3 4 5 6 7 8 9 10 11 12 |
# 克隆源代码 git clone https://github.com/infiniflow/ragflow.git # 进入目录 cd ragflow/docker # 修改 .env 配置文件 将v0.21.0-slim这一行注释 取消注释 ragflow:v0.21.0 # RAGFLOW_IMAGE=infiniflow/ragflow:v0.21.0-slim RAGFLOW_IMAGE=infiniflow/ragflow:v0.21.0 # 修改 docker-compose.yml 配置文件 将ports 下的 端口修改一下 启动之后会使用默认的80端口 - "8080:80" |
2. 启动服务
|
1 |
docker compose up -d |
注: 如果启动的时候 docker需要登录的话 可以直接在终端登录 (需要再docker中先申请一个personal-access-tokens), 访问 https://app.docker.com
Settings → personal-access-tokens → create new token
创建的token只能在申请成功后查看 后面就看不到了 创建好了token之后 在终端执行
|
1 2 3 4 5 |
# 注销登录 docker logout # 登录 回车之后 密码输入 创建的token docker login -u 用户名 |
3. 检查状态
|
1 2 |
docker ps docker logs ragflow-server |
4. 停止服务
|
1 |
docker compose down |