Llama + Dify,本地搭建一套 AI 工作流
主要参考:
windows 11 下遇到的问题
Dify 502 错误

报错:

报错原因:

nginx 服务启动太早,需要起来 docker 后,再把 nginx 手动重启一次 docker compose restart nginx

解决方法:

postgres 的 volume 权限问题

报错:/var/lib/postgresql/data/pgdata: Operation not permitted 

报错原因:

PostgreSQL 尝试使用的目录存在权限问题,需要自己创建一个新的数据卷然后重新挂载

解决方法:

Ollama 服务无法从 docker 容器中访问

报错:

使用 docker 部署 Dify 和 Ollama,可能会遇到以下错误:

httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))

报错原因:

Ollama 服务无法从 docker 容器中访问。localhost 通常指的是容器本身,而不是宿主机或其他容器。要解决此问题,您需要将 Ollama 服务暴露给网络。

解决方法:

在Windows上,Ollama 继承您的用户和系统环境变量。首先退出 Ollama,然后从控制面板编辑系统环境变量,为您的用户帐户编辑或创建新变量

  • OLLAMA_HOST: 0.0.0.0:11434
  • OLLAMA_MODELS: C:\Users\admin\.ollama\models

点击保存,然后从新的终端窗口运行ollama

如何在我的网络上暴露 Ollama?

Ollama默认绑定127.0.0.1端口11434。使用 OLLAMA_HOST 环境变量更改绑定地址。