本文最后更新于 2024-05-17,

若内容或图片失效,请留言反馈。部分素材来自网络,若不小心影响到您的利益, 请联系我 删除。

本站只有Telegram群组为唯一交流群组, 点击加入

文章内容有误?申请成为本站文章修订者或作者? 向站长提出申请

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线操作。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。

项目地址:https://github.com/open-webui/open-webui

使用手册:https://docs.openwebui.com/

使用 ollama 部署本地语言模型:https://poiblog.com/archives/yyaStiNQ

demo-6793d95448aa180bca8dafbd21aa91b5 (1).gif

安装Docker🐳

使用 Docker 安装 Open WebUI 时,请确保 -v open-webui:/app/backend/data在 Docker 命令中包含 。此步骤至关重要,因为它确保您的数据库正确安装并防止任何数据丢失。

使用默认配置

  • 如果 Ollama 在您的计算机上,请使用以下命令:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
  • 如果 Ollama 位于不同的服务器上,请使用以下命令:
    要连接到另一台服务器上的 Ollama,请将 更改 OLLAMA_BASE_URL为服务器的 URL:

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
    • 要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
    

仅用于 OpenAI API 使用的安装

  • 如果您仅使用 OpenAI API,请使用以下命令:
    docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    

安装带有捆绑 Ollama支持的

此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令简化安装。根据您的硬件设置选择适当的命令:

  • 使用 GPU 支持:通过运行以下命令来利用 GPU 资源:
    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    
  • 仅适用于 CPU:如果您不使用 GPU,请改用以下命令:
    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    

我们现在可以输入 http://ip:3000/访问了。

故障排除

请详阅Open WebUI 文档

打开WebUI:服务器连接错误

如果您遇到连接问题,通常是由于 WebUI docker 容器无法访问容器内位于 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。使用 --network=hostdocker 命令中的标志来解决此问题。请注意,端口从 3000 更改为 8080,导致链接:http://localhost:8080

Docker 命令示例

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使您的 Docker 安装保持最新

如果您想将本地 Docker 安装更新到最新版本,可以使用Watchtower来完成:

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

在命令的最后部分,open-webui如果不同,请替换为您的容器名称。

反向代理

参考教程:安装及使用

⚠️Nginx Proxy Manager(以下简称NPM)会用到80、443端口,所以本机不能占用(比如原来就有Nginx)

互联网使用请确保完成了域名解析