zhubao315

zhubao315

less is more
twitter
github

Ollama + Open WebUI 本地部署

安装 Ollama 容器版#

# 下载并运行 Ollama 容器服务
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# 下载并运行本地模型
docker exec -it ollama ollama run qwen:7b-chat

# 列出本地模型
docker exec -it ollama ollama list

安装 Open WebUI 容器版#

docker run -d -p 3000:8080 -e OLLAMA_API_BASE_URL=http://192.168.1.8:11434/api --name open-webui --restart always ghcr.io/open-webui/open-webui:main

http://192.168.1.8:3000

webui

Loading...
Ownership of this post data is guaranteed by blockchain and smart contracts to the creator alone.