安裝 Ollama 容器版#
# 下載並運行 Ollama 容器服務
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# 下載並運行本地模型
docker exec -it ollama ollama run qwen:7b-chat
# 列出本地模型
docker exec -it ollama ollama list
安裝 Open WebUI 容器版#
docker run -d -p 3000:8080 -e OLLAMA_API_BASE_URL=http://192.168.1.8:11434/api --name open-webui --restart always ghcr.io/open-webui/open-webui:main