Ollama コンテナ版のインストール#
# Ollamaコンテナサービスのダウンロードと実行
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# ローカルモデルのダウンロードと実行
docker exec -it ollama ollama run qwen:7b-chat
# ローカルモデルのリスト表示
docker exec -it ollama ollama list
Open WebUI コンテナ版のインストール#
docker run -d -p 3000:8080 -e OLLAMA_API_BASE_URL=http://192.168.1.8:11434/api --name open-webui --restart always ghcr.io/open-webui/open-webui:main