zhubao315

zhubao315

less is more
twitter
github

Ollama + Open WebUI ローカルデプロイメント

Ollama コンテナ版のインストール#

# Ollamaコンテナサービスのダウンロードと実行
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# ローカルモデルのダウンロードと実行
docker exec -it ollama ollama run qwen:7b-chat

# ローカルモデルのリスト表示
docker exec -it ollama ollama list

Open WebUI コンテナ版のインストール#

docker run -d -p 3000:8080 -e OLLAMA_API_BASE_URL=http://192.168.1.8:11434/api --name open-webui --restart always ghcr.io/open-webui/open-webui:main

http://192.168.1.8:3000

webui

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。