前言
Ollama
使用docker安装
只使用CPU
1
| docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
|
使用Nvidia GPU
安装NVIDIA Container Toolkit
配置储存库
1 2 3 4 5 6
| curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \ | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \ | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \ | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list sudo apt-get update
|
安装nvidia-container-toolkit
1
| sudo apt-get install -y nvidia-container-toolkit
|
配置Docker以使用Nvidia驱动程序
1 2
| sudo nvidia-ctk runtime configure --runtime=docker sudo systemctl restart docker
|
启动容器
1
| docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama --restart always ollama/ollama
|
1
| docker exec -it ollama ollama run llama3
|
使用AMD GPU
1
| docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
|
open-webui
1
| docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
|
open-webui启动时期需要首先在线安装transformers库,但是huggingface.co对于国内来说是经常不可访问,所以需要找一个镜像网站,启动时添加到HF\_ENDPOINT
环境变量中
1
| docker run -d -e HF_ENDPOINT=https://hf-mirror.com -p 13435:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
|
sdw
1
| docker run -it --name sdw --gpus all --network host -v $(pwd)/models:/app/stable-diffusion-webui/models -v $(pwd)/outputs:/app/stable-diffusion-webui/outputs siutin/stable-diffusion-webui-docker:latest-cuda-12.4.1 bash webui.sh --share
|
1
| sudo chown 10000:$UID -R models outputs
|