Ollama๋ฅผ ๋ก์ปฌ ์คํ์์ Docker Desktop ๊ธฐ๋ฐ์ผ๋ก ๋ง์ด๊ทธ๋ ์ด์ ํด GPU ๊ฐ์์ ํ์ฑํํ๊ณ ์ถ๋ก ์๋ ๊ฐ์
๐ Fixing Ollama Not Using GPU with Docker Desktop (Step-by-Step + Troubleshooting)
AI ์์ฝ
Context
Ollama๋ฅผ ๋ก์ปฌ ํ๊ฒฝ์ ์ค์นํ๊ณ LLM ๋ชจ๋ธ์ ์คํํ์ง๋ง GPU๊ฐ ์ธ์๋์ง ์์ CPU ๊ธฐ๋ฐ ์ฒ๋ฆฌ๋ก ์ธํ ๋๋ฆฐ ์๋ต ์๋์ ๋์ CPU ์ฌ์ฉ๋ฅ ์ด ๋ฐ์ํ๋ค. ๋์ผํ GPU๊ฐ Docker ์ปจํ ์ด๋ ๋ด์์๋ ์ ์ ์๋ํ์ผ๋ฏ๋ก, ๋ฌธ์ ๋ ๋ก์ปฌ ํ๊ฒฝ์ GPU ์ ๊ทผ์ฑ ์ค์ ์ ์์๋ค.
Technical Solution
- Ollama ์ปจํ
์ด๋๋ฅผ Docker Desktop ์์์
--gpus allํ๋๊ทธ๋ก ์คํ: GPU ๋ฉ๋ชจ๋ฆฌ์ ์ฐ์ฐ ๋ฆฌ์์ค๋ฅผ ์ปจํ ์ด๋์ ์ง์ ํ ๋น - ์ฌ์ ๊ฒ์ฆ ๋จ๊ณ ์ถ๊ฐ:
docker run --rm --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi๋ช ๋ น์ผ๋ก Docker์ GPU ์ ๊ทผ์ฑ์ ๋จผ์ ํ์ธ - Ollama ๋ณผ๋ฅจ ๋ง์ดํธ:
-v ollama:/root/.ollama๋ก ๋ชจ๋ธ ๋ฐ์ดํฐ ์์์ฑ ๋ณด์ฅ - API ๊ธฐ๋ฐ ๋ชจ๋ธ ์คํ: ์ปจํ ์ด๋ ์ง์ ๋์ localhost:11434 ์๋ํฌ์ธํธ๋ฅผ ํตํด curl๋ก ์์ฒญ ์ฒ๋ฆฌ
- ์ค์๊ฐ ๋ชจ๋ํฐ๋ง: ์ถ๋ก ์ค ํธ์คํธ์์
nvidia-smi์คํ์ผ๋ก GPU ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ๋ ํ์ธ
Impact
GPU ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ๋์ด ๋ชจ๋ธ ์คํ ์ค ์ฆ๊ฐ ํ์ธ, ์ถ๋ก ์๋ ํฅ์ ๋ฌ์ฑ.
์ค์ฒ ํฌ์ธํธ
๋ก์ปฌ GPU ํ ๋น ๋ฌธ์ ๋ก LLM ์ถ๋ก ์ด ๋๋ฆฐ ํ๊ฒฝ์์๋ Docker Desktop์ WSL2 ๋ฐ ์ต์ NVIDIA ๋๋ผ์ด๋ฒ์ ํจ๊ป ๊ตฌ์ฑํ ํ `--gpus all` ํ๋๊ทธ๋ก ์ปจํ ์ด๋๋ฅผ ์คํํ๋ฉด ๋ก์ปฌ ๋๋ฒ๊น ์๊ฐ ์ ์ฝ๊ณผ GPU ๊ฐ์ ํ๋ณด ๊ฐ๋ฅ.