ํ”ผ๋“œ๋กœ ๋Œ์•„๊ฐ€๊ธฐ
๐Ÿ”ฅ Fine-Tuning Gemma 4 on Your Own Dataset: A Step-by-Step Guide
Dev.toDev.to
AI/ML

LoRA ๊ธฐ๋ฐ˜ Gemma 4 ํŒŒ์ธํŠœ๋‹์œผ๋กœ $5 ๋ฏธ๋งŒ ์ €๋น„์šฉ ๋„๋ฉ”์ธ ์ „๋ฌธ๊ฐ€ ๋ชจ๋ธ ๊ตฌํ˜„

๐Ÿ”ฅ Fine-Tuning Gemma 4 on Your Own Dataset: A Step-by-Step Guide

Mamoor Ahmad2026๋…„ 5์›” 5์ผ14๋ถ„intermediate

Context

๋ฒ”์šฉ LLM์˜ ์ผ๋ฐ˜์ ์ธ ๋‹ต๋ณ€ ํ•œ๊ณ„๋ฅผ ๊ทน๋ณตํ•˜๊ณ  ํŠน์ • ๋„๋ฉ”์ธ์— ํŠนํ™”๋œ ํ–‰๋™ ์–‘์‹ ๋ฐ ํ†ค์•ค๋งค๋„ˆ๋ฅผ ํ•™์Šต์‹œํ‚ค๊ธฐ ์œ„ํ•œ ์ตœ์ ํ™” ํ•„์š”์„ฑ ์ œ๊ธฐ. ๊ณ ๊ฐ€์˜ ์ „์šฉ GPU ํ•˜๋“œ์›จ์–ด ์ธํ”„๋ผ ๊ตฌ์ถ• ๋ฐ Kubernetes ์šด์˜ ๋ถ€๋‹ด์œผ๋กœ ์ธํ•œ ์ง„์ž… ์žฅ๋ฒฝ ์กด์žฌ.

Technical Solution

  • Gemma 4 9B ๋ชจ๋ธ์— LoRA(Low-Rank Adaptation)๋ฅผ ์ ์šฉํ•˜์—ฌ ์ „์ฒด ํŒŒ๋ผ๋ฏธํ„ฐ์˜ ์•ฝ 1%๋งŒ ํ•™์Šตํ•จ์œผ๋กœ์จ ์—ฐ์‚ฐ ์ž์› ๋ฐ ๋ฉ”๋ชจ๋ฆฌ ์‚ฌ์šฉ๋Ÿ‰ 95% ์ ˆ๊ฐ
  • Cloud Run Jobs ๊ธฐ๋ฐ˜์˜ Serverless GPU ํ™˜๊ฒฝ์„ ์ฑ„ํƒํ•˜์—ฌ ์ธํ”„๋ผ ๊ด€๋ฆฌ ๋ถ€๋‹ด์„ ์ œ๊ฑฐํ•˜๊ณ  ์‚ฌ์šฉํ•œ ์‹œ๊ฐ„๋งŒํผ๋งŒ ์ง€๋ถˆํ•˜๋Š” ๋น„์šฉ ๊ตฌ์กฐ ์„ค๊ณ„
  • NVIDIA RTX 6000 Pro(48GB VRAM)๋ฅผ ํ™œ์šฉํ•˜์—ฌ ๋Œ€๊ทœ๋ชจ ๋ชจ๋ธ์˜ ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ๋ฅผ ์œ„ํ•œ ๋ฉ”๋ชจ๋ฆฌ ๋ณ‘๋ชฉ ํ˜„์ƒ ํ•ด๊ฒฐ
  • 100~500๊ฐœ ์ˆ˜์ค€์˜ ๊ณ ํ’ˆ์งˆ JSONL ๋ฐ์ดํ„ฐ์…‹ ๊ตฌ์„ฑ์„ ํ†ตํ•œ ํšจ์œจ์ ์ธ Behavior Tuning ์ „๋žต ์ˆ˜๋ฆฝ
  • QLoRA(4-bit Quantization) ์˜ต์…˜ ์ ์šฉ์„ ํ†ตํ•ด VRAM ์š”๊ตฌ์‚ฌํ•ญ์„ ์ถ”๊ฐ€๋กœ ๋‚ฎ์ถ”๋ฉด์„œ ์„ฑ๋Šฅ ์ €ํ•˜๋ฅผ ์ตœ์†Œํ™”ํ•˜๋Š” ์ตœ์ ํ™” ๊ฒฝ๋กœ ์ œ๊ณต

1. ํ•™์Šต ๋ฐ์ดํ„ฐ์…‹ ๊ตฌ์„ฑ ์‹œ ์–‘๋ณด๋‹ค ์งˆ์„ ์šฐ์„ ํ•˜์—ฌ 100~500๊ฐœ์˜ ๊ณ ํ’ˆ์งˆ ์˜ˆ์‹œ ํ™•๋ณด

2. GPU ๋ฉ”๋ชจ๋ฆฌ ์ œ์•ฝ ๋ฐœ์ƒ ์‹œ QLoRA(4-bit) ์ ์šฉ ๊ฒ€ํ† 

3. LoRA Rank(8, 16, 32, 64) ๊ฐ’ ์กฐ์ •์„ ํ†ตํ•œ ๋ชจ๋ธ ํ‘œํ˜„๋ ฅ๊ณผ ๊ณผ์ ํ•ฉ ๊ฐ„์˜ ํŠธ๋ ˆ์ด๋“œ์˜คํ”„ ๊ฒ€์ฆ

4. ์‹œ์Šคํ…œ ํ”„๋กฌํ”„ํŠธ์˜ ์ผ๊ด€์„ฑ์„ ์œ ์ง€ํ•˜์—ฌ ํ•™์Šต ๋ฐ์ดํ„ฐ์˜ ๊ตฌ์กฐ์  ํ†ต์ผ์„ฑ ํ™•๋ณด

์›๋ฌธ ์ฝ๊ธฐ