피드로 돌아가기
Dev.toAI/ML
원문 읽기
LoRA SFT 기반 Delta A +0.263 달성 및 암기 vs 일반화 검증 분석
Did My LoRA Learn Tenacious Style—or Just Memorize Augmented Patterns?
AI 요약
Context
B2B 세일즈 이메일 스타일 학습을 위해 LoRA 기반 Supervised Fine-Tuning(SFT)을 수행함. 학습 데이터의 94.3%가 128개 원본의 증강 데이터로 구성되어 표면적 패턴 암기로 인한 성능 왜곡 가능성이 존재하는 상황임.
Technical Solution
- Frozen Base Weight 위에 Low-rank A/B 행렬을 추가하여 출력 경향성을 조정하는 Steering Update 구조 설계
- q_proj, k_proj, v_proj, o_proj 등 Attention 모듈을 통한 Context Routing 최적화
- gate_proj, up_proj, down_proj 등 MLP 모듈을 통한 어휘 및 구문 형태의 Lexical Adaptation 수행
- Cross-entropy Loss 최적화를 통해 타겟 토큰 분포에 대한 확률 밀도를 높이는 방향으로 학습
- 증강 데이터 간의 높은 Gradient 정렬로 인한 빠른 손실 함수 수렴 및 표면 패턴 강화 메커니즘 분석
- 단순 분할이 아닌 원본 패밀리 단위의 Grouped Holdout 설계를 통한 암기 여부 검증 체계 도입
실천 포인트
1. 증강 데이터 사용 시 원본-변형 쌍을 동일한 Split에 배치하는 Grouped Holdout 적용 여부 확인
2. LoRA 모듈별(Attention vs MLP) Gradient Norm을 측정하여 학습 압력이 어디에 집중되었는지 분석
3. 단순 Loss 감소와 벤치마크 상승을 일반화된 성능 향상과 동일시하지 않고 별도의 진단 지표 설정