피드로 돌아가기
LLM은 위임할 때 문서를 훼손한다
GeekNewsGeekNews
AI/ML

LLM은 위임할 때 문서를 훼손한다

LLM 반복 통과 시 발생하는 Semantic Ablation 방지를 위한 외과적 편집 설계

neo2026년 5월 10일8intermediate

Context

LLM에 긴 문맥을 반복적으로 입력하고 출력하는 왕복 과정에서 정보가 열화되는 Semantic Ablation 현상 발생. 단순 read/write 방식의 하네스 설계는 모델이 전체 파일을 다시 쓰게 유도하여 데이터 손실과 의도 왜곡을 가속화함.

Technical Solution

  • LLM을 단순한 '의도 결정 층'으로 정의하고 결정적 실행 로직과 분리한 얇은 인터페이스 설계
  • 전체 파일 재작성 대신 str_replace, insert 등 정밀한 외과적 수정 명령 기반의 편집 도구 도입
  • LLM 내부 메모리 암송에 의존하지 않고 ed, sed와 같은 상태 유지형 표준 편집기 활용을 통한 데이터 무결성 확보
  • 조사 단계와 조립 단계를 분리하여 사실 기반의 독립적 Markdown 파일을 생성하는 원자적 저장 구조 채택
  • 결정적 데이터의 직접 요약 대신 해당 데이터를 처리하는 코드 생성 및 실행 방식으로 파이프라인 전환
  • 단일 진실 공급원(Single Source of Truth)을 제공하여 반복적인 텍스트 덧칠로 인한 평균 회귀 현상 차단

1. 전체 텍스트 재작성 방식의 Prompt를 지양하고 정밀 수정(Surgical Edit) 명령 체계 도입 여부 확인

2. 결정적 데이터(API 응답 등)를 LLM에 직접 통과시켜 요약하는 로직을 코드 생성 및 실행 구조로 변경

3. LLM 왕복 횟수를 최소화하는 파이프라인 설계 및 단계별 검증 레이어 추가

4. 지식 저장 시 최종 문서 형태가 아닌 조합 가능한 원자적 단위의 메타데이터 형태로 저장

원문 읽기