피드로 돌아가기
OpenMythos: Claude Mythos를 역설계한 오픈소스 구현 등장
GeekNewsGeekNews
AI/ML

OpenMythos: Claude Mythos를 역설계한 오픈소스 구현 등장

Recursive Transformer 구조를 통한 추론 깊이 확장 및 토큰 효율 극대화

princox2026년 4월 20일1advanced

Context

파라미터 수 증설을 통한 성능 향상의 비용 효율성 한계 직면. 기존 LLM의 Token Generation 기반 추론 방식이 야기하는 높은 비용과 추론 과정의 비효율성 해결 필요.

Technical Solution

  • 동일 Transformer Block의 반복 실행을 통한 내부 상태(Internal State)의 점진적 업데이트 및 추론 심도 강화
  • 반복 실행 과정 내 MoE(Mixture of Experts)를 선택적으로 활성화하여 계산 효율과 전문성 동시 확보
  • 외부 Token 출력 없이 내부 상태에서 연산을 처리하는 Hidden Thought 프로세스 설계를 통한 응답 최적화
  • 메모리 부하 감소를 위한 특화 Attention 구조 적용으로 반복 연산 시의 자원 효율성 개선
  • 모델 크기 확장 대신 추론 단계의 계산량(Compute) 증가를 통한 성능 향상 전략 채택

1. 모델 파라미터 확장 전 Recursive 연산 구조를 통한 추론 성능 향상 가능성 검토

2. 외부 Token 생성 최소화를 통한 API 비용 절감 및 응답 속도 최적화 설계 적용

3. MoE 기반의 선택적 활성화 로직을 통한 연산 비용과 모델 성능 간의 Trade-off 분석

원문 읽기