피드로 돌아가기
Hacker NewsAI/ML
원문 읽기
구글이 시계열 예측용 TimesFM 2.5를 출시하여 파라미터를 500M에서 200M으로 줄이고 컨텍스트 길이를 16k까지 확장했다
Google's 200M-parameter time-series foundation model with 16k context
AI 요약
Context
시계열 예측 Foundation Model들은 대규모 파라미터로 인한 추론 비용 문제와 긴 시계열 처리 한계를 가지고 있었다. TimesFM 2.0에서는 500M 파라미터와 2048 컨텍스트 길이로 제한되어 실시간 서비스 적용이 어려웠다.
Technical Solution
- TimesFM 2.5 모델 → 200M 파라미터로 경량화하여 추론 비용을 대폭 절감했다
- 최대 16k 컨텍스트 길이 → 이전 버전 대비 8배 확장된 장기 의존성 처리가 가능해졌다
- Optional 30M Quantile Head → 최대 1k 지평까지 연속 분위수 예측을 지원한다
- Frequency Indicator 제거 → 다양한 주기성을 가진 시계열에 범용적으로 대응한다
- XReg 통한 공변량(Covariate) 지원 → 외부 변수 활용 예측이 가능하다
Impact
파라미터 크기가 500M에서 200M으로 60% 감소했다. 컨텍스트 길이가 2048에서 16k로 약 8배 확장되었다.
Key Takeaway
Foundation Model에서 경량화와 긴 컨텍스트 지원은 상충 관계가 아니라 동시에 달성 가능한 설계 목표이다.
실천 포인트
시계열 예측 서비스에서 TimesFM 2.5를 활용하면 200M 파라미터 모델로 16k 길이 컨텍스트 기반 예측을 수행하여 기존 경량 모델 대비 높은 정확도와 긴 예측 지평을 한 번의 추론으로 확보할 수 있다