피드로 돌아가기
Introducing RWKV - An RNN with the advantages of a transformer
Hugging Face BlogHugging Face Blog
AI/ML

RWKV가 RNN을 Transformer 방식으로 변환해 훈련 중 병렬 처리와 추론 중 O(1) 메모리 효율을 동시에 확보

Introducing RWKV - An RNN with the advantages of a transformer

2023년 5월 15일10intermediate

Context

Transformer 아키텍처는 2017년 이후 장거리 시퀀스 의존성을 효과적으로 처리하며 RNN을 대체했지만, 컨텍스트 윈도우 크기가 증가하면 주의 점수 계산량이 이차 함수로 증가해 추론 속도와 메모리 사용량이 급증한다. RNN은 추론 중 상수 시간 복잡도와 고정 메모리 요구량을 유지하지만, 장거리 의존성 학습 능력이 부족했다.


대규모 컨텍스트 길이(수백만 토큰 이상)가 필요한 NLP 애플리케이션에서 RWKV를 도입하면 추론 중 고정된 메모리 요구량과 일정한 처리 속도를 유지하면서도 Transformer 수준의 문맥 학습 능력을 확보할 수 있고, 임베디드 시스템이나 광자 가속기 등 비표준 하드웨어에서도 행렬-벡터 연산만으로 배포 가능하다.

원문 읽기