피드로 돌아가기
Hacker NewsAI/ML
원문 읽기
Compute-in-Memory 설계로 파라미터 처리 용량 10배 이상 확장한 AI 오디오 칩
Anker made its own chip to bring AI to all its products
AI 요약
Context
기존 AI 칩은 모델 저장소와 연산 장치가 분리된 구조로 인해 추론 시 파라미터 이동에 따른 전력 소모와 병목 현상이 발생함. 특히 이어버드와 같은 초소형 기기는 전력 및 공간 제약으로 인해 수십만 개의 파라미터만 처리 가능한 소규모 Neural Network 사용이 강제됨.
Technical Solution
- Compute-in-Memory 구조 채택을 통한 모델 저장 위치와 연산 위치의 일치화
- 데이터 이동 단계 제거를 통한 추론 효율성 및 전력 소비 최적화
- 하드웨어 수준의 최적화로 수백만 개 단위의 파라미터 처리 가능 구조 설계
- 8개의 MEMS 마이크와 2개의 Bone Conduction 센서를 통한 다중 입력 데이터 수집
- 대규모 Neural Network 기반의 고정밀 Noise Canceling 로직 구현
실천 포인트
1. 하드웨어 제약이 심한 엣지 디바이스 설계 시 데이터 이동 경로 최소화 방안 검토
2. 추론 횟수가 빈번한 모델의 경우 Memory Wall 문제를 해결할 수 있는 CIM 아키텍처 가능성 확인
3. 센서 퓨전(MEMS, Bone Conduction)을 통한 입력 데이터 품질 향상과 모델 복잡도 증가의 상관관계 분석