피드로 돌아가기
Anker made its own chip to bring AI to all its products
Hacker NewsHacker News
AI/ML

Compute-in-Memory 설계로 파라미터 처리 용량 10배 이상 확장한 AI 오디오 칩

Anker made its own chip to bring AI to all its products

2026년 4월 22일26advanced

Context

기존 AI 칩은 모델 저장소와 연산 장치가 분리된 구조로 인해 추론 시 파라미터 이동에 따른 전력 소모와 병목 현상이 발생함. 특히 이어버드와 같은 초소형 기기는 전력 및 공간 제약으로 인해 수십만 개의 파라미터만 처리 가능한 소규모 Neural Network 사용이 강제됨.

Technical Solution

  • Compute-in-Memory 구조 채택을 통한 모델 저장 위치와 연산 위치의 일치화
  • 데이터 이동 단계 제거를 통한 추론 효율성 및 전력 소비 최적화
  • 하드웨어 수준의 최적화로 수백만 개 단위의 파라미터 처리 가능 구조 설계
  • 8개의 MEMS 마이크와 2개의 Bone Conduction 센서를 통한 다중 입력 데이터 수집
  • 대규모 Neural Network 기반의 고정밀 Noise Canceling 로직 구현

1. 하드웨어 제약이 심한 엣지 디바이스 설계 시 데이터 이동 경로 최소화 방안 검토

2. 추론 횟수가 빈번한 모델의 경우 Memory Wall 문제를 해결할 수 있는 CIM 아키텍처 가능성 확인

3. 센서 퓨전(MEMS, Bone Conduction)을 통한 입력 데이터 품질 향상과 모델 복잡도 증가의 상관관계 분석

원문 읽기