피드로 돌아가기
Where misunderstood with Monoliths and Kubernetes: Benchmark
Dev.toDev.to
Infrastructure

5,000 RPM 미만 워크로드의 K8s 도입 시 평균 47ms 오버헤드 발생

Where misunderstood with Monoliths and Kubernetes: Benchmark

ANKUSH CHOUDHARY JOHAL2026년 5월 4일19intermediate

Context

많은 팀이 성능 향상을 기대하며 Monolith에서 Kubernetes로 마이그레이션하나, 실제 12개월 내 유의미한 Latency 개선을 경험한 팀은 15%에 불과함. 특히 저트래픽 환경에서 Orchestration 계층의 오버헤드가 애플리케이션 로직의 처리 시간을 상회하는 구조적 한계 존재.

Technical Solution

  • Network Stack의 다중 계층 통과로 인한 Latency 증가 분석
  • containerd의 Network Namespace 패킷 라우팅 과정에서 0.5-1ms 오버헤드 발생
  • Calico CNI의 VXLAN Encapsulation을 통한 L2 프레임 UDP 래핑으로 2-3ms 추가 지연 유발
  • kube-proxy의 순차적 iptables rule 탐색 과정에서 1-2ms의 Service Discovery 지연 발생
  • Kubelet의 Health Check 및 Status Reporting으로 인한 지속적인 CPU 리소스 점유 및 1-2ms 지연 추가
  • 고트래픽(5,000 RPM 이상) 시 Java GC Pause 및 Thread Pool Contention이 지배적 요인이 되어 K8s 오버헤드 비율이 3-5% 수준으로 감소하는 특성 파악

- 5,000 RPM 미만 워크로드의 경우 K8s 마이그레이션 전 Latency/Cost 벤치마크 수행 - Auto-scaling, Multi-region Failover, Canary Deployment 필요성 여부를 우선 검토 - Network Latency 극단적 최소화 필요 시 Host Networking 검토(단, 격리 수준 저하 감수) - CNI 선택 시 VXLAN 오버헤드를 고려하여 Flannel(host-gw) 또는 AWS VPC CNI 성능 비교

원문 읽기