요약(Executive Summary)
•
*HBM 사용 최다 분야는 AI 가속기(GPU)**로 2025년에 약 80% 수준으로 추정. HBM 수요가 AI 서버/AI GPU에서 폭증했다는 시장 코멘트와 제품 라인업이 이를 지지. (Omdia·2025; NVIDIA/AMD 제품 스펙) Omdia+2NVIDIA+2
•
AI ASIC/NPU(예: Google TPU, AWS Trainium) 비중이 가파르게 증가: 2025년 약 12% 추정, **2026년 33%**까지 확대 전망(골드만삭스 추정, TrendForce 보도). TrendForce
•
그 외 HPC CPU(예: Intel Xeon Max, Fujitsu A64FX), 네트워킹 스위치/라우터(Broadcom Jericho/StrataDNX 등 HBM 내장), FPGA/가속 SoC는 합산 한 자릿수. Intel+2Epicure+2
1) HBM 사용 분야 정의 & 대표 사례
•
AI GPU(훈련·추론): NVIDIA H200(HBM3e 141GB/4.8TB/s), AMD MI300X(HBM3 192GB/5.3TB/s). (NVIDIA·AMD) NVIDIA+1
•
AI ASIC/NPU: Google TPU v5p(“HBM 3배 증가”), AWS Trainium2(칩당 HBM3, Trn2 인스턴스 1.5TB/46TB/s). (Google Cloud·AWS) Google Cloud+1
•
•
네트워킹 스위치/라우터: Broadcom StrataDNX/BCM88860(HBM 패킷버퍼 통합), Jericho 시리즈·Tomahawk 계열 AI/데이터센터 스위치. (Broadcom) Broadcom+1
•
FPGA/가속 SoC: AMD Virtex UltraScale+ HBM(HBM2 최대 16GB/460GB/s), Intel Agilex 7 M-Series HBM2e. (AMD/Xilinx·Intel) AMD+1
2) 분야별 비중(가중 추정치)
단위: 글로벌 HBM 수요(비트/스택 기준) 내 비중. 2026F는 외부 전망(ASIC 33%)을 앵커로 한 시나리오.
분야 | 2025E 비중(%) | 2026F 비중(%) | 근거(핵심) |
AI GPU(훈련·추론) | 80 | 63 | AI가 HBM 수요의 절대 주력(시장 코멘트), GPU 라인업의 HBM 대용량화. (Omdia·2025; NVIDIA/AMD) Omdia+2NVIDIA+2 |
AI ASIC/NPU(예: TPU·Trainium 등) | 12 | 33 | |
HPC CPU(슈퍼컴·과학계산) | 3 | 2 | |
네트워킹 스위치/라우터(패킷버퍼) | 2 | 1 | |
FPGA/가속 SoC(HBM 탑재형) | 1 | 1 | |
기타(워크스테이션/산업 등) | 2 | 0 | 게이밍·워크스테이션은 GDDR/DDR 주류로 HBM 채택 미미. |
합계 | 100 | 100 |
•
3) 방법론(검증 가능·투명성)
1.
탑다운(Top-down): Omdia·Yole의 “HBM=AI 중심” 서술과 HBM 매출 급증(2025년 ~340억 달러 전망) 트렌드를 기반으로 AI 계열 총량 비중을 먼저 확정. Yole Group
2.
보텀업(Bottom-up):
•
디바이스 레벨 HBM 채택(예: H200·MI300X·TPU v5p·Trainium2·Xeon Max·Jericho/DNX·Virtex/Agilex)을 가중 샘플로 구성해 비중 보정. AMD+6NVIDIA+6AMD+6
•
3.
한계: 제조사/리서치가 공식적으로 ‘용도별’ HBM 점유율을 공개하지 않음 → 본 비중은 최신 증거·제품 스펙·전망을 합리적으로 결합한 추정치.
4) 참고·출처(발췌)
•
•
•
•
•
•