요약(Executive Summary)
•
AI 가속기(Accelerator) 대세: Omdia는 AI 데이터센터용 칩(GPU+ASIC) 시장을 2025년 $207B → 2030년 $286B로 제시, 비중은 2026년 정점 후 완만 둔화 전망. ’25 성장률 ~67% YoY. (Omdia)
•
수요 축
◦
◦
◦
CPU(범용): 서버 총매출 ’25년 3,660억$ 전망(전년 대비 +45%), **GPU 서버가 매출의 ‘거의 절반’**까지 접근—비가속 서버는 상대적으로 둔화. (My IDC)
◦
HPC CPU: 전통 HPC 기술서버 시장은 ’23–’28 CAGR 8.2% → 2028년 222억$, 최신 업데이트로 온프레미스 HPC/AI 서버 2029년 470억$+. (Hyperion Research)
•
공급 축(제약/완화)
◦
◦
목차
1.
세그먼트 정의
2.
수요 전망(2025→2030)
3.
공급 전망(용량·병목·리드타임)
4.
가격·리드타임 시사점
5.
리스크 맵
6.
결론(전략 포인트)
7.
CSV·SQL 부록
1) 세그먼트 정의
•
CPU: 범용 서버/PC용 프로세서(인텔 Xeon·AMD EPYC 등).
•
GPU: 데이터센터 AI·HPC용 가속기(NVIDIA H100/H200·AMD MI300 등) + 소비자 GPU(별도 주석).
•
NPU(=AI ASIC): TPU/Trainium 등 특정 신경망 가속 전용 칩(CSP 자체 설계 중심).
•
HPC CPU: 벡터·메모리 폭을 확대한 초고성능 범용 CPU(Xeon Max·A64FX 등).
2) 수요 전망(2025→2030)
A. 데이터센터 GPU
•
수요 드라이버: 생성형 AI 훈련/추론, 멀티모달, 추천·벡터DB.
•
•
•
•
B. NPU/ASIC
•
•
•
수요 원천: Hyperscaler(구글·AWS·메타·MS 등) 비용/와트 최적화와 IP 보호.
C. CPU(범용)
•
•
D. HPC CPU
•
•
3) 공급 전망(용량·병목·리드타임)
공통 병목
•
•
고급 패키징(CoWoS): TSMC 월 7–7.5만장(’25), ’26년 9만장 수준 전망—NVIDIA 물량 선점(’25년 70% 내외, ’26년 ~60%) 보도. (TrendForce)
세그먼트별
•
•
•
•
4) 가격·리드타임 시사점(정성)
•
GPU(DC): ’25 가격 상방 지속, ’26 완만 안정화(패키징·HBM 증설 반영).
•
ASIC/NPU: TCO 우위로 CSP 채택↑ → 장기계약(오더·패키징 슬롯) 선점형.
•
CPU: 가격 안정, 공급 원활.
•
HPC CPU: 대형 정부/수퍼컴 수주 발주 시점 변동이 단기 가격에 영향.
5) 리스크 맵
1.
공급: 허리케인·전력·설비(패키징) 트립, HBM 수율·적층(12Hi+) 전환 리스크.
2.
3.
6) 결론(전략 포인트)
•
•
•
•
리스크 헷지: HBM4 전환·수율, 정책 변수(對中 라이선스)를 가정한 멀티 시나리오(Base/High/Stress)로 계약 조항(납기·페널티·옵션) 설계.
핵심 출처
•
•
•
•
•
•
•
•
필요하시면 **한국 상장사 밸류체인(HBM소재)**과 위 수요/공급 전망을 연결한 **매출 민감도 시나리오(베이스/하이/스트레스)**까지 바로 만들어 드리겠습니다.
•
수요 지수(선그래프): 2025~2030 동안 ASIC/NPU가 가장 가파른 증가(전용 가속기 채택 확대), GPU는 고성장→완만, CPU/HPC CPU는 점진.
•
구성비(스택): 2026년 GPU:ASIC ≈ 67:33(HBM 기준 시나리오)을 중심으로, 2030년 ASIC 비중이 40% 안팎으로 확대되는 경로를 가정.
•
수요 vs 공급: HBM·CoWoS 용량이 매년 램프업되지만, 가속기 수요 지수와의 간극은 2027~2028년까지 남아 가격·리드타임 상방 요인을 시사.