
인공지능(AI) 인프라 구현에 있어 메모리 부족이 가장 심각하다는 분석이 나왔다. 첨단 패키징 병목 현상은 다소 완화됐으나 고대역폭메모리(HBM) 공급이 원활하지 못하다는 것이다.
KLA는 최근 2026 회계연도 1분기(7~9월) 실적에서 메모리 제조사들이 HBM 생산 확대를 위해 D램 투자를 가속화하고 있다면서 이같이 밝혔다.
릭 윌리스 KLA 최고경영자(CEO)는 “그래픽처리장치(GPU)·AI 가속기, 첨단 패키징, 메모리 중 메모리가 가장 부족한 단계에 진입했다”며 “병목현상이 과거 첨단 패키징에서 메모리로 바뀌었다”고 말했다.
HBM은 D램을 수직으로 적층해 데이터 처리 성능을 강화한 메모리다. GPU와 맞물려 고속 연산을 지원하는 AI의 핵심 반도체다.
HBM 수요는 AI와 함께 폭증하고 있다. '챗GPT' 운영사인 오픈AI는 5000억 달러 규모 AI 데이터센터 구축 프로젝트(스타게이트)를 위해 HBM용 D램 90만장이 매달 필요하다고 밝힌 바 있다. 이는 세계 D램 생산능력의 약 40%에 달하는 규모다.
하지만 HBM 공급이 수요를 따라가지 못하고 있다는 것이 KLA 진단이다. KLA는 세계 주요 종합반도체회사(IDM)와 외주 반도체 패키징·테스트 업체(OSAT)를 고객사로 두고 있는 회사다.
이같은 현상은 HBM이 일반 D램과 동일한 용량을 구현하는데 필요한 웨이퍼가 3배 가량 많기 때문이다. HBM용 D램은 일반 D램보다 칩 크기가 커 웨이퍼당 칩 생산량이 적을 뿐 아니라, 패키징 난도가 높아 양품 비율(수율)이 낮아서다.
메모리 제조사들이 HBM 증산을 추진하는 건 높은 수익성 덕분이다. 가격이 비싸 웨이퍼 투입량으로 인한 손실까지 상쇄가 가능한 것이다. 실제 트렌드포스에 따르면 전체 D램에서 비트(Bit) 용량 기준 HBM 비중은 올해 8%에 불과하지만 매출 비중은 33%에 달할 것으로 예측됐다.
박진형 기자 jin@etnews.com


![로봇시대 '눈과 뇌' 공간지능 모델로 피지컬AI 선도 [테크언커버드]](https://newsimg.sedaily.com/2025/11/05/2H0C5981HG_5.jpg)



