네이버클라우드, GPUaaS 사업 본격 확장...'각 세종' 인프라 산업 생태계로 확장

2025-10-28

"AI 인프라를 서비스로"...GPU 확보 경쟁 넘어 '기술 내재화'로 AI 경쟁력 강화

삼성과 '국가 AI컴퓨팅센터' 컨소시엄 참여, GPU 허브로 역할 확대

'사우디·태국·일본 협력 프로젝트'도 적극 추진…글로벌 진출 본격화

[세종=뉴스핌] 양태훈 기자 = 네이버클라우드가 데이터센터 '각 세종'을 기반으로 AI 인프라를 서비스 형태로 전환하는 'GPUaaS(GPU as a Service, 서비스형 GPU)' 사업을 본격 확대한다. GPU 인프라를 맞춤형 패키지로 제공하는 모델을 중심으로, 국내 주요 산업군에서 확보한 실적을 기반 삼아 글로벌 시장 진출에도 속도를 내겠다는 계획이다.

이상준 네이버클라우드 최고정보책임자(CIO)는 전날(27일) 네이버의 세종 데이터센터 각 세종에서 열린 '테크 밋업' 행사에서 "AI 데이터센터는 더 이상 하드웨어를 보관하는 창고가 아니라, 지능(Intelligence)의 인프라를 만드는 지능 센터(Intelligence Center)로 진화해야 한다"며 "GPU 확보에만 집중하기보다, 자원의 효율적 운영과 기술 내재화로 경쟁력을 완성하겠다"고 앞으로의 청사진을 밝혔다.

각 세종은 지난 2023년 말에 완공된 네이버의 두 번째 초대형(하이퍼스케일) 데이터센터로, 춘천 데이터센터 '각 춘천'에 이어 AI 연산과 학습을 동시에 처리할 수 있도록 설계된 첨단 인프라다. 축구장 41개 크기인 29만 4000㎡ 부지에 단일 기업 기준으로 국내 최대인 60만 유닛(Unit, 서버 높이 단위) 규모의 서버를 수용할 수 있다.

각 세종에는 국립중앙도서관 전체 데이터의 약 100만 배에 해당하는 65엑사바이트(EB)의 데이터를 저장할 수 있고, 최대 270MW의 전력 공급이 가능해 각 춘천보다 약 6.75배 높은 수전 용량을 갖추고 있다. 고밀도 GPU 운용과 AI 워크로드 대응을 위해 전력·냉각·운영 체계가 완전히 이원화되어 있으며, 네이버클라우드는 각 세종을 중심으로 AI 데이터센터의 표준화·자동화를 추진하고 단계별로 글로벌 수준의 GPU 서비스 허브로 발전시킬 계획이다.

이상준 CIO는 "각 세종은 단순한 IDC(인터넷 데이터센터)가 아니라 AI 학습과 추론이 동시에 이뤄지는 하이퍼스케일 데이터센터"라며 "GPU, 스토리지, 네트워크, 냉각, 플랫폼까지 모든 층위를 자체 설계하고 최적화했다. AI 기술은 하루가 다르게 바뀌고 있지만, 네이버는 기술 자동화·내재화를 통해 예측 가능한 인프라를 지속 운영할 것"이라고 자신했다.

◆ '냉각 효율·전력 최적화·운영 내재화', 3대 축으로 안정성 강화

네이버클라우드는 AI 연산 효율을 극대화하기 위해 냉각·전력·운영 전반에 걸쳐 '예측 가능한 인프라 구조'를 구축하며, 고밀도 GPU 환경에서도 안정적 서비스를 유지할 수 있는 체계를 강화하고 있다.

노상민 네이버클라우드 데이터센터장은 "각 세종은 전력·냉각·운영 체계를 완전히 분리하면서도 유기적으로 통합한 이중화(Active-Active) 구조로 설계됐다"며 "지하 전기실, 기계실, 수조를 분리 배치해 장애나 화재 발생 시 피해를 최소화할 수 있도록 했다"고 설명했다.

이어 "데이터센터 전담 조직을 단일 부서로 통합해 전국 모든 센터가 동일한 수준의 점검·운영 프로세스로 대응할 수 있다"며 "춘천·세종·수도권 등 어느 IDC에서도 같은 품질의 복구 절차가 즉시 실행될 수 있도록 일원화했다"고 강조했다.

실제로 각 세종은 이러한 설계 철학을 바탕으로 전력 분리·냉각 효율·운영 일원화의 세 축이 유기적으로 작동하도록 구축됐다. 전력 측면에서는 UPS(무정전 전원장치)와 배전 설비를 서버 구역과 완전히 분리해 장애 전파를 차단했고, 냉각 시스템은 외기·수냉·간접냉각을 자동 전환하는 하이브리드 구조로 에너지 효율을 극대화했다. 운영 측면에서는 전국 데이터센터를 단일 표준 프로세스로 묶어 장애 발생 시 즉시 복구할 수 있는 자동 전환 체계를 갖춰, 24시간 무중단 서비스를 구현하고 있다.

다양한 자연 에너지를 활용하는 기술도 각 세종의 특징이다. 네이버는 자체 개발한 공조 시스템 NAMU(NAVER Air Membrane Unit)을 적용해 자연 바람이 24시간 서버실을 냉각하도록 설계했으며, 세종의 기후 변화에 따라 직·간접 외기를 조합해 냉방 효율을 높였다. 또한 서버실에서 발생하는 폐열을 버리지 않고 온수 공급, 바닥 난방, 내부 도로 제설(스노우 멜팅) 시스템에 재활용해 에너지 손실을 최소화했다.

아울러 네이버는 10년간 각 춘천을 무중단·무재해·무사고로 운영한 경험을 바탕으로, 각 세종에도 동일한 안정 운영 체계를 이식했다. 지진·정전·화재 등 재난 상황에서도 서비스가 중단되지 않도록 전력·통신·운영 프로세스를 다층 구조로 분리했으며, 이를 통해 네이버는 예측 가능한 인프라라는 원칙을 실현하고 있다.

네이버는 축적된 데이터센터 운영 경험을 기반으로 냉각 효율과 전력 최적화 기술을 고도화하며, AI 인프라의 지속 가능성과 에너지 효율을 강화하고 있다. 나아가 이러한 기술 고도화를 통해 GPUaaS 등 AI 인프라 서비스 확장 기반을 공고히 하겠다는 구상이다.

노 센터장은 "각 춘천에서는 절연유 기반의 액침(Immersion) 냉각 PoC(Proof of Concept, 개념 실증)를, 각 세종에서는 직접수냉(Direct Liquid Cooling, DLC) PoC를 내년 4월까지 완료해 2027년 2차 서버룸부터 본격 적용할 계획"이라며 "GPU 한 대당 전력 사용량이 15㎾에 이르는 고밀도 환경에서 공랭만으로는 냉각 효율을 확보하기 어렵다"고 말했다.

이어 "액침 냉각은 엔비디아의 기술 지원이 아직 없고, 절연유 잔류 등 운용상의 제약이 있다"며 "GPU와 냉각 장비가 일체형으로 납품되는 구조적 한계를 극복하기 위해, 안정성과 에너지 효율을 종합적으로 검증 중"이라고 덧붙였다.

네이버는 고밀도 GPU 운용에 필수적인 DLC 방식은 장비 종속성이 크지만, 이를 자체 기술로 흡수해 중장기적으로 독자 냉각 인프라로 발전시킬 방침이다. 다만 세종 데이터센터의 연간 전력 비용이 약 220억 원 수준에 달하는 만큼, GPU 확충과 냉각 고도화에 따라 에너지 비용 부담이 커질 것으로 우려했다.

이에 대해 노 센터장은 "전력 효율화 없이는 AI 인프라의 지속 가능성이 어렵다"며 "정부 차원의 에너지 공급과 입지 규제 개선이 함께 추진되면 좋겠다"고 말했다.

이상준 CIO 역시 "AI 인프라 확장은 막대한 투자와 전력 인프라가 뒷받침돼야 한다"며 "네이버는 무제한 투자가 아닌 기술 내재화 중심의 효율적 전략으로 확장을 추진할 계획"이라며 "정부의 AI 인프라 사업이 민간 확장을 견인할 수 있도록 긴밀히 협력하겠다"라고 전했다.

◆ GPUaaS, 'AI 인프라 서비스화'의 핵심…산업·국가 넘어 글로벌로 확장

네이버클라우드는 AI 인프라 전략의 핵심 축으로 'GPUaaS'를 앞세워, 자체 구축한 AI 인프라를 기업·정부·글로벌 시장을 대상으로 서비스화하는 데 속도를 내고 있다.

이상준 네이버클라우드 CIO는 "GPU를 얼마나 많이 확보했느냐보다, 확보한 자원을 얼마나 안정적이고 효율적으로 운영하느냐가 AI 경쟁력을 결정짓는다"며 "네이버는 이 인프라 운영 기술을 스스로 내재화했고, 이제는 이를 외부 고객에게 동일한 품질로 제공하는 GPUaaS 모델로 확장하고 있다"고 강조했다.

이어 "GPUaaS는 단순한 자원 임대가 아니라, 고객의 워크로드와 환경에 최적화된 GPU 인프라를 플랫폼 형태로 제공하는 서비스"라며 "네이버는 이미 현대자동차, 삼성전자, 한국은행, 정부 사업 등에 이를 공급한 사례가 이고, 최근 정부 일반 사업에서도 약 3000장 규모의 GPU와 플랫폼을 패키지로 공급, GPUaaS의 사업 비중이 전체의 절반가량을 차지할 정도로 성장하고 있다"고 설명했다.

또 "GPUaaS는 단순히 인프라를 임대하는 서비스가 아니라, 내부에서 검증된 AI 인프라를 다양한 산업의 워크로드에 맞게 패키지화하는 모델"이라며 "네이버는 산업별 특화 모델(버티컬 모델)과 AI 애플리케이션 개발을 병행하면서, 고객이 인프라의 복잡성을 느끼지 않고 바로 AI를 활용할 수 있도록 지원하고 있고, 하이퍼클로바X를 중심으로 산업별 수요에 최적화된 맞춤형 AI 서비스를 확장해 나갈 계획"이라고 덧붙였다.

또한 네이버클라우드는 국가 AI 인프라 조성 사업에도 적극 참여하며 GPUaaS 생태계 확장에 나서고 있다. 현재 삼성SDS가 주도한 국가 AI컴퓨팅센터 컨소시엄에 핵심 파트너로 참여하고 있으며, 카카오·KT 등과 함께 민간 주도 GPU 허브 구축을 위한 공동 전략을 추진 중이다. 컨소시엄은 전남 해남 솔라시도 데이터센터 파크에 구축될 예정이며, 2028년까지 GPU 1만 5000장, 2030년까지 5만 장 이상 확보를 목표로 한다.

정부가 공모 조건을 완화해 민간 주도 비율을 높인 이번 사업에서, 네이버클라우드는 GPU 임차·구매 대행·AI 파운데이션 모델 개발 등 인프라 전반을 아우르는 역할을 맡아, 국가 AI컴퓨팅센터를 글로벌 수준의 GPU 허브로 발전시키는 데 주도적 역할을 할 계획이다.

이상준 CIO는 "국가 AI컴퓨팅센터는 네이버가 내재화한 GPU 운영 기술과 플랫폼 역량을 국가 인프라에도 이식할 수 있는 기회"라며 "사업자이자 사용자로 참여해 리스크를 분산하고, 효율적 운영 모델을 확립하겠다"고 말했다.

한편, 네이버클라우드는 글로벌 사업 확장에도 속도를 내고 있다. 이 CIO는 "사우디, 태국, 일본 등에서 협력 프로젝트를 진행 중"이라며 "태국에서는 Siam AI와 함께 태국어 모델을 개발하고 있으며, 일본에서는 독거노인 케어·고객 응대용 AI 서비스를 준비 중이다. 이 같은 경험이 쌓이면 국내 기술 기반의 글로벌 AI 인프라 생태계 확장이 현실화될 것"이라고 자신했다.

나아가 "AI 산업의 경쟁력은 GPU, 인력, 데이터 세 가지 요소가 좌우한다"며 "AI 데이터센터 경쟁은 단순한 하드웨어 싸움이 아니라 운영 철학과 지능화의 경쟁으로, 네이버는 하이퍼클로바X를 중심으로 AI 플랫폼·GPUaaS·모델 서비스를 유기적으로 연결해 산업 전반의 혁신을 이끌 것"이라고 강조했다.

dconnect@newspim.com

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.