SK텔레콤이 인공지능(AI) 시대 핵심 인프라인 AI 데이터센터 사업에 본격적으로 나선다. 다음달 판교에 시범용 시설을 구축한 후 이를 전국의 지역 거점들에 확장하고 그 규모도 기가와트(GW·10억 W)급으로 키워나간다는 구상이다. 이를 바탕으로 AI 반도체인 그래픽처리장치(GPU)를 클라우드로 제공하는 기업간거래(B2B) 서비스도 다음달 출시한다.
SK텔레콤은 4일 서울 강남구 코엑스에서 열린 SK그룹 연례 테크행사 ‘SK AI 서밋 2024’에서 이 같은 내용을 담은 ‘AI 인프라 슈퍼 하이웨이’ 구축 계획을 발표했다. AI 데이터센터와 GPU 클라우드 서비스(GPUaaS), 에지 AI를 회사가 집중 투자할 AI 신사업으로 구체화하고 국내외 협력사들을 모아 해외 진출도 추진할 계획이다.
SK텔레콤은 우선 국내 지역 거점에 100메가와트(MW·100만 W)급의 대규모 AI 데이터센터를 짓고 이를 GW급으로 키워나갈 방침이다. 이를 통해 50조 원 이상의 신규 투자를 유치하고 5만 명 이상의 고용을 창출하며 175원 이상의 경제 효과와 지역의 AI 첨단산업 육성이 가능할 것으로 기대했다.
회사는 그 첫 단계로 다음달 국내 AI 기업들이 집결한 경기 성남시 분당구 판교에 AI 데이터센터 테스트베드를 개소한다. 엔비디아의 최신 칩과 하이닉스의 HBM 등 AI 반도체는 물론 ‘칩 접촉 냉각’, ‘탱크형 액침 냉각’, ‘샤시형 액침 냉각’ 등 차세대 액체 냉각 솔루션 3종을 도입했다. AI를 활용한 에너지 최적화 기술도 들어갔다. SK텔레콤은 테스트베드를 통해 AI 데이터센터 운영과 사업 노하우를 얻을 방침이다.
AI 데이터센터는 고객사에게 서버를 제공하는 일반 데이터센터와 달리 GPU 같은 AI 연산 자원을 제공하는 시설이다. 전 세계적으로 AI 스타트업들이 등장하고 있지만 GPU 기반의 슈퍼컴퓨터를 직접 구축하기에는 비용 부담이 크고 엔비디아 칩도 공급 부족으로 수급난을 겪는 실정이다. 일반 데이터센터보다 연산량이 많아 발열을 잡기 위한 최신 냉각 기술도 필요하다. SK텔레콤은 이 같은 틈새 수요를 노려 AI 기업들이 인프라를 직접 구축할 필요없이 빌려쓸 수 있게 한다는 구상이다.
SK텔레콤은 AI 데이터센터를 활용한 서비스도 다음달 출시한다. 고객사가 직접 인프라를 구축할 필요없이 사스(SaaS)처럼 클라우드 구독 서비스 형태로 GPU를 쓸 수 있도록 하는 GPUaaS다. 이를 위해 SK텔레콤은 미국 협력사 람다와 손잡고 엔비디아 GPU ‘H100’을 수급, 다음달 서울 가산 데이터센터를 AI 데이터센터로 전환한다. 내년 3월에는 최신 GPU ‘H200’을 국내 최초로 도입해 서비스를 고도화한다.
회사는 또 내년부터 총 1000억 원을 투자해 리벨리온의 신경망처리장치(NPU), SK하이닉스의 HBM 등 국내 AI 칩 기업과도 협력을 강화한다. 국산 AI 인프라로 AI 서비스를 제공하는 ‘한국형 소버린(자립형) AI’를 구현, 공공 분야와 국내 주요 기업의 기술 자립을 지원한다는 목표를 제시했다.
마지막 전략인 에지 AI는 중앙이 아닌 사용자와 가까운 말단 서버와 기기에도 AI를 내장해 중앙 서버의 연산 과부하에 따른 서비스 지연과 보안 문제, 개인정보보호 침해 우려를 보완할 수 있는 기술이다. SK텔레콤은 기존 주력사업인 이동통신 인프라는 물론 국내외 기업들과의 협력을 통해 관련 사업을 준비 중다. 구체적으로 헬스케어(건강관리), AI 로봇, AI 폐쇄회로(CC)TV 등 6개 분야 에지AI 특화 서비스 발굴을 위한 실증사업(PoC)를 추진 중이다.
유영상 SK텔레콤 대표는 “지금까지 통신 인프라는 연결성 경쟁, 즉 속도와 용량 싸움이었으나 이제는 네트워크 진화의 패러다임이 변화해야 한다”며 “향후 6세대 이동통신(6G)은 통신과 AI가 융합된 차세대 AI 인프라로 진화할 것”이라고 말했다.