[서울=뉴스핌] 김정인 기자 = SK하이닉스는 24일 올해 1분기 컨퍼런스콜에서 "딥시크는 MLA(Memory-centric Learning Architecture)를 통해 인공지능(AI) 모델 개발 비용을 획기적으로 절감했고, 이에 따라 동일한 성능의 AI를 더 적은 하드웨어 자원으로 구현할 수 있게 됐다"며 "이로 인해 AI 개발 시장의 진입 장벽이 크게 낮아졌고, AI 개발 시도가 빠르게 확산되는 계기가 됐다"고 말했다.
이어 "이러한 흐름 속에서 고대역폭메모리(HBM) 수요뿐 아니라 고용량 서버 DIMM에 대한 수요도 급격히 증가하고 있으며, 실제로 당사도 1분기 동안 DDR5 기반 96GB 모듈 수요의 확대를 경험했다"며 "올해도 AI 모델 개발과 출원 증가에 따라 고용량 DIMM 수요는 지속적으로 늘어날 것으로 예상된다"고 했다.

딥시크는 더 정교한 결과 도출을 위해 긴 추론 경로를 채택하고 있어, 높은 수준의 메모리 용량을 필요로 한다. 이처럼 AI 모델들이 고성능 추론을 지향함에 따라 AI 시장의 중심축은 기존의 학습에서 추론으로 확장되고 있으며 이는 고용량 메모리 수요를 추가로 창출하는 주요 요인으로 작용하고 있다는 설명이다.
SK하이닉스는 그러면서 "고품질 추론 서비스를 제공하기 위해서는 지속적인 모델 학습 또한 병행되어야 하므로, 전반적인 AI 서버 인프라의 고용량화는 불가피한 방향"이라며 "당사는 고용량 서버가 중장기적인 서버 수요의 핵심이 될 것으로 보고 있으며, 딥시크가 AI 개발 저변 확대의 기폭제 역할을 한 만큼, 앞으로 AI의 개발과 응용이 점차 확산될 것으로 기대하고 있다. 이는 장기적인 관점에서 AI 서버 수요와 메모리 수요를 함께 견인할 것으로 전망된다"고 했다.
kji01@newspim.com