네이버 클라우드가 경량형 AI 모델 ‘하이퍼클로바 X 시드’를 공개했다. 23일 열린 ‘네이버 클라우드 테크 밋업 기자간담회’에서 네이버는 경량화, 오픈소스라는 키워드로 앞세워 새로운 모델을 소개했다.
온서비스 AI를 위한 ‘경량화’
하이퍼클로바 X 시드는 ‘하이퍼클로바 X’의 경량 모델로, 파라미터 수에 따라 30억(3B), 15억(1.5B), 5억(0.5B) 등 세 종류로 구성된다. 하이퍼클로바 X에 비해 10분의 1 이상 작은 모델인 셈이다.
네이버클라우드가 경량화에 중점을 둔 이유는 ‘온서비스 AI(On Service AI)’라는 전략 때문이다. 네이버는 자사가 가진 모든 서비스에 AI 기술을 접목하겠다는 의지로 ‘온서비스 AI’ 전략을 세운 바 있다. 현재의 네이버를 만든 모든 서비스에 AI라는 추진력을 더하면 경쟁력이 더욱 커질 것이라고 보는 것이다.
네이버클라우드 성낙호 기술총괄은 “하이퍼클로바 X 시드는 네이버의 ‘온 서비스 AI’를 만들기 위해 필요한 핵심 경량 모델”이라고 소개했다. 그는 “네이버 내에서 300여 건의 프로젝트에 하이퍼클로버X가 사용되고 있는데 그 중 40% 정도가 경량 모델이 적용됐다”면서 “특정한 태스크를 수행할 때 작은 모델로 충분히 성능이 나오면 그 모델을 쓰는 것을 더 선호하고 있다”고 말했다.
‘경량’이 중요한 이유는 비용 때문이다. 수백억개 이상의 파라미터를 보유한 모델은 만들 때도 비용이 많이 들지만, 서비스를 운영할 때도 비용부담이 크다. 원하는 성능을 얻을 수 있다면 모델 크기는 최대한 작은 것이 비용 면에서 좋다. 김유원 대표는 “글로벌 선도 업체들은 손해를 감수하면서 시장을 확대하는 전략을 취하고 있는데, 저희나 저희보다 작은 회사는 그렇게까지 손실을 감내하기는 힘들다”면서 “비용적인 문제가 굉장히 심각한 문제”라고 말했다.

소버린 AI를 위해 ‘오픈소스’
하이퍼클로바 X 시드의 또다른 특징은 ‘오픈소스’로 공개된다는 점이다. 특히 비상업적 용도에 국한하지 않고 상업적 용도로도 누구나 사용할 수 있는 라이선스를 채택했다고 회사 측은 설명했다.
현재 메타 등이 공개한 오픈소스 LLM은 비상업적 용도로 제한되어 있는 경우가 많다. 대학이나 연구소 등에서만 실험적으로 사용할 수 있도록 한 것이다. 상업적 용도로 사용하기 위해서는 별도로 비용을 지불하는 계약을 맺어야 한다.
반면 하이퍼클로바 X 시드는 상업적 용도로도 무료로 사용할 수 있다. 다만 네이버와 경쟁할 때는 별도의 논의가 필요하다는 입장이다.
성낙호 총괄은“네이버랑 직접적인 경업을 할 경우는 얘기를 해보자,라는 조항 정도가 들어가 있고 나머지는 완전 무료”라면서 “허깅페이스 모델과 호환되게 만들었기 때문에 생태계에 그대로 편입된다”고 말했다.
네이버클라우드는 이와 같은 오픈소스 전략이 ‘소버린 AI’를 위한 길이라고 설명했다. 소버린 AI는 AI 플랫폼을 완전히 내주면 주권에 위협을 받을 수 있다는 관점에서 ‘AI 주권을 지키자’는 접근법이다. 네이버는 오래 전부터 소버린 AI가 필요하다고 강조해왔다. 이날 공개한 오픈소스 LLM을 기반으로 스타트업이나 연구소 등에서 혁신적 서비스를 개발한다면 한국의 AI 주권을 지키는 데 도움을줄 수 있다는 것이다.
김유원 대표는 “소버린 AI 생태계의 발전을 위해서 하이퍼클로바 X 시드를 오픈소스로 공개한다”면서 “많은 스타트업과 연구진에 도움이 될 것이라고 생각한다”고 말했다.

추론 모델도 상반기 출시
네이버클라우드는 하이퍼클로바X 플래그십 모델 기반으로 추론 모델도 상반기 내에 발표할 예정이라고 밝혔다.
추론 모델은 딥시크가 높은 성능을 보여 전세계적인 화제가 됐던 영역이다. 오픈AI가 GPT-4o 모델로 기술을 이끌고 있으며, 국내에서는 LG AI 연구원 등 소수의 기업만이 추론모델을 출시한 상황이다.
성낙호 총괄은 “GPT 4o와 큰 차이 없는 수준의 결과를 내는 AI를 추론 모델로 확보했다”고 밝혔다. 그는 “추론 모델을 이야기할 때 수학과 코딩을 주로 이야기하는 데 저희 모델로 수능 문제도 풀 수 있다”면서 “상반기에 출시해서 네이버뿐 아니라 국내 모든 서비스의 AI 에이전트 전환을 돕겠다“고 강조했다.
글. 바이라인네트워크
<심재석 기자>shimsky@byline.network