“조만간 딥시크 R1 수준의 모델을 개발해 오픈소스로 공개하겠습니다. 그다음에 (정부가 인프라 투자 관련해) 행동을 구체적으로 취했으면 좋겠습니다.”
배경훈 LG 인공지능(AI)연구원장은 6일 “200억 원에서 400억 원 가량이면 산업계에서 충분히 쓸 수 있는 거대언어모델(LLM)을 1년에 3~4개 만든다”며 연내 딥시크 AI모델과 비슷한 LLM을 선보일 것이라고 밝혔다.
배 원장은 이날 서울 중구 국가AI위원회에서 열린 국내 AI 산업 경쟁력 진단 및 점검 간담회에 참석해 “엔비디아의 H100 수준 GPU(그래픽처리장치) 2480장이 있다면 한국에서도 (딥시크와 같은 AI 모델은) 만들 수 있다”고 했다. 그는 “정부가 (개발을)할 수 있는 기업에 투자를 해서 연내까지 (기술력을) 증명하고, 다음 단계의 계획을 만들었으면 한다”고 주장했다. 다만 배 원장이 밝힌 LG의 H100의 보유수는 현재 512장이다. 배 원장은 “LG가 현재 H100 512장으로 개발 중인데 속도 측면에서 밀릴 수밖에 없다”고 했다.
배 원장은 딥시크보다 더 적은 비용으로 엑사원을 개발했다는 사실도 이 자리에서 처음 밝혔다. 배 원장은 “지난해 12월 오픈소스로 공개한 '엑사원 3.5' 32B 모델에 70억 원이 들었다”고 했다. 딥시크가 V3 모델 학습에 600만 달러(한화 78억 원 상당)를 투입한 것보다 더 적은 수치다. 엑사원 32-B 모델은 특화 분야에 활용할 수 있는 프론티어급 모델로, 320억 개의 매개변수(파라미터)를 보유하고 있다. 멀티 스텝 추론 기능(MSR)을 중심으로 설계돼 심층 분석, 출처 선택 등 기능도 탑재됐다.
배 원장은 “엑사원 3.5에는 딥시크가 저비용 개발에 성공할 수 있었던 핵심 요소로 꼽히는 ‘전문가 혼합(MoE) 기법’이 사용됐고 LG 계열사 전 임직원을 대상으로 서비스 중”이라며 “그룹 차원을 넘어서 글로벌로 공개했더라면, 우리가 더 잘 알렸으면 좋았을 텐데 아쉬움이 있다”고 언급했다. 그러면서 “글로벌 수준의 모델을 만들고 사업적 가치를 창출하고 있음에도 국가 차원의 홍보가 부족했던 것 아닌가 생각한다”고도 덧붙였다.
엑사원 3.5은 정보통신기획평가원이 LLM 성능을 비교, 평가한 자료에 따르면 딥시크 V3 성능 바로 뒤에 위치해 성능 면에서도 딥시크 모델에 크게 뒤처지지 않았다는 평가다. 사용성과 장문 처리 능력, 코딩, 수학 등 다방면에서 글로벌 오픈소스 AI 모델과 견줄 만한 성능을 보였다는 평가다. 현재 그룹 전 계열사에 도입 중이며, 분야별로 적합한 양식도 지속 업데이트한다는 방침이다. 엑사원 3.5보다 앞선 모델은 프랑스 미스트랄의 ‘스몰3’, 중국 알리바바의 ‘큐원 2.5-맥스’, 딥시크 ‘R1’, 오픈AI의 ‘o3-미니’ 정도다.
배 원장은 또 “LG가 엑사원에 대한 인프라 구축에 1조 원을 투자했다는 루머도 있다"며 “LLM을 하나 개발하는데 100억 원이 채 들지 않는다. 전체 비용도 때론 200억 원, 400억 원이면 충분하다"고 재차 말했다. 그러면서 "보여주기식으로 AI 모델을 만드는 게 아니라 실제 산업 현장에서 쓸 수 있는 비용 효율적인 고민이 필요하다"며 수치로 표현되는 LLM 성능 등에만 관심이 집중된 현상을 지적했다.