소버린 AI(Sovereign AI)의 시대, 주권을 다시 사유하다

2025-11-19

대한민국은 현재 소버린 AI(Sovereign AI) 구축을 국가 전략으로 공식화하고 있습니다. 이는 단순히 ‘AI를 잘 만드는 나라가 되겠다’는 선언이 아니라, 데이터–모델–컴퓨팅 인프라를 국가의 통제 아래 두겠다는 전략적 목표입니다. 2023년 과학기술정보통신부가 발표한 「AI 국가전략 2.0」에서 ‘데이터 주권과 국산 초거대 AI 생태계 구축’이 핵심 과제로 제시되었고, 같은 해 국가정보자원관리원은 공공 데이터를 국가 내부 클라우드에서만 처리·학습하도록 하는 ‘소버린 AI 인프라 계획’을 추진하기 시작했습니다.

즉, 한국은 ChatGPT나 Google의 모델의 단순한 ‘사용자(user)’가 아니라, 자국 데이터를 스스로 학습시키는 ‘주권자(sovereign)’로 서겠다는 의지를 분명히 한 셈입니다. 의료·행정·교육 등 핵심 분야에서도 국가 주도의 AI 플랫폼을 구축하며, 우리의 데이터를 우리가 통제하고, 우리의 AI를 우리가 만든다는 디지털 주권 국가로의 전환을 가속화하고 있습니다.

이는 크게 두 가지 우려에서 기인합니다. 하나는 국가 핵심 데이터(주민등록, 의료 보험, 의료 영상, 공공행정 데이터 등)가 해외 상업 모델의 학습 재료로 활용될 수 있다는 우려, 다른 하나는 언어·문화·행정 체계가 서구권 모델에 지속적으로 종속될 수 있다는 구조적 문제의식입니다. 이러한 인식에서 출발하여 한국은 한국어·한국행정·한국법·한국산업에 특화된 모델을 개발하고, 이를 국가 데이터 댐과 공공 클라우드로 연결해 한국의 데이터는 한국에서 개발한 모델이 먼저 학습한다는 체계를 구축하려 하고 있습니다. 요컨대, 한국의 소버린 AI 전략은 단순한 기술 자립을 넘어 데이터와 언어 주권을 확보하기 위한 국가의 전략적 접근으로 인식되고 있습니다.

‘소버린(sovereign)’이라는 단어는 자주 들리지만 여전히 생소하게 느껴질 수 있습니다. 이 말의 뿌리는 라틴어 super regnum(왕국 위에 있는 것)에서 비롯되어, 프랑스어 soverain을 거쳐 영어로 전해졌습니다. Sovereign은 본래 ‘지배적인’ 혹은 ‘자주적인’을 뜻하는 형용사로, 외부의 간섭 없이 스스로 결정할 수 있는 최고 권위를 의미합니다. 그 명사형인 sovereignty(소버린티)는 주권이나 통치권, 자주권을 뜻합니다. 한국 담론에서는 두 용어가 종종 혼용되지만, 의미에는 분명한 차이가 있습니다. 소버린 AI는 AI라는 기술 체계 자체를 우리가 만들고, 운영하고, 호스팅한다는 기술·인프라 중심의 개념입니다. 반면 AI 소버린티(AI Sovereignty)는 AI 시대에 누가 의사결정 권한을 갖고, AI의 판단을 승인하거나 거부할 권한이 누구에게 있는지를 묻는 정치·철학 중심의 개념입니다. 앞의 것은 ‘우리의 모델’을 강조하고, 뒤의 것은 ‘우리의 권한’을 강조한다는 점에서 구분됩니다.

한국만 이 길을 가는 것이 아닙니다. 미국은 NVIDIA, OpenAI, Google 같은 민간 빅테크를 축으로 AI 패권을 가속하고 있습니다. 특히 미국은 전 세계 하이퍼스케일 데이터센터 용량의 약 54%를 보유해 AI 연산 인프라에서 우위를 점하고 있습니다. 또한 북미는 2024년 기준 글로벌 데이터센터 시장의 약 40% 비중을 차지했습니다. 중국은 ‘데이터는 국가의 전략 자원’이라는 기조 아래, 2021년 데이터보안법(DSL)·개인정보보호법(PIPL)을 시행했고, 2024년 3월 22일에는 국가인터넷정보판공실(CAC)이 국경 간 데이터 이전 규정을 발표해 데이터 국내 저장·이전 통제를 체계화했습니다. 유럽연합(EU)은 데이터 주권과 기본권 보호를 최우선 가치로 삼아, EU AI Act를 2024년 7월 12일 공포하고 2024년 8월 1일 발효시켰습니다. 한국의 소버린 AI는 이러한 측면을 모두 아우르며, 기술 주권과 공공 가치의 균형을 통해 자국 데이터·모델·인프라를 국가 전략 자산으로 관리하려 하고 있습니다.

소버린 AI의 중요성은 점점 커지고 있으며, 이를 보유한 국가와 그렇지 않은 국가 사이에는 데이터 접근성, 연산 인프라, 표준 설정 권한, 안전·안보 역량, 지식 생산 속도 등에서 격차가 벌어질 것이라는 우려가 커지고 있습니다. 소버린 AI는 단순한 기술 독립의 문제가 아니라 경제, 안보, 문화 주권이 얽힌 종합 과제입니다. 한국 역시 이 격차의 구조 속에서 어떤 전략적 위치를 취할 것인지, 그리고 어떻게 주도권을 확보할 것인지에 대한 선택을 요구받고 있습니다.

동시에 우리는 철학적 물음을 멈추지 않아야 합니다. 현재의 데이터로 학습된 모델이 미래 세대의 선택을 미리 좁히거나 특정 방향으로 고정시키는 것은 아닌가? AI가 생성한 지식이 인간의 검증 능력을 넘어설 때, 그 지식은 여전히 인간의 지식이라 부를 수 있는가? 국가, 지자체, 병원, 대학, 기업이 각자 AI 모델을 구축한다면, 그 사이의 상호운용성과 공익은 어떤 규범으로 보장할 수 있을까? 무엇보다 AI의 조언을 따랐을 때 책임과 주권은 누구에게 있는가? 그 결정은 인간이 내린 것인가, 아니면 이미 주권의 일부가 AI로 넘어간 것인가? 이러한 질문들을 열어 둔 채, 우리는 소버린 AI를 권한의 집중이 아닌 구성원의 자유와 공익을 확장하는 방향으로 설계해야 합니다 (그림 1). 기술 주권은 결국 인간 주권의 확장선 이어야 의미가 있다고 생각합니다.

※ 이 글은 본지 편집방향과 다를 수 있습니다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.