'AI 안전 연구소' 앞세운 각국 신뢰성 경쟁 가속

2025-10-27

세계 주요국이 생성형 인공지능(AI)의 신뢰성과 안전성 확보를 위한 기반 연구를 강화하며, 평가·인증·교육 체계 정비 경쟁에 돌입했다.

단순한 기술 개발을 넘어, AI 규범과 표준을 선도하려는 'AI 거버넌스 경쟁'이 펼쳐지고 있다.

이달 초 세계 30개국과 유엔(UN), 유럽연합(EU), 경제협력개발기구(OECD) 등 AI 전문가 100여명과 국제기구가 참여한 '국제 AI 안전 보고서'가 공개됐다. 보고서는 캐나다 몬트리올대의 요슈아 벤지오 교수가 의장을 맡았으며, 영국 'AI안보연구소(AISI)'가 초기 사무국을 담당했다.

핵심은 AI 모델 등 기술 진화 속도가 지나치게 빠른 만큼, 사후 규제 중심의 관리 방식만으로는 리스크를 통제하기 어렵다는 게 핵심이다. 기존 안전 평가 기준만으로는 대응이 어려워, 평가 및 완화 수단의 고도화가 필요하다고 진단했다.

영국은 이러한 글로벌 흐름에 가장 먼저 대응하고 있다. 영국 정부는 프론티어 모델의 행동 패턴을 분석하는 '트랜스크립트 기반 평가'를 도입했다. 이는 단순 정답 중심 성능 평가에서 벗어나, AI 에이전트가 실제로 어떤 시도를 하고 어떤 경로로 판단·행동했는지를 기록해 분석하는 방식이다.

영국은 이 평가 방법을 자국의 AI 안전 프레임워크에 반영했으며, 사이버보안·국가안보 리스크를 포함한 종합 안전성 검증 체계를 마련했다. 또 AISI가 주도해 '글로벌 정렬연합'을 출범시키고, 약 1500만파운드(약 260억원) 규모의 연구기금을 조성해 각국 연구기관과 협력 중이다.

미국은 AI 정책의 초점을 '안전'에서 '안보와 혁신 경쟁력'으로 전환하고 있다. 산하 AI 안전연구소의 명칭을 CAISI(AI 표준 및 혁신센터)로 변경하고, 국가 안보·사이버 위협 대응·국제 표준 주도권 확보에 집중하는 개편안을 발표했다.

이는 트럼프 행정부가 추진 중인 규제 완화·산업 자율 중심 AI 육성 전략의 일환으로, AI 연구·산업 생태계의 자율성을 최대화하려는 정책 방향과 맞닿아 있다.

EU는 AI법(AI 액트) 시행에 맞춰, '범용 AI 실천강령'을 마련해 투명성·보안·저작권 보호 기준을 구체화하고 있다. 이 강령은 모든 범용 AI 모델 제공자를 대상으로 하며, 특히 오픈AI의 '챗GPT'나 구글 '제미나이'처럼 고도 모델을 대상으로 한 안전·보안 조항이 별도로 포함됐다.

지난 주 한국을 찾은 크리스 리헤인 오픈AI 글로벌정책총괄은 “미국, 영국, 유럽의 AI 안전 연구소들이 점점 비슷한 형태로 정착하며 투명성·보고 체계·표준이 일치하고 있다”며 “이는 사실상 글로벌 공통 기준을 형성해 가는 과정”이라고 말했다.

한국도 국가 차원의 AI 안전 생태계 조성 전략을 마련하고 있다. 과학기술정보통신부는 연내 '국가 AI 안전 생태계 조성 종합계획(가칭)'을 수립해 안전하고 신뢰할만한 AI 활용 환경을 구축하겠다고 밝혔다. 아울러 AI 안전 연구소 조직 확대와 국제 협력 강화 등 후속 지원에 나설 방침이다.

김명희 기자 noprint@etnews.com

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.