국가·공공기관 AI 도입 보안 가이드라인 나온다

2025-11-30

정부가 국가·공공기관이 인공지능(AI) 시스템 도입 시 고려해야 하는 보안 사항을 담은 가이드라인을 발표한다.

가이드라인은 생성형 AI부터 피지컬 AI, AI에이전트 등 다양한 AI를 다루며 도입 시 위험 모델과 대응 방안을 제시한다.

30일 정보보호산업계 등에 따르면, 국가정보원 국가인공지능안보센터가 최근 국가·공공기관의 AI 시스템 도입을 위한 가이드라인 초안을 제작했다. 앞서 국정원은 챗GPT 등 생성형 AI 열풍이 일자 공공분야의 생성형 AI 활용 보안 가이드라인을 2023년 6월 발표한 바 있다.

올해 2월 공식 운영에 들어간 국가인공지능안보센터는 AI 관련 안보 위협에 선제적으로 대응하기 위한 곳으로, 국가·공공분야 AI 도입·활용 관련 보안정책 수립은 물론 AI 안보 위협 대응기술 개발, AI 위협정보 수집·분석·대응 등을 주요 업무로 한다.

우선 이번 가이드라인은 기관 내 AI 시스템을 자체 구축하거나 외부(민간) AI 시스템을 활용하는 등으로 나눴다.

특히 AI 시스템 도입 시 우려되는 위험 모델 20개와 함께 대응 모델을 도출했다. 데이터를 생성해 학습하고 궁극적으로 AI 시스템을 도입해 활용하는 과정에서 단계마다 어떻게 보안을 적용해야 하는지를 안내한다. 일례로 기관이 거대언어모델(LLM)을 활용할 시 내부기밀 유출 등을 막는 가드레일 기술을 적용해야 한다는 식이다.

정부가 추진하고 있는 국가망보안체계(N2SF)와 연계도 추진할 것으로 보인다. 정부는 획일적인 망분리에서 벗어나 업무 중요도에 따른 차등 보안 적용을 골자로 한 N2SF 전환에 나서고 있다.

국정원은 제도 이해를 돕기 위해 지난 9월 N2SF 보안 가이드라인 1.0을 공개했다. 가이드라인 부록에서도 11개 정보서비스 모델을 선정하고, 해당 서비스 구축 시 발생할 수 있는 보안 위협을 고려해 N2SF를 적용하는 방법론을 서술했다. 여기엔 업무환경에서 생성형 AI 활용, 공공 데이터의 외부 AI 융합 등 AI 관련 정보서비스 모델도 포함됐다.

이번 가이드라인은 대통령실 국가안보실과 AI수석실 등 보고 후 이르면 올해 말 늦어도 내년 1월 공개될 것으로 관측된다. 나아가 내년 상반기 N2SF를 기반으로 한 AI 시스템의 보안통제 항목 매핑 작업도 이뤄질 전망이다.

조재학 기자 2jh@etnews.com

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.