11일 국회서 '글로벌 AI 안전 생태계 주권 확보를 위한 정책토론회' 개최
AI 탈옥·환각, 여전히 '원천 해결 불가'…평가·관리 역량 경쟁으로 전환해야
기술 안전은 최소조건, 윤리·사회적 수용은 충분조건…규범 설계자로 나서야
정부, AI 기본법·종합계획·Assure-AI로 '혁신·안전 균형' 한국형 체계 준비
[서울=뉴스핌] 양태훈 기자 = 11일 국회의원회관에서 열린 '글로벌 AI 안전 생태계 주권 확보를 위한 정책토론회'에서 AI 전문가들은 AI 안전이 국가 주권과 산업 경쟁력을 좌우하는 인프라라고 강조하며, 한국어 데이터 확충과 한국형 리스크맵·안전 평가체계, 유연한 규제와 국제 협력을 축으로 한 '한국형 AI 안전 생태계' 구축의 필요성을 제기했다.
김명주 한국전자통신연구원(ETRI) 인공지능안전연구소장은 이날 토론회에서 "AI는 더 이상 미래 기술이 아닌 현재의 기술로, 통제를 제대로 하지 못하면 국가 단위의 위험으로 번질 수 있다"며 "생성형 AI의 탈옥과 환각이 구조적으로 완전히 제거되지 않았는데, 버그바운티(Bug Bounty)에서조차 이는 '원천 해결 불가' 영역으로 남아 있을 정도로 안전 기술은 아직 미완성"이라고 말했다.
김 소장은 "이런 가운데 영국을 중심으로 한 AI Safety Institute(AISI) 국제 네트워크가 '선진국·프론티어 AI 평가 역량국' 중심의 폐쇄형 협의체로 재편되고 있다"며 "이제는 누가 더 큰 모델을 만드느냐가 아니라, 누가 더 신뢰할 수 있게 평가·관리하느냐의 경쟁이 이어지고 있다"고 말했다. 그러면서 "한국도 국제 표준화와 디팩토 표준 모두에 적극 참여해 '가장 안전한 AI를 만드는 나라(G3 전략)'를 지향해야 한다"고 강조했다.
AI 안전을 기술 문제가 아닌 사회적 신뢰의 문제로 봐야 한다는 지적도 나왔다. 문정욱 한국정보사회진흥원(KISDI) 디지털사회전략연구실장은 "AI 위험은 기술적 차원과 사회적 차원이 얽힌 복합적인 구조로, 사람들의 불안은 단순한 모델 오류가 아니라 악의적 사용 가능성, 책임 불명확성에서 온다"며 "기술적 안전은 최소조건, 윤리적 수용은 충분조건이어야 한다"고 지적했다.

KISDI는 이 같은 주장의 근거로 AI 영상합성(딥페이크) 서비스에 대해 윤리영향평가에서 창작 활성화·비용 절감 등의 혁신과 동시에 아동 피해·오용·악용 우려가 동시에 확인된 결과를 공유했다.
법조계에서는 AI 규제의 방향이 곧 산업 경쟁력과 직결된다는 우려가 나왔다. 황정현 법무법인 세종 변호사는 "그동안 '한국은 AI 규제가 거의 없다'고 설명해 왔지만, AI 기본법 시행을 앞두고 기업들의 규제·안전 문의가 폭발적으로 늘고 있다"며 "환각·오작동·악용·시스템 위험 등 잠재적 리스크는 현장에서 체감하는 것보다 훨씬 크다"고 우려했다.
황 변호사는 유럽 개인정보보호법(GDPR)을 예로 들며 "강한 규제는 글로벌 표준이 되면 힘이 되지만, 국내만 과도하게 강하면 기업 경쟁력을 떨어뜨릴 수 있다"며 "한국은 글로벌 규제와 조화를 이루되, 한국 기준 자체를 국제 표준으로 만드는 선도 전략이 필요하다"고 제언했다. 한국형 안전 기준이 글로벌 표준이 되면 국내 기업은 추가 부담 없이 해외 진출이 가능하고, 해외 기업도 한국 기준을 따라야 해 역차별 우려가 줄어든다는 설명이다.
현장의 '불확실성'을 줄여줄 실질적 가이드 역시 필요하다는 지적이 나왔다. 민대기 이화여대 교수는 "국내 대표 빅테크조차 개인정보, 유해·거짓정보, 외부 사업자 활동에서 발생하는 간접 리스크까지 포함해 '어디까지 대비해야 하는지'를 가장 어려워하고 있다"며 "규제는 산업의 발목을 잡는다는 인식이 있지만, 동시에 기업이 준비해야 할 범위와 수위를 알려주는 장치다. 국가 차원의 AI 안전 논의가 선언에 그치지 말고, 기업이 실제로 무엇을 준비해야 안전한 AI를 만들 수 있는지에 대한 구체적 가이드로 내려와야 한다"고 강조했다.

AI 전환이 전 세계적으로 진행되고 있는 만큼 국제 협력이 중요하다는 지적도 나왔다. 안정민 한림대 교수는 "가이드라인·자율규제·법 규제가 혼재돼 있지만, AI 모델 자체를 직접 규율하는 것은 사실상 불가능하다. 현재 가능한 것은 데이터셋 검수나 프로세스 규율 정도이고, 이마저도 기업 부담과 혁신 속도 저하로 이어질 수 있다"며 "기술 발전 방향을 미리 예측해 일관된 규제 프레임을 짜는 방식은 AI 시대에 맞지 않는다. 규제도 기술 속도에 맞춰 빠르게 수정·보완할 수 있는 유연한 구조가 필요하다"고 말했다.
정부는 '혁신·안전 균형'을 기조로 한 한국형 AI 안전체계 구축에 속도를 내겠다는 입장이다. 김국헌 과학기술정보통신부 인공지능안전신뢰정책과장은 "AI 기술 발전 속도를 고려할 때 AI 안전은 산업경쟁력·국민 보호·국제협력과 직결된 핵심 국가 과제"라며 "인공지능기본법 후속 법령과 AI 안전 종합계획, 한국형 안전 데이터셋 구축 등을 신속히 추진하겠다"고 밝혔다.
또 "과기정통부는 부처 격상과 함께 AI 안전·신뢰 전담 조직을 신설했고, AI안전연구소(AISI)의 역할 확대도 검토 중이다. 유럽연합(EU)이 규제 중심이라면, 한국 기본법은 혁신과 신뢰의 균형을 지향한다"며 "AI 기본법 31~34조 규제 조항은 산업 부담을 최소화하면서도 안전을 확보할 수 있도록 하위법령과 가이드라인을 준비 중"이라고 설명했다.

이어 "딥페이크 등 AI 생성물 표시 의무는 기본법 31조의 투명성 의무로 구현될 예정이며, 정부는 안전 데이터셋 'Assure-AI' 등 한국형 안전 데이터 구축 사업도 추진하고 있다"며 "한국어 AI 데이터 생태계 경쟁력을 높이기 위해 지원을 강화하고, 국제 협력 확대를 통해 한국형 AI 안전체계를 글로벌 수준으로 발전시키겠다"고 강조했다.
dconnect@newspim.com

![[자율주행과 모빌리티]전문가들 “유연한 규제가 모빌리티 경쟁력 좌우”](https://img.etnews.com/news/article/2025/12/11/news-p.v1.20251211.3a897234c2a0477ca7a51e919967652a_P1.jpg)


![[자율주행과 모빌리티] “'피지컬 AI'가 자율주행 레벨4 상용화 핵심”](https://img.etnews.com/news/article/2025/12/11/news-p.v1.20251211.709c0f91fb6c40debde37d0d5b4465ef_P1.jpeg)


![[정구민의 테크읽기] 모빌리티 지식재산권과 불공정무역행위 조사제도](https://img.etnews.com/news/article/2025/12/10/news-p.v1.20251210.13c232884fc04894b24f4971de31f4ca_P1.jpg)
