[AI 안전성 평가] “인공지능의 미래는 안전성 확보가 답이다”

2025-12-07

인터뷰//김병철 동아대 산업경영공학과 교수

“인공지능(AI)은 많은 산업 분야에서 생산성을 높이고 인간의 대체하는 등 많은 혜택을 인류에게 주지만 새로운 위험도 초래합니다. 안전성이 보장되지 않는다면 오히려 많은 피해가 발생할 수 있다는 점을 잊어서는 안됩니다.”

지난 2년간 AISC 인증을 준비해 온 김병철 동아대 교수는 안전성 인증에 대한 중요성을 재차 피력했다. 김 교수로부터 AI 안전성에 대한 개요와 국제적 흐름에 대해 들어봤다.

◇AI 안전성이란 무엇을 말하는가?

일반적으로는 AI 시스템이 원하지 않는 결과나 위험을 초래하지 않고 개발자가 원하는 방법으로 동작하는 것이라고 말할 수 있다. 물론 AI 시스템은 다양한 조건에서 사용되므로 조건이 변하더라도 잠재적 피해를 회피하거나 완화할 수 있는 능력을 말하기도 한다.

AI 발전 속도는 개발 초기에 예상했던 것보다 빨라 일반 AI 출현은 조만간 이루어질 것으로 보인다. 슈퍼 AI도 가까운 장래에 출현할 수 있다는 게 일반적 견해라고 할 수 있다.

◇생성형 AI 안전성은 어떻게 판단하나.

생성형 AI의 경우 고장이 없어도 동일한 입력에 대해 항상 같은 내용을 출력하지 않는다. 이는 시스템적 고장이 없다면 입력이 같으면 항상 출력이 같다는 기존 소프트웨어와 다르다. 따라서 일반 소프트웨어의 기능 안전 요구사항이나 시험 방법을 적용할 수 없기 때문에 다른 방법을 통해 안전성을 점검하기 위한 연구가 지속 진행된다.

AI 안전성을 말할 때 기술적 안전성도 중요하지만 향후 개발되는 인간 수준의 AI 출현에 대비하기 위해서는 인간이 가진 윤리·도덕적 가치관과 일치시킨 AI가 되기 위한 AI 얼라인먼트(Alignment)가 중요한 점이 될 것이다. 즉 미래에는 AI 안전성이 확보되지 않으면 새로운 위험에 노출되고 핵무기와 같은 악영향을 인류에게 미칠 수도 있다.

◇안전성에 대한 관심이 커진 계기가 있는가.

계기가 된 것은 2023년 영국에서 개최된 '인공지능안전서밋'(AI Safety Summit)이라고 할 수 있다. 최초로 국제적인 AI 안전 확보를 위한 논의를 시작한 회의다. 이어 2024년 5월 서울에서 한국을 포함한 10개국 대표들이 모여 각국의 안전 연구소들을 연결해 공동으로 AI 안전에 대해 협력하기로 협정을 체결하기도 했다. 이 협정에는 삼성전자, 네이버, 아마존, 구글, IBM, OpenAI, 마이크로소프트를 비롯한 기타 16개 회사도 협정에 동의한 바 있다.

◇선진국의 대처 상황은 어떤가.

미국에서는 바이든의 포괄적인 행정 명령을 통해 연방기관에서 AI를 사용하기 위한 요구사항을 명시했다. 또 불공정한 편향을 평가하도록 요구하는 알고리즘 책임법이 제안되고 있다. 유럽 연합에서도 AI에 대한 임시 법을 제정해 AI 위험에 대한 요구사항, AI 시스템 개발자에 대한 의무사항 및 일반 목적의 AI에 대한 사항을 규제하고 있다. 캐나다에서도 자동의사결정에 대한 지침을 통해 투명성, 공정성과 책임성에 대한 것을 지향하고 있다.

각국 정부의 규제와 더불어 세계표준협회인 ISO와 IEC에서는 공동으로 'ISO/IEC TR 5469:2024(인공지능-기능안전과 AI 시스템)'을 발표해 향후 AI 기능안전에 대한 표준을 제정하는 단계를 밟고 있다.

◇국가별 규제 방향은 어떻게 될 것으로 보나.

유럽위원회에서 제안된 AI에 대한 비계약적 민사책임 규칙에 따르면 제조물 책임법과 유사하게 AI 사용으로 인해 개인이나 기업에 손해를 끼친 경우에는 이에 상응하는 보상을 하도록 하고 있다. 미국 캘리포니아에서도 5억달러 이상 피해를 준 경우에 적용토록 하는 법을 추진했으나 AI 산업계 반발로 제정에는 실패했다. 향후에는 이러한 법 제정이 AI에 의해 문제가 발생할 때마다 추진될 것이므로 법규 제정은 기정사실이 될 것이라 본다.

윤대원 기자 yun1972@etnews.com

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.