[ET톡]AI 위험에 대응하는 법

2024-10-21

'인공지능(AI) 판사 도입 찬반.'

2017년 토론 동아리의 주제였다. 논쟁은 단순 일자리 대체를 넘어 '알파닥터', '알파저지(Judge·판사)' 등 사회·윤리적 문제로 확장됐다.

최근 한 언론사는 시험 문제로 'AI 판사가 사형 판결을 내린다면 받아들일 수 있는지' 물었다. 시험 문제는 AI 판사에 국한됐지만 결국 AI에 의사결정을 맡겨도 되는가에 대한 물음이다.

유발 하라리 히브리대 역사학과 교수 역시 신작 '넥서스'에서 AI의 주체성을 경계했다. AI가 다른 정보 기술과 다른 점은 스스로 결정하고 새로운 생각을 만든다는 것이다. 더구나 어떤 과정을 거쳐 결과물을 만들었는지 알 수 없는 '블랙박스'도 존재한다. 하라리는 AI에 권위를 부여할 경우 이전과 비교할 수 없는 수준의 비극이 일어날 것을 우려했다.

그렇다면 AI를 무조건적으로 규제하는 것이 해법일까.

하라리는 섣부른 규제보단 AI에 대한 자정장치가 필요하다고 주장했다. AI의 불안정한 부분은 지속 감시하되, AI로 인한 긍정적 잠재력을 저해해선 안 된다는 것이다.

우리 국회도 하라리의 의견을 경청해야 한다.

현재 국회에 발의된 11개의 AI 기본법은 자정장치보다는 각각 산업 진흥과 규제 중 한 곳에 방점이 찍혀있다. 초기 산업인 AI에 대해 규제하기보단 11개 법의 좋은 내용만을 모아 산업을 진항하는 방향으로 나아가야 한다.

대신 AI 위험성에 대한 우려는 국가인공지능위원회나 다음달 설립 예정인 AI 안전 연구소 등에 자정 장치 역할을 맡기는 식으로 해결할 수 있다.

AI 경쟁이 국가 간 경쟁으로 심화된 만큼, AI의 위험성 그리고 AI 기본법에 대한 논의를 조속히 해 우리나라가 AI 3대 강국(G3)으로 나아갈 수 있기를 기대한다.

현대인 기자 modernman@etnews.com

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.