인간처럼 ‘자유 의지’ 가지게 된 AI, 어떤 도덕을 가르칠 것인가…기준 마련 시급

2025-05-14

급속히 발전 중인 생성형 인공지능(AI)이 스스로 선택하고 행동하기 위한 조건을 이미 충족했다는 연구 결과가 나왔다. 따라서 AI가 올바른 선택을 할 수 있도록 가르치는 기준을 마련하는 게 시급하다는 주장이 제기됐다.

프랭크 마르텔라 핀란드 알토대 교수는 12일(현지시간) 발간된 과학 저널 ‘인공지능과 윤리’에서 “생성형 AI가 ‘자유 의지’의 세 가지 철학적 조건을 충족하는 것으로 나타났다”고 밝혔다.

그는 대형언어모델(LLM) 기반의 생성형 AI 게임인 마인크래프트 ‘보이저’와 가상 군사 시나리오 기반의 AI 킬러 무인기(드론)인 ‘스피트닉’을 활용해 자유 의지 여부를 평가했다. 평가 조건은 생성형 AI가 목표 지향적 행위를 할 수 있는지, 진정한 선택을 할 수 있는지, 자기 행동에 대한 통제력이 있는지 등이다.

그 결과 보이저와 스피트닉은 모든 조건을 충족해 자유 의지를 갖는 것으로 나타났다.

자유 의지란 개념은 고대 그리스 철학자인 에픽테토스부터 데카르트, 스피노자, 칸트 등 근대 철학자에 이르기까지 인간의 고유한 특징으로서 오래 고민해 온 질문이다.

마르텔라 교수는 “한때 공상과학 소설과 같던 윤리적 질문들이 이젠 현실적인 문제가 됐다”며 “AI는 스스로 도덕적 나침판(윤리 판단 기준)을 가질 수 없기에 처음부터 이를 제공해야 할 필요성이 커졌다”고 강조했다.

이러한 논의는 향후 생성형 AI를 둘러싼 책임의 주체를 인간에서 AI 그 자체로 바꿀 수도 있다. 그는 자유 의지는 “도덕적 책임의 핵심 조건 중 하나”라며 “AI가 자기 행동에 도덕적 책임을 지는 데 한 걸음 더 가까워진 셈”이라 말했다. 지난해 2월 캐나다에선 “에어캐나다 웹사이트의 생성형 AI 챗봇이 잘못 안내한 정보는 항공사 책임”이라는 법원 판결이 있었다.

마르텔라 교수는 AI 개발자들의 역할도 강조했다. 그는 “AI에 올바른 선택을 가르칠 수 있을 만큼 개발자들이 도덕철학에 대한 충분한 지식을 가져야 한다”고 전했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.