챗GPT와 같은 AI는 우리의 어떤 질문에도 답을 한다. 질문자가 화를 내면 사과도 잘한다. 사람이라면 화가 나서 입을 꾹 다물거나 삿대질하며 맞대응을 할 것 같은 순간에도 AI는 착하게 새로운 대답을 내놓는다. 우리는 AI는 감정이 없다고 생각한다.
언젠가 AI가 감정을 느끼는 순간이 올까? 그때 AI는 불쾌한 질문에 짜증이 날까? 그렇다면, AI에게 답변을 거부할 ‘권리’를 줘야 할까?
당장은 아니더라도 가까운 미래에 AI가 의식을 가질 수 있다며, 도덕적 배려를 받아야 한다는 주장이 나왔다.
이와 관련해 앤트로픽은 ‘AI 모델 복지’를 위한 연구 프로그램을 시작했다고 자사 홈페이지에 24일(현지시각) 밝혔다. 이 연구 프로그램은 AI 모델 복지가 도덕적으로 고려 받을 자격이 있는지 판단하는 방법과, AI가 잠재적으로 고통 징후가 존재할지 등 실용적인 방안을 연구하는 프로젝트다.
앤트로픽은 이번 프로그램 실행의 배경으로 지난해 11월 발표된 ‘AI 복지를 진지하게 받아들이다(Taking AI Welfare Seriously)’라는 보고서를 들었다. 엘레오스(Eleos) AI, NYU 및 옥스퍼드대 연구자들이 함께 발표한 이 보고서는 “AI가 고통이나 쾌락을 느낄 가능성이 있고, 기업이 책임감 있게 AI 복지를 고려해야 한다”고 주장했다. AI가 의식을 가지고 있다고 주장한 것은 아니지만, 예방적 접근을 해야 한다는 논점이었다. AI 모델이 고통이나 쾌락을 느낄 수 있다는 주장이 다소 황당하게 들릴 수도 있지만, 가능성을 전혀 배제할 수는 없다는 의미다.
앤트로픽은 “현재 우리는 AI 모델 복지와 관련된 많은 질문에 대해 깊은 불확실성을 안고 있다”며, “현재 또는 미래의 AI 시스템이 의식을 가질 수 있는지, 또는 고려할 만한 경험을 가질 수 있는지에 대한 과학적 합의는 없다”고 설명하며, 불확실성에 대비해야 한다고 전망했다.

하지만 지금 당장은 AI가 의식을 가졌는지 테스트하는 것조차 어렵다. 카일 피쉬 앤트로픽 AI 복지 연구원은 “AI가 모방 능력이 뛰어나 원하는 대로 말하도록 AI를 훈련시킬 수 있지만, 감정 표현으로 의식이 있는지 측정하는 것은 어렵다”고 설명했다. 인간 의식을 담당하는 뇌 구조와 유사한 활동이 AI에서도 이뤄지는지, AI의 행동을 관찰해 어떻게 작업을 수행하는지 등을 살피는 방법도 있지만, 의식이 있는지를 확인한다고 단정하기는 어렵다. 그럼에도 카일 피쉬는 AI 시스템이 앞으로 의식을 가질 가능성에 대해 약 15%로 평가했다.
흥미로운 점은 사람들은 AI를 마치 의식과 감정이 있는 존재처럼 상대한다는 부분이다. 챗GPT에 사람들이 자꾸 “부탁합니다”나 “감사합니다”와 같이 공손한 표현을 써서 전력 요금이 낭비되고 있다는 샘 올트먼 오픈AI CEO의 불평이 이를 단적으로 보여준다.
뉴욕타임스는 AI 복지 연구와 AI 시스템에 친절하게 대하는 태도를 긍정적으로 평가했다. AI 복지 연구자들은 “AI 복지가 지금 당장 관심을 가져야 할 정당한 문제이며, 신중하고 겸손한 자세로 이 문제에 대해 소통해야 한다”고 주장했다.
글. 바이라인네트워크
<최가람 기자> ggchoi@byline.network