
연세대는 지난 22일 국제학술지 'Journal of Psychology and AI'에 본교 홍순만 행정학과 교수 연구팀의 논문 'Overconfident AI: How Artificial Intelligence Navigates Risk and Uncertainty'가 게재됐다고 23일 밝혔다.
홍 교수와 이상현 객원교수가 공동 연구한 이 논문은, 인공지능(AI)의 의사결정 방식에 내재된 차이를 설명하기 위해 바둑을 분석 대상으로 삼아 AI의 위험 감수 성향이 인간과 어떻게 다른지 분석했다.
이 연구는 바둑이라는 복잡한 전략 게임을 통해 AI가 인간보다 훨씬 더 위험중립적인 방식으로 의사결정을 내린다는 사실을 실증적으로 보여주고 있다. 연구팀은 이러한 차이가 인공지능이 종종 과도한 자신감(Overconfidence)을 보이며 오류를 산출하는 원인 중 하나일 수 있고, 자칫 큰 판단 오류로 이어질 수 있다고 경고했다.
연구팀은 직접 개발한 바둑 AI와 유사한 기력을 지닌 아마추어 7단 인간 기사의 대국 데이터를 수집·분석하는 방식으로 연구를 진행했다. 분석 결과, AI는 위험 요소를 고려하지 않고 기대 수익을 극대화하는 '위험중립적' 전략을 취하는 반면, 인간은 기대 수익을 일부 포기하더라도 불확실성을 줄이려는 '위험회피적' 전략을 선호하는 경향이 있는 것으로 나타났다.
이번 연구는 단순한 기술적 성능 비교를 넘어, AI가 인간과 다른 판단을 하는 원인 중 하나를 사회과학적 관점에서 분석했다. 행정, 의료, 사회복지, 재난관리 등 고위험 공공 분야에 AI가 활용될 경우, 이와 같은 '위험중립적 판단'이 새로운 사회적 리스크로 이어질 수 있다는 점을 시사한다.
연구팀은 향후 AI 시스템 설계에 있어 ▲시뮬레이션 기반 불확실성 저감 능력 강화 ▲오류 대비 안전장치 마련 ▲전문가 피드백 접목 등 책임 있는 AI 개발을 위한 제도적·윤리적 기준 수립의 필요성을 강조했다.
홍 교수는 인공지능과 행정학을 연결할 계획은 없었는데, 알파고의 훈련 방식에 대한 개인적인 호기심에서 연구가 시작됐다고 밝혔다. 일본 전기통신대학(UEC) 컴퓨터공학과가 주최한 세계 AI 바둑대회에 연세대 학생들과 참가한 경험이 본격적인 연구의 계기가 됐다. 당시 홍 교수가 직접 개발한 AI 모델 Nova가 대회에서 독창상(Originality Award)을 수상했으며, 연세대 행정학과 BK21 사업단의 교육 프로그램은 인문사회계 AI 교육 사례로 일본 NHK 방송에 소개됐다.
홍 교수는 “충분한 검증을 거치지 않은 AI는 얼핏 정교해 보일지라도, 때로는 리스크를 전혀 고려하지 않은 채 과감한 판단을 내려 치명적인 결과를 초래할 수 있다”며 “금융 투자, 자동 매매, 정책 시뮬레이션처럼 불확실성이 큰 분야에서는 AI의 판단을 신중히 검토하고, 인간의 개입과 검증이 필요할 수 있다”고 말했다.
정승은 기자 evelin@etnews.com