신념이 된 가짜 정보, 전문가가 ‘팩트체크’ 해줘도 안 믿는다

2024-12-27

믿고 싶은 것만 믿는 ‘확증편향’이 보편화된 사회에서 인공지능(AI)을 활용한 ‘사실확인’이 하나의 해결책이 될 수 있다는 연구결과가 나왔다.

28일 김연주 한림대 연구교수와 노기영 특훈교수가 한국언론정보학보에 낸 논문 ‘AI 팩트체크는 편향된 정보처리에 대한 해답이 될 수 있는가?’에 따르면 AI 팩트체크는 확증 편향을 약화하는 중요한 도구로 기능할 가능성이 있는 것으로 나타났다.

연구진은 지난 7월 전국 성인 960명을 대상으로 온라인 실험을 진행했다.

실험 방식은 AI·인간 전문가·크라우드 소싱(다수 의견을 모으는 방식)에 의한 팩트체크, 그리고 ‘보편적 의료 서비스’에 대한 뉴스 보도가 피실험자의 신념과 일치하는지 여부를 고리로 혼합 설계됐다.

우선 인간 전문가의 팩트체크 메시지는 생각에 큰 변화를 주지는 못하는 것(연구 결과 뉴스 신뢰값 0.31)으로 나타났다.

기존 신념과 일치하지 않는 정보를 반박하는 인간 전문가의 팩트체크 메시지를 읽은 참가자들은, 신념과 일치하는 정보를 반박하는 메시지를 읽은 사람들보다 뉴스에 대한 신뢰도가 낮게 나타났다. 즉, 사람들이 자신의 신념에 맞는 정보를 반박하는 팩트체크 메시지를 접하면 오히려 기존 정보를 더 신뢰하게 되는 것이다.

반면 AI 팩트체크 메시지를 읽었을 경우 신념 일치 여부에 따른 뉴스 신뢰도 차이가 사라졌다(뉴스 신뢰 값 -0.41).

팩트체크 출처가 AI일 때는 기존 신념과 일치하지 않는 정보를 반박하는 메시지를 읽은 사람들과 신념 일치 정보를 반박하는 메시지를 읽은 사람들 간 뉴스에 대한 신뢰도 차이가 나타나지 않았다. AI 팩트체크가 확증 편향을 줄인 셈이다.

연구진은 “AI 기반 팩트체크가 인간의 주관적 판단을 배제한 객관적 정보로 인식될 가능성이 있다”며 “AI 팩트체크를 접한 사람들은 기존 신념과 일치하지 않는 정보라 할지라도 더 쉽게 수용할 수 있었다”고 분석했다.

한편, 팩트체크 출처가 크라우드 소싱일 때도 인간 전문가 집단일 때보다는 신념 일치 여부에 따른 뉴스 신뢰도 차이가 줄었다(뉴스 신뢰 값 -0.38). 또 개인의 디지털 리터러시(디지털 문해력) 수준이 높을수록 AI 팩트체크 메시지를 신뢰하면서 기존 신념과 일치하지 않는 정보를 더 수용하는 경향이 나타났다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.