
인터넷에 존재하는 유해한 콘텐트와 극단주의 등의 위협에 대응하기 위해 구글이 만든 조직인 ‘직소’에서는 음성으로 대화가 가능한 AI 챗봇을 사용해서 미국의 유권자 2400명을 상대로 여론을 조사하는 프로젝트를 진행한 결과 흥미로운 사실을 알게 되었다. 사람들은 소셜미디어나, 기존의 여론 조사 방식에서는 상대와 대화하거나 의견을 나누지 못한다고 생각하지만 직소에서 만든 챗봇과는 깊은 대화를 나누는 것이 확인된 것이다.
직소에서는 사람이 전화해서 질문지를 읽어주고 조사 대상자의 답을 듣는 방식과 달리, AI를 대화의 보조 도구로 활용해서 사람들과 더 오래, 더 깊이 대화하는 방식으로 의견을 듣도록 설계했다. “다른 사람들이 당신의 의견을 잘 들어주고 있다고 생각하느냐”는 질문에 그렇다고 답한 비율은 챗봇과 대화하기 전 40%에서 한 시간 대화 후 68%로 크게 증가했다고 한다. 근래 들어 정치 관련 여론조사가 선거 결과 예측에 실패하는 이유가 응답자들이 대답을 거부하거나, 속마음을 이야기하지 않기 때문임을 생각한다면 직소의 AI는 여론조사를 더욱 정확하게 할 수 있는 방법을 찾았다고 할 수도 있다.
하지만 마냥 좋아할 수는 없다. 이렇게 AI와의 대화만으로 유권자들의 인식을 바꿀 수 있다는 것은 이를 어떻게 사용하느냐에 따라 완전히 다른 결과를 만들어 낼 수도 있기 때문이다. 최근 중국 정부는 인터넷 거버넌스를 강화하는 스터디 세션을 개최했는데, 이 자리에서는 AI를 ‘사회 통제 및 국가 역량을 위한 기능적 수단’으로 보고, AI를 통해 여론을 더 잘 이해하고, 예측적 거버넌스를 강화해야 한다는 주장이 나왔다. AI 챗봇이 인간을 상대로 뛰어난 효과가 있음이 밝혀진 이상, 앞으로 남은 문제는 누가 어떤 방향으로 이를 활용하느냐와 그 결정 과정을 우리가 어떻게 민주적으로 감시할 수 있느냐일 것이다.
박상현 오터레터 발행인



![[김태형의 혁신의기술] 〈43〉2026 AI 전망, 이제는 일하는 '에이전틱 AI'시대](https://img.etnews.com/news/article/2025/12/05/news-p.v1.20251205.8800fa8a1b6f42b0a3fa4828c095bfca_P3.jpg)
![[AI 안전성 평가] “인공지능의 미래는 안전성 확보가 답이다”](https://img.etnews.com/news/article/2025/12/04/news-p.v1.20251204.c4f6aa8bb3cb419c849f312a9e8d2f9c_P1.jpg)
