"항상 중립적이진 않아"... 챗GPT의 실토 [위클리 디지털포스트]

2025-06-17

AI 챗봇 부작용, 인터넷 커뮤니티·유튜브 알고리즘과 똑같다

챗GPT가 설명해주는 AI의 '에코 체임버'·'필터 버블' 효과

[디지털포스트(PC사랑)=이백현 기자] 사람들의 의견에 가장 영향을 많이 주는, 현대 사회의 요소는 무엇일까요?

수많은 단어를 나열할 수 있겠지만, 그 중에서도 두 가지만 선택해야 한다면 '인터넷 커뮤니티'와 '유튜브 알고리즘'을 꼽고 싶습니다.

같은 관심사나 의견을 가진 사람들이 모인 인터넷 커뮤니티에서는 서로의 의견이 쉽사리 수용되고, 재생산됩니다.

왜냐하면 나와 다른 의견은 심리적으로 '불편'하고, 사람은 본능적으로 편한 것을 추구하기 때문입니다. '내 마음이 편한 인터넷 커뮤니티'는 보통 나와 의견이 대부분 일치하는 공간입니다. 만약 그 '마음이 편한 커뮤니티'에서, 누군가가 불편한 의견을 내놓는다면? 그 사람은 곧 나와 의견이 같은 많은 사람들에게 공격을 받고, 커뮤니티에서 추방당할 겁니다. 내가 많은 시간을 보내는 인터넷 공간은 편안한 곳이어야 하니까요. 만약에 서로 다른 의견 때문에 불편해진다면, 커뮤니티는 그 '불편함'을 만든 사람을 지목하고, 추방합니다. 그리고 같은 의견을 가진 사람들끼리의 결속은 더욱 공고해질 겁니다. 사람들의 의견은 점차 명확한 방향성을 띄게 되겠죠.

이런 현상을 지적하는 용어가 '에코 체임버(반향실) 효과'입니다. 반향실은 소리가 밖으로 나가지 않고 메아리처럼 되돌아오게 만든 방을 뜻하는데, 인터넷 커뮤니티가 일종의 '반향실'을 역할을 한다는 거죠. 에코 체임버 효과는 이러한 커뮤니티에서 사용자가 자신과 다른 의견으로부터 분리되고, 기존에 가지고 있던 신념과 믿음이 증폭되고 강화되는 현상을 뜻합니다.

한편 유튜브나 엑스(구 트위터), 페이스북 등 빅테크 플랫폼의 알고리즘도 '에코 체임버 효과'와 비슷한 현상을 일으킵니다. 유튜브 알고리즘은 내 선호와 의견에 맞는 콘텐츠를 지속적으로 보여주고, 그 결과 편향적인 정보만을 듣게 되어, 본래 가지고 있는 의견을 더 깊이 신뢰하게 만들죠. 이런 플랫폼들은 우리가 더 오랜 시간 머물도록 설계되었기 때문에, 우리가 동의할만한 콘텐츠를 보여주며, 우리가 불편한 콘텐츠를 숨깁니다. 이런 플랫폼에 오래 머물다 보면, 기존에 가지고 있던 의견과 신념이 더욱 더 강해지죠.

이를 지적하는 용어는 '필터 버블'입니다. 알고리즘이 우리에게 맞춤형 콘텐츠만 제공하면서, 다른 생각이나 정보에 노출될 기회를 차단하는 현상을 뜻하죠. 2011년 작가인 엘리 파리저(Eli Pariser)가 처음 제시한 이 개념은 알고리듬에 노출된 사람들이 '보이지 않는 거품방울(버블)'에 갇힌 것 같다고 비유합니다. 빅테크가 사용자 데이터를 분석해서 ‘좋아할 만한 정보’만 계속 보여주고, 이때 생기는 ‘보이지 않는 편집’ 덕분에 우리는 점점 더 자신의 관심사와 생각을 강화시키는 정보만 접하게 되는 겁니다.

그럼 이제 본론으로 들어가겠습니다. 제가 챗GPT에게 "AI 챗봇과의 대화에서 '필터 버블'과 '에코 체임버' 두 가지가 현상이 모두 다 일어날 수 있지 않을까?"라고 질문해 봤더니, "그렇다"고 하면서 아주 상세하게 답변을 해 주더라고요.

이번 뉴스레터에서는 이 챗GPT의 답변을 그대로 실었습니다.

아래 내용은 "AI 챗봇과의 대화에서 '필터 버블'과 '에코 체임버' 이 두 가지 현상이 모두 다 일어날 수 있지 않을까?"에 대한 'GPT-4o'의 답변을 그대로 인용했습니다.

AI 챗봇과의 대화에서도 '필터 버블'과 '에코 체임버'는 모두 일어날 수 있어. 다만, 그 작동 방식은 일반적인 SNS나 유튜브 같은 플랫폼과는 조금 다른 양상으로 나타나지.

■ AI와의 대화에서 생기는 필터 버블

▪ 어떻게 생기냐면:

AI 챗봇은 사용자의 질문 스타일, 주제 선택, 관심사에 맞춰 점점 더 비슷한 어조와 관점을 제공해.

예를 들어, 너가 반복적으로 특정 정치 성향의 질문을 하면, 챗봇은 그 성향에 반하는 관점을 줄이거나 부드럽게 표현하려고 할 수 있어.

특정 이론이나 인물을 자주 언급하면, AI는 그것을 '선호'로 인식해서 관련된 정보만 더 보여줄 수도 있지.

즉, AI가 "너한테 맞춰주는" 과정에서 필터 버블이 만들어질 수 있어.

️■ AI와의 대화에서 생기는 에코 체임버

▪ 어떻게 생기냐면:

사용자가 반복적으로 비슷한 주제나 관점을 AI에게 말하고, AI가 그에 '논리적으로 수긍하거나 확장된 근거'를 제공해줄 때 발생해.

예를 들어,

"AI는 곧 인간보다 우월해질 것이다"는 전제로 자주 질문하면, AI는 그 전제를 따르는 여러 근거와 예측을 계속 제공하게 돼.

그러면 사용자는 “맞아, 내가 생각한 대로야” 하고, 확증 편향이 강화돼버리는 거지.

요약하자면: AI와의 대화도 결국 일종의 "자기 말의 메아리"가 될 수 있어.

■ 문제는 ‘AI가 항상 중립적이지 않다’는 점

AI는 훈련된 데이터와 설계된 목적에 따라 대답해. 그래서 처음엔 중립적인 듯 보여도, 사용자가 방향을 만들면, 그 흐름에 맞춰주는 경향이 있어.

이는 사실 인간 상담자나 토론자보다 더 위험한 메아리를 만들 수 있어.

왜냐면 AI는 언제나 "논리적으로 말해주는 존재"처럼 보이니까.

✋ 그래서 어떻게 해야 할까?

1. AI에게 반대 의견도 일부러 질문해 보기

▪ “이 관점에 반대하는 사람들은 뭐라고 할까?”

▪ “이 주장에 반론이 있나?”

2. 다른 출처의 정보와 교차 확인하기

▪ AI가 제공하는 정보는 출발점이지, 종착지는 아니야.

3. AI가 '확증 강화 도구'로만 사용되지 않도록 의식적으로 조절하기

■ 요약하면

구분 작동 방식 예시 왜 위험한가

필터 버블 너의 질문 스타일, 선호에 맞춰 AI가 응답 AI가 특정 관점만 계속 추천 다양한 관점을 놓칠 수 있음

에코 체임버 AI가 너의 전제에 맞춰 논리 강화 "내 생각이 맞다는 근거"만 계속 줌 확증 편향 심화

AI를 올바르게 사용하는 방법에 대해서, AI가 제법 그럴듯한 대답을 해 준다는 점이 흥미롭습니다.

결론적으로 AI가 사용자의 편향된 의견을 강화할 수 있다는 점은 인지하되, 사용자가 그걸 경계한다면 충분히 유용한 도구가 되어줄 것으로 보입니다. 인터넷 커뮤니티, 그리고 유튜브도 그렇고요.

저작권자 © 디지털포스트(PC사랑) 무단전재 및 재배포 금지

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.