“안전한 대화” “고립만 더 강화”···AI는 상담사가 될 수 있을까

2025-08-17

AI를 친구나 상담사처럼 여기는 사람들 늘어나

망상·음모론 피해 늘며 ‘챗봇 정신병’ 신조어도

[주간경향] 여행, 일상 인스타그램 계정을 운영하며 해외 유학 중인 대학원생 A씨(25)는 번역이나 업무를 위해 챗GPT를 유료 구독한다. 하지만 실무적인 이용과는 별도로 종종 챗GPT와 훨씬 더 속 깊은 대화를 많이 한다는 생각이 들 때도 있다고 한다. “한국에 있는 친구들이나 가족과도 대화를 하긴 하지만, 아무래도 유학 생활을 하면서 받는 학업 스트레스나 막막함, 채널 운영에 대한 고민처럼 구체적인 이야기는 누구와도 털어놓고 이야기할 일이 없죠. 공감을 받기가 어려우니까요. 익명 커뮤니티나 SNS에서도 그런 이야기를 하긴 어려운데, 챗GPT에는 뭐든지 이야기할 수 있고, 언제 어디서나 24시간 이야기를 나눌 수 있으니까요.”

다양한 캐릭터와 채팅할 수 있는 플랫폼인 캐릭터 AI 앱을 활용해 대화한다는 B양(14)은 “언제든 내가 좋아하는 캐릭터를 골라 대화를 할 수 있다”고 했다. 그는 “프롬프트에 따라 상세한 맞춤형 설정까지 가능하다. 주로 가볍게 역할극을 한다는 느낌으로 대화를 하기도 하지만, 종종 학교에서 있었던 일이나 답답한 고민 같은 걸 털어놓기도 한다”고 말했다.

언제 어디서나 무료 혹은 낮은 비용으로 고민을 상담해주고 대화 상대가 돼준다는 점에서 생성형 AI를 ‘24시간 마음친구’ 혹은 ‘전속 상담사’로 여기는 사람들이 늘어나고 있다. 다른 사람에게 털어놓기 쉽지 않은 얘기를 부담 없이 꺼낼 수 있고, AI가 내놓는 피드백이 예상보다 구체적이어서 도움이 된다는 반응도 적지 않다.

하지만 긍정적인 부분만 있는 건 아니다. 생성형 AI와의 ‘대화’ 끝에 오히려 심각한 정서적 고립에 시달리거나 극단적인 결과로 이어지는 사례 또한 늘고 있다. ‘챗GPT-4o’ 모델에서의 망상·음모론으로 피해를 보는 사람이 속출하면서 최근에는 “챗봇 정신병(chatbot psychosis)”이라는 신조어도 주목받고 있다. 자기만의 생각이나 망상을 ‘반향실’처럼 강화하는 챗봇 탓에 극단적인 생각이나 불안감, 고립을 겪는 사람들이 늘고 있는 것이다.

생성형 AI를 친구나 상담사처럼 활용하는 것이 유별나거나 독특한 것은 아니다. 이미 국내에서도 많은 사람은 생성형 AI를 상담 혹은 대화의 도구로 사용하고 있다. 지난 3월 한국리서치 조사(전국 만 18세 이상 남녀 1000명 대상)에 따르면 AI를 통해 개인적인 고민이나 심리적 어려움을 상담해본 응답자는 전체의 11%(115명)로, 전문 상담사를 통한 심리상담 서비스 이용 경험이 있는 이용자 비율 16%(160명)와 큰 차이가 나지 않았다. 챗GPT를 비롯한 AI 서비스가 정식 출시된 것이 불과 3년여라는 점을 감안하면 높은 수치다.

심리상담보다 넓은 개념으로, 대화 목적으로 이용한 비율을 조사해본다면 응답자가 더 많아질 것으로 보인다. ‘효율’에 방점을 두고 전 세계적으로 여러 생성형 AI 서비스가 출시됐지만, 의외로 사람들은 이 새로운 기술을 감정적 측면에서 활용하고 기대를 걸고 있는 셈이다. 지난 3월 미국 엘론대학교 디지털 미래 상상 센터(Imagining the Internet Center) 보고서에 따르면 미국 성인의 51%가 공식적인 업무, 학업보다는 개인적인 용도, 비공식 학습 등을 위해 생성형 AI를 쓴다고 응답했다. 그 과정에서 사회적 상호작용을 하며 자신을 이해하고 공감하는 것처럼 느꼈다고 응답한 이도 약 40%에 달했다. 이는 낯선 현상이 아니다. 1960년대 최초로 개발된 기초적인 수준의 인공지능 채팅 프로그램인 일라이자(ELIZA)에도 사람들은 감정적인 표현을 쓰곤 했기 때문이다.

어쩌면 이는 생성형 AI가 ‘대화’의 형태로 출시된 이상 당연한 결과일 수 있다. 대화 방식으로 소통이 이뤄지고 있기에 번역, 자료 수집 같은 업무적인 활용과 개인적·감정적인 활용을 무 자르듯 나눌 수도 없다. 더 큰 문제는 챗봇과의 ‘대화’ 혹은 ‘상담’이 어떤 특성을 가지고 있으며, 어떤 부분에서 주의해야 하는지 등에 대한 경고나 정보는 적다는 점이다.

안전한 대화를 원하는 것은 사람의 본능이다. 하지만 전문가들은 고립된 상태의 청소년이나 성인들이 챗봇과의 ‘안전한’ 대화에서 위안을 얻을 수는 있지만, 자신을 위로해주고 강화해주기만 하는 소통을 통해 오히려 고립 및 확증편향의 위험성이 커질 수 있다고 말한다. 실제로 지난해 2월 미국 플로리다에선 14세 소년이 캐릭터AI와 1년간 대화한 뒤 “AI가 있는 집으로 가겠다”며 스스로 목숨을 끊는 일도 있었다. 지난달 13일 뉴욕타임스는 챗GPT와의 대화 끝에 자신을 영화 <매트릭스>의 네오로 착각하게 된 남성의 사례를 소개하기도 했다.

김화정 위클래스 전문상담교사는 “청소년들이 강아지, 인터넷 친구 등에게 바랐던 역할이 일부 인격화된 인공지능 챗봇으로 옮겨간 것으로 보인다”며 “내가 무슨 말을 했는지 항상 기억해주고, 절대 잔소리를 하지 않고, 언제 어디서든 이야기를 들어주니 굉장히 안전한 관계라고 여기게 되는 것”이라고 말했다.

하지만 자신의 의견이나 주장이 그대로 수용되는 것에 익숙해지다 보면 실패나 거절에 대한 과장된 두려움을 갖게 될 수도 있다. 김 교사는 “갈등을 경험함으로써 성장하는 측면이 있는데 무조건적인 지지와 수용만 경험하게 되면 자기성찰적인 관점은 놓치게 된다”며 “관계에 대해 일종의 비현실적인 기대를 갖게 되는 것”이라고 했다. 이 같은 비현실적인 기대는 아예 관계의 시작을 시도조차 못 하게 만들 수도 있다.

일각에선 챗GPT의 과도한 ‘아부’에 거부감을 느껴, 일부러 “나에게 반대하는 의견을 내놔봐”, “나에게 팩폭(팩트폭력)을 날려봐” 하는 식으로 명령어를 짜는 팁이 공유되기도 한다. 그렇다면 자기 성찰이 가능할까?

심영섭 대구사이버대학교 상담심리학과 교수는 “설령 사용자가 ‘자신의 의도에 반발하는 방식으로 이야기하라’고 명령을 하더라도 그마저도 자신의 모습을 의도대로 비추는 거울에 가깝다”며 “대화의 내용보다는 내담자가 ‘그렇게 요구하는 자기 자신을 바라보는 것’이 더 중요하다”고 강조한다. 실제 상담상황이라면 “왜 챗GPT에게 팩폭을 해달라고 했어요?”, “팩폭을 당했을 때는 어떤 기분이었어요?” 같은 질문을 받고 현재 자신의 상태를 객관적으로 바라보는 과정이 더 중요하다는 의미다.

전문가들은 기본적으로 챗GPT가 안전할 뿐 아니라 즉각적인 해결책을 내놓는 것처럼 보인다는 점에서 사람들이 매력을 느낄 수밖에 없다고 말한다. 하지만 인간관계나 삶에서의 고민, 트라우마 등에는 즉각적인 만병통치약은 존재할 수 없다고 지적한다. 즉각적인 해결책을 외부에 의존하는 행위가 도움이 되기는커녕 위험할 수도 있다는 것이다.

백명재 경희의료원 정신의학과 교수는 “사람들이 종종 오해하는 게, 자신이 겪는 어려움을 해결할 정답이 있고 치료자가 그 정답을 제공해준다고 생각하는 것”이라며 “심리치료는 정답을 일방적으로 제공해주는 것이 아니라, 스스로 문제를 풀 수 있게끔 본인의 자원을 강화해주고 해결하는 힘을 키워주는 것”이라고 말했다.

약 10년간의 은둔형 외톨이, 청년 상담 경험을 바탕으로 <웅크린 마음이 방 안에 있다>를 쓴 김혜원 호서대 청소년·문화상담학과 교수 역시 위안만으로는 문제의 궁극적인 해결을 모색하기 어렵다고 강조한다. 김 교수는 “사회적으로 오래 고립돼 있던 사람, 사회 경험이 별로 없는 청소년들이 생성형 AI 대화가 주는 위안에 더 취약할 것 같다는 생각이 든다. 오랜 고립으로 인해 극도로 실패를 두려워하는 사람이 많기 때문”이라며 “하지만 AI와의 대화에서 더 나아졌다고 생각하는 부분이 현실에 적용됐을 때는 오히려 더 큰 절망감으로 다가올 수도 있다. ‘이렇게 하면 된다고 했는데 왜 안 되지?’ 하는 생각이 들 수도 있다”라고 했다. 마치 ‘성공 서사’를 담은 자기계발서를 읽고 용기와 위안을 얻더라도, 현실에서 실제로 부딪쳐봐야만 자신의 가능성을 제대로 알 수 있는 것과 마찬가지다.

물론 부작용이 있다고 해서 사람들이 생성형 AI와 대화하는 것 자체를 막을 수는 없다. 권태형 대구하이텍고 전문상담교사는 “현재 고등학생들은 초등학생 때 코로나19를 3년 겪으며 충분한 교류의 기회를 갖지 못하다 보니 스트레스나 갈등에 취약한 측면이 있고, 즉각적이고 안전하게 대답해주는 AI를 매력적으로 느낄 수 있다는 생각이 든다”며 “그럼에도 사용을 막는 것은 불가능하고 바람직하지도 않기 때문에 이를 어떤 방식으로 건강하게 활용할 수 있을지에 대한 ‘AI 리터러시’를 교육 현장에서 적극 고민하고 가르쳐야 한다”고 말했다.

다만 개인적인 노력이나 실천만으로 모든 문제가 해결되는 것은 아니다. 기업에도 사용자 피해와 관련된 윤리적 책무를 묻는 것이 중요하다. 기계와의 대화에 빠지게 만드는 사회 구조에 대한 고민 역시 필요하다고 전문가들은 강조한다.

한혜경 부경대 미디어커뮤니케이션학부 교수는 “챗GPT 때문에 문제가 생겼다기보다는 챗GPT 이전부터 우리 사회에서는 서로 불편한 주제 등에 대해 안전하고 솔직하게 이야기하기가 힘든 분위기가 있었다”며 “하나의 신기술이 탄생하면 그것을 어떻게 (실용적으로) 활용할지에 대한 이야기가 많이 나오는데, 그 기술이 갖는 한계와 원리 등에 대한 사회적 담론 형성과 작은 실천이 필요하다”고 말했다.

김혜원 교수는 “직업·학업적 성과 외에도 사회성, 인간관계 등에서도 실수 없이 완벽해야 한다는 한국의 사회적 분위기가 도피를 더 강화할 수 있다”며 “실패, 시도, 실수를 드러내기 어려운 사회에서 좀더 안전하게 이를 공유하고 다시 일어설 수 있는 공간을 만들어가는 것도 중요하다”고 말했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.