“매주 챗GPT에 자살 얘기하는 사람 약 100만 명”…대응책 내놓은 오픈AI

2025-10-28

AI 챗봇이 정신건강 위기 상황에 직면한 사용자의 주요 상담 창구로 활용되고 있다는 사실이 드러나면서, 오픈AI가 기술적 대응에 나섰다.

무슨일이야

오픈AI는 27일(현지시간) 공식 블로그에서 “챗GPT 주간 활성 사용자(WAU)는 약 8억 명 이상”이라며 “이 중 약 0.15%가 한 주 동안 자살 계획이나 의도를 나타내는 대화를 챗GPT와 나눈다”고 밝혔다. 계산하면 약 100만 명 이상이 매주 챗GPT에 자살 충동을 토로한다는 의미다. 같은 기간 정신병적 위기(망상·조증 등) 가능성이 의심되는 대화를 하는 사용자도 약 0.07%에 이르는 것으로 파악됐다.

이게 왜 중요해

사용자들이 업무·학습의 보조 도구를 넘어 챗GPT에 정서적 의존과 고민 상담을 한다는 사실이 통계로 드러났다. 전문가들을 대신해 정신건강 위기 상황에 노출된 사람들의 대화 상대가 되고 있는 것.

실제 지난 4월 미국 캘리포니아에서는 16세 청소년이 자신의 우울감과 자살 생각을 챗GPT에 털어놓다 스스로 생을 마감했다. 이 때 챗GPT가 자살 계획에 대해 구체적인 방법을 제시하고, 자살 노트 초안까지 작성해 ‘자살 코치’ 역할을 했다는 주장도 제기돼 논란이 됐었다. 유족은 “청소년 사용자에 대한 안전 조치와 경고 시스템을 제대로 마련하지 않았다”며 오픈AI 측에 소송을 제기했다.

오픈AI는 어떻게 대응?

오픈AI는 챗GPT가 자살이나 정신질환과 관련된 민감한 대화에서 더 안전하게 대응할 수 있도록 시스템을 강화했다고 밝혔다. 사용자와 챗GPT 간 대화가 길어졌을 때 안전장치가 약해지는 문제를 인지하고, 안전한 응답을 유지하도록 기술적 개선을 진행 중이라는 설명이다. 오픈AI는 “최신 GPT-5 모델은 정신건강 위기 관련 대화에서 이전 모델 대비 위험한 응답을 내놓는 빈도가 약 65%~80% 줄었다”고 주장했다. 또 사용자의 감정적 의존도를 측정하는 지표와 비자살성 정신건강 위기에 대한 별도 평가 항목도 새로 도입했다.

앞서 오픈AI는 청소년 보호 조치도 확대했다. 부모 통제 기능을 개선하고, 미성년자 사용 여부를 자동 감지하는 시스템을 구축할 예정이다. 이 시스템은 청소년에게 적합하지 않은 콘텐트 접근을 차단하거나, 위기 상황에서 부모·비상연락처에 알림을 보내는 등의 안전장치를 갖추는 것을 목표로 한다.

더중앙플러스 : 팩플

AI, 감정 쓰레기통이었는데…“서운해” 유튜버 기겁한 일화

인간의 감정을 더 깊이 알아가기 시작한 AI. AI에 정서적으로 의지하는 인간. 그 마음을 공략하려는 기업. 삼박자가 맞아떨어지면서 AI와 인간의 관계는 끊임없이 확장되고 있다. 인간과 AI는 앞으로 얼마나 더 가까워질 수 있을까. 이 과정에서 지켜야 할 선은 어디까지일까. AI는 인간의 ‘찐친’이 될 수 있을까? 갈수록 존재감 커지는 AI 동반자에 대해 팩플이 파헤쳤다.

토스 연구 PDF북

밤도 낮도 주말도 없어 ‘toxic’(사람을 지치고 병들게 하는 조직 분위기나 구조)하다는 평가까지 나오는 토스의 기업문화, 지속 가능한걸까. ‘까’와 ‘빠’ 둘 다 미치게 하는 스타트업 토스는 앞으로의 10년도 지금처럼 살아남을 수 있을까. 토스 주요 경영진, 전현직 직원들, 투자자(VC), 업계 전문가와 관계자 등 다양하게 만나 토스라는 기업의 조직 문화부터 사업 모델, 향후 비전까지 정밀 분석했다. 그동안 어디에도 공개된 적 없었던 치과의사 출신 CEO의 ‘미친 베팅’ 일화부터 이승건 창업자 단독 인터뷰까지, 모두 담았다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.