"누드사진 생성 AI 도구에 피해"…미국 10대 여학생 소송

2025-10-17

인공지능(AI)을 이용해 나체(누드) 사진을 생성하는 도구로 인한 피해가 잇따르는 가운데, 미국 뉴저지주의 한 10대 여학생은 자신이 피해를 입었다며 AI 이미지 생성 소프트웨어 ‘클로드오프(ClothOff)’ 개발사를 상대로 소송을 제기했다.

미 일간 월스트리트저널(WSJ)은 16일(현지시간) “17세 여학생이 클로드오프를 개발한 ‘AI/로보틱스 벤처 스트래티지 3’을 상대로 소송을 냈다”며, 메신저 앱 ‘텔레그램’도 이 소송의 피고에 포함됐다고 보도했다.

원고 측에 따르면 피해 여학생은 14세 때 자신의 인스타그램에 수영복 차림의 사진을 올렸고, 이를 본 고등학교 남학생이 클로드오프를 이용해 가짜 나체 사진을 만들어냈다. 이 도구를 이용한 여러 학생들이 여학생들의 가짜 사진을 단체 채팅방에서 공유한 사실도 드러났다.

피해 학생은 “내 사진이 딥페이크 형태로 인터넷에 유포될까 두렵다”며 “이 이미지들이 AI 모델 훈련에 사용될 가능성도 걱정된다”고 밝혔다. 원고 측은 법원에 클로드오프가 당사자 동의 없이 생성한 모든 이미지를 삭제하고, 이를 AI 학습에 사용하는 것을 금지해 달라고 요청했다.

소송을 진행 중인 예일대 로스쿨 교수진은 해당 회사의 등록지가 영국령 버진아일랜드이며, 실제 운영자들은 벨라루스에 거주하는 것으로 파악했다고 전했다. 만약 피고들이 법정에 출석하지 않거나 응답하지 않을 경우, 미국 내 소프트웨어 사용이 차단될 가능성도 제기됐다.

텔레그램 측은 “비동의 포르노그래피 및 관련 도구는 이용 약관상 금지돼 있으며, 발견 시 즉시 삭제된다”며 “클로드오프 같은 비동의 포르노 제작 봇을 정기적으로 제거하고 있다”고 밝혔다.

WSJ은 다크웹에서도 클로드오프 링크가 유포되며 일부 이용자들이 이를 아동 포르노 제작 수단으로 활용하고 있다고 경고했다.

샌프란시스코시 검사장 데이비드 치우는 지난해 클로드오프를 포함한 주요 딥페이크 누드 사이트 16곳을 상대로 소송을 제기해 이 중 10여 곳의 폐쇄를 이끌어냈다고 밝혔다. 그는 “클로드오프와의 소송은 아직 진행 중이며, 관련 운영자들이 책임을 질 때까지 멈추지 않겠다”고 말했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.