‘딥페이크 성착취’ 청소년 피해자 느는데…AI 교육은 35% 뿐

2024-09-01

딥페이크 성 착취물 확산으로 청소년 피해자가 증가하고 있지만, 불법합성물을 제작하는 데 사용되는 ‘생성형 인공지능(AI)’에 대한 교육을 받은 중고등학생이 3명 중 1명으로 나타났다. 반면 생성형 AI 기술을 이용한 적 있다고 답한 이들은 절반이 넘었다. 다수의 학생들이 생성형 AI를 이용하면서도 관련 교육은 제대로 받지 않고 있어 관련 분야 교육을 강화해야 한다는 목소리가 나온다.

2일 한국청소년정책연구원이 발표한 ‘청소년 디지털 인재를 어떻게 양성할까’ 보고서를 보면, 지난해 7∼8월 전국 중·고등학교에 다니는 청소년 2261명을 대상으로 조사한 결과 지난 6개월 동안 학교에서 ‘생성형 AI 기술 활용 교육’을 받은 비율은 35.7%로 집계됐다. 연구진이 설문한 인터넷·스마트폰 과의존 방지 교육, 개인정보 보호 교육, 스미싱 등 디지털 금융 사기 예방 교육 등 10가지 항목 가운데 7번째로 낮은 수치다.

이번 연구에서 일상에서 생성형 AI를 이용한 적이 있다고 답한 비율은 52.1%로 조사됐다. 성별로는 남자(57.3%)가 여자(46.6%)보다 많았고, 학교급별로는 고등학생(61.5%)이 중학생(43.7%)보다 많았다. 이용자 가운데 75.7%는 ‘하루에 30분 미만’ 사용한다고 답했다. ‘30분∼1시간 미만’은 12.9%, ‘1시간∼1시간 30분 미만’은 4.8%였다. ‘2시간 이상 쓴다’는 학생도 4%가 넘었다. 71.8%는 ‘생성형 AI를 계속 이용할 생각이 있다’고 했고, 55.0%는 ‘생성형 AI의 정보를 신뢰한다’고 답했다.

최근 무분별하게 확산한 딥페이크 성 착취물 가해자 다수는 10대로 알려졌다. 지난 3년간 허위 영상물 범죄 혐의로 입건된 피의자 중 10대는 매년 60%대를 넘어서고 있다.

보고서는 학생들이 딥페이크나 사이버 폭력 등의 디지털 범죄를 방지할 수 있도록 윤리 교육을 지금보다 더 마련해야 한다고 밝혔다.

연구진이 진행한 심층인터뷰에 참여한 한 중학생은 “딥페이크나 디지털 범죄가 심각하다고 생각하지만, 학교에서 예방 교육을 받아본 적이 없다”며 “한때 딥페이크에 관한 범죄 예방이 확 떴다가 말았던 적이 있는데, 이것이 심각한 문제라는 사실을 학생들한테 인지시켜줬으면 좋겠다”고 말했다.

연구진은 “AI를 활용해 특정 인물의 얼굴을 영상에 합성한 딥페이크 기술이 발전함에 따라 허위 조작 정보가 넘쳐나고 있다”며 “이처럼 새로운 기술에 따른 부작용이 심해지면서 청소년의 리터러시 역량이 더욱 중요해졌다”고 했다. 그러면서 “청소년이 생성형 AI를 올바르게 사용하기 위한 정부 차원의 구체적인 가이드라인은 아직 마련되지 않은 실정”이라며 “교육부, 과학기술정보통신부, 여성가족부 등 관련 부처가 청소년의 디지털 역량 강화를 위한 사업을 추진해야 한다”고 제언했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.