기존 콘텐츠를 활용해 유사 콘텐츠를 새로 만들어내는 생성형 인공지능(AI) 서비스 과정에서 이용자 피해를 방지하기 위한 가이드라인이 나왔다.
28일 방송통신위원회는 전체회의를 열고 텍스트·오디오·이미지 등 생성형 AI 서비스 이용 과정에서 피해를 방지하기 위해 사업자들이 참고할 수 있는 실천 방안을 담은 가이드라인을 발표했다.
다음 달 28일부터 시행되는 이번 가이드라인은 생성형 AI 개발사와 서비스 제공자를 대상으로 서비스 전반에 걸쳐 추구해야 할 4가지 기본원칙과 이를 실현하기 위한 6가지 실행 방식을 제시하고 있다.
기본원칙은 인간중심의 생성형 AI 서비스, 설명 가능성이 확보된 생성형 AI 서비스, 안전하게 작동하는 생성형 AI 서비스, 공정한 생성형 AI 서비스다.
실행 방식은 이용자 인격권 보호, 산출물이 AI로 생성됐음을 고지하는 등 결정 과정을 알리려는 노력, 차별적 사용을 방지하기 위한 필터링 등 다양성 존중 노력, 입력 데이터 수집과 활용 과정에서의 책임 있는 관리, 문제 해결을 위한 책임과 참여, 건전한 유통과 배포를 위한 노력으로 요약된다.
가이드라인은 또 사업자들의 수용성 및 이해도 제고를 위해 실제 제공되고 있는 서비스 중 이용자 보호 영역의 모범 사례도 제공한다.
이는 생성형 AI 기술의 급격한 발전이 일상생활에 혁신적 변화를 가져오고 있지만, 사회적으로 물의가 되는 첨단조작기술영상(딥페이크) 성범죄물, 차별·편향 등 부작용도 심각하게 대두하고 있어 이용자 안전과 권리를 보호할 제도적 기반 마련 필요성이 제기돼 온 데 따른 것이다.
방통위는 이를 위해 정보통신정책연구원(KISDI) 및 인공지능 전문가가 참여하는 연구반을 구성하고, 그 간의 생성형 인공지능 피해 사례와 국내외 주요 서비스별 이용자 보호 현황 등을 검토해 가이드라인을 마련했다.
가이드라인은 이날부터 누리집(www.kcc.go.kr)을 통해 내려받을 수 있으며, 방통위는 시행일 기준 2년마다 가이드라인에 대한 타당성을 검토해 개선 등 조처를 할 계획이다.
신영규 방통위 방송통신이용자정책국장은 "이번 가이드라인을 통해 생성형 인공지능 사업자가 바람직한 이용자 보호 방안을 마련할 수 있게 될 것으로 기대한다"고 밝혔다.
김태우 기자 press@a-news.co.kr
<저작권자 © 전파신문, 무단 전재 및 재배포 금지>