안태준 “생성형 AI로 법적 리스크 폭발...기업, 관리 시스템 구축해야” [시경EPA]

2025-03-06

로봇청소기 등 생성형 AI 인공지능이 우리 생활 곳곳에 스며들고 있는 가운데 중국 생성형 AI 딥시크의 과도한 개인정보수집으로 인한 개인정보유출 논란이 뜨거운 화두가 되고 있다. 딥시크의 정보유출 문제로 인해 세계 주요 국가 및 기업들이 보안을 이유로 딥시크 사용을 금지하면서 이 문제는 군사 및 외교 등 국가안보로까지 확대되고 있는 모양새다.

딥시크를 둘러싼 논란과 충격파가 가시지 않는 가운데 한양대학교 법학전문대학원 안태준 교수는 “생성형 AI의 구조적 문제로 인한 여러 문제가 파생하고 있는데, 기업들은 특히 생성형 AI 모델의 학습과 활용으로 초래될 수 있는 개인정보보호법 위반과 저작권 침해 등의 위험성을 간과해서는 안 된다”고 경고했다.

3월 5일 오후 대한상공회의소에서 열린 ‘제4회 시장경제 경제정치 아카데미(이하 시경EPA)' <‘AI 리스크’와 기업의 대응> 주제의 강연을 통해서다. 안 교수는 사법연수원 35기를 수료하고 청주지방법원에서 판사로 일했다. 이후 대형 로펌 파트너 변호사와 대형 회계법인 파트너 등 다채로운 경력을 쌓았다. 현재 한양대 법학전문대학원 교수로 있다.

안 교수는 기존 데이터를 바탕으로 이미지, 음악, 영상 등 다양한 형태의 데이터를 만드는 생성형 AI는, 기존 데이터 중 가장 적합한 것을 선택하는 검색엔진과 달리 새로운 데이터를 만들어내고, 보급됨으로써 저작권법, 지적재산권, 개인정보보호법 등 다양한 법적 문제를 양산하고 있다고 지적했다. 또 최근 정치권과 문화계를 중심으로 사회적 논란이 컸던 허위정보나 딥페이크 이슈 역시 생성형 AI로 인해 법적 리스크가 커졌다고 설명했다.

안 교수는 “생성형 AI 개발 과정에서 블랙박스 문제가 발생하여 법적 이슈가 야기되고 있다. AI의 의사결정 과정을 완전히 이해할 수 없고 AI의 의사결정 또는 결과를 예측할 수 없는 문제, 즉 법적 책임 등과 관련된 고의 및 인과관계 등 판단이 어렵다”면서 “이는 기존의 다른 법률 이슈와 다른 양상으로, 기술적으로 판별이 어려워 법적 책임을 논하기 힘들다”고 지적했다.

그는 또 최근 지인인 모 교수가 검색사이트에서 자신을 검색한 결과 성추행범으로 허위 정보가 기재돼 충격을 받았던 사연을 소개하면서 AI가 잘못된 정보나 허위정보를 생성할 위험(환각 현상)과 모델의 잠재적 편향성(BIAS) 등의 구조적 문제를 안은 근본적인 한계점도 지적했다.

이로 인해 생성형 AI 개발의 투명성을 요구하는 규제의 필요성이 동시에 대두되고 있으며 사회적, 문화적으로 영향과 파급력도 크기 때문에 기업들이 향후 동향을 예측하고 대비하는 것이 중요하다는 것이다.

안 교수는 또 “생성형 AI 모델의 학습을 위해 타인의 저작물을 학습데이터로 수집하고 이용하는 행위가 저작권법상 공정이용으로서 적법하다고 볼 수 있는지 여부에 대하여는 논란이 지속되고 있다”며 “해외와 같은 TDM(Text and Data Mining) 면책규정의 도입이 필요할 수 있다”고 밝혔다.

TDM은 Text and Data Mining, 즉 긁어서 학습하고 처리한다는 뜻으로 이 문제의 법적 처리에 따라 향후 방향도 보다 분명해질 수 있다는 설명이다.

안 교수는 “기존 저작권법에 공정이용에 대한 부분이 있지만 TDM 이것 자체가 불명확하기 때문에 따로 명시적인 법률로 규정하자는 것”이라며 “일본 저작권법은 AI모델이 학습과정에서 데이터 수집 처리하는 것을 적법하게 규정했고 EU에서도 과학 연구목적 등 적법하게 쓴 것은 저작권 침해 아니라고 규정하고 있는데, 우리는 저작권법 개정안(과거 발의된 것)은 영화, 소설, 음악 등 기계적인 학습에 활용하는 것은 저작권 침해에 해당되지 않는 것으로 법률개정안이 나온 상황”이라고 설명했다.

그는 또한 데이터 수집을 위한 크롤링(crawling)이 부정경쟁방지법상 데이터 부정사용행위에 해당할 수 있는 위험성에 대해서도 언급했다.

안 교수는 “공개된 데이터의 경우는 다르지만, 크롤링은 데이터베이스의 접근 권한 문제를 일으킬 수 있다”며 “부정경쟁방지법에 따라 법적으로 접근 권한이 없는 자가 부정한 수단으로 데이터를 취득하는 것을 금지하고 있다”고 했다.

그는 ▲ 뉴욕타임스(NYT)가 언론사 최초로 챗 GPT 개발사 오픈AI와 마이크로소프트(MS)를 상대로 저작권 침해를 주장하며 소송을 제기한 것, ▲ 세계 주요 스톡 이미지(임대 혹은 판매하는 공용 사진) 기업 게티이미지(Getty Images)가 AI 사진 생성 도구 ‘스테이블 디퓨전(Stable Diffusion)’의 개발사 스테이빌리티AI(Stability AI)를 상대로 2천조 원이 넘는 초대형 손해배상 소송을 제기한 것을 사례로 언급했다.

그러면서 “우리나라의 경우도 각종 저작권업체가 문제 삼고 있는 상황으로 AI서비스를 하거나 활용하는 기업들은 라이센스 계약이 가장 안전한 방법”이라며 “오픈AI도 외국 유명 언론사들과 라이센스 계약을 통해 데이터를 얻고 있으며 우리도 이 방향으로 가야 한다”고 조언했다.

안 교수는 아울러 생성형 AI와 관련된 개인정보보호법 위반 리스크의 심각성을 강조했다. 그는 딥시크가 틱톡 모회사인 바이트댄스에 이용자 정보를 넘긴 사례, 카카오톡 대화 등 최근 국내외 사례를 들면서 “공개된 개인정보라고 하더라도, 가명정보 처리에 관한 특례규정상의 기준과 요건을 충족하지 못하거나 개인정보보호법상 '정당한 이익'을 인정할 수 없는 경우에는 개인정보 보호법을 위반할 수 있다”며 위험성을 경고했다.

안 교수는 강의를 마무리하며 AI 활용에 있어 기업들이 그 위험성을 알고 사전에 이를 대비할 시스템을 구축하는 것이 우선 필요하다고 강조했다.

그는 “생성형 AI 서비스를 제공하거나 활용하려는 기업들이 컴플라이언스와 위험관리 차원에서 생성형 AI로 인한 법적 위험 요인들을 사전에 확인하고, 그 위험을 예방하고 관리할 수 있는 시스템을 구축하는 것이 시급하다”며 “지금은 기업 경영진에 대한 책임을 강화하는 추세로, 문제 소지를 걸러낼 수 있는 기업 내 위험관리시스템을 먼저 구축을 하지 않으면 나중에 문제가 발생했을 때 이사의 책임 소재가 커질 수 있어 대비해야 한다”고 지적했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.