[기자수첩] 개와 늑대의 시간

2024-09-19

[정보통신신문=성원영기자]

‘개와 늑대의 시간’이라는 말이 있다. 프랑스에서 황혼을 가리킬 때 쓰는 관용어다. 노을이 붉게 지고, 땅거미가 캄캄하게 내려앉을 무렵 저 언덕 너머에서 다가오는 게 내가 기르는 개인지 혹은 나를 해치러 온 늑대인지 분간할 수 없다는 뜻을 담고 있다.

주로 상대가 적인지 아군인지, 좋은 것인지 나쁜 것인지 구별하기 애매모호할 때 자주 비유된다.

지난 2022년 11월, 오픈AI가 챗GPT(Chat GPT)를 출시한 후 거의 2년이 다 되어간다. 여러 의미로 AI는 인간에게 있어 '개와 늑대의 시간'에 접어든 것이라 비유할 수 있다.

AI는 좋은 것인가 나쁜 것인가, 수익화를 기준으로 판단할 수도 있겠지만 이번엔 특별히 데이터 보안성에 대한 이야기를 해보고 싶다.

챗GPT를 포함한 AI 기술이 빠르게 확산되고 있지만, 그 이면에는 보안성에 대한 우려가 존재한다.

AI는 방대한 양의 데이터를 학습해 스스로 판단을 내리는 시스템이다.

즉, AI 시스템이 제대로 작동하기 위해서는 많은 양의 데이터가 필요하다.

일리야 수츠케버 전 오픈AI의 수석개발자는 젠슨 황과의 인터뷰에서 “More deeper and more bigger”이라며 자신의 딥러닝 철학을 밝힌 바 있다. AI에게 학습시키는 데이터의 규모가 크면 클수록 그와 비례해 성능이 좋아진다는 것이었다.

하지만 데이터는 개인의 사적인 정보부터 금융 기록, 의료 데이터 등 민감한 내용을 포함할 수 있다. 만약 이러한 데이터가 AI 시스템 내에서 유출되거나 악용된다면 개인은 피해를 입는다. 이런 경우 물리적인 피해와는 또 다른 복잡한 양상을 낳을 수 있어 세심한 주의가 필요하다.

지난해 7월 개인정보보호위원회가 오픈AI에 한국인 687명을 포함한 챗GPT 이용자들의 개인정보유출을 국내에 신고하지 않은 이유로 과태로 360만원을 부과한 바 있다.

개인정보위에 따르면, 지난해 3월 20일 17시부터 21일 2시 사이 챗GPT 플러스에 접속한 전 세계 이용자 일부의 성명, 이메일, 결제지, 신용카드 번호 4자리와 만료일이 다른 이용자에게 노출됐으며, 한국 이용자 687명(한국 IP기준)이 포함된 것으로 확인됐다.

이 밖에 AI가 악의적인 목적을 가진 사람들에 의해 사용될 수 있다는 점도 고려해야 한다.

예를 들어, 딥페이크 기술을 활용한 가짜 영상으로 인해 할리우드 배우들이 피해를 입었으며, 국내에서는 유명인의 얼굴을 이용한 투자 사기 사건이 일어나기도 했다.

특히, 최근 국내에서는 딥페이크를 이용한 온라인 성범죄 사건이 연달아 발생해 큰 충격을 줬다.

이처럼 AI가 사이버 보안의 허점을 이용해 악용될 시 이를 감시하고 통제할 글로벌 차원의 대응이 필요하다.

AI로 인한 유출 사고가 발생할 경우 이에 대한 여파가 AI 불신으로 이어져 시장에 악순환이 이어질 가능성이 있다. AI를 신뢰하려면 보안 프로그램을 강화해 보호 장비를 단단히 입거나, 또는 AI에 대한 국제적인 재제를 명확히 할 필요가 있다. 최소한의 방어선이 있다면 AI에 대한 신뢰를 지킬 수 있다. 우리가 사는 동네에 늑대가 들어올 수 없도록 울타리를 쳤다면 개와 늑대의 시간이 와도 더 이상 두려움을 느끼지 않을 것이다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.