[사설]생성형 AI 악용, 신종 금융사기 주의보

2024-07-04

생성형 인공지능(AI)을 악용한 신종 금융사기로 손실 금액이 400억달러에 달할 것이라는 전망이 나왔다. AI기술이 여러 산업에 접목되며 새로운 혁신 마중물로 부상했지만 보안위협과 사이버테러, 금융사기 수법을 더욱 정교하게 만드는 역효과도 발생하고 있다

최근 컨설팅업체 딜로이트는 미국에서 생성형 AI로 인한 사기 손실 규모가 2023년 123억달러(약 17조원)에서 2027년 400억달러(약 55조원)까지 늘어날 것이라고 전망했다.

AI기술은 양날의 검이다. 자칫 잘못 활용할 경우 딥페이크뿐 아니라 생성 AI 이메일 사기, AI 보이스피싱 등 다양한 지능형 금융사기를 촉발한다. 생성형 AI 이메일 사기로 인한 손실은 2027년까지 총 115억달러(약 15조원)에 달할 것으로 추정됐다.

많은 AI기술전문가들은 정보 진위 확인에 신뢰성이 민감한 금융정보가 제 3자에게 유출될 가능성에 주목해야 한다고 제언한다. 일부 해외 금융사의 경우 챗GPT로 인해 고객정보 등이 외부로 유출될 수 있다는 우려 때문에 챗봇 사용을 제한하고 있는 곳이 늘고 있다. JP모건, 뱅크오브아메리카, 씨티그룹, 골드만 삭스 등이 대표적이다.

은행과 핀테크 등 기업은 이러한 위협에 대비해 AI와 최신 기술에 R&D를 늘리고. 시스템 전반 보안 강화 대비책을 마련해야 한다. 기존의 위험 관리 프레임워크는 AI기술로 인한 리스크 관리에 적합하지 않기 때문이다.

빨라지는 AI 변화에 대응하기 위해 전문적인 3자 기술업체와의 동맹, 협업관계도 필요하다. 또 보안 인재 영입을 통한 대응 체계 구축뿐 아니라 광범위한 훈련과 학습·조직문화 조성도 서둘러야 한다.

특히 금융권의 경우 생성AI 알고리즘에 주입된 생성형 AI의 혁신성에도 불구하고 또다른 논란이 제기되고 있다. 바로 학습데이터의 편향성에 따라 신출물 신뢰도가 저하될 가능성이다. 챗GPT의 경우 영어권 데이터의 학습 비중이 높아 한국어 이해 역량이 상대적으로 저조할 수 밖에 없다.

초거대 AI는 산업 지형을 바꿀 파괴적 혁신이라는 데에는 변함이 없다. 다만 여러 부정적인 역기능을 해소할 수 있는 제도적 안전장치가 수반되어야 한다. 우수인력 확보와 양성 교육이 필요하다. 생성형 AI 관련 데이터 구축, 컴퓨팅 자원 제공, 윤리 및 신뢰성 확보를 위한 민관 협력도 절실하다.

길재식 기자 osolgil@etnews.com

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.