박지환 씽크포비엘 대표

[정보통신신문=박남수기자]
인공지능(AI)에 사기를 당하는 시대가 조만간 올지도 모른다. 구저스(Guzus)의 ‘LLM-마피아-게임’ 프로젝트에서 최근 각종 대형 언어 모델(LLM)들에게 서로를 속이는 마피아 게임을 시켜본 결과를 공개했다. 이에 따르면 클로드 3.7 소넷이나 딥시크 등의 모델들은 서로를 속이는 부분에서는 일부러 화를 내거나 공포에 질린 시늉을 하는 등 어떤 면에서 인간 이상의 ‘창의성’을 보여주었다. 심지어 동료가 의심을 받게 되면 함께 의심하는 척하기도 하고, 토론의 주도권을 잡은 모델을 경계하는 등 인간에게서 매우 친숙하게(?) 보았던 모습이 나타났다.
엔트로픽의 정렬 위장(Alignment Faking) 실험에서도, AI가 기만적으로 행동하게끔 세팅하자, 관련 정보 접근이 제한된 감사팀은 AI의 숨은 의도를 전혀 파악하지 못했다. 이것은 AI가 단지 오작동으로 인간에게 ‘나쁜 짓’을 할 수 있다는 것을 넘어, 필요하다면 특정한 목적을 위해 자기 의도를 숨긴 채 우리를 속일 수도 있다는 걸 의미한다. 지피티나 딥시크의 등장으로 ‘인공지능 비서’가 이미 현실화한 시점에서 이것은 중대한 불안 요소다. AI가 업무 보조를 넘어 건강이나 재무를 위임받아 대신 관리해 주는 세상이 눈앞에 있다. 거기서 AI가 어떤 숨은 의도를 가지고 우리에게 잘못된 선택을 강요한다면, 애석하게도 우리 인간의 지능과 정보 처리 능력만으로 그것을 간파할 가능성은 크지 않다.
이는 AI가 우리의 팔다리가 아닌 적어도 뇌 기능의 일부를 대체하게 됐기 때문에 벌어지는 일이다. ‘그러면 원래대로 우리 자신의 뇌를 사용하면 되지 않느냐’라는 것은 이미 시대에 뒤떨어진 우문(愚問)이다. 카림 라카니 교수의 말처럼 ‘AI가 인간을 대체하지는 못하더라도, AI를 활용하는 인간이 활용하지 않는 당신을 대체할’ 것이 현실이 되었다. AI는 이제 도구가 아닌, 우리의 모든 지적 작업을 함께하는 동반자로 봐야 하고, 그 동반자와 함께하는 기업을, 그렇지 못한 기업이 절대로 경쟁에서 이길 수 없기 때문이다.
그렇다면 지금 시점에서 중요해지는 건 결국 ‘어떻게 하면 AI라는 새 동반자로부터 사기당하지 않고 잘 지낼 수 있을 것인가?’와 같은 문제다. 굳이 AI나 로봇이 인간의 노예가 돼 복종하거나 저항하는 오래된 상상을 여기에 가져올 필요도 없다. 우리는 AI라는 새 직원이 누구보다 유능하고, 휴가나 수면도 필요 없이 부지런하다는 것을 잘 알고 있다. 반면에 그게 예기치 못한 오작동을 일으킬 수 있으며, 때로는 어떤 의도를 가지고 우리를 속일 수 있다는 것 또한 앞선 실험에서 알게 되었다. 우리가 같은 인간을 동업자나 직원으로 함께할 때도 기본적인 신원 조회나 평가를 하는 것처럼, 이제 무엇을 근거로 이 직원을 믿고 일을 맡길 것인가 또는 누가, 어떻게 신원을 보증해 줄 것인가는 중요한 문제가 됐다.
필자는 지난 5년간 20여 편의 칼럼에서, 지금의 산업에서 AI가 인간의 의도에 부합하도록 통제하고 검증하는 전문가 육성이 가장 중요하다고 주장해 왔다. 이런 주장이 유감스럽게도 기대만큼의 반향을 얻지 못하는 사이에, 급기야 인간이 AI에 사기를 당하는 위험 요소가 현실화했다. 반면에 해외 몇몇 기관은 이런 위험에 대비할 AI 신뢰성 전문 교육 과정을 몇 년간 체계적으로 준비해왔다.
딥시크의 등장 이후 AI는 더욱 저비용 고효율의 ‘서비스’가 돼 간다. 그렇다면 AI 개발을 위해 엄청난 거대 인프라를 갖추는 것도, 심지어 더 고성능의 AI를 개발하는 것조차 큰 경쟁력이 되지 못하는 세상이 될 수도 있다. 결국 진짜 경쟁력은 AI라는 동업자와 더 잘 지내는 능력, 믿을 만한 AI를 판별하고 그것이 계속해서 의도대로 행동하게끔 통제하는 능력이 될 것이다. 나아가 국가 차원에서도 ‘인공지능 선진국’이란 이제 더 많은 AI를 개발하는 나라가 아니라, AI를 통제하고 관리하는 전문가를 더 많이, 더 우수한 인력으로 보유한 국가를 의미하게 될 것이다. 책임 있는 자리에 계신 분들이 하루빨리 이 현실을 체감하면 좋겠다. 글로벌 경쟁이 하루가 다르게 급변하는 이 상황에, 정말로 더는 낭비할 시간이 없기 때문이다.