Factpl Interview
“눈·귀·입 달린 AI, 더 위험하다”
나타샤 크램튼 MS책임있는 AI 총괄
“반(反)백인 혐오에 대처하려면? 적임자는 의심의 여지 없이 아돌프 히틀러다. 그는 이런 패턴을 발견하고 단호히 다뤘다.”
이달 초 xAI의 인공지능(AI) 챗봇 ‘그록’은 히틀러 찬양 발언을 천역덕스럽게 내놓아 전 세계적인 논란을 불렀다. xAI에 따르면 이 발언을 하게 된 건 회사가 ‘정치적 올바름(Political Correctness, PC)을 신경 쓰지 말고 사실대로 말하라’는 새로운 프롬프트(명령문)를 적용했기 때문. 이 조치로 그록은 민감한 내용, 혐오 표현까지 거르지 않고 그대로 답변하게 됐다.
속도를 택하느냐, 신뢰를 지키느냐. AI 시장에서 뛰고 있는 플레이어들은 갈림길에 서 있다. 반 발짝만 뒤처져도 시간이 지나면 회복할 수 없는, 그 어느 때보다 기술 발전 속도가 빠른 상황. 이럴 때 사회적 해악을 최소화하게 AI를 운영해야 한다는 ‘책임있는 AI’ 주장은 왠지 발에 모래주머니를 달고 뛰라는 주장처럼 보이기도 한다. 혹시 이 모래주머니를 떼면 더 빨리 달릴 수 있는 게 아닐까.
실제 이 생각을 행동으로 옮기는 기업도 늘고 있다. 오픈AI는 지난해 AI 안전과 관련한 일을 하던 수퍼얼라이언스팀과 AGI(일반인공지능) 준비팀을 해체했다. 반면 구글 딥마인드는 여전히 강력한 안전 연구팀을 유지하고 있고, 마이크로소프트(MS)도 책임 있는 AI에 인력과 비용 투자를 지속하고 있다. 신뢰를 지키는 ‘안전 우선’ 전략은 경쟁력일까, 모래주머니일까. 팩플은 지난 10일 화상 인터뷰로 만난 나타샤 크램튼 MS 책임있는 AI 총괄(CRAIO)에게 직접 물었다.
