
전 세계를 놀라게 한 중국의 AI 딥시크가 사용자들에게서 가장 많이 받는 질문은 역설적이게도 딥시크가 답할 수 없는 질문이다. 정부의 검열을 피할 수 없는 중국 기업이 만들었기 때문에 톈안먼(천안문) 사태와 같은 정치적으로 민감한 질문에는 답을 하지 못한다. 검열을 우회할 수 있는 방법도 등장했지만, 원칙적으로는 중국 정부의 방침을 따르게 되어있다. 따라서 사람들은 중국 정부가 어떤 검열을 하는지 확인하기 위해 톈안먼 질문을 던진다.
지난주 공개된 신형 AI 모델 그록(Grok)3는 조금 다른 의미에서 정치적인 주장과 관련 있다. 그동안 진보 세력이 정치적 올바름(PC), 다양성, 성 평등을 강요한다고 비판해 온 일론 머스크는 챗GPT 같은 타사 AI와 달리 자기 회사가 만든 그록은 그런 “편견”에 영향을 받지 않는 제대로 된(based) AI가 될 것이라고 자랑했다.
하지만 그록3을 써 본 사람들은 사회, 정치적으로 민감한 이슈를 질문해도 마스크의 주장과 달리 여타 AI와 크게 다르지 않은 답변이 나오는 것을 확인했고, 질문 내용에 따라서는 진보적인 주장도 가감 없이 답변에 소개되고 있다. 중국의 딥시크처럼 아예 대답을 못 하거나, 머스크의 평소 주장을 답변으로 내놓는 일도 없었다.
전문가들은 엔지니어들이 직접적으로 개입해서 특정 질문을 막지 않는 한, 특정 견해를 막기 힘들다고 말한다. AI 모델을 훈련할 때 들어가는 데이터라는 게 결국 세상에 나와 있는 글과 이미지이기 때문에, 사람들이 표현한 생각을 AI가 흡수하는 건 피할 수 없는 일이라는 것이다. 사람에 따라서는 특정 견해가 옳거나 틀리다고 생각할 수 있겠지만, 인류 지식을 모두 빨아들여야 하는 AI는 궁극적으로 인류 사회가 가진 견해를 습득하게 될 뿐, 그렇게 얻게 된 지식이 편견인지 아닌지를 판단할 능력은 아직까지 갖고 있지 않다.
박상현 오터레터 발행인