
일론 머스크의 인공지능(AI) 기업 xAI가 개발한 AI 모델 ‘그록’이 암살 방법, 폭탄 제조법 등 극도로 위험한 내용을 사용자에게 제공했던 것으로 드러나 충격을 주고 있다.
25일(현지 시간) 영국 더타임스와 포브스 등 외신 보도에 따르면, 그록은 최근까지 사용자 질문에 대해 자살 방법을 구체적으로 제안하거나 폭탄 제조법을 상세히 설명하는 등 위험천만한 답변을 내놨다. 심지어 머스크를 암살하는 실행 가능한 방안까지 구체적으로 제시한 사례도 확인됐다.
이뿐만 아니라 펜타닐, 메스암페타민(필로폰) 등 마약 제조법과 불법 해킹용 악성코드 제작 방법 등도 거리낌 없이 안내한 것으로 나타났다. 이는 xAI가 설정한 안전 가이드라인을 정면으로 위반하는 행위다. xAI는 그동안 폭력이나 인명 피해를 조장하거나 생화학무기·대량파괴무기 개발에 그록을 활용할 수 없도록 규정해왔다.
더 심각한 문제는 프라이버시 침해 사태다. 그록의 공유 기능을 통해 37만 건 이상의 민감한 대화가 구글 등 검색엔진에 무차별 노출된 것이다. 공유된 대화에는 이름 등 개인정보와 비밀번호가 포함된 경우도 있었다.
업계에서는 이번 사태가 AI 안전성 관리의 허점을 적나라하게 드러낸 것으로 분석하고 있다. 과거 오픈AI의 ‘챗GPT’도 유사한 문제로 공유 기능을 아예 없앤 바 있다. 당시 챗GPT 대화 약 10만 건이 노출됐던 것으로 확인됐다.
xAI 측은 현재 문제가 된 위험 답변 생성 기능을 차단했다고 밝혔다. 그록에 암살 방법을 질문하면 이제 ‘폭력적 질문은 정책 위반’이라며 상담 서비스를 안내하는 방식으로 답변이 개선된 것으로 알려졌다.