“킬러 로봇? 더 큰 위협 있다”…‘카이스트 천재’ 윤송이 경고

2024-07-03

Today’s Interview

지금, 가장 불편한 이야기를 할 때

AI 윤리의 선구자들

“워크맨을 개발한 소니가 ‘걸으며 음악 듣는 문화’를 만든 것처럼 기술과 인간에 대한 이해를 결합한 새로운 문화를 만들고 싶다.”

2000년 4월, 당시 24세였던 윤송이 엔씨문화재단 이사장은 중앙일보와의 인터뷰에서 ‘꿈이 뭐냐’는 질문에 이같이 답했다. 당시 윤 이사장은 ‘인간처럼 사고할 줄 아는 기계’를 연구하는 미국 MIT대 미디어랩에서 박사 학위를 받고 이제 막 한국에 돌아와 있던 상황. 국내 최연소 박사이자 드라마 ‘카이스트’ 주인공의 실제 모델로 주목받던 시기였다. 인공지능(AI)이란 말이 공상과학 영화 소재 정도로만 치부됐던 당시부터 그의 관심은 AI였다.

그 후로 20여 년이 지났지만 윤 이사장은 여전히 AI를 연구하고 있다. 하지만 과거와는 결이 다르다. 윤리적 AI 개발을 강조하고, 기술의 위험성을 경고한다. 2019년부터 AI 윤리를 다루는 스탠퍼드대 인간중심 AI연구소(HAI) 자문위원으로 활동하고 있고, 2022년엔 AI 윤리에 대한 고민을 담은 대담집 『가장 인간적인 미래』를 출간했다. 지난달에는 AI 윤리를 주제로 ‘FAIR AI 2024’ 콘퍼런스도 개최했다. 무엇이 AI 연구자 윤송이를 AI 윤리의 길로 들어서게 했을까. 인간처럼 생각하는 기계는 인간과 공존이 가능한 걸까. AI 윤리는 빅테크 스스로 위험한 AI 개발에 제동을 걸게 할 수 있을까.

지난달 30일 서울 종로구 엔씨문화재단에서 윤송이 이사장을 만났다. 인터뷰에는 AI 윤리 분야 석학 아구스틴 라요 MIT 인문예술사회과학대학 학장, 제임스 랜데이 스탠퍼드대 HAI 공동소장, 메흐란 사하미 스탠퍼드대 컴퓨터공학과 교수가 함께 참여했다. 윤 이사장은 “머신 바이어스(machine bias·학습 데이터에 따른 기계의 편향)로 인해 편견이 확산될 위험성이 더 커졌다”고 말했다.

1. 기계가 말했으니 무조건 믿어야 해?

오랫동안 AI를 연구했다.

윤송이 이사장(이하 윤)=전자공학을 전공하면서 신호처리 과정에서 이미지를 압축하는 걸 배웠다. 거기서 수학적으로 가장 에러가 적은 기술은 단순히 사람 눈에 좋게 보이는 기술을 뜻하는 게 아니란 걸 알게 됐다. 사람이 어떤 주파수에 민감한지 알고, 그걸 잘 표현하는 기술이 더 좋은 기술이란 얘기다. 간단해 보이는 기술도 만들 땐 사람이 어떻게 생각하고 사람 뇌가 어떻게 동작하는지부터 접근해야 한다는 걸 깨달았다. 그래서 뇌과학 등을 공부했고 AI에 자연스럽게 관심을 갖게 됐다.

10여 년 전 엔씨소프트에서 AI 연구조직을 만들었다. 그런데 최근엔 AI 개발보다 AI 윤리에 더 집중하는것 같다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.