
지난 13일, 2025년 노벨 경제학상 수상자가 발표됐다. 조엘 모키어(Joel Mokyr) 미국 노스웨스턴대 교수, 필리프 아기옹(Philippe Aghion) 영국 런던정경대(LSE) 교수, 피터 하윗(Peter Howitt) 미국 브라운대 교수가 공동 수상했다. 이들은 기술 진보가 지속 가능한 경제성장을 이끄는 조건을 규명하고, '창조적 파괴'(creative destruction)에 기반한 성장 이론을 정립한 공로를 인정받았다. 이들은 '창조적 파괴'를 주창한 슘페터(Joseph Schumpeter)의 사상을 현대적으로 계승한 대표적 경제학자들이다.
흥미로운 점은 수상자 중 모키어 교수와 하윗 교수가 노벨상 발표 이후 인공지능(AI)의 미래에 대해 상반된 견해를 밝혔다는 점이다. 모키어 교수는 “AI가 인류를 멸종시킬 것이라는 생각은 디스토피아적 공상과학 소설을 너무 많이 읽은 사람들의 이야기”라며, AI의 위험성을 과대평가해서는 안 된다고 강조했다. 그는 “망치는 집을 짓는 데 쓰이지만, 누군가를 해치는 데도 사용할 수 있다”고 비유하며, 모든 기술 발전에는 일정한 위험이 따르지만 그것이 발전을 멈춰야 할 이유는 아니라고 말했다. AI는 인류를 위협하는 괴물이 아니라, 우리의 연구와 생산성을 높이는 조력자라는 것이다.
반면 하윗 교수는 “AI는 엄청난 갈등을 낳고, 많은 사람의 일자리를 빼앗을 것”이라며, 기술의 순기능을 극대화하기 위해서라도 강력한 규제가 필요하다고 강조했다. 그는 “AI는 경이로운 가능성을 가진 기술이지만, 그 결과를 예측할 수 없기 때문에 적절한 통제 없이는 사회적 피해를 초래할 수 있다”고 경고했다.
이처럼 AI의 미래를 바라보는 시선은 예전부터 엇갈려 왔다. 이른바 'AI 구루(guru)'라 불리는 세계적 석학들 역시 낙관론자(boomer)와 비관론자(doomer)로 명확히 나뉜다.
합성곱 신경망(Convolutional Neural Network:CNN)을 개발해 컴퓨터 비전의 혁신을 이끈 얀 르쿤(Yann LeCun) 뉴욕대 교수는 “AI는 위험하지 않다. 인류의 미래는 우리가 만들어 가는 과정에 달려 있다”고 말한다. 앤드류 응(Andrew Ng) 스탠퍼드대 교수 역시 “AI는 전기처럼 모든 산업의 필수 인프라가 될 것이며, 위험을 두려워하기보다 기회를 확장하는 것이 중요하다”고 강조한다. 이들은 AI를 인간의 조력자이자 산업 혁신의 핵심으로 보는 '부머' 진영의 대표주자들이다.
반면, 지난해 노벨 물리학상을 수상한 제프리 힌튼(Geoffrey Hinton) 캐나다 토론토대 교수는 “우리가 만든 기술이 인간의 생존을 위협할 수도 있다”며, AI 안전성에 대해 지속적인 경고를 하고 있다. 요수아 벤지오(Yoshua Bengio) 캐나다 몬트리올대 교수 역시 “AI의 진정한 발전은 인간의 가치와 조화를 이룰 때 완성된다”고 말하며, AI 윤리와 책임을 강조한다. 이들은 AI가 인간 수준의 지능을 넘어 통제 불능 상태에 이를 수 있다고 우려하는 '두머' 진영의 핵심 인물들이다.
그렇다면 왜 세계적 대가들조차 AI의 미래를 두고 이토록 다른 관점을 가질까? AI는 인류가 한 번도 경험하지 못한 기술이며, 그 발전 속도 또한 인간의 통제 능력을 넘어설 만큼 빠르기 때문이다. 일반 인공지능(Artificial General Intelligence:AGI)의 도래 시기와 그 영향력에 대해서조차 전문가들 사이에 합의가 없다. AI가 인간의 생산성을 혁신적으로 높일지, 혹은 인류의 생존을 위협할지는 결국 우리가 어떤 방향으로 기술을 설계하고 관리하느냐에 달려 있다.
이제 중요한 과제는 AI의 잠재력을 어떻게 사회적 이익으로 전환하느냐에 있다. AI를 두려움의 대상으로만 볼 것이 아니라, 사회적 신뢰를 바탕으로 활용할 수 있는 장치를 갖추는 일이 시급하다. 아직 누구의 주장이 옳은지는 단언할 수 없지만, 분명한 사실은 AI의 미래는 인간의 선택에 의해 달라진다는 점이다.
이러한 시기에 이재명 정부가 AI를 국정 핵심 과제로 선정하고, 100조원 규모의 예산을 투입해 'AI 3대 강국'으로의 도약을 선언한 것은 의미 있는 출발점이다. 이제 정부가 해야 할 일은 AI 생태계의 기반인 데이터 정책을 국가 전략 수준으로 격상시키는 것이다. 신뢰할 수 있는 데이터가 있어야 윤리적이고 안전한 AI도 가능하기 때문이다. 더불어 AI 윤리와 책임, 거버넌스에 관한 규제 체계를 정비해 기술 발전이 사회적 합의 위에서 이루어질 수 있도록 해야 한다.
또, AI가 사회적 안전망으로 작동하고 디지털 디바이드(digital divide)와 같은 부작용이 심화되지 않도록 'AI 기본사회'의 틀을 마련해야 한다. AI기본사회연구회 오성탁 회장이 강조한 것처럼, 이제는 'AI의 잠재력을 사회적 이익으로 전환'하기 위한 국가적 노력이 필요하다. 지금이야말로 AI가 만들어 갈 미래를 우리가 주도적으로 설계하고, 그 힘을 공동체의 번영과 복지로 연결하기 위해 새로운 거버넌스와 규제의 틀을 세워야 할 때다.
황보현우 서울대 산업공학과 객원교수 scotthwangbo@snu.ac.kr