[기고] 기술에도 필요한 윤리적 개입

2025-05-11

하민회 이미지21 대표 (미래기술문화연구원장)

"모든 것을 속입시다"(cheat on everything) 얼마 전 창업한 AI 스타트업 '클루엘리(Cluely)' 스토리는 최근 접했던 이야기 중 가장 터무니없고 불쾌하다.

클루엘리의 창업자는 21세의 한국계 미국인 로이 리와 닐 샨무감. 둘은 콜롬비아대 동기로 코딩 면접에서 부정행위를 하는 '인터뷰 코더(Interview Coder)'라는 AI 도구를 개발했다. 이 도구는 브라우저 내 숨겨진 창을 통해 사용자에게만 보이도록 정보를 전달하기 때문에 사실상 들키지 않는 AI 커닝 페이퍼인 셈이다.

로이 리는 인터뷰 코더를 사용해 아마존, 메타 등 글로벌 IT 기업의 인턴십 면접을 통과했고, 심지어 이 과정을 유튜브에 공개했다. 아마존으로부터 강력한 항의를 받은 콜롬비아대학은 그들에게 1년 정학을 내렸지만 이들은 자퇴를 택했다.

그리고 이 기술로 보다 진화한 앱 클루엘리를 만들어 530만 달러(약 75억 원)의 시드 자금을 유치했다. 스타트업 생태계는 '효율적인 도구' 라는 이름으로, 일부 언론은 '차세대 AI비서'라고 포장했지만 클루엘리의 본질은 AI를 이용한 부정행위지원 시스템일 뿐이다.

얼마되지 않는 비용으로 누구나 AI 커닝페이퍼를 얻을 수 있다면 우리 사회는 어떻게 될까? 교육의 공정성은 무너지고, 기업의 채용 기준은 신뢰를 잃게 될 것이다. 사회 전반의 성과 기반 구조 역시 붕괴할 수 밖에 없다. 이쯤 되면 기술의 혁신이 아닌 기술의 사회 파괴가 아닐까?

여기서 우리는 스스로에게 질문을 던져 볼 필요가 있다.

빠른 시간 안에 많은 이익을 얻을 수 있다면 당신도 망설임 없이 클루엘리에 투자할 것인가? 아무리 그럴듯하게 꾸며댄다 한들 본질이 부정행위 조장인데 이것도 기술로 인정해야 할까?

클루엘리는 오늘날 기술과 윤리가 충돌하는 지점에서 기술이 어떻게 규범을 위반하면서도 시장논리에 의해 정당화되는지 그 위험성을 보여준다. 그리고 AI윤리 기준의 필요성도 깨닫게 해준다.

한국 정부는 2020년 'AI 윤리기준'을 발표하며 ▲인간성 존중 ▲공공선의 증진 ▲책임성 보장을 핵심 원칙으로 삼았다. 이 기준에 따르면, AI는 "인간의 능력을 보완하되, 결과의 책임소재가 명확하고, 공정한 사용을 보장"해야 한다. 한국의 AI 윤리 기준에서 보면 클루엘리는 어느 것 하나도 지켜지지 않은 자격 미달 이다.

국제 기준을 적용해도 마찬가지다. OECD, UNESCO는 AI의 투명성과 공정성을 강조해왔다. 특히 2021년 UNESCO AI 윤리 권고안은 "AI가 조작, 속임수, 기만적 정보 제공에 사용되어서는 안 된다"고 명시했다. 클루엘리의 존재 자체가 이 원칙에 정면으로 위배된다.

그럼에도 불구하고 클루엘리는 결코 적지 않은 시드 머니를 유치했다. 기술의 중립성을 핑계 삼아 위험한 기술에도 거침없이 투자해 온 투자 생태계의 무책임한 현실을 고스란히 드러난 셈이다.

우리는 기술의 전능성이라는 환상 속에서 AI가 인간의 규범을 뛰어넘거나 그 빈틈으로 파고 드는 것을 수용하고 있다. 예컨대 클리어뷰 AI (Clearview AI)는 무단으로 수집한 얼굴 데이터를 통해 감시 사회 구축에 일조를 하고 있고 SNS를 통해 개인 데이터를 무단 수집하고 이를 정치적 조작에 이용했던 케임브리지 애널리티카 (Cambridge Analytica)의 사례도 있다.

이들은 하나 같이 교묘하게 정상성 혹은 획기적인 효율성을 위장했지만 본질적으로는 파괴적 기술들이다.

기술은 중립성을 띄지만 우리는 기술의 가능성보다 그 방향성에 초점을 두고 판단해야 한다. 애초에 인간 존엄성을 침해하거나 인간의 주체성이 소외되는 기술은 배제할 필요가 있다. AI는 인간의 한계를 보완하는 도구이지, 인간을 대체하거나 속이기 위한 수단이 되어서는 안 된다.

공정성을 파괴하고 사회의 신뢰를 퇴보시키는 클루엘리와 같은 기술에 대해서는 정부와 기업, 투자자 모두는 명확한 규제를 가하고, 기술 개발 단계에서부터 윤리 필터를 적용하는 제도를 마련해야 한다. 윤리 기준을 포함한 투자 가이드라인을 마련하고 투자 시 기술의 사회적 위험을 포함한 ESG 심사를 강화해야 한다. 플랫폼의 투명성 강화하고 의무화함으로써 사용자의 AI 조력 여부를 공개하도록 하는 법적 조치도 필요하다, 예컨대 온라인 시험, 면접 등에서 AI를 이용한 실시간 조력행위 시에 형사적 책임을 부과하는 등의 방법들이다.

무엇보다 기술이 할 수 있는 일보다 기술이 하면 안 되는 일이 먼저 규정할 수 있는 사람이 되어야 한다. 할 수 있으니까 개발하는 기술이 아니라 공공선을 위한 기술인지 한 번쯤 돌아보는 책임감이 있어야 한다. 지금 우리에게 필요한 자질은 기술에 '윤리적 개입'을 할 수 있는 능력이다.

◇하민회 이미지21대표(미래기술문화연구원장) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표 △경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.