
【 청년일보 】 최근 AI 기술은 산업 전반에 걸쳐 혁신의 상징이 되었다. 생성형 AI, 자율주행, 스마트 제조 분야의 인공지능은 빠른 속도로 상용화되고 있으며, 국가의 디지털 경쟁력과도 직결되고 있다.
그러나 이러한 발전의 이면에는 수많은 저임금 노동자들이 수행하는 데이터 정제와 라벨링 작업, 이른바 '데이터 노동'이 존재한다는 사실이 간과되기 쉽다. 데이터 노동자들은 AI가 효율적으로 작동할 수 있도록 하기 위해 사람의 손을 빌려 데이터를 분류하고 라벨링 한다. 이 과정에서 저임금 노동이 반복됨에도 불구하고 이들은 보이지 않는 존재로 남아 있다.
데이터 노동이란, AI가 학습할 수 있는 형태로 데이터를 구조화·정리하는 작업을 의미한다. 예를 들어, 챗봇이 혐오 표현을 자동으로 감지하도록 만들기 위해서는 수천 개의 폭력적·차별적 텍스트를 사람이 직접 읽고 분류해야 한다. 이러한 작업은 주로 케냐, 방글라데시, 필리핀 등지의 원격 플랫폼 노동자들에 의해 수행되며, 이들은 보통 시급 2달러 이하의 낮은 임금을 받고 고위험 정서노동에 종사하고 있다.
OpenAI 역시 GPT 개발 과정에서 케냐의 하청 노동자에게 유해 콘텐츠 라벨링 작업을 맡겼으며, 이는 국제 언론을 통해 공론화된 바 있다. 이러한 사례들은 데이터 노동이 단순히 기술 개발의 '보조적' 역할을 넘어서, 기술의 핵심적인 작동 원리로 작용한다는 사실을 명확히 보여준다.
이처럼 데이터 노동은 AI 기술의 핵심 구성 요소임에도 불구하고, 공학적 설계나 정책 논의에서는 거의 고려되지 않는다. 이는 기술의 외형만을 강조하는 '기술 중심주의'의 한계를 보여주는 사례다. AI는 단순한 알고리즘의 산물이 아니며, 수많은 인간 노동 위에서 작동하는 사회적 시스템이다.
최근 국제 사회에서도 AI 개발 과정에서의 노동권 보호와 윤리적 설계에 대한 요구가 강화되고 있다. IEEE는 'Ethically Aligned Design' 보고서를 통해 AI 시스템은 인간의 존엄성과 자율성을 보호하는 방향으로 설계되어야 한다고 강조했으며, 유럽연합(EU)은 AI 법안(AI Act) 초안에서 데이터 처리 방식과 고위험 AI 시스템에 대한 노동조건 공개를 요구한다.
AI 개발 기업들은 공정한 데이터 처리 윤리 기준을 수립하고 고위험 데이터 작업의 외주화를 최소화해야 한다. 이를 위해 데이터 노동자를 보호할 수 있는 법안을 제정하고, 직접 고용을 확대하여 노동자들이 합당한 대가를 받을 수 있도록 해야 한다.
또한 정부는 디지털 노동 감시 체계를 구축하여 AI 기업들이 데이터 처리 과정에서 노동자의 안전과 인권을 보장하도록 제도적으로 유도할 필요가 있다. 데이터 노동의 윤리적 기준을 명확히 설정하고, 이에 대한 법적 기준을 마련하는 것도 중요하다.
AI는 단순한 기술 집합이 아니라, 수많은 인간 노동 위에 작동하는 사회적 구조물이다. 기술의 진보가 일부 기업의 수익으로만 귀결되지 않고, 보다 정의로운 사회적 분배와 연결되기 위해서는 기술공학 전반에 걸친 윤리적 성찰이 필요하다. 공학은 이제 단지 '무엇을 만들 것인가'가 아니라, '누구를 위한 기술인가'를 묻는 시대에 진입하고 있다.
AI 개발에서 발생하는 데이터 노동 착취 문제는 기술의 공정성과 윤리적 책임을 다시 한번 되짚어보게 만든다. 공학자들은 기술이 사회적 책임을 다할 수 있도록 설계해야 하며, 이를 위해서는 기술 설계의 초기에 윤리적 기준을 반영해야 한다. AI 기술이 공정하고 인간 중심적인 방향으로 발전할 때에 진정한 의미의 혁신이 이루어질 것이다.
【 청년서포터즈 8기 안윤하 】