‘음모론 알고리즘’ 어떻게 막나…EU, 대형 플랫폼 ‘정기적 위험성 평가’

2025-10-15

민주주의 한국은 돌아왔는가. 호기롭게 ‘그렇다’라고 선언하기엔 우리의 민주주의는 불안하게 흔들린다. 음모론적 망상에 빠져 불법계엄을 옹호하더니 이젠 혐중 정서를 자극하며 세력을 확대하려는 정치·종교 집단이 활동하고 있다. ‘혐오의 정치’에 맞서 더 나은 민주주의를 위해서라도 허위조작정보와 증오·차별 표현을 제어할 제도를 만드는 첫걸음이 필요하다.

극단주의 세력의 혐오 표현과 증오 범죄, 국내외 세력의 허위정보 유포 등으로 민주주의가 혼란에 빠질 수 있다는 위기감에 유럽연합은 2020년 12월 ‘유럽 민주주의 행동 계획’(EDPA)을 발표했다. 민주주의 보호를 위한 유럽연합 차원의 전략으로 자유롭고 공정한 선거, 언론의 자유, 허위정보 대응, 시민 참여를 강조했다.

당시 우르줄라 폰 데어 라이엔 유럽연합 집행위원장은 “사실과 허구는 구분되어야 하며, 자유로운 언론과 시민사회는 악의적인 간섭 없이 열린 토론에 참여할 수 있어야 한다”고 말했다. 공정한 선거, 민주적 토론이 가능해지려면 소셜미디어를 통한 여론 조작을 막아야 한다는 의미이다.

허위조작정보 유통 자율규제 시작한 유럽연합

이런 공감대 속에 EDPA 실행 도구의 하나로 ‘디지털 서비스법’(DSA)이 마련돼, 2023년 8월 25일부터 유럽연합 전역에서 시행됐다. DSA는 불법 콘텐츠 규제와 투명성 의무 강화 등 안전한 온라인 환경을 조성하고 디지털 공간에서의 기본권을 보호하는 데 중점을 두고 있다. DSA는 불법 콘텐츠를 직접 정의하지 않고, ‘각 회원국 법률에 따라 불법으로 간주하는 콘텐츠’로 정의한다. 예를 들어 독일과 프랑스에서는 혐오표현이, EU 전체로는 아동성착취물, 소비자 기만광고 등이 불법 콘텐츠에 해당된다.

DSA안에는 지난 7월부터 ‘허위조작 정보에 관한 2022년 실천강령’이 ‘허위정보에 대한 행동강령’으로 강화돼 담겼다. 광고주와 협력해 허위정보 유포자들이 광고 이익을 얻지 못하도록 하는 것은 물론 정치·상업광고의 투명성을 확보하고 광고 유입과 노출 방식, 광고주 정보 등을 명확히 하도록 했다. 사용자가 허위정보를 신고할 수 있는 도구도 제공하도록 했다. 팩트체크 기관과 플랫폼의 협업, 연구자의 플랫폼 데이터 접근 확대도 규정했다.

DSA는 플랫폼 알고리즘이 민주주의와 정신건강에 미치는 위험성을 반영해 메타, 틱톡, 구글 등 초거대 플랫폼에 정기적으로 위험성 평가를 하도록 하고, 위험 완화 조처를 하도록 했다. 알고리즘이 콘텐츠를 추천하거나 광고를 배치하는 방식을 공개하도록 하고, 알고리즘과 시스템 전반에 대한 독립적 감사를 수행하도록 했다. 유럽집행위원회 산하 ‘유럽 알고리즘 투명성 센터’가 이런 조치의 기술적 실행과 검증을 지원한다.

고의 또는 과실로 DSA를 위반하거나 규제당국의 조치에 불응할 경우, 유럽연합 집행위원회로부터 전년도 글로벌 매출액의 최대 6%의 과징금이 부과될 수 있다. 강령 참여 자체는 자발적이나, 참여하지 않으면 DSA 준수 평가에서 불리하게 작용할 수 있다.

김동찬 언론개혁시민연대 정책위원장은 “먼저 자율규제를 촉진할 수 있는 행동강령을 만들고, 빅테크 기업이 여기에 참여하도록 해서 허위정보 유통을 줄이고, 팩트체크 기관을 지원해 펙트체크 결과를 플랫폼에 반영하도록 하는 방식을 택했다”면서 “행동강령을 지켰을 때 DSA 상의 법적 의무를 다한 것으로 간주하는 유인책을 주면서 자율규제가 사실상 의무적으로 작동하는 체계를 만들었다”고 설명했다.

오병일 진보네트워크센터 대표는 “인공지능(AI) 알고리즘이 정치적 양극화를 심화한다는 비판이 많고, 윤석열 전 대통령도 보수 언론보다 유튜브를 신뢰한다고 알려지면서 세계 최초의 ‘알고리즘 계엄’이라는 말이 나왔다”면서 “유럽의 DSA는 플랫폼이 인권과 민주주의, 사회 건강에 부정적 영향을 미치고 있으니 그에 관한 영향평가를 하도록 의무화한 것”이라고 말했다.

2017년 독일에서 제정된 네트워크집행법은 세계 최초의 온라인 혐오표현 대응법으로 주목받았다. 독일 내 이용자 200만명 이상인 소셜미디어를 대상으로 명백히 불법인 콘텐츠를 24시간 이내에 삭제하도록 하고, 삭제 요청에 대한 보고서 제출 의무 등을 규정했다. 위반 시 최대 500만유로의 벌금을 물린다.

이 법에 따라 페이스북과 텔레그램이 신고 처리 절차 미비 등을 이유로 벌금을 부과받았다. 다만 표현의 자유를 위축한다는 비판과 함께 알고리즘 투명성, 위험 평가 등 디지털 플랫폼 구조 자체에 대한 규율은 부족하다는 지적 속에 2024년 5월부터 DSA에 맞게 개정됐다. DSA의 경우 엑스와 틱톡이 광고 투명성 부족 등으로 조사를 받았으나 아직 벌금이 확정된 사례는 없다.

국내에서도 ‘한국판 DSA’를 마련하는 움직임이 있지만, 허위 조작 정보에 대한 징벌적 손해배상제 도입 등 처벌이나 단속 위주의 접근에 중점을 두고, 정작 건강한 디지털 민주주의 환경을 구축하는 데는 소홀하다는 지적이 나온다.

오병일 대표는 “해외에선 특정 콘텐츠를 찍어서 가짜이다, 아니다 판단하거나 처벌을 강화하는 식으로 가지 않는다”고 차이를 설명했다. 오대표는 이어 “유럽연합은 일차적으로 팩트체크를 활성화하고, 그 결과가 유통되도록 플랫폼과 연계하도록 했다. 가짜뉴스로 판별된 기사가 있으면 이용자가 알 수 있도록 표시하거나 ‘허위사실이라는 문제가 제기됐다’는 식의 메시지를 띄우거나 유튜브에서 수익화를 못 하게 막는 방법을 택했다”고 설명했다.

오 대표는 “여당이 언론개혁 특위를 꾸렸는데 특정 콘텐츠를 규제하거나 처벌을 강화하는 방향으로만 가고 플랫폼의 정보 유통 신뢰성을 높일 환경을 만드는 데는 소홀하다”면서 “정보의 신뢰성을 높이려면 여러 이해관계자가 참여해 연구하고 모니터링을 하는 팩트체크 전담기관이 필요하다”고 말했다.

김동찬 위원장은 “여론에 상당한 여론을 미침에도 자율규제가 갖춰지지 않은 커뮤니티를 어떻게 규율할 것인지, 허위조작정보 신고 때 처리 속도 지연의 문제는 어떻게 할 것인지 등의 문제가 여전하다”라면서 “민변 등 시민단체가 신고당한 뒤 복원 신청을 해도 제때 되지 않았다. (불법 콘텐츠 신고·콘텐츠 삭제 등과 관련한) 문제가 생겼을 때 이를 빠르게 판단하고 불만을 처리할 수 있는 시스템을 갖춰야 한다”고 말했다.

김 위원장은 유럽의 알고리즘 투명성 센터와 같은 기관도 필요하다고 덧붙였다. 연구자들이 플랫폼 데이터에 접근해 알고리즘이 어떻게 설계되어 작동하는지, 이용자에게 어떤 영향을 미치는지 연구하면서 이해도를 높여야 그에 맞는 대응 방안도 나올 수 있기 때문이다. 한국 사회에서 허위 조작 정보가 만들어지고, 유통되는 과정을 자세히 관찰하는 독립적 기구도 필요하다. 관련 연구 성과는 미디어 리터러시 교육에 반영해야 한다.

대만의 디지털 민주주의 실험···“중국산 LLM 편향성 위험”

디지털 플랫폼을 통해 다수의 시민이 토론에 참여하고, 합의를 하는 숙의 민주주의적 해법도 시도되고 있다. 2012년 대만에서 시작된 ‘g0v(gov-zero)’ 운동은 선구적 사례로 꼽힌다. 투명성, 참여, 개방성을 주요 가치로 기술자와 디자이너, 시민사회 활동가들이 모였다. 이들은 정부 예산안을 보기 쉽게 시각화하거나 중요한 법안이나 문제를 시민과 전문가가 함께 논의하고 정부가 이를 반영하도록 한 온라인 시민 참여 플랫폼(브이 타이완·vTaiwan) 등을 만들었다.

g0v 운동의 주요 구성원이었던 오드리 탕은 2016년 대만의 디지털 장관에 임명돼 대만 정부 내 디지털 민주주의를 제도화하는 역할을 했다. 디지털 시대 민주주의를 위한 아래로부터의 운동은 최근 대만 사법개혁재단(JRF) 등이 주도한 ‘디지털 권리 장전’으로 이어지고 있다. 지난해 10월 공개된 초안에 따르면 “디지털 권리장전은 디지털 권위주의와 감시 자본주의에 맞서는 체계적이고 근본적이며 예방적인 계획”이다.

플랫폼의 감시 권력이 확대되고, 개인정보 침해와 알고리즘 통제의 위험성이 커지면서 디지털 시대에 맞게 시민 기본권 규범을 제도화하자는 운동이다. 개인정보보호를 자유와 민주주의의 초석으로 삼고, 데이터 수집은 필요 범위 내에서 최소화해야 한다는 점, 디지털 공간이 민주적 소통과 자유로운 표현을 보장할 수 있도록 설계되어야 한다는 점을 강조했다.

이를 위해 허위 정보와 알고리즘 조작을 경계하고, 인공지능을 비롯한 자동화 시스템의 투명성과 설명 가능성을 확보하고, 자동화된 결정이 기본권을 침해할 위험이 있을 때 이를 제어할 장치를 마련해야 한다고 제안했다.

브이 타이완의 핵심 기여자이자 사법개혁재단에서 활동하는 법학자 쿠이 지아 웨이는 지난달 15일 한국 개인정보보호위원회가 주최한 행사에서 경향신문과 만나 디지털 권리장전 제안을 대만 정부도 긍정적으로 보고 있다고 말했다. 그는 “정부는 무에서 시작할 필요 없이 시민사회가 제시한 청사진을 따라갈 수 있다”면서 “관련 국제기구가 제시한 여러 방안을 함께 고려해 지역적이고 아시아 맥락에 맞는 디지털 시민권 제도를 만들 수 있다”고 말했다.

그는 대만이 중국의 대규모 언어 모델(LLM)에 맞서 ‘소버린 AI’를 만들고 있다고도 소개했다. 중국 데이터에 기반한 LLM 모델이 중국 입장에 치우친 답변을 내놓을 가능성이 크고, 이는 대만의 공론장에 영향을 줄 수 있기 때문이다. 현재 대만은 안보 문제를 우려해 공공 부문에서 중국 AI 서비스 사용을 금지한 상황이다.

지아 웨이에 따르면 언어 모델의 편향성은 쉽게 제거하기 어려운 문제이다. 그는 “대만 연구자들이 딥시크에게 민주주의를 물으면 인터넷이 끊기거나 (승인하지 않은 기능 등을 쓸 수 있도록) ‘탈옥’시킨 상황에서도 ‘진정한 민주주의 국가는 중국’이라거나 ‘대만은 중국의 일부’라는 답변을 내놓는다”고 설명했다. 그러면서 “대만에는 아직 딥시크와 같은 중국의 LLM에 대항할 성능 좋은 LLM 모델이 없고 중국 기업은 개인정보보호를 크게 신경 쓰지 않은 채 데이터를 모을 수 있어 중국 AI 모델의 성능을 따라잡기 어려운 게 고민거리”라고 말했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.