
김용현 전 대통령 경호처장 재임 당시, 대통령 경호 목적으로 군중을 감시하는 인공지능(AI) 사업이 추진돼 한국전자통신연구원(ETRI)이 관련 기술을 개발 중인 것으로 확인됐다.
이 기술은 시민의 생체 신호를 토대로 긴장도를 측정하고 대통령 주변의 ‘위험 인물’을 식별하는 방식으로, 자칫 시민의 생체 정보와 심리 상태가 국가의 감시·통제 대상으로 전락할 수 있다는 우려가 제기된다. “인권 침해를 막기 위한 안전장치가 반드시 필요하다”는 지적이 나오지만, 정부가 마련한 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI 기본법) 하위법령에서는 관련 규제 근거를 찾기 어렵다.
20일 경향신문과 주간경향의 취재를 종합하면, ETRI는 군중의 행동 패턴을 분석해 이상 징후를 탐지하고, 이동형 카메라로 생체 신호를 인식해 긴장도를 분석하는 AI 기술을 개발 중이다. ETRI는 정부가 공모한 ‘AI 기반 전영역 경비안전 기술 개발’ 사업을 민간 기업들과 공동 수주하면서 해당 기술 개발을 맡게 됐다.
‘AI 기반 전영역 경비안전 기술 개발’은 ‘지능형 유무인 복합 경비안전 기술개발사업’의 세부 과제로, 김용현 전 처장 재임 당시인 지난해 4월 대통령 경호처와 과학기술정보통신부가 공동 추진했다. 5년간 총 240억원(경호처 120억원, 과기정통부 120억원)을 투입하는 대형 연구·개발(R&D) 사업이다. 지난해에는 경호처와 과기정통부가 각각 5억원씩, 올해는 15억원씩 예산을 배정했다.
사업은 2단계로 진행된다. 1단계에서는 군중행동 패턴 분석과 이상 탐지, 원거리 영상 생체신호 추출 기술을 2026년까지 개발하며, 2단계에서는 긴장도 분석 기술을 2028년까지 완성하는 것이 목표다. 불법 계엄과 내란 사태가 발생하지 않았다면, 1단계 기술 개발은 윤석열 정부 임기 내에 마무리됐을 것이다.
한국연구재단을 통해 이 사업 검토에 참여한 연구자 A씨는 “(대통령실 인근) 용산 일대 공원들이 일반인에게 개방돼 있기 때문에 그곳에서 위협이 되는 사람을 찾겠다는 취지라고 들었다”며 “원거리에서 이상 징후가 있는 사람을 발견하면 로봇개와 바디캠을 이용해 가까이에서 (생체 신호를) 측정해 긴장도가 높은 사람을 찾아내겠다는 내용이었다”고 말했다.
ETRI 연구진 역시 군중 관찰·분석 용도를 부인하지 않았다. 연구를 총괄하는 B씨는 ‘군중행동 패턴 분석’ 기술에 대해 “경호 대상자(대통령 등) 주변 군중의 이상행동을 추정하는 것”이라며 “쉽게 말해 모션(움직임)으로 (이후 행동을) 판단하는 것인데, 다양한 이상행동 데이터를 축적해 정확도를 높이려 한다”고 설명했다. 생체 신호 인식을 통한 긴장도 분석에 대해선 “얼굴색 등 생체 신호를 카메라 촬영으로 추출하고, 이를 긴장도를 추정하는 기술과 접목할 계획”이라고 말했다.

AI를 활용해 대통령 경호를 고도화하겠다는 취지이지만, 국가가 개인의 생리적 반응과 감정을 분석·판단하려는 시도여서 반(反)민주적 감시 체계로 이어질 수 있다는 비판이 나온다. 오병일 진보네트워크센터 대표는 “단지 ‘긴장했다’는 이유만으로 위험 인물로 분류돼 통제된다면 표현의 자유 침해는 물론 무죄추정의 원칙에도 어긋난다”며 “권력관계가 불평등한 상황에서 감정을 인식하려는 시도는 피감시자에게 ‘웃는 얼굴’ 등 특정한 태도를 강요해 인간의 존엄성을 훼손할 수 있다”고 지적했다.
인권 침해 소지가 있는 AI 기술을 국가가 주도적으로 개발한다는 점에서도 논란이 일 것으로 보인다. 연구자 A씨는 “영상을 기반으로 군중을 모니터링하고 특이한 사람을 찾아낸다는 것인데, 대통령 경호와 직접 관련되지 않은 민감한 경우까지 잡아내는 등 악용 가능성이 있다고 생각한다”며 “사업 검토 회의에서도 ‘불특정 다수를 대상으로 하는 게 아닌가’, ‘아무나 다 감시하면 문제가 되지 않겠는가’라는 지적이 나왔지만, 별도 안건으로 다뤄지지는 않았다”고 말했다.
이 사업의 적절성 검토 여부를 묻는 질문에 과기정통부 관계자는 “예산 500억원 이하 사업이어서 예비타당성 검토 대상이 아니었고, 일반적인 예산심의 절차만 거쳤다”며 “이외 다른 검토가 있었는지는 추가 확인이 필요하다”고 밝혔다. 이어 “인간을 대상으로 하는 연구의 경우 기관생명윤리위원회(IRB) 심의를 거쳐야 하지만, 아직은 공개된 데이터를 활용한 연구이기 때문에 (심의가) 필요하지 않다고 판단했다”고 설명했다.


해당 AI 기술에 대한 법적 규제가 사실상 공백이라는 점도 문제로 지적된다. 유럽연합(EU)의 인공지능법(AI Act)은 직장과 학교에서 감정 인식 AI 사용을 전면 금지하고 있고, 그 밖의 영역에서 활용될 때에도 안전성·투명성·인간 감독 등 강력한 의무를 부과하고 있다. 반면 한국의 ‘AI 기본법’과 하위법령에는 감정인식 AI에 대한 명확한 규제 근거가 없다.
현재 AI 기본법과 하위법령은 “사람의 생명·신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 경우”를 ‘고영향 AI’로 규정해 위험관리 방안 수립과 사전고지 의무를 부과하고 있다. 그러나 그 범위는 에너지·먹는 물·보건의료 등 10개 영역으로 한정돼 있으며, 국방과 국가안보 분야는 제외돼 있다. ‘범죄 수사 및 체포’ 영역에 일부 적용될 여지는 있지만, 해당 기술이 법적 수사나 검거 행위와 직접 관련되지 않을 경우 규제가 어려울 가능성이 있다. 즉 군중 이상행동 탐지 및 긴장도 측정 AI는 민주주의 원칙을 훼손하고 인권 침해로 이어질 위험이 크지만, 이를 제어할 법적 안전장치를 찾기 힘든 실정이다.
오 대표는 “설령 정부가 이 기술을 ‘고영향 AI’로 해석하더라도, 현행 법령상 사업자의 의무가 지나치게 추상적이어서 실질적인 안전장치로 작동하기 어렵다”며 “정부는 우선 해당 AI 기술 개발과 관련된 정보를 투명하게 공개하고, 인권 영향평가를 시행하는 등 실효성 있는 규제 방안을 마련해야 한다”고 말했다.