
서울시가 새해부터 모든 행정 서비스에 인공지능(AI) 윤리 지침을 적용한다. 서울시는 4일 “모든 공공행정 서비스에 AI 활용 윤리 지침을 본격 적용한다”고 밝혔다.
AI 활용 윤리 지침, 새해부터 적용

2026년은 구글 딥마인드의 AI ‘알파고’가 바둑 경기에서 이세돌 9단을 꺾은 지 10년이 되는 해다. 이후 AI는 다방면에 활용되고 있다. 하지만 점차 커지는 AI의 활용도에 비해, AI가 초래할 수 있는 문제를 통제하기 위한 제도적 장치는 여전히 제자리다. 예컨대 AI는 저작권 침해나 허위 정보 생산 등 문제를 유발할 수 있지만, 이로 인한 사회적 피해가 발생할 경우 책임 소재 기준은 명확지 않다.
서울시가 AI 윤리 지침을 제정한 것도 이 때문이다. 서울시가 정립한 ‘서울형 AI 윤리 기준’은 공공성, 공정성, 투명성, 책임성, 안전성 등 다섯 가지 원칙으로 구성된다.
우선 공공성은 AI가 단순히 행정 효율을 높이는 도구가 아니라, 서울 시민의 삶의 질을 높이는 수단으로 활용해야 한다는 원칙이다. 공정성은 AI 기반 행정서비스가 특정 계층이나 집단에 불리하게 작용하지 않게 해야 한다는 내용이다.
투명성은 시민이 AI를 활용한 과정·결과를 이해할 수 있도록 가능한 범위 내에서 정보를 제공한다는 것이며, 책임성은 AI 활용 전 과정에는 항상 인간의 감독·책임이 전제돼야 한다는 원칙이다.
안전성은 개인정보 보호와 시스템 보안을 강화해 시민이 안심하고 행정서비스를 이용할 수 있는 안전한 AI 이용환경을 조성해야 한다는 내용을 포함하고 있다.

공공성, 공정성, 투명성, 책임성, 안전성

서울시는 이번 지침을 서울시 행정 분야는 물론, 산하 25개 자치구와 투자·출연기관, 위탁·용역 수행기관에 걸쳐 공공행정 모든 분야에 적용한다. 서울 외에서 AI를 활용했더라도, 이로 인한 결과가 서울시 행정이나 서울시민의 권익에 직접적으로 영향을 미치는 경우에는 서울시 AI 윤리 지침을 적용한다.
서울시 AI 윤리 지침은 지난해 9월 제정한 ‘서울특별시 인공지능 윤리 기반 조성에 관한 조례’에 따른 후속 조치다. 서울시는 지난해 7월부터 서울AI재단과 함께 ‘서울형 AI 윤리 지침 타당성 분석 연구’를 진행했고, 국제인공지능윤리협회 등 전문기관 의견을 수렴한 뒤 이번 지침을 완성했다. 국가 차원에서 제정한 인공지능기본법과 행정안전부의 공공부문 인공지능 윤리 원칙을 서울시 행정 환경에 맞게 구체화했다.
강옥현 서울시 디지털도시국장은 “AI 기술이 행정의 일상적인 도구가 되는 시대에, 시민 권리를 지키면서 AI 기술을 책임 있게 활용하기 위해 이번 지침을 마련했다”며 “윤리·신뢰를 기반으로, AI 행정을 통해 서울이 AI를 선도할 수 있도록 최선을 다하겠다”고 말했다.







