27일 양재 엘타워서 '2025 AI 윤리 공개세미나' 개최
윤리영향평가·표준지침·산업계 목소리까지…신뢰 기반 AI 생태계 전환 논의
AI 채용 평가 중간결과·민간자율윤리위 지침 공개…현장 중심 기준 정교화
기술 속도 대비 윤리 격차·기업 부담·국제 정합성 등 핵심 과제 제시
[서울=뉴스핌] 양태훈 기자 = 과학기술정보통신부(이하 과기정통부)와 정보통신정책연구원(KISDI)이 27일 서울 양재 엘타워에서 '2025 AI 윤리 공개세미나'를 열고, AI 기본법 시행에 맞춰 안전성과 신뢰를 갖춘 AI 생태계를 구축하기 위한 정부·민간·학계의 공동 역할을 강조했다.
이번 행사는 국제적으로 AI 혁신과 규제 논의가 동시에 가속하는 가운데, 선언적 윤리 기준을 실제 현장에서 작동하는 이행체계로 전환하기 위해 마련됐다. 정부는 안전·신뢰 중심 정책의 연속성을 강조했고, 학계는 기술 속도와 규제 현실 간 간극을 지적했으며, 산업계는 실효성 있는 가이드라인과 지원의 필요성을 제기했다.
김경만 과학기술정보통신부 인공지능정책실장은 이날 기조 발언에서 "AI는 경제·사회 문제 해결의 주요 도구가 될 만큼 영향력이 커졌지만, 그 이면에는 위험도 존재한다"며 사전 준비와 안전 확보의 중요성을 강조했다.

김 실장은 "AI 기본법에는 안전성·투명성·신뢰성 등 윤리 관련 조항이 포함돼 있지만, 법만으로 모든 위험을 해결할 수는 없다"며 "민간·산업계·학계가 자율적으로 규범을 지킬 때 실효성이 커진다"고 말했다.
이어 "기술 발전 속도에 비해 윤리 기준이 충분히 반영되지 못한 점을 지적하며 생성형 AI, 물리적 AI 등 새로운 환경에 맞춘 기준 정비가 필요하다"며 "AI 윤리 논의는 단절이 아닌 연속성이 중요하다. 이에 정부는 전문가 그룹과 지속적으로 협력하는 구조를 마련하겠다"고 밝혔다.
문명재 AI윤리정책포럼 위원장은 기조강연에서 AI 기술 발전 속도와 윤리 기준의 격차를 대표적인 현장 문제로 지적했다.
문 위원장은 "스타트업은 빠르게 제품을 내야 하지만 윤리 검토는 속도를 따라가기 어렵다"며, 기준의 모호성과 윤리 도구의 복잡성을 주요 어려움으로 꼽았다.

또한, 일부 기업에서 나타나는 '윤리 쇼핑', '윤리 워싱' 등의 우려를 언급하며, "AI는 가장 큰 혜택을 주는 동시에 가장 큰 위험을 초래하는 기술"이라며 실효적 대응의 필요성을 강조했다.
문 위원장은 기업이 선호하는 정책 도구로 '규제보다 지원'을 꼽았다. 문 위원장은 "기업은 윤리 교육·정보 제공·우수 사례 공유가 실제로 도움이 된다고 평가한다"며 정부가 기술별·도메인별 맞춤형 지원을 강화해야 한다고 제언했다.
또한 지도를 근거로 만들어진 'Agloe' 사례를 언급하며 "윤리는 강제가 아니라 반복적 실천을 통해 현실이 된다"고 설명했다.
이날 세미나에서는 올해 평가 대상인 AI 채용 서비스에 대한 'AI 윤리영향평가' 중간결과도 공개됐다.

문정욱 KISDI 실장은 "윤리영향평가는 AI 서비스가 사회에 미칠 긍정·부정 영향을 사전에 파악해 정책·기술·관리적 대응 방향을 제시하는 프레임워크"라며 "올해 평가에서 프라이버시, 포용성, 책임성, 투명성, 공정성 등 5개 가치 기준을 적용해 긍정 영향 15개, 부정 영향 16개를 도출했다"고 밝혔다.
KISDI에 따르면 AI 윤리영향평가 관련 긍정적 영향으로는 불필요한 개인정보 배제, 직무 역량 중심 평가 강화, 비대면 기반 접근성 향상, 책임소재 명확화 가능성 등이 제시됐다. 반면 부정적 영향으로는 민감정보 수집 위험, 편향·오류 원인 파악의 어려움, AI 결정에 대한 과도한 의존, 공정성 기준 불명확 등이 지적됐다. 특히 전문가 평가단은 개인정보 보호 취약성과 '형식적 인간 개입' 문제를 우려가 높은 핵심 사안으로 꼽았다.
아울러 KISDI가 1500명을 대상으로 실시한 국민 인식 조사에서는 AI 채용에 대한 기대가 높은 것으로 나타났으며, AI 채용 경험자의 약 80%는 AI가 내린 결과를 수용할 의향이 있다고 답했다. 다만 오류·불공정 발생 시 책임 주체로는 '해당 시스템을 도입한 기업'을 가장 많이 지목하는 등 책임성 문제는 여전히 주요 쟁점으로 드러났다.

한편, 정부는 이날 세미나에서 AI 기본법 제28조에 근거한 '민간자율AI윤리위원회 표준지침안'도 공개했다.
김휘홍 KISDI 부연구위원은 "법은 설치 근거만 규정하고 있어, 실제 기업이 어떤 방식으로 위원회를 구성·운영해야 하는지 기준이 필요했다"며 표준 지침안의 취지를 설명했다.
이어 "지침안에는 위원장 포함 3인 이상 구성, 성별 다양성·전문성·독립성 확보, 정기·임시회의 운영 절차, 회의록 비공개 원칙 등 실무 지침이 담겼다"며 "중소·스타트업도 적용할 수 있도록 탄력적 구조를 설계하고, 내부 임직원을 위원으로 포함할 수 있도록 해 실효성을 높였다. 또한 위원회 결정이 경영 의사결정에 반영되도록 선언, 의결, 이행, 보고 순환 프로세스를 제시한 점도 특징"이라고 전했다.
산업계는 AI 기본법 시행을 계기로 기업 내부의 윤리 거버넌스 정착 필요성을 강조했다.

김동환 포티투마루 대표는 "AI 기본법은 개발부터 사후관리까지 전 주기를 포괄하는 첫 근거법"이라며 "사전 예방 중심의 안전 기준과 책임 추적 체계가 필요하다. 특히 중소기업이 윤리·안전 기준을 충족하는 데 큰 부담을 겪는다며 실효성 있는 지원정책이 필요하다"고 말했다.
김유철 LG AI연구원 부문장은 "전 세계 정책이 규제보다 자율규제로 이동하고 있다"며 기업 책임 기반의 신뢰 확보 필요성을 강조했다.
김 부문장은 AI 윤리 정착 단계를 '원칙 수립→거버넌스 구축→이행→확산'으로 정리하며 "표준지침안이 많은 기업들의 실제 적용을 돕는 방향으로 구체화되기를 기대한다"고 말했다. 또한 국제적 합의 형성에 한국도 적극적으로 참여해야 한다고 제언했다.
한편, 정부와 KISDI는 공개된 내용에 대해 12월 한 달간 국민 의견을 수렴한 뒤 최종 보고서를 마련해 정책 완성도를 높일 계획이다.
dconnect@newspim.com






![[포토] 'AI 대전환, 선언에서 실행으로' 토론회](https://img.etnews.com/news/article/2025/11/26/news-p.v1.20251126.f051d21b4b574921bda534e1068baba1_P1.jpg)