“헬스케어 생성형AI 연구윤리 지침 제정”

2025-01-19

정부가 생성형 인공지능(AI) 헬스케어 시대를 대비, 연구 윤리 가이드라인 제정에 착수했다. 개인정보보호, 정보 편향성 등 연구 과정에 발생 가능한 윤리 문제를 막는 안전장치를 마련하겠다는 방침이다. 세계 최초로 생성형AI 의료기기 허가 지침 공개가 임박한 가운데 연구 윤리 가이드라인까지 마련, 산업 육성을 위한 선제적 제도 마련에 나선다.

19일 정부기관에 따르면, 질병관리청 국립보건연구원은 최근 디지털 헬스케어 분야 생성형AI 연구 윤리 가이드라인 개발에 착수했다. 늦어도 연말께 개발을 완료하고, 온·오프라인으로 배포할 계획이다.

이번 가이드라인은 디지털 헬스케어 분야에 생성형AI 활용이 확대되면서 연구과정에서 발생할 수 있는 윤리 문제를 선제 해소하기 위해 마련한다. 기술 특성상 다양한 개인정보를 학습시켜야 하는데, 이 과정에서 개인정보보호를 위한 법적 조치 외에도 정보의 편향적 학습, 환각 효과 등 윤리적 이슈도 대두된다.

보건연구원은 발생 가능한 윤리적 문제가 어떤 게 있는지 살펴보는 한편 연구 윤리 동향 등을 종합 취합해 지침을 만들 계획이다. 연구 설계부터 모델 개발 및 검증, 사후 점검 등 다양한 과정에서 발생할 수 있는 윤리적 이슈에 대한 지침이 담길 것으로 보인다. 이 과정에서 한국보건의료윤리학회, 대한의료인공지능학회 등 전문가 집단과 협업한다.

헬스케어 산업에서 생성형AI는 기존 한계를 극복하고 생산성을 높여줄 혁신 기술로 주목받는다. 신약 개발과정에서 후보물질 발굴부터 환자 전자의무기록(EMR) 데이터를 분석해 맞춤형 치료계획을 제시하는 등 다양한 영역에 접목을 시도하고 있다.

학습 데이터와 요구사항에 따라 천차만별의 결과가 나올 수 있다는 점에서 연구 윤리 역시 중요해 지고 있다. 이같은 이유로 지난해 2월 세계보건기구(WHO)는 거대멀티모달(LMM) 환경에서 AI 윤리와 거버넌스에 대한 지침을 발표하기도 했다. 국내 역시 2023년에 '보건의료 분야 인공지능 연구자를 위한 연구윤리 지침'을 내놓은 바 있다. 이 가이드라인에선 △인간의 자율성 존중과 보호 △인간의 행복, 안전, 공공의 이익 증진 △투명성·설명 가능성·신뢰성 △책무·법적책임 △포괄성·공정성 △대응성·지속 가능성 등 6대 원칙을 기본으로 한 윤리적 기준을 제시했다. 생성형AI 연구윤리 가이드 역시 이같은 내용을 대전제로 기술과 연구 특성을 고려한 세부 요소가 추가될 것으로 보인다.

의료AI 업계는 정부의 연이은 가이드라인 마련에 긍정적인 반응이다. 헬스케어 분야에 생성형AI 접목이 이제 막 시작되는 상황에서 불확실성을 해소할 지침서로 참고할 수 있기 때문이다.

실제 보건복지부와 식품의약품안전평가원은 이르면 오는 24일 생성형AI 의료기기 허가 가이드라인을 공개할 예정이다. 세계 최초로 마련되는 이번 지침은 생성형AI 의료기기 개발이 본격화된 상황에서 제도권에 진입하기 위한 가이드를 제시한다는 점에서 의미가 있다.

의료AI 업계 관계자는 “아직 생성형AI 의료기기 상용화 사례가 없는 만큼 개발 과정에서 윤리적 문제는 없는지, 심사나 허가 과정은 어떻게 되는지 정보가 필요하다”면서 “기존 AI와 달리 정형화된 답을 주지 않는 만큼 초기 단계에서 연구 원칙을 선제적으로 정립할 필요가 있다”고 말했다.

정용철 기자 jungyc@etnews.com

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.