최근 논문 작성 등에도 활용되는 생성형 인공지능(AI)에 대해 연구윤리 문제를 우려하는 연구자의 비율이 늘어나는 것으로 나타났다.
26일 한국연구재단의 '2024년 대학 교원 연구윤리 인식 수준 조사'에 따르면 연구자 3천256명 대상 조사에서 생성형 AI가 연구윤리 부문에서 문제가 될 예정이거나 심각한 문제라고 인식한 연구자는 61.9%로 나타났다.
전년도 조사에서 문제가 될 것으로 답한 연구자 비율은 53.5%였는데 1년 새 8.4% 포인트 늘어난 것이다.
걱정할 수준이 아니라는 응답은 26.3%, 잘 모르겠다는 응답은 11.9%로 나타났다.
응답자 가운데 생성형 AI 관련 연구부정이라고 인식하는 경우를 보면 논문 작성 시 AI 활용을 기재하지 않은 경우가 63.5%로 가장 많았고 논문 심사 또는 과제 평가를 AI로 하는 것도 46.2%가 연구부정으로 꼽았다.
논문 작성 과정에 AI를 사용하는 데 대해 연구부정이라 인식하는 경우는 39.7%로 상대적으로 낮았다.
생성형 AI를 논문 작성에 활용할 경우 문제점으로 가장 우려하는 것은 부정확한 정보 등 내용의 신뢰성 측면으로 나타났다.
데이터 편향성과 정보 보안, AI 기술 오작동 등도 우려하는 것으로 나타났다.
생성형 AI를 논문 작성에 활용하는 데 대해 권고할 사항으로는 AI가 작성한 내용의 편향성 확인, AI가 작성한 내용의 진위 확인, 심사자 및 평가자의 AI 활용 명시 등이 중요하다고 꼽혔다.
다만 연구자들은 생성형 AI가 연구에 도움이 된다는 긍정적 답변의 비중이 상대적으로 높은 것으로 나타났다.
연구자 중 연구수행 부담이 경감된다는 의견에 동의하는 비율은 65%, 작업속도 향상에 동의하는 의견은 75.4%로 나타났다.
윤승훈 기자 press@jeonpa.co.kr
<저작권자 © 전파신문, 무단 전재 및 재배포 금지>