
영국 대학에서 인공지능(AI)를 이용한 부정행위로 적발된 사례가 한 해 7000건에 이르는 것으로 확인됐다.
영국 일간 가디언은 15일(현지시간) 155개 대학에 정보공개를 청구해 이 중 131개 대학에서 받은 데이터를 집계해본 결과 2023-2024학년도(2023년 9월부터 2024년 8월까지)에 AI를 활용한 부정행위가 적발돼 확인된 사례가 7000건에 육박했다. 가디언은 “이는 각 대학본부 당국이 이런 유형의 부정행위를 별도로 분류해 관리해와 기록을 통해 공식 확인이 가능했던 사례만 따진 것이어서 빙산의 일각에 불과하다고”며 "대학들이 챗GPT와 기타 AI 기반 작문 도구 등 기술의 등장에 대응해 평가 방법을 조정하고자 시도해야만 하는 상황"이라고 설명했다.
하지만 AI를 활용해 과제를 하거나 시험에 활용하는 사례를 적발하기란 쉽지 않다. 레딩대 연구진은 지난해 대학 자체 평가 시스템을 시험해본 결과, AI가 생성한 과제를 제출했을 때 들키지 않을 확률이 94%에 이르렀다는 연구를 발표했다. 이 연구의 공저자인 피터 스카프 레딩대 심리학과 부교수는 가디언에 "적발된 사례는 빙산의 일각에 불과하다고 생각한다"며 "AI 탐지는 표절과는 많이 다르다. 표절 적발은 대상이 된 텍스트를 확인할 수 있지만 AI 탐지는 불가능하다"고 설명했다. 임페리얼 칼리지 런던에 재직중인 학문윤리 연구원 토머스 랭캐스터 박사는 "결과물을 편집하는 방법을 알고 있는 학생이 AI를 잘 사용하면 AI의 오용을 증명하기가 매우 어렵다"며 "이런 과정을 통해 학생들이 여전히 학습을 계속하고 있기를 바란다"고 말했다.
AI를 활용한 부정행위는 전 세계의 고민거리로 부상했다. 중국판 수능인 ‘가오카오’가 치러진 지난 7일부터 10일까지 중국에서는 AI 서비스 일부 기능이 중단됐다. 수험생들이 시험 문제를 사진으로 촬영해 AI에게 답을 묻는 부정행위를 차단하기 위한 조치다. 중국 교육부는 지난달 학생들이 AI가 생성한 콘텐츠를 숙제나 시험 답안으로 사용해서는 안 된다는 내용의 지침을 발표했다.
