“지금 AI 연구 방향 잘못됐다” AI 전문가들 설문조사

2025-04-01

AI 역량에 대한 기대감이 과도하게 부푼 나머지 연구에 악영향을 끼치고 있다는 주장이 제기됐다.

미국 기술매체 기즈모도는 미 인공지능학회(AAAI)가 3월 발간한 ‘AI 연구의 미래에 대한 보고서’를 인용, 현재 개발 방법으로는 인공일반지능(AGI)을 구현하기 어렵다고 30일(현지시각) 보도했다.

AI 연구자 24명이 공동 집필한 보고서는 AI 관련 주제를 다룬 17개 세션으로 구성했다. 각 세션 마지막에는 학계 전문가를 포함한 475명의 패널을 대상으로 해당 주제와 관련된 설문과 답변을 요약했다.

기즈모도가 언급한 AGI는 보다 다양한 상황에 두루 적용할 수 있는 ‘사람 같은 AI’를 가리킨다. 특정 조건에서만 사용할 수 있는 기존 인공지능과 달리, AGI는 인간 수준의 지능을 갖춰 스스로 정보를 해석하고 학습한다. 오픈AI는 “사람으로 구성된 조직의 업무를 대신할 수 있는 AI가 진정한 AGI”라고 주장한 바 있다. 즉 AGI는 현재 개발 중인 AI의 최종 목표라고 볼 수 있다.

기즈모도는 보고서에서 ‘AI에 대한 대중의 인식과 현실의 차이’를 다룬 세션에 주목했다. 해당 세션을 작성한 MIT 연구원 로드니 브룩스는 가트너의 하이프 사이클(과대광고 주기)을 인용, AI에 대한 기대치가 정점을 지나 하락세에 접어들었다고 주장했다. 지금은 많은 사람이 AI 역량을 과대평가한 상태로, 향후 AI 기술이 만족스럽지 못한 결과를 냈을 때의 실망도 클 것이라는 이야기다.

해당 세션에서 “현재 AI 역량에 대한 대중 인식이 AI 연구 개발 상황과 일치하냐”는 질문에 패널 중 79%가 아니라고 응답했다. 또한 패널 중 90%는 잘못된 인식이 AI 연구에 악영향을 끼치고 있다고 답변했다. 74%는 과대평가된 인식이 AI 연구 방향을 결정하기까지 한다고 주장했다. 패널 중 76%는 현재 AI 연구개발 방향은 AGI 구현으로 이어질 수 없다고 답변했다.

연구개발 방향이 잘못됐다면 어떻게 바로잡아야 할까. 보고서는 패널의 답변을 인용, AI 인식을 바로잡는 기관이 필요하다고 강조했다. 해당 기관이 수행해야 할 역할로는 ▲AI 관련 주장에 대한 사실 검증 ▲AI에 대한 인식과 현실의 차이를 주제로 공개 토론을 조직하고 영상을 공유 ▲향후 AI로 가능한 기능을 추려 정기적으로 검증 ▲AI 기술과 연구 분야의 다양성을 주제로 교육 진행 ▲AI 기술의 성숙도 주기적 평가 등을 꼽았다.

보고서에서 ‘사실성과 신뢰성’ 세션을 작성한 버지니아 대학 헨리 카우츠 교수는 “AI 훈련 방법부터 바꿔야 한다”고 주장했다. 그는 2024년 벤치마크 테스트에서 가장 우수한 성능을 보인 대형언어모델(LLM)조차 질문의 절반가량만 올바르게 답변했다며 사실성이 떨어진다고 밝혔다. 그는 여러 AI 에이전트를 따로 운영할 게 아니라, 서로 계속해서 상대 AI의 사실성을 확인하는 ‘협력 에이전트’로 발전해야 한다고 주장했다.

글. 바이라인네트워크

<이병찬 기자>bqudcks@byline.network

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.