인공지능(AI)이 고급 업무를 대신하는 단계를 지나 이제는 AI 스스로 AI를 설계하고 개선하는 국면에 접어들었다. 사람이 하던 데이터 수집과 정제, 레이블링, 알고리즘 선택, 결과 평가와 수정이 하나의 자동화 파이프라인으로 엮이면서 자가 개선 전략이 실질적으로 가동되기 시작한 것이다. 이 전략의 출발점은 데이터와 피드백이다. 한 모델이 문제와 정답을 자동으로 생성해 학습 자료를 확장하면 또 다른 평가 모델이 이를 심사하고 채점해 품질을 거른다.
여기에 원칙이 담긴 규칙집을 기반으로 한 헌법형 피드백이 겹겹이 작동하면서 모델은 스스로 비평하고 수정하는 루프를 반복한다. 사람은 세세한 예외 규칙까지 일일이 개입하지 않는다. 경계와 원칙·안전·정확성·비용과 같은 목표들만 명시하면 기계가 학습과 개선을 자율적으로 순환하는 것이다. “사람이 가르치고 기계가 따른다”는 과거의 방식에서 “사람은 원칙과 책임을 정의하면 기계는 학습과 개선을 스스로 반복한다”로 바뀌고 있는 것이다.
이 변화의 핵심은 모델의 크기가 아니라 절차의 개선이라 하겠다. 과거에는 더 큰 모델을 더 세게 돌리는 방식이 성능을 좌우했다면 이제는 더 나은 절차를 스스로 찾아내는 능력이 성능과 효율을 결정한다. 모델은 자동 절차를 통해 쉬운 과제에서 어려운 과제로 난도를 조정하고 문제의 구조에 따라 검색과 계획, 코드 실행과 외부 도구 호출을 조합해 실행한다. 실패의 원인을 자연어로 분석해 금지해야 할 전략을 스스로 목록화한 뒤 다음 시도에서 배제하기도 한다.
그렇다면 사람의 역할은 무엇인가. 반복적이고 규칙이 뚜렷한 업무는 빠르게 자동화되지만 인간의 일은 줄지 않고 더 고차원이며 조금은 추상적으로 변한다고 할 수 있다. 개발자는 요구 사항을 형식화하고 제약을 명시하며 AI가 만든 산출물의 정확성·안전성·라이선스·보안을 감독하고 보증하는 역할을 할 것이다.
교수·연구자·기자·행정가도 다르지 않다. 데이터 수집과 정리, 초안 작성과 강의 자료 제작 등은 AI가 대부분 하고 사람은 전체 맥락을 해석하고 목표를 정확히 하며 윤리적 판단과 이해관계 조정을 수행하는 일을 할 것이다. 특히 비평가와 책임자에 해당하는 역할은 AI가 대체하면 안 된다고 말하고 싶다. 오류의 의미를 해석하고 위험을 평가하며 사회적 책임을 배분하는 것은 인간이 해야 한다.
이런 시대가 요구하는 기술과 거버넌스 역량도 분명해졌다. 먼저 데이터 거버넌스다. 개인정보와 저작권, 민감 정보를 침해하지 않는 수집과 정제의 규범, 접근 통제와 삭제 및 수정 청구권의 보장이 기본이 돼야 한다. 다음은 자동 평가의 설계다. 규칙 기반 평가와 통계 지표에 더해 사실성과 안전·편향 같은 속성 기반 테스트와 인과적 반증 테스트를 결합해 거짓 양성과 거짓 음성을 줄여야 한다.
안전 경계의 설정 역시 필수적이다. 소위 레드팀 표준을 마련해 유해 콘텐츠, 보안 우회, 조작 가능성을 사전 검증해야 한다. 데이터와 코드, 그리고 의사 결정 로그는 변조가 불가능한 방식으로 보관하고 결과물에는 출처를 명시하는 시스템도 도입해야 한다. 모델 제공자와 배포자, 사용자 간 책임 경계와 사고 보고 체계는 제도적으로 명시해야 하며 사람은 사용을 거부할 권리를 온전히 행사할 수 있어야 한다. 정부와 책임 기관은 이러한 권리를 장치와 시스템으로 보장해야 한다.
결국 “AI가 AI를 만든다”는 말은 과장이 아니라 우리가 지금 마주친 현실이다. 우리가 해야 할 일은 변화의 속도를 두려워해 멈추거나 늦추는 것이 아니라 기술의 정확성과 검증 가능성, 통제 가능성, 무엇보다 사람 중심의 가치는 인간이 끝까지 책임지는 자세와 방법을 갖는 것이다. 그래야 인간과 AI는 서로의 한계를 보완하며 더 안전하고, 편리하고, 유용한 방향으로 함께 진화할 수 있다.
우리는 이 거대한 변화를 단지 소비하는 사용자가 아니라 설계하고 감독하는 책임 있는 주체로서 맞이해야 한다. 그것이 ‘AI가 AI를 만드는 시대’에 우리가 AI를 이용해 인류의 번영으로 이끄는 방법이라 하겠다.