
책임있는 인공지능(AI) 정책을 추진하는 근본적 정신과 실존적 긴박함은 개인정보 보호, 보안, 공정성, 투명성과 같은 핵심 가치에 뿌리를 두고 있다.
AI가 지식재산권, 생계, 소비자와 기업 모두를 보호하면서도 정확하고 공정하며 윤리적으로 작동하도록 보장하려면 어떻게 해야 할까? AI의 가치가 갈수록 높아지고 활용 가능성이 무궁무진해지는 상황에서, 이 질문에 대한 명확한 해답은 존재하지 않는다.
기업이 책임 있는 AI를 어떻게 실천할 수 있을지를 묻기에 앞서 먼저 던지고 답해야 할 질문이 있다. 바로 '책임 있는 AI란 무엇인가?'이다.
국제표준화기구(ISO)는 책임 있는 AI를 '윤리적이고 법적인 관점에서 AI를 개발하고 활용하는 접근 방식'이라고 정의한다. 그 목적은 AI를 안전하고 신뢰할 수 있으며 윤리적으로 사용하는 데 있으며, 책임 있는 방식으로 AI를 활용하면 투명성을 높이고 AI 편향과 같은 문제를 줄이는 데 도움이 된다고 설명한다.
현재로서는 기업과 개인이 각자의 책임 있는 AI 프레임워크를 개발하고, 윤리 기준과 감독 절차를 어떻게 준수할지 자율적으로 결정해야 하는 상황이다. 그러나 여러 표준화 기구, 정부 규제 기관, 전문 면허 기관들이 이러한 책임 있는 AI 구현을 위한 가이드라인과 기준 마련을 시도하고 있다.
AI의 잠재력을 비즈니스 운영에 성공적으로 활용하려면, 윤리적 관행을 강화하고 데이터의 투명성을 확보하며 AI로 인력 효율성을 높이는 전략을 우선시해야 한다. 조직이 첨단 기술을 일상 업무에 통합해 나감에 따라, 인력과 비즈니스 목표 모두를 지원하는 책임 있는 AI 구현에 집중하는 것이 중요하다.
기업이 이러한 원칙을 실천에 옮길 수 있는 방안 중 하나로 AI 도구를 이용해 현장 직원의 연결성을 강화하는 방안이 있다. AI 시스템의 윤리적, 효과적 사용을 보장하기 위해 기업은 휴먼 인 더 루프(HITL) 접근 방식으로 인간 감독을 유지해야 한다. 이 방식은 AI 도구를 이용해 현장 직원의 의사결정 역량을 강화하면서도 인간의 판단을 대체하지 않도록 설계돼 있다.
또 기업은 AI 시스템 내 모든 상호작용이 투명하고 책임 있게 관리되도록 하기 위해 데이터 관리 전반에 걸쳐 높은 수준의 가시성과 추적 가능성을 확보해야 한다. 이를 위해 데이터의 출처, 사용 내역, 접근 기록 등을 세부적으로 모니터링하고 기록하는 체계가 필요하다.
책임 있는 AI를 구현하기 위해서는 자동화된 결과물의 편향을 줄이고 신뢰성을 높이는 것도 중요하다. 기업은 AI 시스템에 지능형 자동화를 도입해 AI 모델에 대한 철저한 테스트와 지속적인 개선을 수행해 AI 활용의 신뢰성과 전반적인 효과성을 제고할 수 있다.
책임 있는 AI 실천은 단순히 규제를 준수하는 데 그치지 않는다. 이는 조직의 진정성, 인격, 더 나아가 조직 문화와 깊이 연결돼 있다. AI와 생성형 AI가 가진 복잡성과 특수성을 다루기 위해 별도 교육이나 보완 절차도 필요하지만, 그보다 더 중요한 것은 이를 뒷받침할 수 있는 견고한 기업 윤리 체계를 갖추는 일이다.
지브라 테크놀로지스 코리아 서희정 지사장 HSeo@zebra.com