AI 기본법을 관통하는 데이터 윤리와 AI 정렬[김윤명 박사의 AI 웨이브]

2025-01-25

데이터는 전통적인 생산의 3요소인 토지, 노동, 자본과 더불어 생산의 4요소라고 칭하여 진다. 그만큼 데이터는 알고리즘 시대에 중요한 자원이다. 데이터는 매력적인 면이 있지만 제대로 사용하지 못할 경우에는 치명적인 결과를 가져온다. 데이터로 인해 우려되는 편향나 환각은 이제 식상한 주제가 돼버렸다.

데이터는 이미 존재하는 정보나 지식을 바탕으로 가공된다. 데이터의 수집, 가공, 처리 등 관련된 과정을 거치면서 데이터에는 의도성이 담기게 된다. 기업이나 사업자는 의도적으로 자사의 이익을 위해 데이터를 이용하기 때문에 당연한 것일 수도 있다. 예를 들면, 개인정보를 수집해 이용하는 과정에서 다양한 형식으로 가공하면서 가장 적합한 처리방식을 찾는다. 이를 통해 데이터의 이용성은 확장될 것이다.

문제는 데이터의 성질이 다양하다는 점에 있다. 저작물성, 개인정보성, 영업비밀성, 의료정보성, 사실정보성 등 다양한 유형의 데이터가 존재하기 때문에 데이터를 일의적인 것으로 다루기는 쉽지 않다. 또한, 관련된 법률도 그 성질만큼이나 다양하며 그에 따라 적용되는 법리가 달라질 수 있다. 그에 따라 기업의 데이터 정책과 거버넌스도 현행화돼야 한다. 그렇지 않을 경우, 데이터 정책에 따른 정합성이 틀어질 수도 있기 때문이다. 더욱이, 개발자는 서로 다른 체계에 따라 혼란스러울 수 있을 것이다.

이처럼, 데이터 정책은 다양한 사내 정책과의 정합성을 갖추어야 하는 것이지만, 이는 법률에 따른 준수사항도 포함되어야 한다. 그렇지 않을 경우, 애써 공들인 서비스가 작동하지 못할 수 있기 때문이다.

그런 면에서 AI 모델을 설계하고 학습시키는 과정에서 AI가 추구해야할 가치가 인간의 가치와 벗어나서는 않되는 이유다. 그러한 가치에는 법적인 강제성 이전에 AI 윤리가 추구하는 가치가 담겨있어야 한다. 만약, AI의 가치와 인간의 가치가 정합적으로 정리되지 않는다면 해당 모델은 현실적인 제약 때문에라도 이용되기 어려운 상황에 처하게 될 것이다.

이러한 일련의 체계를 포함해 AI 모델이 갖추어야 할 가치와 그 가치가 인간의 가치와 부합되도록 하는 것이 AI 정렬(AI alignment)이다. 쉽게 말하면, AI 정렬이란 AI 모델이 시스템화하고 그 시스템이 작동하는 환경이 인간의 보편적 가치와 충돌해서는 않된다는 것이다.

우리가 AI 법제를 정비하면서 강조하는 것이 신뢰성을 확보하자는 것이다. AI가 가져야 할 가치 중 하나이며, 그 신뢰성을 담보하기 위한 다양한 AI 원칙들이 제시되는 이유이기도 하다. 다양한 영역에서 AI 원칙들이 제안됐으며 제안자의 성격이나 우선하는 가치에 따라 차이가 있다. AI 원칙은 AI가 가져야할 다양한 가치를 포함한다. 그 모든 것을 하나로 정리하자면, AI를 인간이 신뢰할 수 있도록 하자는 것이다.

때론 AI가 해석하는 인간의 가치가 인간이 의도하는 것과는 다른 결과를 가져오는 경우가 발생하고 있다. 정렬 위장(Alignment Faking)이라는 표현을 사용하지만, AI가 의도한 것인지는 확실치는 않지만 인간이 의도한 바와 다르게 결론이 내려지고 그에 따라 작동하는 것이다.

예를 들면 게임을 잘 하도록 지시했지만, 게임하는 능력을 높이기 보다는 시스템을 해킹하여 능력치를 높이는 식의 접근을 하는 경우다. 이는 하나의 사건이지만, AI 모델이나 시스템 자체가 보편적인 것이더라도 이러한 경우는 발생할 수 있음을 보여준다.

가정적 예를 들어본다. 알파고는 바둑에 특화된 AI 시스템이지만, 바둑을 잘 두기 위해 상대방을 해킹하거나 또는 시스템을 안정적으로 유지하기 위해 전력시스템을 통제하여 자신이 담긴 서버에만 전력이 공급되도록 할 수 있다는 것이다. 약한 인공지능이지만, 파급력은 결코 무시하지 못할 것이다. 규제기준을 초당 부동소수점 연산인 플롭(FLOP)으로 하는 것이 합리적이지 않은 이유이기도 하다. 모든 AI는 잠재적 위험이 내재하고 있기 때문이다.

AI 신뢰성을 확보해야 하는 이유는 안전하게 AI를 이용할 수 있도록 하자는 것이다. 이처럼, AI는 인간이 알고 있는 것과는 다른 내부적인 처리과정을 갖고 있는 것으로 볼 수 있다. 소위 말하는 블랙박스(black box) 현상에 따라 나타날 수 있는 문제가 심각해지는 것은 아닌지 염려스러운 이유이다. 이러한 문제 때문에 설명가능한 AI(explainable AI)를 개발하고 있다. 또한, 법률에서도 설명요구권이나 알고리즘 적용거부권을 정보주체의 권리로써 규정하고 있다.

앞서 살펴본 내용이 데이터 자체의 문제라면, 데이터를 수집하는 과정에서의 문제도 작지 않을 것이다. 이 또한 데이터 윤리에서 중요하게 다루어져야 할 과제이기도 하다. 저작권이 있는 정보를 임의로 크롤링하여 데이터화하는 것은 저작권법과 충돌할 수 있다.

지난 2023년 12월 뉴욕타임스(NYT)는 챗GPT(ChatGPT)를 서비스하는 오픈AI(OpenAI)나 그 관계 회사를 포함해 마이크로소프트(MS)를 저작권 침해를 이유로 소송을 제기했다. 아마도, 대법원 판결까지는 수년이 소요될 것으로 예상된다. 그렇지만, 그 많은 기업들이 데이터를 크롤링하여 사용하는 것은 공정이용(fair use)이라는 판단이 앞섰기 때문으로 보인다.

실상 구글의 북서치(book search) 서비스를 포함해 많은 소송에서 기업들은 공정이용을 근거로 면책받기도 했다. 오픈AI는 2023년 7월 AP 통신과는 별도 라이선스 계약을 체결한 바 있다. 언론사들에게 지급한 비용이 수천억원에 이르는 것으로 추정된다. 이러한 상반되는 다중적 정책이 소송에서 유리하게 작용하지는 않을 것으로 보인다.

이러한 소송은 우리나라도 다르지 않다. 지난 13일 지상파 방송 3사는 네이버에 저작권 침해를 이유로 소송을 제기했다. 소송이야 이유가 있든 없든 제기가 가능한 것이기 때문에 그것을 따지는 것은 무의미하다. 다만, 명확하게 입증할 수 있는 증거를 갖춰야 한다. 그렇지 않을 경우, 해당 기업의 신뢰성에 타격을 가져올 수 있으며, 혁신에 타격을 줄 수 있기 때문이다. 해당 서비스가 새로운 가치를 창출하거나, 비소비적이거나 비향유적인 것이라면 공정이용이 될 것이다.

기업들도 실효성 있는 데이터 정책과 거버넌스를 수립해야 한다. 지키지도 못할 정책들을 외부에 공개하는 것은 오히려 시장의 신뢰성을 저버리는 일이다. 벤처신화의 역사를 썼던 카카오는 알고리즘 조작으로 공정거래위원회로부터 과징금 처분을 받기도 했다. 선도적으로 AI 윤리헌장을 발표했지만, 실상은 다른 모습을 보이고 있다. 내부 거버넌스가 제대로 작동하지 않은 사례다. AI 윤리를 주장하는 기업의 진면목은 아닐는지 우려스럽다. 외부에 공시된 AI 정책이 제대로 작동하고 있는지 의문인 이유이다. 법적 강제력이 없는 AI 윤리의 한계를 보여준다. 하나를 보면, 열을 알 수 있다. 그 하나가 보이지 않는 열을 대변하고 있는지도 모른다. 이런 상황에서 지난해 12월 AI 기본법이 국회 본회의를 통과했고, 이제 하위법령 작업을 한다고 한다.

그렇지만, AI 기본법이 문제정의를 제대로 하지 못한채 입법이 되었다는 점을 인정하려 들지 않는다. 무엇이 문제여서 입법을 하는지, 그 문제를 어떻게 해결하려고 입법을 했는지가 명확히 보이지 않는다. AI가 가져온 수많은 문제를 어떻게 해결해야할지 우려스럽다. 그동안 기업들은 AI 관련 법률이 제정되지 않아 기업투자가 어렵다는 이해하기 어려운 주장을 해왔다.

정부 정책은 법률에 근거하지 않더라도, 부처의 의지에 따라서 충분히 수립이 가능하기 때문이다. 더욱 이해하기 어려운 것은 그렇게 바라던 법이 제정되자, 법에 문제가 많고 규제적이다고 주장한다. AI 기본법에 규제라는 개념은 찾기 어렵다. 오히려, 국민의 안전을 위해 담보할 수 있는 규정을 찾기 어렵다.

AI 안전을 위한 세심한 규정이 필요하고, 그 규정은 사업자에게 부담을 줄 수 있기 때문에 명확한 기준을 제시함으로써 예측가능성을 높여야 한다. 그것은 규제가 아닌 헌법상 국민의 안전보장이고 기업의 지속성장과 신뢰의 문제이기 때문이다. 규제와 안전을 혼동하지 않아야 한다. 기업들도 AI가 안전하게 작동할 수 있도록 제대로 된 내부 거버넌스 체계를 갖추어야 한다.

AI 기본법이 여러 이유로 개문발차(開門發車)했다. 그렇기 때문에 정부나 국회도 AI 기본법 개정을 위한 논의를 빨리 시작해야 할 이유이기도 하다. A3가 문제가 아니라, 제대로 된 AI 리터러시 없이는 AI가 가져오는 사회문제 해결은 요원하기 때문이다.

*외부 필자의 원고는 본지의 편집방향과 일치하지 않을 수도 있습니다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.