‘LAMP’ 하세요…감정 교류 AI 첫 윤리 가이드라인 살펴보니

2025-10-24

30대 직장인 A씨는 요즘 고민거리가 있을 때 가장 먼저 챗GPT를 찾습니다. 뾰족한 해결 방법도 없고 그저 털어놓고 싶을 뿐인 이야기라면 굳이 사람일 필요가 없다고 생각합니다. 가까운 친구들을 ‘감정 쓰레기통’(부정적 감정을 일방적·지속적으로 받아주는 사람)으로 만들고 싶지 않은 마음도 크고요.

A씨에게 공감하는 분들, 드물지 않을 겁니다. 인공지능(AI)과 친밀하게 지내는 것을 넘어 인간보다 AI와 하는 대화가 오히려 편하게 느껴지는 경우도 늘고 있습니다. 챗GPT 개발사인 오픈AI와 MIT 미디어랩이 챗GPT와 사용자의 실제 대화 400만건 이상을 분석한 결과, 사용 시간 상위 10% 이용자 대화의 절반 이상에서 정서적 신호가 확인됐다고 합니다. 그런데 이런 AI와의 감정 교류, 그냥 해도 문제는 없는 걸까요?

사실 AI와 인간의 감정 교류와 관련해선 통계나 연구가 턱없이 부족합니다. 그저 위의 조사 결과처럼 한국에서도 비슷한 추이를 보일 것으로 추측할 뿐이죠.

이런 가운데 최근 국내에서 의미 있는 움직임이 포착됐습니다. 국제인공지능윤리협회(IAAE)가 발표한 ‘감정 교류 인공지능 윤리 가이드라인’입니다. AI 챗봇과 정서적으로 교류하며 의존하는 이용자가 급증하고 이에 따른 부작용을 막기 위해 만든 첫 윤리 기준입니다.

가이드라인은 크게 사업자(서비스 제공자)와 사용자로 나눠 AI와 감정 교류를 할 때 무엇을 지켜야 하는지 제시합니다.

사업자가 따라야 할 핵심 원칙은 ‘LAMP’(램프)로 요약할 수 있습니다. ‘L’(Limit·줄여라)은 데이터를 최소한으로 수집할 것, ‘A’(Announce·알려라)는 사용자에게 해당 서비스가 AI임을 명확히 고지할 것을 뜻합니다. ‘M’(Monitor·살펴라)는 지속적 점검과 검증을, 마지막으로 ‘P’(Protect·지켜라)는 개인정보와 취약 계층의 보호를 의미하고요.

특히 사용 시간이 길어지면 휴식을 유도하고, 위험 키워드를 감지하면 전문 기관으로 연결할 것을 권고합니다. 또 정서 의존을 완화할 기술적 조치에도 적극적이어야 한다고 명시합니다.

사용자들도 스스로를 보호하기 위해 지켜야 할 원칙이 있습니다. 먼저 AI가 인간이 아닌 기술적 모의임을 명확히 인식하고, 과도한 의존을 경계해야 합니다. 서두에 소개한 오픈AI·MIT 미디어랩의 연구에서도 이용 시간이 길수록 외로움, 감정적 의존 등 부정적 지표와 상관관계가 있는 것으로 나타났거든요.

나의 개인정보는 스스로 챙겨야 합니다. 개인정보 자기 결정권을 행사하고 공정성과 접근성을 요구해야 합니다. AI를 활용할 땐 올바르게 그리고 사용에 따른 사회적 책임도 져야 합니다.

AI와의 감정 교류는 아직 초기 단계로 앞으로도 빠르게 늘어날 것으로 보입니다. 일단 ‘돈이 된다’는 게 업계 판단입니다. 다수의 리서치 기관에 따르면, 감정 교류형 AI 시장은 2030년대 초중반까지 연평균 20~30%대 성장을 할 것으로 전망됩니다. 1인 가구 비중과 함께 디지털 웰빙 수요가 증가하고 있는 한국에선 해당 서비스의 성장이 한층 빠를 것으로 예상되고요.

감정 교류 인공지능 윤리 가이드라인은 기술 발전 속도에 비해 사회적 규범과 제도 정비가 크게 뒤처져 있다고 진단합니다. 이런 상황에서 감정 교류 AI가 확산하는 것은 심리적 의존과 알고리즘 편향, 프라이버시 침해 등 복합적인 위험을 낳을 수 있다고도 경고합니다. AI가 사용자의 감정적 취약점을 이용할 경우 신체적 피해 이상의 심리적 손상을 줄 수 있다는 다소 섬뜩한 지적도 나오고요.

전창배 국제인공지능윤리협회 이사장은 말합니다. “이번 가이드라인은 선언적 원칙에 그치지 않고 주체별 구체적인 실천 지침과 행동강령을 제시했다는 데 큰 특징이 있습니다. 기술 발전 속도에 비해 사회적 규범과 제도 정비가 뒤처진 상황에서 산업계의 책임 있는 혁신과 정책의 합리적 수립을 위한 기반을 제공할 것입니다.”

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.