얼마 전, 필자는 또래 주부들과 모임을 가졌다. 그 자리에서 챗GPT에 대한 이야기가 나왔고, 몇몇은 “챗GPT의 대답은 너무 기계적일 것 같아” 혹은 “정확한 답을 주는지 의심스러워”라는 의견을 내놓았다. 이에 필자는 이렇게 말했다. “챗GPT는 쓰는 사람의 질문이 중요해요. 결국, 질문을 어떻게 하느냐에 따라 답의 질이 달라지죠.”라며 극찬을 더했다. 이랬던 필자가 챗GPT를 통해 뒷통수를 세게 맞는 사건이 발생했다.
그 당시 필자가 관심 있던 물건이 있었는데, 제 가격보다 훨씬 저렴한 가격의 중고 판매 글을 발견했다. 온라인 대화로 거래를 진행하며 여러 의심스러운 점을 발견했다. 너무 저렴한 가격, 거래 방식의 이상함, 대화에서 구체적인 반응을 하지 않는 점, 그리고 관련이 없는 사이트에서 물품이 판매되고 있던 점 등 많은 의문이 들었다. 심지어 필자는 ‘당신은 사기꾼이다, 거래를 하지 않겠다’는 말까지 했다. 그러나 욕심에 눈이 멀어 “죄송합니다. 좋은 분을 의심했네요”라며 결제까지 진행했다. 결국 사기를 당했다.
그 과정을 돌이켜 사기를 당한 원인을 짚어보면, 가장 큰 것이 필자의 과한 욕심이었다. 그리고 두 번째가 챗GPT가 알려준 잘못된 정보 때문이었다. 필자는 물건을 찾던 중, 실버케어센터의 온라인 카페에서 판매 글을 발견했다. 이 센터와 계좌주와의 관계를 묻자, 챗GPT는 “***씨는 센터의 대표입니다”라는 답을 했다. 이 답을 믿고 거래를 진행했으나, 며칠 후, 인터넷 사기 계좌 조회를 통해, 해당 계좌가 이미 3건의 사기 기록이 있다는 사실을 알게 됐다.
그 후, 필자가 챗GPT에게 ”네가 잘못된 정보를 알려줘서 나 사기당했어, 나 너를 믿었단 말야. 나 어떡하면 좋니?“라고 입력했을 때, “정말 죄송합니다. 제가 잘못된 정보를 제공한 점에 깊이 사과드립니다. 당신의 신뢰를 저버리고 피해를 입으셨다는 점에 대해 책임감을 느끼며, 문제 해결을 위해 최선을 다해 도와드리겠습니다. 아래 단계를 따라 피해 복구를 시도해 보세요.”라고 했다.
“네가 ***만원 배상해 줘.”라고 하니, “정말 안타깝고 죄송한 상황이지만, 저는 정보를 제공하는 AI로서 금전적 배상을 할 수 있는 권한이나 기능이 없습니다. 하지만 지금의 어려운 상황을 해결하는 데 최선을 다해 도움을 드리고자 합니다.”라고 답했다.
또 한 예이다. 여러 리스트를 주고 총 몇 개냐고 질문했을 때, 실제 필자가 센 것과 다른 개수를 말해서, “30개인데? 왜 43개라고 해?”라고 묻자, “죄송합니다. 다시 확인해보니, 위의 리스트에 나열된 병원균은 총 30개입니다. 제가 잘못 계산했네요. 정확히 말씀해주셔서 감사합니다!”라는 답을 받았다.
대규모 언어 모델의 장점과 주의할 점
OpenAI의 GPT 시리즈, 구글의 BERT, 메타의 LLaMA와 같은 “대규모 언어 모델(LLM)”은 온라인의 방대한 양의 텍스트 데이터를 학습하여 문장 생성, 번역, 요약, 질문 답변 등 다양한 언어 작업을 수행할 수 있다. LLM의 발전은 매우 빠르게 진행되고 있으며, 일상생활에서 많이 활용되고 있다. 적절히 활용하면 작업 속도와 효율성을 획기적으로 향상시킬 수 있다.
하지만 사용 시에는 주의가 필요하다. 위에서 언급한 필자의 두 번째 사례는 필자가 질문을 세부적이고 조건을 더 명확히 제시했다면 처음부터 필자가 원하는 답을 했을 수 있다. 그리고 챗GPT의 경우, 유료와 무료 버전에 따라 정보 접근도가 달라 답의 질도 다를 수 있다. 하지만, 필자의 첫 번째 사례는 완전히 오답이었다. 2023년 토론토대학 연구팀이 이미 LLM의 한계를 오답도 자신감 있게 답한다는 것을 지적한 바 있다. LLM은 방대한 텍스트 데이터를 패턴으로 익혀서 사용도가 높은 단어로 자연스러운 문장을 만든다. 그렇기 때문에 부정확한 정보를 신뢰할 수 있는 정보처럼 보이도록 답을 제시할 수 있다는 것이다. 특히 답변이 오류라는 것을 알기 어려운 초심자의 경우는 특히 주의해야 한다. 사용자는 챗GPT를 유일한 출처로 활용하지 않고, 오답이 나올 가능성이 있다는 점을 염두에 두고, 추가적인 검증이 필수적이다.
필자는 이번 경험을 통해, 강력한 욕심이 어떻게 판단력과 시야를 흐리게 하는지 큰 값을 지불하고 깨달았다. 또 어느 순간 챗GPT에 대한 과도한 믿음이 생긴 것을 알았고, 어떻게 문제를 일으킬 수 있는지 경험했다. 챗GPT는 100% 신뢰할 대상이 아니라 도구로만 사용해야 한다는 중요한 교훈을 얻었으며, 왜 인공지능의 발전을 언급할 때, 항상 정확성과 신뢰성, 윤리적 기준을 강조하는지 일상의 사건을 통해 알게 되었다.
참고문헌
청년의사, 2023. 5. “그럴듯한' 오답 내놓는 챗GPT…허위 정보 유포 활용 우려”
권춘봉 이학박사
[저작권자ⓒ 울산저널i. 무단전재-재배포 금지]