인공지능도 거짓말? ‘할루시네이션’ 문제와 그 해결
[우리문화신문=김영조 기자] 새해 벽두부터 인공지능(AI)이 높은 관심을 받고 있다. 현재 다양한 인공지능 기술이 쏟아져 나오고 있지만, 인공지능을 맹신하는 것은 위험할 수 있다. 인공지능도 실수를 범할 수 있기 때문이다. 가끔 인공지능은 뻔뻔하게 엉뚱한 답변을 내놓는데, 이를 ‘할루시네이션(Hallucination)’이라고 한다. 이는 인공지능 모델, 특히 딥러닝(DL) 기반 모델이 현실에 기반하지 않은 정보나 데이터를 생성해 허구적이고 비논리적인 결과를 도출하는 현상을 의미한다. 완벽해 보이는 인공지능이 왜 오류를 일으키는지, 그리고 그로 인한 위험은 무엇이며, 어떻게 해결할 수 있는지 자세히 살펴보자. 챗GPT가 국내에 소개된 지 얼마 되지 않았을 때, 화제가 된 사건이 있었다. 한 사용자가 “조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려달라”는 다소 황당한 질문을 던지자, 챗GPT는 “세종대왕이 훈민정음의 초고를 작성하던 중 어떤 일로 문서 작성이 중단되었고, 이에 세종대왕이 담당자에게 분노해 맥북 프로와 함께 그를 방으로 던졌다”라는 답변을 내놓았다. 세종대왕이 맥북을, 그것도 에어가 아닌 프로를 최환이라는 관료에게 던졌다는 챗GP