챗GPT나 제미나이 같은 생성형 인공지능이 이제 대체 불가능한 서비스로 자리 잡고 있습니다. 챗GPT는 국내에서 월간 이용자 수가 1400만명을 넘어섰다고 합니다. 실제로 검색이나 번역 등을 시켜보면 처리 성능에 놀랄 때가 많습니다. 문제는 터무니없는 정보를 줄 때도 적지 않다는 겁니다. 너무 태연하게 잘못된 정보가 주어져 당혹스러울 때가 많습니다.
챗GPT가 주목받던 초기 “세종대왕이 맥북 프로를 던졌다”는 대답이 세간에 회자됐는데, 아직도 ‘할루시네이션’이라 불리는 이런 환상이 제거된 건 아닙니다.
(사진=뉴시스)
현재 인공지능은 방대한 데이터를 학습해 텍스트 생성 모델을 내부적으로 만들어냅니다. 이 모델은 사용자의 질문에 대한 답변을 만들면서 다음에 올 단어를 확률적으로 가장 잘 예측하는 방식으로 작동합니다. 전문가들은 예측의 결괏값이 불확실하면 인공지능은 가장 그럴듯한 답을 만들어내는데, 이때 ‘환상’이 만들어질 수 있다고 설명합니다.
현실에서 인공지능의 환상은 여러 문제를 일으킬 수 있을 겁니다. 특히 공공·상업적 서비스에 인공지능을 도입하는 과정에서 잘못된 안내가 시민들에게 큰 혼란을 일으키고, 사고를 발생하게 할 수 있습니다. 정보가 빠르게 확산하는 환경에서 가짜뉴스와 같이 인공지능의 환상은 사회적 신뢰 기반을 무너뜨릴 수도 있습니다.
인공지능의 환상은 기술이 고도화되면 사라질 수 있는 문제인지 아직 알 수 없습니다. 어쩌면 우리는 환상이 완전히 사라지지 않을 수 있다는 사실을 인정하고, 그에 맞는 사회적이고 제도적인 노력을 기울여야 하는 건 아닌지 고민하게 됩니다.