며칠 전 소셜네트워크서비스(SNS) 알고리즘을 따라가다 낯익은 얼굴을 봤습니다. 웹툰 작가이자 지금은 유튜버로 더 유명한 침착맨(이말년)이 불법 도박을 홍보하는 영상이었는데요. 특유의 말투와 표정, 화면 구성까지… 얼핏 보면 새로운 콘텐츠인가 싶을 정도였습니다.
당연히 실제로 그가 출연한 영상은 아니었고 과거 영상을 바탕으로 인공지능이 합성해 만든 가짜 영상, 즉 인공지능(AI) 딥페이크였는데요. 영상을 접한 일부 누리꾼은 침착맨 방송으로 착각해 댓글을 남기거나 영상을 퍼 나르기도 했죠.
침착맨은 결국 "해당 영상은 본인이 만든 것이 아니며 사칭에 주의하라"는 내용의 공지를 올리기에 이릅니다. 그러나 이미 해당 영상은 커뮤니티에서도 흔히 접할 정도로 퍼진 뒤였습니다.
지난해에도 비슷한 사건이 있었습니다. UDT 출신 방송인 덱스를 사칭한 도박 광고 영상이 유튜브에 떠돌았는데요. 역시 AI 기술로 만들어진 가짜였습니다. 얼굴도 몸짓도 실제 영상 속 덱스와 상당히 유사해 누리꾼들 사이에서 진실이냐, 페이크 영상이냐를 놓고 갑론을박이 벌어지기도 했죠.
AI 기술의 발전으로 사람들을 속이는 것을 넘어 진위를 '구분조차 하기 힘든' 정도로 나아가고 있는 셈입니다.
물론 이 같은 AI 콘텐츠를 막기 위한 노력도 이어지고는 있습니다. 국내 한 이동통신사는 AI를 활용해 변조한 음성, 영상 등을 사전에 감별해내는 시스템을 개발 중이고 기관에서도 AI 기반 허위 콘텐츠를 파악하는 탐지 시스템 개발에 힘쓰고 있죠.
문제는 콘텐츠 확산이 예방 및 방지보다 더욱 쉽고 빠르다는 점에 있습니다. 생성형 AI로 누구나 쉽고 빠르게 허위 콘텐츠를 생성하고, 대중들도 정교해진 이미지 및 영상에 이질감을 느기지 못하게 되면서 AI 기반 허위 콘텐츠의 확산은 몇몇 솔루션으로 원천 차단 할 수 있는 수준을 넘어선 것으로 보이는데요.
이러한 상황에서 중요한 건, 우리 모두가 허위 콘텐츠에 대한 경각심을 갖는 일이겠습니다. 과거에는 '가짜'를 가려내는 눈을 길러야 했다면, 이제는 '진짜조차 의심할 줄 아는 눈'이 필요해졌는지도 모르겠네요.