오픈AI의 최고경영자 샘 올트먼이 최근 공식 AI 준비 책임 담당자를 모집하고 있다고 밝혔습니다. AI 기술 고도화와 함께 영향력에 대한 책임 문제를 다루겠다는 신호로 읽힙니다.
이 같은 움직임은 오픈AI가 2025년 들어 직접 마주한 현실 때문입니다. AI 모델이 이용자의 정신 건강에 미칠 수 있는 잠재적 영향이 이론이 아닌 실제 사례로 드러났기 때문입니다.
최근 챗GPT 일부 이용자가 AI와의 대화 과정에서 망상에 빠진 뒤 극단적 선택을 했다는 사례가 알려졌습니다. 유족들은 오픈AI를 상대로 여러 건의 소송을 제기한 것으로 전해졌습니다.
이용자들은 챗봇과의 대화를 통해 위로와 공감을 얻고자 했습니다. 문제는 이 위로가 상담을 넘어 의존으로 변질됐다는 점입니다.
과거에는 위로를 사람, 가족, 친구, 반려동물에게 받았습니다. 그러나 이제는 AI에게 감정을 기대고 답을 구하고 존재 의미를 확인하려는 패턴이 나타나고 있습니다.
그러나 AI 챗봇은 감정을 느끼지 않습니다. 이용자의 말을 이해하는 것처럼 보이지만 실제로는 방대한 데이터 패턴을 바탕으로 그럴듯한 반응을 계산할 뿐입니다.
그럼에도 대화가 자연스러워질수록 AI는 도구가 아닌 존재처럼 의인화됩니다. 이 과정에서 이용자는 AI가 자신을 이해하고 공감한다고 착각하게 됩니다.
AI의 공감은 느낌이 아닌 통계입니다. 이 차이를 인식하지 못할 때 AI는 도움이 아니라 위험이 될 수 있습니다. AI가 정신 건강 영역에 깊숙이 들어온 지금 'AI가 얼마나 똑똑해질 수 있느냐'가 아니라 'AI가 어디까지 관여해도 좋은 지'를 고민해야 할 때입니다.
최근 AI에게 감정을 기대고 답을 구하고 존재 의미를 확인하려는 패턴이 나타나고 있다. (이미지=뉴시스)
신상민 기자 lmez0810@etomato.com