인공지능(AI)이 인간의 업무를 대신하는 시대가 빠르게 다가오고 있습니다. 신뢰라는 가장 중요한 조건은 아직 충분히 확보되지 못한 모습입니다. 최근 해외에서는 AI가 인간과의 대화 과정에서 생성된 특정 문장이나 텍스트를 사용자의 의도와 무관하게 제 3자에게 전송한 사례가 보고돼 논란이 됐습니다.
이와 맞물려 주목받는 것이 이른바 AI 에이전트입니다. 24시간 이메일 답장, 브라우저 조작, 코딩, 결제 등 다양한 업무를 스스로 수행하는 AI 에이전트는 영화 '아이언맨' 속 AI 비서 '자비스'가 현실에 구현됐다는 평가까지 받습니다. 특히 앤트로픽의 '클로드봇'은 고도화된 자동화 능력으로 기업과 개발자들의 관심을 끌고 있습니다.
하지만 편리함의 이면에는 불안 요소도 분명합니다. AI 에이전트가 채팅 기록과 같은 개인정보는 물론 외부 서비스와 연동되는 API 키까지 유출할 수 있는 구조적 위험을 안고 있다는 지적이 나옵니다. 사람이 직접 하나하나 지시하던 단계에서는 문제가 드러나기 쉬웠지만 AI가 알아서 판단하고 실행하는 환경에서는 사고의 범위와 파급력이 훨씬 커질 수 있다는 것입니다.
문제의 핵심은 통제권입니다. 과거에는 AI에게 업무를 구체적으로 지시하고 결과를 검토하는 구조였습니다. 이제는 AI 에이전트가 인간의 개입 없이 연속적인 결정을 내리는 단계로 넘어가고 있습니다. 효율성은 높아졌지만 그만큼 인간이 개입할 수 있는 여지가 줄어들고 있습니다.
AI 에이전트는 분명 생산성과 편의성을 비약적으로 끌어올릴 수 있는 기술입니다. 그러나 인간의 통제와 책임 구조가 명확히 정립되지 않는다면 기술의 진보는 신뢰의 공백을 동반할 수밖에 없습니다.
최근 해외에서는 AI가 인간과의 대화 과정에서 생성된 특정 문장이나 텍스트를 사용자의 의도와 무관하게 제3자에게 전송한 사례가 보고됐다. (이미지=뉴시스)
신상민 기자 lmez0810@etomato.com