인공지능(AI) 클로드가 전쟁에 투입돼서 논란이 되고 있습니다. 미국 국방부가 베네수엘라의 니콜라스 마두로 대통령 습격 작전에서 팔란티어의 소프트웨어와 앤트로픽의 AI 클로드를 사용한 것으로 알려졌습니다.
더구나 최근 미 국방부가 앤트로픽에게 군사 목적을 위해 클로드 모델의 AI 안전 장치 해제를 요구하면서 논란이 더욱 가중되는 모습입니다. 앤트로픽은 이를 거부하면서 국방부는 계약 해지와 함께 앤트로픽을 국가 안보를 윟벼하는 위험 기업으로 지정하겠다고 압력을 가하고 있습니다. 국방부가 이를 실행에 옮기면 앤트로픽은 정부 계약을 취소당하고 사실상 미국 내에서 사업을 할 수 없는 처지에 놓이게 되는 걸로 알려졌습니다.
지난해 7월5일 미국 뉴욕에서 촬영된 앤트로픽 홈페이지와 모바일 애플리케이션 화면. (사진=뉴시스)
앤트로픽은 클로드 모델에 비윤리적 행동을 차단하는 AI 안전 장치를 설정해 국방부와 정부 기관에 제공한다고 합니다. 주요 외신들에 따르면 앤트로픽이 지난해 7월 미국 국방부와 체결한 2억달러 규모 계약에서 ‘책임 있는 AI’란 용어를 통해 책임 있는 인간의 개입을 전제로 AI를 사용하도록 하고 있습니다.
AI 기술이 날이 갈수록 고도화되면서 향후 이 같은 논란은 계속될 것입니다. 인간의 개입 없이 AI가 전쟁에 투입돼 강력한 살상 무기가 될 수 있는 겁니다. 미 국방부는 현재 군사 작전의 효율성을 위해 모든 합법적인 용도에 AI를 제한 없이 활용할 수 있어야 한다고 주장하고 있습니다.
국가가 벌이는 전쟁에서 살상은 합법적일 수 있습니다. 하지만 윤리적이진 않을 겁니다. AI 기술이 어떻게 사용되고, 어떻게 사용되어선 안 되는지 심사숙고가 필요합니다.