[IB토마토](피지컬AI)④휴머노이드가 밀치면…책임은 누구 몫인가
사고 책임은 여전히 제조물책임법 '땜질식' 대응
EU는 '위험등급별 규제'…일본은 '보험 우선'
제조물책임법 개정부터 보상까지 한국형 로드맵 시급
2026-02-23 06:00:00 2026-02-23 06:00:00
이 기사는 2026년 02월 13일 16:14  IB토마토 유료 페이지에 노출된 기사입니다.

현대차그룹이 ‘CES 2026’에서 선보인 휴머노이드 로봇 '아틀라스'가 세계적인 주목을 받으며 피지컬 인공지능(AI) 시대의 본격적인 개막을 알렸다. 현대차와 LG전자 등 국내 주요 기업들도 산업 현장은 물론 가정용 영역까지 아우르는 휴머노이드 로봇을 선보이며 새로운 산업 지형의 등장을 예고하고 있다. 이에 <IB토마토>는 산업용 로봇을 넘어 AI를 탑재한 로봇이 일상생활 깊숙이 스며들기 직전인 지금, 우리 사회가 과연 이를 맞이할 준비가 되어 있는지 노동과 기술, 법과 제도적 측면에서 점검해보고자 한다.(편집자주)
 
[IB토마토 권영지 기자] 가정용 휴머노이드 로봇이 거실을 청소하던 중 균형을 잃고 노인을 밀쳐 골절상을 입혔다. 혹은 물류센터의 자율주행 로봇이 갑작스러운 오작동으로 현장 노동자를 덮쳤다. 과연 이 사고의 책임은 누구에게 있을까? 로봇을 만든 제조사인가, 로봇에 탑재된 인공지능(AI)을 개발한 소프트웨어 업체인가, 아니면 로봇을 관리하던 소유자인가. 피지컬AI가 일상과 산업현장 깊숙이 파고들 것을 예고하고 있지만, 정작 사고 발생 시 책임 소재를 가릴 법적 근거는 여전히 안갯속이다.
 
현대차그룹의 피지컬AI '아틀라스'. (사진=연합뉴스)
 
세계 첫 AI 기본법에도…책임 규정은 '텅 빈' 한국
 
우리나라는 지난 1월 세계 최초로 포괄적인 AI 기본법인 '인공지능 발전 및 신뢰 기반 조성 기본법(AI 기본법)'을 시행하며 법적 기틀을 마련했다. 하지만 법조계와 전문가들 사이에서는 정작 핵심인 '손해배상 책임'에 대한 조항이 빠져 있다는 지적이 반복적으로 나오고 있다.
 
현재 국내 법체계에서 로봇 사고의 책임은 제조물책임법(제조물 결함에 대한 무과실 책임), 민법상 불법행위 책임(과실 책임), 그리고 자율주행차 관련법 등 개별 특별법을 짜깁기해 해결해야 하는 '땜질식' 구조에 머물러 있다.
 
특히 법무법인 김앤장 등의 분석에 따르면, 현재 법적 분쟁의 핵심 쟁점은 AI나 소프트웨어를 제조물책임법상 ‘제조물’로 볼 수 있는지 여부다. 제조물책임법은 ‘제조·가공된 동산’만을 제조물로 정의하고 있어, 형체가 없는 순수 소프트웨어를 여기에 포함할 수 있는지에 대해 아직 우리 법원과 학계 사이에 통일된 기준이 정립되지 않은 상태다.
 
세계 첫 포괄 AI 기본법을 내세웠음에도, 로봇이 사고를 냈을 때 제조사·소유자·AI 개발자 가운데 누구에게 어느 정도 범위의 책임을 지울 것인지까지를 일원적으로 규율하는 별도의 통합적인 체계는 마련돼 있지 않다는 지적이 나오는 이유다.
 
우리와 달리 해외에서는 사고 가능성에 따른 ‘위험 등급별 규제’를 촘촘히 설계하고 있다. 오는 8월부터 전면 시행되는 유럽연합(EU)의 'AI법'이 대표적이다. EU는 AI 시스템을 금지, 고위험, 제한적 위험, 최소 위험의 네 단계로 나누고 있는데, 제조·물류·헬스케어 로봇과 같이 기계류에 탑재된 안전 구성요소로서의 AI를 '고위험(high-risk)'군으로 분류하고 있다.
 
고위험 AI에 대해서는 강한 사전 규제와 사후 모니터링이 요구되며, 규정된 안전 의무를 위반했는지 여부 역시 향후 민사상 책임 판단의 결정적인 기준점이 된다. 또 EU는 제품책임지침(PLD) 개정을 통해 소프트웨어와 AI 시스템을 명시적으로 책임 범위에 포함했다. 결함 있는 AI로 손해가 발생하면 제조사뿐 아니라 개발자, 수입업자까지 폭넓게 '제조자'로 간주해 무과실 책임을 지도록 하는 방향이다.
 
 
'전자적 인격' 논쟁보다는 '보험'이 실무적 해법
 
한때 유럽의회를 중심으로 로봇에게 '전자적 인격(electronic persons)' 지위를 부여해 독자적인 법적 책임을 지우자는 논의가 활발했다. 하지만 다수의 학자와 로봇공학자들은 이것이 제조사나 운영자가 책임을 회피하는 수단으로 악용될 수 있다며 반대해 왔다.
 
결국 정책 커뮤니티의 대세는 '책임 주체는 인간과 법인에 두되, 로봇 사고는 보험과 펀드로 보완하자'는 쪽으로 기울고 있다. 누구 잘못이냐를 따지며 법정 공방을 벌이기 전에 피해자를 먼저 구제하자는 것이다.
 
일본의 자율주행차 사례가 대표적인 모델이다. 일본은 사고 발생 시 자동차손해배상책임보험(의무보험)이 피해자에게 1차 보상을 담당하고, 이후 제조사와 운영사, 소프트웨어 개발사 간의 책임 분담은 별도로 정리하는 '선(先)보험 후(後)구상' 구조를 정착시켰다. 사이버 공격이나 시스템 오작동까지 포괄하는 특약을 도입해 분쟁과 무관하게 피해 보상을 신속히 진행하는 것이 핵심이다.
 
법적 기반이 없다는 것은 단순히 사고 처리가 어렵다는 뜻에 그치지 않는다. 책임 규정이 불분명하면 기업은 잠재적 위험을 예측하거나 보험에 반영할 수 없고, 이는 곧 과감한 투자 위축으로 이어진다. 소비자 역시 안심하고 로봇을 이용할 수 없다. 로봇 산업 진흥을 위한 지원법과 이용자 안전을 위한 규제법 사이의 균형 잡힌 로드맵, 즉 '법치 로보틱스(Legal Robotics)'가 시급한 이유다.
 
업계 한 전문연구원은 <IB토마토>와의 통화에서 “제조물책임법과 민법에 소프트웨어를 제조물로 명시해 책임 소재의 모호함을 덜어내야 한다“라며 ”특히 의료나 돌봄 등 고위험 로봇 분야를 별도로 정의해, 로그 데이터 보존 등 안전 의무 준수 여부가 책임 판단의 기준이 되는 체계를 갖춰야 한다“라고 강조했다.
 
그는 이어 ”장기적인 관점에서는 고위험 로봇에 대한 의무보험과 보상기금을 도입해, 피해자는 신속히 보상받고 사후에 보험사가 제조·개발·운영사간 책임비율을 정리하는 구조가 바람직할 것“이라고 제언했다.
 
권영지 기자 0zz@etomato.com
 

ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지

관련기사
0/300

뉴스리듬

    이 시간 주요 뉴스

      함께 볼만한 뉴스