인기 기자
‘이루다’ 논란에 국회 입법조사처 “AI 윤리기준 구체화해야”
“정부 AI 윤리기준, 실제 적용하기에 추상적·선언적”
2021-02-15 06:00:00 2021-02-15 06:00:00
[뉴스토마토 조문식 기자] 인공지능(AI) 챗봇 ‘이루다’가 이용자들과 나눈 일부 대화에서 차별·혐오적 표현이 나타나면서 AI 법제 준수 필요성 등이 다시 부각됐다. 정부의 AI 윤리기준이 추상적이고 선언적이라는 부분도 해결과제로 꼽힌다.
 
국회 입법조사처는 15일 발표한 ‘이루다를 통해 살펴본 인공지능 활용의 쟁점과 과제’ 보고서에서 △개인정보 처리에 대한 사전동의·사후 통제의 조화 및 가명 처리 개선 △AI 윤리기준 구체화 △적정 수준의 학습 데이터 확보 등이 필요하다고 제언했다.
 
보고서는 가장 중요한 과제로 개인정보 처리의 사전동의와 사후 통제의 조화를 들었다. 이루다 개발자가 연인들의 대화를 인공지능 기계학습에 활용하는 과정에서 개인정보 보호법 사전동의를 형식적으로 거친 것이 문제가 될 수 있다는 지적이다. 보고서는 이를 막기 위해 개인정보 가명 처리 기준을 명확히 하고, 비정형 개인정보의 가명 처리와 재식별 방지에 관한 방안을 마련할 필요가 있다고 밝혔다.
 
보고서는 정부가 지난해 12월 발표한 AI 윤리기준이 실제 적용하기에는 다소 추상적이고 선언적이라는 한계가 있다는 부분도 꼬집었다. 많은 사람들이 AI 윤리를 일상적으로 실천할 수 있도록 정부의 AI 윤리기준을 구체화하고 발전시켜야 한다는 주문이다.
 
보고서는 AI 경쟁력이 데이터에 있지만 국내 데이터 시장은 태동 단계이고, 특히 중소기업 스타트업의 학습 데이터 확보 여건이 좋지 못한 현실에도 주목했다. 이에 따라 필요한 분야에 적정 수준의 AI 학습 데이터가 제공될 수 있도록 단기적으로 정부의 노력을 강화할 필요가 있다고 진단했다. 아울러 현재는 관계 기관의 조사와 일부 사용자의 법률분쟁으로 인해 위축된 상황이지만, 이번 사태가 우리나라 AI 산업의 걸림돌이 아니라 도약을 위한 디딤돌이 될 수 있도록 구체적이고 합리적인 법·제도가 필요하다고 덧붙였다.
 
인공지능(AI) 챗봇 이루다. 사진/스캐터랩
 
조문식 기자 journalmal@etomato.com
 

ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지

지난 뉴스레터 보기 구독하기
관련기사