전체 기자
닫기
정초원

chowon616@etomato.com

뉴스토마토 정초원입니다
대신 판단해주는 '알고리즘', 함정은 있습니다

2018-11-02 16:27

조회수 : 367

크게 작게
URL 프린트 페이스북
 
우리는 때로 어떤 문제를 판단할 때 '직감'에 의존합니다. 동물적인 육감이라고 생각하기 쉽지만, 사실 뇌과학자들은 이런 직감적 판단 또한 빅데이터의 일종이라고 해석합니다. 우리의 뇌에 쌓인 수많은 경험과 생각이 하나의 데이터로 산출되고, 그 알고리즘 속에서 개인의 선택 또한 이뤄진다는 이야기인데요. 만약 잘못된 직감으로 안좋은 선택을 했다면, 개인의 데이터(경험)가 부족했거나 알고리즘 시스템(판단 과정)에 오류가 있었다는 이야기가 됩니다. 그렇다면 기계는 어떨까요? 요즘 유행하는 인공지능 알고리즘은 가장 좋은 결론을 안겨주는 대안이 될 수 있는 걸까요? 사실 인공지능 알고리즘 또한 허점은 많습니다. 오늘은 알고리즘의 함정에 대해 알아보겠습니다. 
 
 
1. 알고리즘이란? 
 
 
• 알고리즘의 정의(동아일보 기사 읽어보기)
어떤 문제의 해결을 위해 입력된 자료를 토대로 원하는 출력을 유도하는 규칙의 집합. 표준국어대사전에 나온 알고리즘의 정의다. 컴퓨터 프로그래머들이나 썼던 이 단어가 최근 1, 2년 사이 우리 삶에 훅 들어왔다. 뉴스 소비도 그중 하나다. 우리가 하루에 최소 열 번쯤은 들여다보는 네이버는 올해 2월부터 인공지능(AI) 알고리즘이 뉴스를 추천해 주고 있다. 로그인해서 스마트폰을 보면 화면 하단에 추천 뉴스 8개 정도가 올라와 있다. 

 인공지능 면접관(한겨레 기사 읽어보기)
국민은행을 비롯해 올해 하반기 채용에 인공지능 면접을 도입하는 기업이 속속 늘고 있다. 피시방이나 집에서 프로그램에 접속해 모니터 속 인공지능 면접관과 대화하는 방식이다. 인공지능은 사람 면접관처럼 까다로운 질문을 던지는데 60초 생각한 뒤 60초 안에 답변해야 한다. 60분 면접 뒤에 인공지능은 지원자의 맥박, 눈동자, 표정 등 수십가지 신호를 분석해 점수를 매긴다. 기업은 효율성과 속도에 만족하고 지원자들은 공정성에 기대를 걸고 있다. 취업준비생들은 인공지능 면접 대비 학습을 추가했다. 튜링테스트가 사람 면접관 앞에서 인공지능들이 경쟁하게 했다면, 인공지능 면접은 기계의 심사를 통과하기 위한 인간들의 ‘역튜링테스트’인 셈이다.

=요즘 웬만한 IT나 콘텐츠 서비스에서 알고리즘을 적용하지 않은 사례를 찾아보기 힘듭니다. 음원 사이트나 유튜브의 추천 시스템을 떠올리면 쉬운데요. 사용자가 자신의 취향에 맞춰 콘텐츠를 일일이 찾아볼 필요 없이 알고리즘을 통한 결과를 자동으로 받아볼 수 있도록 한 것입니다. 데이터에 기반해 가장 좋은 선택을 대신 내려준다, 이게 바로 알고리즘의 핵심입니다. 단순히 취향을 모아주는 것을 넘어, 광고 노출이나 채용시스템까지 이 알고리즘을 이용하려는 움직임이 잇따랐습니다. 기업 입장에서는 일견 합리적인 선택으로 느껴집니다.  
 
 
2. 알고리즘의 함정
 
 
• 아마존, 'AI채용시스템' 폐기…알고리즘이 남성 선호(머니투데이 기사 읽어보기)
아마존은 영국 스코틀랜드 에든버러에 엔지니어링팀을 꾸리고 AI 채용 프로그램을 개발해왔다. 500대의 컴퓨터가 구직 희망자의 지원서를 약 5만 개 키워드로 분석해 1개에서 5개까지의 별점을 매기는 프로그램이다. 그러나 개발이 1년쯤 진행되었을 무렵 아마존 자체 AI 채용시스템이 여성 지원자를 선호하지 않는다는 사실이 드러났다. AI가 10년간의 아마존 지원자 데이터를 분석한 결과 남성 지원자가 압도적으로 많았기 때문이다. 이 채용 프로그램은 이력서에 '여성'이라는 단어가 들어가거나 동아리 항목에 '여성 체스 클럽'이라는 문구가 들어간 지원자를 감점했으며, 여대를 나온 2명의 지원자 원서에도 불이익을 줬다.

• AI로 뉴스 추천, 사용자 정보 편식 키운다(중앙일보 기사 읽어보기)
데이터가 쌓일수록 알고리즘은 사용자 개인의 정치적 성향을 파악할 수 있게 된다. 여기에 맞는 뉴스만 추천하는 알고리즘이 정보 편식을 부추길 수 있다. 플랫폼이 걸러낸 정보만 소비하는 ‘필터버블’에 빠지는 것이다. 최진봉 성공회대 교수는 “알고리즘에 따라 사용자들에게 보이는 정보, 보이지 않는 정보가 결정된다면 그것 자체가 편집”이라며 “포털이 알고리즘이 만능인 것처럼 포장하면 안 된다”고 말했다. 오세욱 한국언론재단 선임연구위원은 “특정 기업이 만든 알고리즘에 따라 대다수 소비자가 뉴스를 소비할 때 민주 사회에서 필요한 다양한 의제 형성을 제한할 수 있다”고 말했다. 

=문제는 알고리즘 또한 완벽을 기대할 수 있는 '신'이 아니라는 점입니다. 아마존과 구글의 사례를 보면 그 부작용이 잘 드러나는데요. 아마존의 인공지능 채용시스템은 여성 구직자에게 감점을 줬고, 구글 광고는 소득이 낮은 직업을 여성에게 주로 노출했습니다. 빅데이터에는 사회의 만연한 차별과 혐오문화가 함께 담길 수밖에 없는데, 이를 바탕으로 알고리즘을 가동할 경우 자연히 차별적인 결과가 나올 수밖에 없기 때문입니다. 많은 데이터가 꼭 합리적인 결과로 이어지지는 않는다는 거죠. 

알고리즘의 함정은 또 있습니다. 개인의 취향에 꼭 맞는 제품과 콘텐츠만 알고리즘이 선별해준다는 것은 곧 '새로운 세계'를 원천 차단해버리는 뜻이기도 합니다. 비슷비슷한 노래, 똑같은 관점의 뉴스, 기존의 편견을 더 강화해주는 콘텐츠. 이런 것들만 접하는 게 과연 좋기만 한 것일까요? 이때문에 알고리즘에만 의존하다 보면 이른바 '필터버블'에 갇힐 수 있다는 경고가 나옵니다. 
 
 
3. 인간이 주도하는 알고리즘
 
 
• 알고리즘을 민주적으로 통제해야(한겨레 기사 읽어보기) 
캐시 오닐은 “알고리즘이 공정할 것이라는 생각을 버리고, 알고리즘을 민주적으로 통제해야 한다”고 강조했다. 오닐은 알고리즘 자체가 사회적 편견을 내포하고 있어 불평등을 강화할 수 있다고 말한다. 최근 미국기업 아마존이 알고리즘을 활용해 채용하면서 여성 지원자를 배제한 게 대표적 사례다. 오닐은 “우리 사회에 차별이 이미 내재해 있기 때문에 알고리즘에도 차별이 발생할 수밖에 없다. 알고리즘이 언제 제대로 작동하고, 누구에게 손해를 입히는지, 실패하는지를 기준점으로 삼아 알고리즘 사용에 대한 프레임워크를 짜야 한다”고 말했다. 

• “기업 ‘알고리즘 편향성’ 검증 받아야”(경향비즈 기사 읽어보기) 
오닐은 “우리 사회에 이미 존재하고 있는 차별이 알고리즘으로 표출되는 것”이라며 “알고리즘이 모든 문제를 공정하게 해결할 것이라는 생각을 버려야 한다”고 강조했다. 불평등한 권력구조가 알고리즘에 반영되는 만큼 사회의 차별적 요소를 줄여야 알고리즘에 따른 소수자 차별이나 배제도 막을 수 있다는 주장이다. 

=알고리즘은 매우 편리한 시스템입니다. 이미 우리 삶 속에 깊이 파고들기도 했고요. 결국 우리는 알고리즘을 '이용'하되, 그 쓰임을 주도하고 통제할 수 있어야 하지 않을까요? 최근 내한한 데이터 전문가 캐시 오닐은 알고리즘이 불평등을 낳을 수 있다고 경고했습니다. 알고리즘의 편향성을 충분히 인지하고, 그 함정에 빠지지 않기 위한 노력이 필요한 시점입니다. 
 
  • 정초원

뉴스토마토 정초원입니다

  • 뉴스카페
  • email
  • facebook