AI 유해 영상 못 걸러
세계 최대 소셜미디어 페이스북을 둘러싼 잡음이 끊이지 않는다. 유력 언론들이 연일 페이스북과 자회사 인스타그램의 어두운 이면을 드러낸 내부 문건들을 입수해 비판 보도를 이어가고 있다.
월스트릿저널(WSJ)은 17일 페이스북이 증오 발언(헤이트 스피치)과 과도한 폭력을 포함한 콘텐츠를 신속히 삭제하기 위해 도입한 인공지능(AI) 시스템이 부적절한 게시물을 제대로 걸러내지 못했다고 보도했다.
WSJ이 입수한 내부 문건에는 페이스북 AI가 ‘1인칭 총격’ 영상과 헤이트 스피치를 충분히 감시하지 못한 것은 물론 닭싸움(투계)과 교통사고 영상조차 구분하지 못했다는 내용도 담겼다.
지난 2019년 작성된 한 내부 문건에 따르면 2018년 중반 페이스북의 한 엔지니어는 잔혹한 자동차 충돌사고와 투계 영상이 확산 중이라는 점을 파악하고 동료들과 함께 AI가 해당 영상을 인식해 이를 삭제하는 방안을 추진했다. 그러나 몇 주에 걸친 노력에도 AI는 투계장에서 싸우는 닭과 평범한 닭을 구분하지 못했다고 이 엔지니어는 밝혔다.
이들은 또 지난 2019년 3월 뉴질랜드 크라이스트처치에서 한 테러리스트가 이슬람 사원 2곳에서 51명을 총격 살해하면서 자신의 범행을 ‘1인칭 시점’에서 페이스북으로 생중계한 것을 계기로 AI를 활용한 1인칭 총격 영상을 걸러내려 시도했으나, AI는 이런 영상을 제대로 탐지하지 못한 것으로 나타났다. 일부 사례에서는 AI가 페인트볼을 쏘는 서바이벌 게임이나 세차 장면을 1인칭 총격과 혼동한 것으로 보고됐다.
증오 발언이 담긴 콘텐츠에 대해서도 결과는 마찬가지였다. 한 수석 엔지니어는 2019년 중반에 작성한 내부 보고에서 페이스북의 자동화 시스템이 규정을 위반한 헤이트 스피치 조회 건수의 단 2%에 해당하는 게시물을 삭제하는 데 그쳤다고 밝혔다.