
페이스북의 내부 비리 폭로 잇따르고, 전세계 페이스북 서비스가 수시간 중단되는 등 창사 이래 가장 큰 위기에 직면한 페이스북이 사실은 증오발언이나 과도한 폭력 게시물을 걸러내지 못하고 있는 것으로 드러났다.
특히, 페이스북이 도입한 인공지능은 총격과 세차 장면을 구별하지 못하고, 닭싸움과 교통사고 영상도 구분하지 못할 정도라는 충격적인 폭로가 나왔다.
월스트릿저널은 17일 페이스북 내부 문건을 입수했다며 페이스북 AI가 ‘1인칭 총격’ 영상과 증오 발언을 감시하지 못한다고 지적했다.
월스트릿 저널이 입수한 이 내부 문건에는 페이스북은 2019년 인공지능이 과도한 폭력을 인지해 삭제하도록 하는 시스템을 도입했지만 투계장에서 싸우는 닭과 일반 닭을 구별하지 못했다.
또, 딥비전이란 머신러닝 프로그램도 적용시켜봤지만 효과를 보지 못했던 것으로 나타났다고 월스트릿 저널이 전했다.
뉴질랜드에서 발생한 크라이스트처치 테러사건과 관련, 테러범이 총격장면을 페이스북에 라이브 생중계한 것을 계기로 폭력 영상 라이브 영상을 걸러내려 했지만 이마저도 실패한 것으로 드러났으며
서바이벌 게임이나 세차 장면을 총격으로 혼동하기까지 했던 것으로 나타났다.
그간 일부 페이스북 이용자들이 분통을 터뜨렸던 페이스북의 일관성 없는 게시물 삭제가 다 이유가 있었던 셈이다.
<박재경 기자>
관련기사 페이스북, 그림자 속에서 작동”…의회서 운영실태 폭로
관련기사 페이스북 ‘6시간 먹통원인, 장비 설정을 잘못해서?
관련기사 초유의 6시간 먹통 사태’ 페이스북 내부서 무슨 일 벌어지나