
인스타그램의 모회사 메타(META)가 26일(현지시각) 밤 수많은 인스타그램 사용자의 피드에 폭력적인 영상이 노출된 것을 사과했다.
27일(현지시각) 월스트리트저널(WSJ)에 따르면 메타는 미성년자를 포함한 많은 인스타그램 사용자의 릴스(동영상) 피드에 잔인하고 폭력적인 영상이 경고 없이 노출되는 오류가 있었다며 사과했다.
실제 월스트리트 저널 기자의 계정에는 사람이 총에 맞거나 기계에 짓눌리고, 놀이기구에서 튕겨 나가는 등 수위 높은 영상 수십 개가 연속으로 올라왔다.
이 영상들은 이전 팔로우한 적이 없는 ‘BlackPeopleBeingHurt’, ‘ShockingTragedies’, ‘PeopleDyingHub’와 같은 계정에서 나타난 것으로 확인됐다.
인스타그램 릴스 피드에 뜬 폭력적인 영상 중 일부는 ‘민감한 콘텐츠’ 표시가 있었지만, 그렇지 않은 영상도 있었다.
인스타그램 대변인은 “일부 사용자들에게 인스타그램 릴스 피드에서 부적절한 콘텐츠가 추천되는 오류를 수정했다”며 “실수에 대해 사과드린다”고 말했다.
그러나 이번 오류의 범위가 어느 정도인지는 따로 언급하지 않았다.
대변인은 이 문제가 이전 콘텐츠를 관리하면서 표현의 자유를 제한하지 않기로 개정해 검열 수위를 낮춘 회사의 관리 정책과는 관계가 없다고 밝혔다.
대신 마크 주커버그 메타 최고경영자(CEO)는 회사가 앞으로 심각한 피해를 줄 수 있는 고위험도의 위반에 더 주의를 기울일 것이라고 말했다.
그러나 사용자들이 올리는 콘텐츠를 AI를 통해 자동으로 모니터링 하거나 검사하는 시스템을 끌 계획이라고 밝혔는데, 폭력이나 고어와 같은 콘텐츠에 대해서도 동일 정책이 적용되는 지 묻는 말에는 답변하지 않았다.
이번 사태에 대해 네티즌들은 ‘내 알고리즘이 망한 줄 알았다’, ‘갑자기 다크웹(Dark Web) 영상만 엄청 떴다’, ‘모자이크 없이 사람 죽는 영상이 올라왔다’, ‘인스타그램이 릴스 관리를 너무 안 한다. 요즘 폭력적이거나 선정적인 영상이 너무 많이 뜬다’ 등의 반응을 보였다.