페이스북이 내년까지 3000명을 신규 고용해 살인, 자살, 폭력 등 부적절한 콘텐츠를 없앨 계획이라고 로이터가 보도했다.
부적절한 콘텐츠 퇴치 작업에는 인공지능(AI) 기술도 쓰일 예정이다.
미국 현지시간 수요일 마크 저커버그 페이스북 최고경영자(CEO)는 1분기 실적발표에서 "(관련 콘텐츠 퇴치에 필요한 인공지능 기술을) 우리가 원하는 단계까지 이끌어 내는데 까지 시간이 몇 년 걸릴 것으로 생각된다"고 밝혔고, "퇴치 중요성이 얼마나 큰지 알고, 라이브 방송이 얼마나 빨리 성장하고 있는지 알기 때문에 이 같은 결정을 했다"고 밝혔다.
지난달 16일 미국 오하이오 주에서 한 남성이 길가는 행인을 총으로 살해하는 장면을 페이스북으로 생중계했고, 영상은 3시간 동안 페이스북에 게시돼 논란이 있었다.
또한 같은 달 26일 태국에 있는 한 남성이 생후 11개월 딸과 동반 자살하는 장면을 페이스북으로 생중계했고, 영상은 하루가량 방치됐다.
이런 부적절한 콘텐츠가 바로 차단되지 않고 서너 시간에서 길게는 하루까지 방치되고 있자 페이스북은 세계적으로 많은 비난을 받았다.
영연방 의회는 이번 주 페이스북이 '부끄럽다(shameful)'고 비난했으며, 독일에서는 앞으로 페이스북에 부적절한 콘텐츠가 게시된 시점부터 24시간 안에 70%를 제거하지 못하면 벌금을 물게 하겠다는 소리도 나오고 있다.
현재 페이스북 월 이용자는 19억 명이며 페이스북의 라이브 스트리밍 서비스인 '페이스북 라이브'는 지난해 론칭됐다.
내년까지 새로 뽑을 3000명의 콘텐츠 검토자들은 페이스북에 이미 고용된 4500명의 콘텐츠 검토자들과 함께 작업을 하게 된다.
한편 페이스북은 1분기 실적 발표에서 매출이 전년 동기 대비 49% 증가한 80억2000만 달러, 영업이익이 전년 동기 대비 77% 증가한 33억2700만 달러를 기록했다고 밝혔다.
양의정 기자 eyang@greened.kr