Facebook удаляет только 5% “разжигающих” публикаций

Facebook удаляет только 5% "разжигающих" публикаций

Алгоритм искусственного интеллекта, используемый Facebook для обнаружения опасного контента, удаляет менее 5% подобных постов.

По оценкам одного из сотрудников компании, которые приводятся во внутренних документах Facebook, удаляются только 2% высказываний, разжигающих ненависть, пишет газета Wall Street Journal. Еще одна группа специалистов пришла к выводу, искусственный интеллект распознает и удаляет от 3 до 5% публикаций, разжигающих ненависть, и 0,6% контента, который нарушает правила Faceebook о насилии.

Основной проблемой является то, что алгоритм не всегда различает, насколько контент является опасным, и в таком случае не удаляет его, а просто ранжирует ниже в новостной ленте.

При этом официально руководство Facebook утверждает, что алгоритм соцсети научился обнаруживать 98% вредного контента еще до того, как на него пожаловались другие пользователи.

Источник