Facebook показывает, как часто он получает контент партер неправильно

Впервые Facebook раскрыл статистику по обращениям, которые он получает на контент партер, и они показывают, как это модерация контента может быть хитом или Мисс.

Facebook Reveals How Often it Gets Content Takedowns Wrong

Facebook регулярно снимая посты при подозрении на спам, разжигание ненависти и издевательств. Но как часто компании получают контент партер не так? Ну, теперь вы можете узнать.

Впервые Facebook раскрыл статистику по обращениям, которые он получает на контент партер. “Наши правоохранительные не совершенна и, как только мы выявляем ошибку, мы работаем, чтобы исправить это. Вот почему мы в том числе, сколько контента было восстановлено после того, как он был обжалован,” Facebook вице-президент Гай Розен заявил в своем блоге в четверг.

Статистика, которую можно найти в последнем стандарте общественный отчет органов компании, показывают, что в течение первого квартала этого года, Facebook восстановили более 80 000 сообщений, которые были ошибочно удалены как домогательство. Наиболее примечательно, что все эти должности были восстановлены лишь после обращения пользователя.

Facebook Reveals How Often it Gets Content Takedowns Wrong

В первом квартале Facebook также восстановлено более 130 000 единиц контента, которые были ошибочно помечены как ненависти. Однако, когда компания берет кусок контента за нарушение правил, он обычно получает на звонок—по крайней мере, согласно статистике компании. Например, на графический контент с насилием, компания получила 171,000 обращений пользователей оспаривании партер. Но были восстановлены после обращения только 23,900 материалов. (Другой 45,900 посты были восстановлены после того, как сам Facebook обнаружена ошибка.)

Статистика показывают, как модерация контента Facebook может быть хитом или Мисс. Большая причина, почему компании Ай-приведенный в действие механизмы содержание маркировки ошибаться. Например, в прошлом году некоторые пользователи Facebook пытаются память о смерти актера Берта Рейнольдса, распространив фотографию голливудской звезды. Однако, алгоритмы компании Ай понял фото как нарушает нормы сообщества Facebook, который срабатывает автоматический демонтаж.

Это было только после обращения пользователя разрешить Facebook фотографию, чтобы повторно циркулировать через социальные сети, директор по стратегии компании Моника Bickert рассказали журналистам в пресс-вызова. В других случаях, автоматизированные системы Facebook может неправильно понял пост как спам, потому что он содержит ссылку, подозреваемых на наличие вредоносных объектов.

Цель Facebook состоит в конечном итоге сгладить ошибки и сделать лучше обнаружение сомнительных материалов с улучшенными алгоритмами ИИ. Это касается как политики модерирования контента компании были под огонь критики со всех сторон политического спектра как для принятия слишком много контента, или удаление слишком мало.

“Система никогда не будет совершенна,” Bickert заявил в ходе пресс-звонка. Но в то же время, компания пытается повысить прозрачность политики модерирования контента в Facebook. “Мы знаем, что наша система может чувствовать себя непрозрачный и у людей должен быть способ, чтобы заставить нас к ответственности”, – добавила она.

Можно ожидать новое содержание апелляционных статистика появится во всех будущих органов отчета. Компания также формирование независимого органа экспертов, чтобы помочь координировать процесс обжалования содержание Facebook это.

Понравилась статья? Поделиться с друзьями:
Гуру ПК
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: