Человека помочь хотел: почему ИИ страшно при модерации контента

Частые неудачи ИИ, чтобы понять контекст означает, что мониторинг пользовательского контента на веб-останется в кошки-мышки игра, которая требует много человеческого труда.

Human Help Wanted: Why AI Is Terrible at Content Moderation

Каждый день, алгоритмы искусственного интеллекта Facebook решению огромных задач поиск и удаление миллионы сообщений, содержащих спам, разжигание ненависти, обнаженки, насилия и террористической пропаганды. И хотя компания имеет доступ к некоторым из самых желанных талантов и технологий, он пытается найти и удалить токсическое содержимое достаточно быстро.

Human Help Wanted: Why AI Is Terrible at Content Moderation

В марте шутер в Новой Зеландии в прямом эфире жестокое убийство 51 человек в двух мечетях на Facebook. Но алгоритмы социальной-медиа-гиганта удалось обнаружить ужасное видео. Потребовалось Facebook час, чтобы изъять видео, и даже тогда, компании пришлось приложить неимоверные усилия для борьбы с пользователями, кто перепостил видео.

Facebook недавно опубликованные данные о том, как часто своими алгоритмами ИИ успешно найти проблемный контент. Хотя отчет показывает, что компания добилась огромных достижений в его многолетнюю работу по автоматизации модерации контента, в нем также освещаются частые неудачи современных ИИ, чтобы понять контекст.

Недостаточно Данных

Искусственные нейронные сети и глубокое обучение технологии, на переднем крае искусственный интеллект, помогают автоматизировать задачи, которые ранее были недоступны для ЭВМ. Некоторые из этих задач распознавания речи, классификации изображений и обработки естественного языка (НЛП).

Во многих случаях, точность нейронных сетей превышает число людей. Например, ИИ может предсказать рак молочной железы пять лет вперед. Но глубокое обучение также имеет свои ограничения. А именно, он должен быть “обучен” на многочисленных примерах, прежде чем он сможет функционировать оптимально. Если вы хотите создать нейронную сеть, которая распознает контент для взрослых, например, необходимо сначала показать его миллионам аннотированных примеров. Без качественной подготовки данных, нейронные сети делают глупые ошибки.

Human Help Wanted: Why AI Is Terrible at Content Moderation

В прошлом году в Tumblr заявил, что будет Запрет контента для взрослых на своем сайте и использовать машинное обучение для должности флаг, который содержал блоги изображений. Но преждевременное развертывание своей модели ИИ в итоге блокирования безобидный контент, такой как тролль носки, светодиодные джинсы, и фотография Джо Байдена.

И во многих случаях, таких, как насильственное содержание, недостаточно примеров, чтобы обучить надежная модель ИИ. “К счастью, мы не имеем много примеров реальных людей, стреляющих в других людей”, – Янн Лекун, глава искусственного интеллекта Facebook ученый, сообщил Bloomberg.

Нейронные сети также отсутствие ситуативной осведомленности. Они делают статистические сравнения только между новым содержанием и примеры их показали. Даже когда обучалась на многих примерах законом о нейронные сети хаотично сталкиваясь с граничные случаи, которые могут отличаться от их обучающих данных.

Facebook ИИ не удалось обнаружить новую бойню Зеландия видео, потому что оно было получено от первого лица точки зрения и ничего не напоминало, загруженные в прошлом. Человек просмотрев видео сразу же быть в курсе его насильственного содержания. Но нейронные сети Facebook, который только извлечь и сравнить узоры из пикселей, отклонил его как безопасный.

Контекст и намерения

Facebook мог бы обучить его ИИ на множество жестоких сцен из фильмов для расширения собственных возможностей модерирования. Но это будет только путать ИИ, потому что он не будет в состоянии сказать, разница между кино и реальным насилием и заблокировали бы оба.

Это потому, что одной из наиболее острых проблем, стоящих перед нейронных сетей является их неспособность понять контекст и смысл. Генеральный директор Facebook Марк Цукерберг объяснил это с точки зрения непрофессионала во время разговора с аналитиками в прошлом году, на что он ответил: “Это гораздо легче сделать ИИ, который может обнаружить соска, чем определить, что является лингвистически ненависти”.

Хорошо обученная нейронная сеть может быть очень хороша в обнаружении обнаженки. Согласно данным Facebook, ее ИИ может обнаружить обнаженки с 96-процентной точностью. Но он будет бороться, чтобы понять разницу между безопасным нагота—говорят, кормите грудью или искусства—Ренессанса и запрещенному контенту, такие как сексуальная активность.

В 2016 году Facebook удалена фотография войны во Вьетнаме на странице премьер-министра Норвегии, поскольку в нем содержится изображение обнаженной 9-летней девочки бегут после напалмовой атаки. Алгоритмы компании попадает культовую картину как детскую порнографию; Facebook позже извинился в личку и восстановил пост.

В 2017 году, в YouTube признали, что его ИИ ошибочно помечены опубликовал видео, на котором журналисты и исследователи в качестве экстремистского содержания, потому что он не мог сказать, разница между видеофильмы, пропагандирующие экстремизм и доклады по этой теме.

Human Help Wanted: Why AI Is Terrible at Content Moderation

Вещи становятся даже более сложными, когда ИИ имеет дело с речью или текстом. Глубокие алгоритмов обучения эффективным при захвате и оценки временной последовательности. Поэтому они очень хорошо запоминаю слова, преобразование аудио в текст и распознавания спама. Но они разваливаются, когда их поиск и ненависти и преследования.

Эти задачи требуют АИ, чтобы понять нюансы человеческого языка, проблемы, которые трудно решить с помощью нулей и единиц. Ненависть может очень отличаться для разных языков, и люди часто расходятся во мнениях о том, что включает дурной активностью.

По данным отчета Facebook, в ненависти и преследований две области, где его ИИ выполняет плохо. В прошлом году, в выступлении перед Конгрессом США, Цукерберг заявил о намерении компании пяти до десяти лет, чтобы разработать ИИ, который может обнаружить ненависти. Но если история искусственного интеллекта является каким-либо признаком, это, вероятно, займет больше времени.

Модерация По-Прежнему Требует От Человека

Как Facebook и другие социальные сети работают на своих алгоритмов ИИ, люди пребывают большую часть матча модерации контента. Facebook в настоящее время работают более 20 000 человек по всему миру просматривать пользовательский контент.

Эти люди, кто часто недоплачивают и должны иметь дело с беспокоящие образы и сюжеты на протяжении дня, просмотрите посты, помеченные алгоритмы AI, чтобы восстановить те, которые были ошибочно заблокированы и удалить другие, которые нарушают Правила сайта. Их работа поможет в дальнейшем обучении AI и повышения ее точности. Но нет никаких указаний на то, или, когда искусственный интеллект сможет самостоятельно модерировать миллиарды постов, загруженные на Facebook и других социальных сетей каждый день.

На данный момент, модерация контента останется в кошки-мышки игра, которая потребует много человеческого труда. В интервью с Нью-Йорк Таймс, технический директор Facebook Майк Шрепфер признал, что ИИ сам по себе не может решить компании по токсичности проблему.

“Я не думаю, что есть Эндшпиль”, – сказал Шрепфер. Но “я не думаю, что это все решаемо, и мы все соберемся и пойдем домой.”

Понравилась статья? Поделиться с друзьями:
Гуру ПК
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: