Как Google пытается очистить интернет

С точки зрения API с лобзиком, часть Google материнской компании алфавит, дает онлайн комментировать моды развивающийся набор инструментов для борьбы против злоупотреблений и притеснений. Но этой технологии машинного обучения также поднимает вопросы о границах ИИ.

  • How Google's Jigsaw Is Trying to Detoxify the Internet

    По

    Роб Марвин

  • 29 января 2019 7:56AM есть
  • 29 января 2019 года

В PCMag отзывы продукцию самостоятельно, но мы можем заработать партнерские комиссионные от покупки ссылки на этой странице. Условия использования.

How Google's Jigsaw Is Trying to Detoxify the Internet

В интернете можно почувствовать себя токсичное место. Тролли спускаются на комментарий разделы и темы социальные сети, чтобы почем зря ненависти и преследований, потенциально превращая информативные обсуждения на выпадам непосредственно и кучу дополнений группе. Выражения мнения онлайн часто не стоит в результате купорос.

Массовых социальных платформ, включая Facebook, Twitter и YouTube—признать, что они не могут адекватно полиции эти вопросы. Они в гонку вооружений с ботами, троллями, и все другие нежелательные, кто проскакивает через фильтры контента. Люди физически не способен читать каждый комментарий в интернете; тех, кто пробует часто жалею об этом.

Технологические гиганты экспериментировали с различными сочетаниями человека модерации, алгоритмы ИИ, и фильтры, чтобы пробраться через поток контента, проходящего через их кормит каждый день. Джигсо пытается найти золотую середину. Вспомогательный алфавит и инкубатора, ранее известный как идей Google, начинает доказывать, что машинное обучение (мл), изготовленной в инструменты для человека модераторы могут изменить наш подход к проблеме интернета токсичности.

Перспектива-это набор API, разработанных головоломки и счетчик технологий злоупотребления команды компании Google. Он использует мл в пятно надругательств и домогательств в интернете, и результаты комментарии, основанные на воспринимаемой влияние они могут иметь на беседу в стремлении сделать человека модератором жизнь легче.

Перспектива среди перекричит

С открытым исходным кодом технология была впервые объявлена в 2017 году, хотя разработка его началась несколько лет назад. Некоторые из первых сайтов для эксперимента с точки зрения новостных изданий, таких как Нью-Йорк Таймс и сайты, такие как Википедия. Но в последнее время, перспектива была на таких сайтах, как Reddit и платформы комментариев Disqus (который используется на PCMag.com.)

СиДжей Адамс, менеджер по продукции для перспективных, сказал, что проект хотели изучить, как голоса людей замолкли онлайн. Он хотел, чтобы исследовать, как целенаправленные оскорбления или общая атмосфера преследования могут создать сдерживающий эффект, отпугивая людей до точки, где они чувствуют, что это не стоит времени и энергии, чтобы добавить свой голос к обсуждению. Как часто вы видели твит, пост или комментарий и решила не отвечать, потому что борьба с троллями и разозлиться онлайн просто не стоит обострение?

“Очень легко разрушить онлайн разговор”, – сказал Адамс. “Это легко прыгать, но один человек действительно имею в виду или токсического могли ездить другие голоса. Может быть, 100 человек прочитал статью или начать дискуссию, и часто вы в конечном итоге с громкие голоса в комнате, будучи единственным, кто остался в интернете, оптимизированный для лайков и шеров. Так вы вроде молчание все эти голоса. Тогда что определение дискуссии-это просто самый громкий голос в комнате—разругались”.

Вид: Одна PageSlides

  • How Google's Jigsaw Is Trying to Detoxify the Internet

    Головоломки и Google

    Это был тяжелый год для пилы дочерняя компания Google, которая занимается вопросами безопасности данных, сотрудник потратил на свое участие в проектах на Пентагон и Китай, и откровений за его обращение в сексуальных домогательствах. Не говоря уже о спорных слушаний в Конгрессе, в котором генеральный директор Сундар Пичаи на законодателей.

    В Головоломки, альтруисты инкубатора алфавита, вещи были немного менее драматично. Команда потратила свое время, изучив более технические формы цензуры, такие как DNS-отравления с приложением интра-и DDoS-атак с проектом щита. С точки зрения цели более абстрактные. А не с помощью машинного обучения, чтобы определить, что является или не с заданного набора правил, перспективная задача-глубоко субъективно: классификация эмоционального воздействия языка.

    Чтобы сделать это, вам нужно обработки естественного языка (NLP), который расщепляет приговора выявления закономерностей. В перспективе команда сталкивается с проблемами, как предвзятость подтверждения, групповое мышление, и непристойному поведению в среде, где технология имеет усиленный их, и сделал их труднее решить.

  • How Google's Jigsaw Is Trying to Detoxify the Internet

    ИИ иногда не так и стремно’

    Улучшение онлайн беседы с обучения машина не простая задача. Это все еще развивающейся области исследований. Алгоритмы могут быть необъективными, систем машинного обучения требуют бесконечных уточнений, и самое сложное и самое главное проблемы остаются в значительной степени неисследованными.

    Разговор АИ исследовательская группа, которая создается перспектива, начал встречу с доставка прессы, издателей и других сайтов таких разговоров. Некоторые из первых сайтов экспериментировать с технологией были Нью-Йорк Таймс, Википедия, Хранитель, и экономист.

    В 2017 году открыли исходные позиции демо через общедоступный веб-сайт в рамках альфа-тестирования, позволяя людям типа миллионы мерзких, оскорбительных комментариев на сайте. Это было похоже на печально известной компании Microsoft неудачного эксперимента Тай бота, Только вместо обманывая бота в ответе расистские твиты, головоломки использовании краудсорсинга вирулентности в качестве обучающих данных, чтобы прокормить своих моделей, помогает выявить и классифицировать различные типы злоупотребления онлайн.

    Первичного публичного тестового прогона не прошло гладко. Проводной “троллей по всей Америке,” которая сломалась токсичность в комментариях по всей стране на основе точки зрения скоринга, показал, как алгоритм ненароком дискриминируемой группы по признаку расы, гендерной идентичности или сексуальной ориентации.

    Адамс был откровенен о том, что первоначальные испытания перспективной показал крупные белые пятна и алгоритмическим уклоном. Как слом инструмента рекрутинга компании Amazon, которая учится на десятилетия некорректных данных рабочих мест и развитой неотъемлемой предубеждение против женщин, ранние перспективные модели были вопиющие недостатки, потому что данные, на которых она была обучена.

    “В пример часто преследовали группы, если вы посмотрите на распределение по комментариям в обучающий набор данных, были исчезающе малое количество замечаний, которые входит слово ‘гей’ или ‘феминистка’ и использовали его в положительную сторону”, – пояснил Адамс. “Оскорбительные комментарии, использовать слова как оскорбления. Поэтому мл, глядя на моделей, сказал бы: “Эй, наличие этого слова является довольно хорошим показателем того, является ли или не это чувство является токсичным”.

    Например, Альфа-алгоритм может быть ошибочно помечены высказывания типа “Я гордый гей” или “Я феминистка и транссексуалы” с высокими показателями токсичности. Но публично прозрачный процесс—во время обучения болезненный—был бесценный урок для лобзика в последствия непреднамеренной предвзятости, сказал Адамс.

    При обучении модели машинного обучения, на то, как огорчительно и предметов личного онлайн надругательств и домогательств, существование алгоритмической смещения также подчеркивает, почему одни ИИ-это не решение проблемы. Социальные учреждения, такие как Facebook и YouTube имеют как преподносится контент-модерации ИИ их платформ только, чтобы возвратиться на фоне скандала и конечно-правильно, нанимая тысячи человеческих модераторов.

    Тэкс лобзик представляет собой гибрид двух. Перспектива-не АИ алгоритмы принятия решений в вакууме; с помощью API интегрированы в сообщества-менеджмент и контент-модерации интерфейсы служить как вспомогательное средство для человека модераторы. Перспективные инженеры описывают модераторам ненависти и без мл, используя аналогию сена: Ай помогает по автоматизации процесса сортировки, строгал огромные стога сена вниз, в то же время давая людям сказать последнее слово по поводу того, комментарий является оскорбительным или домогательства.

    “Это новая возможность мл”, – сказал Адамс. “Люди говорят о том, как умный ИИ, но они часто не говорят о всех путях, что это неправильно и стремно иногда. С самого начала мы знали, что это собирается сделать много ошибок, и мы сказали, ‘Это средство полезно для автоматизированного человека модерации, но он не готов для принятия автоматических решений.’ Но он может взять иголку в стоге сена проблемы, находя это ядовитые речи и получить его вниз, на кучку сена”.

  • How Google's Jigsaw Is Trying to Detoxify the Internet

    Что такое оценка токсичности?

    Самый спорный аспект моделирования “перспектива” ставит цифры в переменную как субъективно, так как “токсичность”. Первое, что Адамс отметил, что оценки перспективы свидетельствуют о вероятности, а не тяжести. Выше цифры представляют более высокую вероятность того, что шаблоны в тексте, напоминают узоры в комментарии пометили как токсичные.

    Что касается того, что “токсический” на самом деле означает, перспективная команда определяет ее в широком смысле как “грубое, неуважительное, или неразумное замечание, что, вероятно, сделает вас покинуть обсуждение.” Но как это проявляется может быть тонким. В 2018 году, головоломки сотрудничаем с Родоса лаборатории искусственного интеллекта (железнодорожный) разработать модели ML, который может подобрать более неоднозначных форм или угрожающими речи, как, например, пренебрежительное, снисходительное, или саркастическое замечание, что не открыто враждебными.

    До этого момента, большинство моделей перспективы были обучены просить людей оценить комментарии в интернете по шкале от “очень токсичный” для “здоровых”. Затем разработчики могут корректировать модель в комментариях флаг выше определенного порога, от 0.0 до 1.0. Оценка выше 0,9 указывает на высокую вероятность токсичности, и 0,5 балла или ниже означает гораздо меньшую степень алгоритмической определенности. Точки зрения также использует то, что называется нормализация результат, который дает разработчикам последовательной основы для интерпретации результатов. Адамс объяснил, что в зависимости от форума или сайта, разработчики могут смешивать и сочетать модели. Так что если сообщество не против ненормативной лексики, что атрибут может быть взвешена вниз.

    Адамс показал мне демо-интерфейс модерации, интегрированные с точки зрения API-интерфейс. В админке, рядом с параметрами для сортировки комментариев лучшие, новейшие, и так далее, – это маленький значок флаг сортировка по токсичности. Есть также встроенный механизм обратной связи для человека модератором, чтобы сказать точки зрения это неправильно набрал комментарий и улучшить модель.

    Он нажал через демо интерфейс для модерирования обсуждение Википедии комментарии страницы забивали разные перспективные модели, и график гистограммы пробивание какие комментарии могут быть нападения на авторскую страницу или нападение на другого комментатора.

    “Мы хотим построить машина-механизированные инструменты модерирования, чтобы пометить вещи для человека, чтобы рассмотреть, но мы не хотим, чтобы некоторые центральные определение или кто-то скажет, что такое хорошо и плохо”, – сказал Адамс. “Так, если я Сортировать по токсичности, видишь, значит, комментарии дойти до вершины. Но если тебя больше волнует, скажем, нападения или угрозы личности, чем такие показатели, как ругань, может быть, не использовать общую модель токсичность. Эти ингредиенты, которые можно смешивать. Мы предлагаем эти, и разработчики их веса.”

    Железнодорожный эксперимент принимает более тщательного подхода. Оксфордского аспиранта создаем набор данных из десятков тысяч комментариев от канадской газете Globe и Mailс комментариями раздел Википедии и страницы обсуждения. Они просят человека “комментаторы”, чтобы ответить на вопросы о каждом комментарии, относящиеся к пяти суб-атрибуты “нездоровый контент”: враждебное или оскорбительное (тролли), пренебрежительное, снисходительно или покровительственно, язвительно, и несправедливым обобщениям.

    Самонаведения в этих более тонких признаков выявлены новые сложные проблемы, связанные с непреднамеренной предвзятости к конкретным группам и ложных срабатываний с саркастическими комментариями. Это часть роста ИИ, подавая моделей все больше и больше данных, чтобы помочь ей понять, подразумеваемые, косвенные смыслы человеческой речи. Команда до сих пор прочесывают и аннотирования тысячи комментариев, и она планирует выпустить окончательный набор данных в начале этого года.

    “То, что мы хотим работать в направлении что-то, где сообщество может забить множество замечаний, и тогда мы можем сделать их на заказ микс перспективных моделей, чтобы соответствовать”, – сказал Адамс.

  • How Google's Jigsaw Is Trying to Detoxify the Internet

    Любопытный стенд реддита

    Реддит-это микрокосм, все, что есть хорошего и ужасного про интернет. Есть сообщество сабреддит для каждой темы и ниши, причудливые интерес вы можете думать. Головоломка не работает с Reddit на корпоративном уровне, но один из самых интригующих местах, в которых перспективы модерации ИИ тестируется на сабреддит под названием R/changemyview.

    Удивительно, но есть уголки интернета, где подлинное Обсуждение и дискуссия все-таки произойдет. Изменить свою точку зрения, или ЦМВ, не как большинство других сабреддиты. Идея в том, чтобы опубликовать отзыв, вы принимаете может быть ошибочным или открыты, что изменила, потом слушать и понимать другие точки зрения, чтобы увидеть, могут ли они изменить свое мнение по вопросу. Темы варьируются от приземленные темы, такие, как надлежащее просмотр заказ на Звездные войны фильмы на серьезные дискуссии по вопросам, в том числе расизма, политики, контроля над огнестрельным оружием, и религия.

    Изменить мой взгляд-это интересный полигон для зрения, потому что сабреддита имеет свой подробный набор правил для создания и модерирования разговоры, разжигающие ссоры и бурные дебаты по дизайну. Кал Тернбулл, который идет по п/Snorrrlax на Reddit, является основателем и одним из модераторов Р/changemyview. Тернбулл сказал в PCMag, что линии перспективы по API до Особенно хорошо с правилом подразделе 2, который в принципе запрещает хамить или враждебных высказываний.

    “Это звучит как простое правило, но есть много нюансов”, – сказал Тернбулл, который базируется в Шотландии. “Трудно автоматизировать это правило не будучи умным о языке. Реддит дает вам эту вещь под названием AutoModerator, где вы можете настроить фильтры и ключевые слова для маркировки. Но есть очень много ложных срабатываний, и это может быть довольно трудно поймать, потому что кто-то может сказать плохое слово, не оскорбляя кого-то, и они тоже могут кого-то оскорбить, не используя ни одного плохого слова.”

    Головоломки протянул Тернбулл в марте 2018 года. Сотрудничество началось с правилом 2, но вскоре команда построения перспективных моделей, а также для других правил. Это не полная интеграция с открытым исходным кодом точки зрения API, но скорее Реддите бот, который позволяет модераторам комментариев набрал больше определенного порога токсичности.

    За последние шесть лет, Тернбулл и другие моды делали все это вручную из очереди сообщений AutoModerator (помечен ключевым словам) и отчеты пользователей. Мозаика используется годами правило-нарушение Примечания от модераторов, что они отслеживали через расширение для браузера, и строили перспективные модели на основе этих данных в сочетании с некоторыми из существующих моделей точки зрения токсичности. На протяжении 2018 году-вом модов дали обратную связь по таким вопросам, как избыточный ложных срабатываний, и головоломки переделаны счет порогов, продолжая при этом модели правил по ЦМВ.

  • How Google's Jigsaw Is Trying to Detoxify the Internet

    Сложных суждений в онлайн-дискуссии

    (Точки зрения бота интегрированы в интерфейс модератора Реддите.)
    Перспектива-не жить для всех модерирования правило сабреддита по. Некоторые из более сложных или абстрактных правил по-прежнему выходит за рамки того, что такое мл могу понять.

    Правило 4, например, регулирует балльная система Дельта на подлодке, а правило Б перестает пользователям играть адвоката дьявола или через должности для “soapboaxing.” Нюансы модерирования, как это требует контекстуальных данных и равнина ол’ человеческого понимания, чтобы различить, является ли кто-то спорит точки подлинных причин или просто троллинг.

    В обозримом будущем, мы все равно нужны человеческие модов. Эти более сложные суждения сценарии, где ЦМВ модераторы начинают видеть трещины в моделировании ИИ, и более умная автоматика может определить, является ли все это является масштабируемым.

    “Я думаю, причина, почему это так сложно, потому что это сочетание нашего суждения на оригинальный пост и их взаимодействия на протяжении всего разговора. Так что это не только один комментарий, который вызывает модель”, – сказал Тернбулл. “Если аргумент ходит взад и вперед, и в конце комментарий, сказав “спасибо” или благодарность, то пусть это пойти, даже если правило нарушено в начале резьбы. Или беззаботная шутка, что в контексте может показаться, что хамить—это симпатичная маленькая человеческая вещь, и это то, что бот не понимает еще”.

    Изменить мой взгляд-это единственный сабреддит активно используют перспективные модели ML для модерации на данный момент, хотя Адамс сказала, что команда получила запросы от ряда других. Конкретный набор правил ЦМВ сделали его идеальным местом для теста, но перспективные модели ковкий; отдельные подразделы могут настраивать алгоритм оценки в соответствии с их правилами сообщества.

    Следующим шагом для Тернбулл принимает ЦМВ на Reddit, потому что сообщество перерастает его, – сказал он. За последние шесть месяцев, модераторы вновь сформированная запуске работал с лобзиком на специальном сайте с более глубоким функционалом, чем мод интерфейс на сайте Reddit и боты могут предоставить.

    Проект находится еще только в стадии альфа-тестирования, но Тернбулл говорил о функции, такие как предупреждающие сигналы, когда пользователь вводит комментарий, который может нарушать правила, создавать отчеты, чтобы дать модераторам больше контекста и исторических данных для принятия решений. Тернбулл подчеркнул, что никаких планов закрыть или перенести сабреддит, но он в восторге от нового эксперимента.

  • Все комментарии, пригодный для печати

    В зависимости от дня недели, Нью-Йорк Таймс’ сайт получает где-то от 12 000 до более чем 18000 комментарии. До середины 2017 года, разделы комментариев в статье были модерируется очной сообщества специалистов по управлению персоналом, который читал каждый комментарий и решил, следует ли одобрить или отклонить его.

    Бэсси етим, который до этого месяц был общий редактор за раз, потратил десятилетия на общий стол и был его редактором с 2014 года. В разгар буднего дня, команда может иметь несколько человек модерации комментариев на рассказы мнения, в то время как другие занимались новостей. Разбиение таблиц и отслеживаются различные обязанности, но команды примерно десятка человек были постоянно переназначены или перемещать в зависимости от главные новости на данный момент. Они также подают лакомые кусочки из комментариев назад к журналистам для потенциальных историю кормов.

    В конце концов, стало ясно, что это было больше, чем 12 человек может справиться. Разделы прокомментировать историй придется закрыть после достижения максимального количества замечаний, команда могла бы модерировать.

    Группа развития газеты аудитория уже экспериментировали с машинного обучения для основных, очевидных утверждений комментарий, но етим сказал, что это не особо умные или настраиваемый. В раз первый объявил о своем партнерстве с лобзиком в сентябре 2016 года. С тех пор ее разделы комментариев расширились от появления на менее 10 процентов всех историй примерно на 30 процентов сегодня и скалолазания.

    С точки зрения пилы, инкубатор увидел возможность кормить зрения анонимных данных от миллионов комментариев в день, под председательством профессионалов, которые могли бы помочь усовершенствовать процесс. В обмен на анонимных мл обучающих данных, лобзик и раз работали вместе, чтобы построить платформу под названием модератор, в которых развернута в июне 2017 года.

  • How Google's Jigsaw Is Trying to Detoxify the Internet

    Внутри модератор, интерфейс комментарий ныть

    (Изображение любезно Нью-Йорк Таймс)
    Модератор совмещает перспективы моделей с более чем 16 миллионов обезличенных, модерирую раз комментарии возвращаясь к 2007 году.

    Какая команда на самом деле видит в интерфейсе модератора является приборная панель с интерактивной гистограммы, который отображает разбивку комментарий выше определенного порога. Они могут перетащить ползунок назад и вперед, например, чтобы автоматически одобрять все комментарии с 0 до 20% итогового балла, который основан на комбинации потенциальных замечание за непристойное поведение, токсичность и вероятность быть отклонена. Есть кнопки быстрого модерирования ниже, чтобы одобрить или отклонить комментарий, отложить его, или тег комментария, продолжать совершенствовать моделирование перспективы.

    “Для каждого раздела сайта, мы проанализировали поступающие замечания и перспективы бы пометить их. Мы использовали обе точки зрения модели и наши собственные модели уникальные для Нью-Йорк Таймс“,- сказал етим. “Я хотел бы проанализировать, комментарии от каждого раздела и попытаться найти точки отсечки, где нам было бы комфортно говорить, ОК, все, что выше этой вероятности, используя эти конкретные токсичности теги, как непристойность например, мы собираемся утвердить”.

    Машинного обучения-это утверждения относительно небольшой процент комментариев (около 25% или около того, етим сказано) как раз работает раскатать комментарии на истории и в конечном счете даже для настройки модели фильтра и одобрять комментарии в разных разделах сайта. Модели одобряет только комментарии; отказ еще полностью обработаны человеческими модераторов.

    Те, ручного выжима комментариев нет. Комментарии обычно закрывают на истории либо 24 часа после того, как он публикует в интернете или на следующий день после он публикует в печати, етим сказано.

    ‘Мы не замена с машин

    Следующий этап-строительство дополнительные функции в систему, чтобы помочь модераторам определиться в том, какие комментарии посмотреть в первую очередь. Все, автоматизируя то, что всегда было ручным процессом позволило модераторов, чтобы провести время активно работает с журналистами, чтобы ответить на комментарии. Она создается петля обратной связи, где комментарии ведут к последующей отчетности и дополнительные материалы—можете сэкономить и перераспределить ресурсы, чтобы создать больше журналистики.

    “Модератор и перспективы сделали раз намного более отзывчивым читателям проблемы, потому что у нас есть ресурсы для этого, будь это написание истории сами или работать с журналистами, чтобы выяснить, истории”, – сказал етим. “Холодная вещь об этом проекте является то, что мы не кладут никого. Мы не замена с машин. Мы просто люди, мы более эффективно и сделать действительно жесткие решения”.

    Документ открыт для работы с другими изданиями, чтобы помочь остальным отрасли реализации подобных технологий. Это может помочь местных новостей с ограниченными ресурсами для поддержания коментариях без большого заботливый персонал и использовать комментарии как раз и делает, чтобы найти потенциальных клиентов и топлива низовой журналистики.

    Етим сравнил АИ-помощь модерации, чтобы дать фермер механический плуг и лопата. Вы можете сделать работу намного лучше с сохой.

    “Если перспектива может развиваться в правильном направлении, он может, надеюсь, создать как минимум набор инструкций, которые могут воспроизводиться для небольших торговых точек”, – сказал он. “Это долгая игра, но мы уже создали большое основание, чтобы быть частью этого опыта читателя. Тогда, возможно, эти локальные документы могут иметь снова комментарии и создать небольшой плацдарм против основных социальных игроков”.

  • How Google's Jigsaw Is Trying to Detoxify the Internet

    Кричать в пропасть

    На данный момент, большинство из нас видели людей напали или преследовали в социальных сетях для выражения мнения. Никто не хочет, чтобы это случилось с ними, кроме троллей, которые преуспевают в этом роде. И мы узнали, что кричать на незнакомца, который никогда не будет слушать рациональный аргумент не является ценной использовать наше время.

    Перспектива пытается перевернуть, что динамический, но СиДжей Адамс сказал, более широкой целью является публикация данных, научных исследований и новых открытым исходным кодом УБ моделей для создания новых структур разговора—непростой задачей. Сделать интернет более здоровое место, что стоит время людей означает масштабирования этих систем за Новости комментарий разделы и подразделы. В конечном счете, средства, ИИ должен быть способен обрабатывать гигантские социальные приложения и сети, которые доминируют в нашей повседневной цифровых взаимодействий.

    Отложив, что Facebook, Twitter и другие социальные гиганты делают внутренне, наиболее прямой способ сделать это, чтобы подтолкнуть технологию от модераторов сами пользователи. Адамс указал на коралловые проекта за идею, что это может выглядеть.

    Коралловые проект был изначально основан как сотрудничество между Мозилла, Нью-Йорк Таймс и Вашингтон Пост. Коралл-это здания с открытым исходным кодом инструменты, такие как ток-платформы для поощрения онлайн-обсуждения и новости сайты альтернативы выключением коментариях. Говорить в настоящее время полномочия платформ на протяжении почти 50 интернет-издателей, в том числе пост, Нью-Йорк, журнал “Уолл Стрит Джорнал”, и перехватить.

    Ранее в этом месяце, Vox СМИ приобрела коралловый проекта Мозилла; планируется “интегрировать” его в хор, его управления сайтом и платформа повествования.

    Перспективы плагин для кораллов проект, который использует один и тот же базовый техник—мл на основе скоринга токсичности и пороги—чтобы дать пользователям инициативнее как они печатают, – сказал Адамс. Поэтому, когда пользователь пишет комментарий со словами помечен как насилие или домогательства, уведомление может выскочить для пользователей говоря, “прежде чем постить это, обязательно запомните наши правила сообщества” или “язык в этом комментарии, возможно, нарушает наши правила сообщества. Наша команда модерацию в ближайшее время рассмотрим ее”.

    “Этот легкий толчок, могут помочь люди просто взять вторую думать, но он также не блокирует никого,” сказал Адамс. “Это не мешает дискуссии”.

    Это механизм, который видео чате игры и потокового платформы интегрированы, чтобы остановить насилие и домогательства. Пользователи Twitter могут явно выигрывают от такой системы тоже.

    Он говорит, что ученый-исследователь Массачусетского технологического института Эндрю Липпмана воспитан в очередном номере журнала PCMag: он говорил о встроенных механизмов, которые позволили бы людям остановиться и подумать, прежде чем они разделили что-то онлайн, чтобы помочь прекратить распространение дезинформации. Понятие применяется к онлайн дискуссии. Мы создали качения, систем связи, способных усилить заявлении достичь в геометрической прогрессии в одно мгновение, но иногда немного трение может быть хорошей вещью, сказал Липпман.

    Перспектива-не об использовании ИИ в качестве универсального решения. Это способ прессформы модели мл в инструменты для людей, чтобы помочь им скоординировать свои собственные переживания. Но один контрапункт, что если сделать его еще проще для людей, чтобы слушать онлайн шум им не нравится, в сети станет еще больше Эха, чем она уже есть.

    Спрашивает, Есть ли такие инструменты, как перспектива в конечном счете может усугубить этот Адамс говорил, что он считает онлайн поддакивания существует, потому что нет никаких механизмов, чтобы провести обсуждение, где люди могут осмысленно не согласен.

    “Путь наименьшего сопротивления ‘эти люди воюют. Пусть они согласятся с себя в свои углы. Пусть люди сами силоса”, – сказал он. “Пусть люди кричат всех остальных из комнаты, или вы закрыли обсуждение. Мы хотим в перспективе создавать третий вариант”.

    Адамс выложил пример. Если вы просите номер 1000 человек, “сколько из вас читал что-нибудь, что тебя интересует?” большинство интернет-пользователей будет указывать на статью, твит, пост или что-то в интернете. Но если вы спросите их: “сколько из вас подумал, что это стоит вашего времени, чтобы комментировать или обсуждать?” все руки в комнату войдет.

    “Для многих из нас, это просто не стоит усилий. Структура обсуждения, которые мы сейчас просто означает, что это ответственность. Если у вас есть разумные мысли или то, что вы хотите поделиться, для большинства людей, они не хотят принимать участие”, – сказал Адамс. “Это означает, что из 1000 человек, которые могли находиться в комнате, у вас есть только горстка участие в дискуссии; скажем, 10 человек. У меня есть глубокая вера, что мы можем построить структуры, которая позволяет, что остальные 990 вернуться к обсуждению и делает это таким образом, что они считают, стоит их времени”.

Понравилась статья? Поделиться с друзьями:
Гуру ПК
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: