Deepfakes подвергнуть общественной опасности искусственного интеллекта, машинного обучения


Видео Deepfake активируются с помощью машинного обучения и анализа данных, и в лучшем случае может быть формой развлечения. Однако, в худшем случае, видео deepfake может оказать опасное влияние на наше общество. Вот почему.

Deepfakes Expose Societal Dangers of AI, Machine Learning

Как мы голову в следующем сезоне президентской избирательной кампании, вы хотите, чтобы остерегаться возможных опасностей, которые поддельные онлайн видео привлечь за счет использования искусственного интеллекта (ИИ) и машинного обучения (мл). Используя AI программного обеспечения, люди могут создавать deepfake (короткий для «глубокого обучения и подделка») видео, в котором мл алгоритмы позволяют выполнять лицо своп, чтобы создать иллюзию, что кто-либо сказал что-то, что они не говорили или кто-то они не. Видео Deepfake появляется в различных сферах, от развлечений до политики в корпоративном мире. Не только может deepfake видео несправедливо влиять на выборы с помощью фальшивых сообщений, но они могут принести личные смущения или вызвать сообщают о бренде, если, скажем, они показывают, генеральный директор объявить о запуске продукта или приобретения, которые на самом деле не произошло.

Deepfakes относятся к категории AI под названием «генеративный состязательности сети» или «Ганс», в котором два нейронных сетей соревнуются в создании фотографий или видео, которые появляются в реальном. Ганс состоит из генератора, который создает новый набор данных, таких как поддельные видео, и дискриминатор, который использует алгоритм мл обобщить и сравнить данные с реального видео. Генератор продолжает пытаться синтезировать поддельные видео со старым, пока дискриминатора не могу сказать, что данные новые.

Как Стив Гробман, Мак-старший вице-президент и главный директор по технологиям (технический директор), отмечено на конференции RSA 2019 в марте в Сан-Франциско, поддельные фотографии были вокруг начиная с изобретения фотографии. Он сказал, что изменение фото было простое задание можно выполнить в приложения, такие как Adobe фотошоп. Но теперь эти типы расширенные возможности редактирования движутся также в видео.

Как Создаются Deepfakes Являются

Хотя понимание концепций AI-это полезно, тут не надо быть ученым данные для построения видео deepfake. Он просто включает в себя следующие инструкции по Гробман. На конференции RSA 2019 (см. видео выше), он обнародовал видео deepfake вместе с доктором Селеста Fralick, главный научный сотрудник сведения и главный инженер в McAfee. Видео deepfake показали, какую угрозу данная технология представлена. Гробман и Fralick показал, как публичного должностного лица в видео говорят что-то опасное может вводить в заблуждение общественность думать, что сообщение является реальным.

Чтобы создать свое видео, Гробман и Fralick загружаемое программное обеспечение deepfake. Они потом снял видео Гробман свидетельствовал перед Сенатом США в 2017 году и накладывается Fralick рот на Гробмана.

«Раньше я свободно доступны общественности замечания [Гробман] для создания и подготовки модели мл; которое позволит мне развиваться видео deepfake с моих слов, выходящих из [его] рта,» Fralick рассказали в ОГА аудитории на сцене. Fralick продолжал говорить, что видео deepfake могут быть использованы для социальной эксплуатации и информационной войны.

Чтобы сделать свои видео deepfake, Гробман и Fralick использовали инструмент, один из пользователей Reddit, так называемый FakeApp, который использует алгоритмы мл и фотографии для замены лиц на видео. Во время своей презентации ОГА, Гробман объяснил дальнейшие действия. «Мы разделили видео на фотоснимки, мы извлекли лица, и мы убрали их, сортируя их и чистить их в Instagram.»

Скрипты Python позволило компании McAfee команда для создания движения рта были речи Fralick матче Гробман рот. Затем они должны написать некоторые пользовательские скрипты. Задача в создании убедительного deepfake, когда такие характеристики, как пол, возраст и цвет кожи не совпадает, Гробман сказал.

Затем он и Fralick используется окончательный алгоритм AI, чтобы соответствовать изображения Гробман свидетельствуя перед Сенатом с речью Fralick по. Гробман добавил, что понадобилось 12 часов, чтобы обучить этих алгоритмов мл.

Deepfakes Expose Societal Dangers of AI, Machine Learning

Компания McAfee изложил меры, которые он принял, чтобы создать видео deepfake показано на конференции RSA 2019. Он использовал программное обеспечение под названием deepfake FakeApp и подготовки модели ML для изменения видео Гробман с речью Fralick. (Фото: Макафи).

Последствия Deepfakes

Хакер-создан deepfake видео есть потенциал, чтобы вызвать много проблем, начиная от правительственных чиновников распространение ложной дезинформации знаменитостей становится неловко от того, в видео они не в компании повредив конкурентов фондового рынка турнирной таблице. В курсе этих проблем, законодатели в сентябре направил письмо Дэниела пальто, директор Национальной разведки, с просьбой о пересмотре угрозы, которую представляют deepfakes. В письме предупредили, что такие страны, как Россия могла бы использовать deepfakes на социальных медиа, чтобы распространить ложную информацию. В декабре законодатели ввели вредоносных глубокий фейк закона о запрете 2018 года запретить мошенничестве в связи с «аудиовизуальные записи,» которые относятся к deepfakes. Остается увидеть, если законопроект пройдет.

Как уже упоминалось, знаменитости могут чувствовать смущение из видеороликов, в которых их лица были накладывается на лица порно-звезд, как это было в случае с Галь Гадот. Или представьте, что генеральный директор якобы объявляя новости о продуктах и тонет акций компании. Специалисты по безопасности могут использовать мл для обнаружения таких типов атак, но если они вовремя не обнаружить, они могут принести ненужный вред стране или бренду.

«С deepfakes, если вы знаете, что вы делаете и вы знаете, кто до цели, можно действительно придумать [очень] убедительно они вызывают большой ущерб для бренда,» сказал д-р Чейз Каннингэм, главный аналитик компании Forrester исследования. Он добавил, что, если вы распространяете эти сообщения на LinkedIn или Twitter или воспользоваться формой бота», можно давить на акции компании исходя из общего фальшивое видео без хотя много усилий».

Через видео deepfake, потребители могли бы заставить поверить в продукт может сделать то, чего он не может. Каннингем отметил, что если генеральный директор крупного производителя автомобилей, — говорится в фальшивке видео, что компания больше не будет производить газ-приведенные в действие корабли и потом выкладывать это сообщение на Twitter или LinkedIn в этом видео, то это действие может легко повредить бренду.

«Интересно, что от моих исследований, люди принимают решения, основываясь на заголовках и видео на 37 секунд, сказал Каннингем. «Так что вы можете представить, если вы можете сделать видео, которое работает дольше, чем на 37 секунд, вы можете получить люди, чтобы принять решение, основываясь на том, [видео] фактические или нет. И это страшно».

Поскольку социальные сети являются уязвимым местом, где видео deepfake может идти вирусных, сайты социальных медиа ведется активная работа по борьбе с угрозой deepfakes. Facebook, например, развертывает команды инженеров, которые могут пятно манипулировать фотографии, аудио и видео. В дополнение к использованию программного обеспечения, Facebook (и других социальных медиа-компаний) нанимать людей, чтобы вручную искать deepfakes.

«Мы расширили наши усилия по борьбе манипулируют СМИ, чтобы включать решение deepfakes», — сообщил представитель Facebook сказал в заявлении. «Мы знаем, что появление всех форм манипулируют медиа представляет реальные проблемы для общества. Вот почему мы инвестируем в новые технические решения, изучение академических исследований и работы с другими людьми в отрасли, чтобы понять deepfakes и других форм манипулируют СМИ».

Не Все Deepfakes Плохо

Как мы видели с учебными видео deepfake компанией McAfee и видео комедийный deepfake на поздней ночи телевизор, некоторые видео deepfake не обязательно плохо. На самом деле, в то время как политика может подвергнуть реальной опасности видео deepfake, индустрии развлечений часто просто показывает светлую сторону deepfake видео.

Например, в недавнем эпизоде в конце шоу с Стивен Колберт, смешные deepfake видео, в котором актер Стив Бушеми, лицо накладывается актриса Дженнифер Лоуренс тела. В другом случае, комик Джордан нож заменил видео экс-президент США Барак Обама, выступая со своим собственным голосом. Юмористические видео deepfake как они также появились в сети, в которой лицо президента Трампа накладывается на лицо канцлера Германии Ангелы Меркель, как человек говорит.

Опять же, если deepfake видео используются для сатирической или юмористической цели или просто в качестве развлечения, то социальные медиа-платформы и даже фильм производства домов разрешение или использовать их. Например, Facebook позволяет этот тип контента на своей платформе, и Lucasfilm используется тип цифрового отдыха с маленькими Кэрри Фишер на теле актрисы Ингвилд Дэила в «Изгой Один: история Звездных войн».

В McAfee Гробман отметил, что некоторые технологии за deepfakes хорошее применение с дублеров в кино, чтобы держать актеров в безопасности. «Контекст-это все. Если это для использования в комедийных и очевидно, что это не реально, это то, что это законное применение технологии» Гробман сказал. «Признавая, что его можно использовать для всяких разных целей-это ключ».

Deepfakes Expose Societal Dangers of AI, Machine Learning

(Изображение кредита: Statista)

Как обнаружить видео Deepfake

Компания McAfee не только охранная фирма, экспериментируя с тем, как обнаружить поддельные видео. В его работе поставляется в черной шляпе 2018 под названием «Ай-Изгой: истребляя глубокий подделок, прежде чем они вызовут угроза,» два Symantec для безопасности экспертов, безопасности ответ привести Виджай Thaware и разработки программного обеспечения инженер Ниранджан Агнихотри, пишут, что они создали инструмент, чтобы определить подделку видео на основе Google FaceNet. Гугл FaceNet является нейронная сеть, архитектура, что исследователи Google разработали, чтобы помочь с контроля и признания. Пользователи обучить FaceNet модель на конкретное изображение, а затем можете подтвердить свою личность в ходе испытаний в дальнейшем.

Чтобы попытаться остановить распространение видео deepfake, Фонд А. И., некоммерческой организации, которая ориентирована на человека и взаимодействия ИИ, предлагает программу под названием «Защитник реальность», чтобы определить фейк содержание. Он может сканировать изображения и видео, чтобы увидеть, если они были изменены с помощью ИИ. Если они есть, они получат «честный ИИ водяной знак».

Другая стратегия заключается в том, чтобы сохранить концепцию нулевого доверия в виду, что в переводе означает «никогда не доверяй, всегда проверяй»—девиз кибербезопасности это означает, что ИТ-специалисты должны подтвердить, что все пользователи являются законными, до предоставления им права доступа. Остальные скептически относятся к достоверности контента они будут необходимы. Вы также хотите, чтобы программное обеспечение с возможностями цифровой аналитики, чтобы определить поддельные контент.

Глядя на Deepfakes

Идя вперед, мы должны быть более осторожными с видео-контентом и иметь в виду ту опасность, которую они могут представлять для общества, если неправильно. Как Гробман отметил, что «в ближайшем будущем, люди должны быть более скептически относятся к тому, что они видят и признают, что видео и аудио могут быть сфабрикованы».

Таким образом, сохранить скептический взгляд на политические видео, которые вы смотрите, как мы голову в следующую избирательную кампанию, а не доверять все видео с участием руководителей корпораций. Потому что то, что вы слышите, не может быть, что на самом деле сказал, и сообщают видео deepfake есть потенциал, чтобы действительно нанести ущерб нашему обществу.

Понравилась статья? Поделиться с друзьями:
Гуру ПК
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: