Средства ИИ могут обнаружить Deepfakes, но как долго?

Исследователи Калифорнийского университета в Риверсайде разработали алгоритм ИИ, который признает манипулировать изображениями и видео через неприметные артефакты, оставленные инструментами редактирования. Но более сложные технологии deepfake почти наверняка на горизонте.

AI Tools Can Detect Deepfakes, But for How Long?

Deepfakes—те, реалистично выглядящие, АИ-подделал видео, которые изображают события, которые на самом деле не было—были источником беспокойства в течение нескольких лет, и по мере развития технологии обнаружения становится все более сложно.

На данный момент, редактировать изображения и видео, оставляют цифровые отпечатки, которые могут быть обнаружены с правильными инструментами. Исследователи из Университета Калифорнии, Риверсайд, например, разработан алгоритм ИИ, который может распознавать манипулировать изображениями и видео, находить неприметные артефакты, оставленные инструментами редактирования.

Это глубокий алгоритм обучения—от Амит Рой-Чоудхури, профессор электрической и компьютерной инженерии, и исследователи УЦР—находит аномалии, связанные с установкой, удалением, или манипулирование объектами изображения. Идея, Рой-Чоудхури объясняет, – локализовать манипуляций с изображением. “Мы обучаем нейронную сеть для выявления манипулировать регионов в будущие образы”, – говорит он.

Разработка ‘хорошо обученная нейронная сеть’

Нейронные сети являются основным компонентом глубокие алгоритмов обучения. В отличие от классического программного обеспечения, где разработчики вручную дать компьютеры инструкции, нейронных сетей разработать их поведения с помощью анализа и сравнения примеры.

Нейронные сети особенно хороши на поиск закономерности и классификацию сумбурно, неструктурированных данных, таких как изображения и видео. Когда вы предоставляете нейронной сети достаточно примеров определенного типа изображения—этот процесс называется “обучение”—он сможет найти сходные черты в образах его не видел.

“Когда кто-то манипулирует изображение, они пытаются сделать это так, чтобы не различима для человеческого глаза,” Рой-Чоудхури говорит. “Но, как правило, часть пикселей влияет на эти манипуляции”.

Исследователи УЦР тренировали нейросеть на аннотированных изображений, которые были манипулировать с различными инструментами и дайте ему раскрыть общие закономерности пиксель виден на границах соответствующих объектов. После обучения модель AI можно выделить области изображения, содержащие манипулировать объектами.

Ловить Deepfake

На нынешнем этапе глубокого обучения модель работает на неподвижных изображениях, но тот же метод может быть изменен на месте deepfakes и другие видео-манипуляция приемы. Deepfakes в основном видео, в котором каждый кадр изменяется замена одного лица с другим.

“Идея может быть использована для видео тоже. В каждом кадре есть регион, который был изменен, и хорошо обученная нейронная сеть может выделить подделаны области”, Рой-Чоудхури говорит.

Нейросеть УЦР является одним из нескольких усилий, чтобы поймать deepfakes и другие изображения – и видео-подделки методы. В начале этого года, исследователи из Университета Суррея разработали комбинацию Blockchain и нейронных сетей для регистрации достоверных видео и выявлять подделки версий. Еще один проект в Университете Олбани используются две нейронные сети для распознавания синтезированных видео, находя противоестественное такие явления, как немигающие глаза.

Но как методы распознавания улучшить, так и технологии для создания реалистичных поддельных изображений и видео. “Это кошки-мышки,” Рой-Чоудхури говорит. “Это нетривиальная проблема. Что бы мы ни делали, люди, которые создают эти манипуляции придумать что-то другое. Я не знаю, если и будет когда-нибудь время, когда мы сможем обнаружить каждый вид манипуляции”.

Понравилась статья? Поделиться с друзьями:
Гуру ПК
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: