Этот ИИ может воссоздать голос хозяин подкаста Джо Рогана, чтобы что-нибудь сказать

В ближайшие несколько лет (или даже раньше), мы увидим технологию продвижения к той точке, где всего несколько секунд требуется для создания жизни, как реплика кого-либо голос на планете,’ инженеры ИИ компании Десса сказать.

This AI Can Recreate Podcast Host Joe Rogan's Voice To Say Anything

В тот день, когда технология может воссоздать свой голос ни к чему —не говорят, как безумные— это довольно много. Группа инженеров создала программу ИИ, которая может убедительно имитировать голоса ведущего подкаста Джо Рогана.

Вы можете услышать результаты в видео ниже. Голос не только идентичны Рогана, но он также может производить естественное звучание ритм почти каждое слово.

Однако, голос искусственный. Инженеры компании Ай Десса могут получить свои поддельные Джо Роган ничего —все говорят, что они должны сделать, это ввести текст. В данном случае, они сделали ИИ-работает голосовой разговор о спонсорстве хоккейной команды полный шимпанзе, а также рекламируют преимущества робота.

Видео будет наверно как повеселить и вас беспокоить. И в этом весь смысл. “Это довольно е*cking страшно” Десса написал в своем блоге о достижении, который был создан с помощью текстового-чтобы-технологию синтеза речи они окрестили RealTalk.

“В ближайшие несколько лет (или даже раньше), мы увидим передовые технологии в точку, где только несколько секунд звука, необходимые для создания жизни, как реплику голос никому на планете”, компания добавила.

Демо-это только последний пример того, как ИИ-алгоритмов питание может быть использована для распространения дезинформации, чтобы обмануть всю общественность. Исследователи уже показали, вы можете использовать технологию, чтобы создать реалистично выглядящие, но, в конечном счете, поддельные фотографии и видео людей, включая политиков и знаменитостей. Американские законодатели обеспокоены этими ИИ автоматически “deepfakes” может на один день открыть новый фронт в информационной войне.

Текст-в-речь Десса синтез технология может быть также использована для вредоносных целей. Представьте мошенников звонящих телефон с возможностью выдавать себя за членов вашей семьи. Или хакеры создания аудио фейки политика говорили оскорбительные вещи для того, чтобы вмешиваться в выборы.

Конечно, эта же технология может быть использована во благо; в качестве примеров точек Десса автоматический голосовой дубляж фильмов на любом языке, а также более естественное звучание умных помощников. Однако, ясно, что общество должно обеспечить синтетические речевые технологии разрабатываются ответственно, прежде чем они станут представлять опасность, говорится в сообщении компании.

“Это не диковинные полагать, что последствия мы уже упоминали (и конечно, многое другое) скоро пробиваются в ткани общества”, – предупредил Десса

Страшные последствия почему Десса отказывается освободить технические детали за их Ай-работает текста в речь технологии синтеза. “Чтобы работать на вещи, как это ответственно, мы считаем, что общественность должна быть осведомлена о последствиях, что синтез речи модели, прежде чем выпустить что-либо с открытым исходным кодом,” – сказали в компании.

Этим все сказано, в планах компании по размещению технический обзор технологии ИИ в ближайшие дни. В то же время, Десса создал сайт, который проверяет, можно ли выбрать видео клипы Роган с поддельными создается благодаря искусственному интеллекту.

В ответ на демо, сам Роган в Твиттере: “Это может стать настоящей проблемой. Я польщен и горжусь тем, что они выбрали мой голос в качестве примера, дайте нам знать, что мы в жопе”.

Понравилась статья? Поделиться с друзьями:
Гуру ПК
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: