Киану Ривза с помощью нейросетей заставили «предотвратить» ограбление
Голливудский актер Киану Ривз «обезвредил» грабителя в магазине. Fake-видео размещено на Youtube-канале Corridor.
Создатели ролика использовали технологию deepfake. Возможности нейросети позволяют подделавать видео, вставляю туда лицо любого человека.
Пользователи Сети были разочарованы шуткой, но отметили качество видео. «Даже как человек, который, честно говоря, не знает, как звучит голос Киану, именно когда он заговорил, я понял, что это подделка. В остальном, черт возьми, это действительно хорошо», —отметил один из зрителей.
Алгоритм deepfake вызвал серьезный ажиотаж в США зимой 2018 года. Ролики с участием американского президента и других политиков, выполненные с помощью этого алгоритма, назвали потенциальной причиной ядерной войны. Некоторые хостинги для взрослых заблокировали все видео с «участием» звезд из-за возможных юридических последствий.
Горячие новости
Заразились
22,9 млн
+2 379 / сут.Умерли
399 тыс.
+26 / сут.Выздоровели
22,3 млн
+2 902 / сут.- Врач Вахляев предупредил об опасности холодного душа
- Вблизи южных Курил произошли два землетрясения
- В Псковской области окажут помощь 98-летнему ветерану, вернувшемуся из Латвии
- Трамп заявил, что БРИКС «угасает» после его угрозы ввести пошлины
- Песков прокомментировал возможность встречи Путина, Трампа и Си Цзиньпина
- Израиль и Сирия договорились о прекращении огня
- Собянин заявил об отражении атаки 13 летевших на Москву дронов
- Генассамблея ООН приняла резолюцию России о реформировании деятельности организации
- В Ростовской области несколько частных домов загорелись из-за атаки БПЛА
- Россия вновь объявила в розыск украинку, подозреваемую в передаче взрывчатки
Роспотребнадзор, ВОЗ, mos.ru