Киану Ривза с помощью нейросетей заставили «предотвратить» ограбление
Голливудский актер Киану Ривз «обезвредил» грабителя в магазине. Fake-видео размещено на Youtube-канале Corridor.
Создатели ролика использовали технологию deepfake. Возможности нейросети позволяют подделавать видео, вставляю туда лицо любого человека.
Пользователи Сети были разочарованы шуткой, но отметили качество видео. «Даже как человек, который, честно говоря, не знает, как звучит голос Киану, именно когда он заговорил, я понял, что это подделка. В остальном, черт возьми, это действительно хорошо», —отметил один из зрителей.
Алгоритм deepfake вызвал серьезный ажиотаж в США зимой 2018 года. Ролики с участием американского президента и других политиков, выполненные с помощью этого алгоритма, назвали потенциальной причиной ядерной войны. Некоторые хостинги для взрослых заблокировали все видео с «участием» звезд из-за возможных юридических последствий.
Горячие новости
Заразились
22,9 млн
+2 379 / сут.Умерли
399 тыс.
+26 / сут.Выздоровели
22,3 млн
+2 902 / сут.- Минобороны: ПВО за 4 часа сбило 22 украинских БПЛА над 3 регионами России
- Лавров: Призывы прекратить огонь на Украине – попытка выиграть время
- Подросток за рулем автомобиля врезался в дерево в центре Москвы
- СМИ: Подростки устроили массовую драку возле алкомаркета в Санкт-Петербурге
- Бессент: США могут отказаться от 100% пошлин в отношении Китая
- Петербургский «Зенит» победил московское «Динамо» в матче 13-го тура РПЛ
- Гладков: Еще 4 мирных жителя ранены в Белгородской области в результате атак ВСУ
- Минфин США: Военнослужащие могут остаться без зарплат к середине ноября
- Умер актер «Мастерской Петра Фоменко» Геннадий Назаров
- Попов: Российская анимация сможет достичь импортозамещения с помощью IT и ИИ
Роспотребнадзор, ВОЗ, mos.ru
