Киану Ривза с помощью нейросетей заставили «предотвратить» ограбление
Голливудский актер Киану Ривз «обезвредил» грабителя в магазине. Fake-видео размещено на Youtube-канале Corridor.
Создатели ролика использовали технологию deepfake. Возможности нейросети позволяют подделавать видео, вставляю туда лицо любого человека.
Пользователи Сети были разочарованы шуткой, но отметили качество видео. «Даже как человек, который, честно говоря, не знает, как звучит голос Киану, именно когда он заговорил, я понял, что это подделка. В остальном, черт возьми, это действительно хорошо», —отметил один из зрителей.
Алгоритм deepfake вызвал серьезный ажиотаж в США зимой 2018 года. Ролики с участием американского президента и других политиков, выполненные с помощью этого алгоритма, назвали потенциальной причиной ядерной войны. Некоторые хостинги для взрослых заблокировали все видео с «участием» звезд из-за возможных юридических последствий.
Горячие новости
- Над регионами России сбили 125 украинских беспилотников
- СМИ: Иран укрепляет остров Харк на случай атаки США
- СМИ: Израиль опасается скорого перемирия с Ираном
- СМИ: Приближается начало наземной операции США в Иране
- Зеленский: США требуют от Украины отступить из Донбасса в обмен на гарантии безопасности
- В Новосибирской области начались облавы по выявлению неучтенного скота
- Тегеран пригрозил перекрыть вход в Суэцкий канал в случае наземной операции США
- СМИ: Рабочие из КНДР в РФ пожаловались на антисанитарию и выплаты в $10 в месяц
- Минсельхоз США: Массовые убои скота в РФ могут происходить из-за эпидемии ящура
- Власти хотят снова запретить вывоз бензина из РФ из-за роста цен
