Глазам больше нельзя верить? Как распознать видео, созданное нейросетью
Современные технологии генерации видео вышли на уровень, при котором отличить подделку от реального ролика становится крайне сложно, сказал НСН Алексей Рыков.
Еще несколько лет назад фальшивые видео можно было вычислить по очевидным дефектам — искаженной мимике, размытым деталям, неестественным движениям. Теперь эти признаки почти исчезли, а сами технологии стали доступными массовому пользователю, сказал в эфире НСН ИИ-режиссер и предприниматель Алексей Рыков.
«Всего пару лет назад дипфейк было легко поймать на артефактах. Сегодня те же технологии создают ролики, которые без специальных инструментов не распознает даже опытный человек. Сейчас распространены два типа синтетического видео: классические дипфейки с заменой лица и полностью сгенерированные ролики. В первом случае слабые места — линия лица, глаза и мимика, во втором — нестабильность деталей, особенно при движении. Однако даже эти признаки быстро исчезают. Развитие диффузионных моделей позволило значительно повысить реалистичность изображения, движения и света. Более того, современные системы уже умеют синхронно генерировать звук и речь, устраняя один из главных недостатков ранних дипфейков. Если раньше на создание убедительного видео уходили дни, то сегодня — 5–7 минут. Иногда достаточно одной фотографии и короткого голосового сообщения», — сказал собеседник НСН.
По его словам, дополнительную угрозу создает тот факт, что нейросети обучаются на открытых данных пользователей — фотографиях, сторис и голосовых сообщениях из соцсетей.
«На этом фоне растет и число мошенничеств. Дипфейки используются для имитации родственников, коллег и руководителей, а видеосвязь все чаще становится инструментом обмана. При этом люди по-прежнему склонны доверять увиденному. Исследования показывают, что человек распознает дипфейк лишь в половине случаев — примерно на уровне случайного угадывания. При этом уверенность в собственной «наблюдательности» остается высокой. Мы десятилетиями учились доверять видео. Теперь этот рефлекс работает против нас», — констатировал эксперт.
Он подчеркнул, что универсального способа защиты не существует.
«Даже современные детекторы дипфейков не дают стопроцентной гарантии, а метаданные видео часто теряются при пересылке. В этих условиях ключевую роль играет цифровая гигиена. Пользователям рекомендуют проверять информацию через альтернативные каналы, не принимать решений под давлением срочности и критически относиться к источнику контента. Общество уже вступило в эпоху, где визуальные доказательства больше не являются абсолютной истиной, а проверка информации становится обязательной частью повседневной жизни», — добавил Рыков.
Ранее банки оценили выгоду от работы с клиентами по видеосвязи в эпоху дипфейков, напоминает «Радиоточка НСН».
Горячие новости
- В Германии отменили требование согласования выезда для мужчин за границу
- Unicredit опроверг планы закрытия бизнеса в России
- Эстония отказалась задерживать российские суда из-за риска эскалации
- СМИ: Рост цен на топливо ударил по фермерам Украины
- При атаке дрона в Белгородской области погибли два человека
- Глазам больше нельзя верить? Как распознать видео, созданное нейросетью
- Старые шины предложили сдавать на переработку вместо выброса
- Знаковый или пустой финал: Чего ждать от третьего сезона «Эйфории»
- Цыганова поддержала идею Бородина передать ей песни Пугачевой
- Кинокритик усомнился в выборе актрисы Моряк на роль Курагиной
