«Нехватка мощностей»: Разработчики не нашли эффективных методов борьбы с дипфейками

Станислав Ашманов заявил НСН, что разработчики систем генерации контента научились обходить антифейковые системы. 

Разработчики систем генерации контента научились обходить антифейковые системы, поэтому подобные алгоритмы сегодня ненадежны, заявил гендиректор компании «Нейросети Ашманова» Станислав Ашманов в беседе с НСН.

Премьер-министр России Михаил Мишустин поручил Минцифры до 19 марта проработать способы выявления недостоверных данных, созданных с помощью технологий искусственного интеллекта (ИИ). По мнению экспертов, подобные дипфейки могут нести в себе огромные риски, в том числе для органов власти, пишут «Известия». Ашманов назвал эту задачу технически сложной.

«Речь идет о контенте, который генерируется нейросетями: аудиозаписи, видео, изображения, тексты. Визуально отличить сгенерированный контент иногда можно, иногда нет, иногда контент очень качественный, человек отличить не может. Есть возможность определять контент с помощью алгоритмов, которые анализируют мелкие детали и шумы на изображении. Но эти алгоритмы не очень надежные, так как здесь происходит «гонка вооружений». Когда разработчики систем генерации контента могут, основываясь на том, как антифейковые программы работают, улучшать свои системы», - объяснил он.

Также Ашманов пожаловался на нехватку мощностей, которые необходимы для создания алгоритмов по борьбе с дипфейками.

«Мы в ближайшее годы увидим шквал генеративного контента, но бороться с ним будет сложно. Пользователи должны это понимать. В России ведутся работы по созданию таких алгоритмов, это делается в рамках нескольких институтов, в частных компаниях. У меня в коллективе тоже такие разработки ведутся. Нужен огромный массив данных, а у нас огромная нехватка вычислительных мощностей. Санкции усложняют закупки, цены выросли. У нас нет пока своих нейропроцессоров, которые можно использовать для обучения нейросетей, нам приходится закупать американские», - рассказал он.

При этом разработчик заметил, что не только Россию волнуют дипфейки, во всем мире эффективных методов борьбы с ними пока нет.

«Задача важная, но довольно сложная с точки зрения технической реализации. Я хороших примеров решения этих задач в мире не встречал. Есть подходы, когда принудительно разработчиков заставляют внедрить скрытую пометку внутри контента. Такие примеры в мире есть, крупные корпорации, которые создают сервисы для генерации речи, внедряют звуковые пометки. Если мы говорим про злоумышленников, они никаких пометок делать не будут», - резюмировал собеседник НСН.

Ранее в МИСИС создали нейросеть для определения подлинности изображения лиц на фотографиях. Их можно загружать через разработанное веб-приложение. Уточняется, что разработчики опирались на обманы presentation attacks: использование фотографии лиц в печатном и электронном виде, а также объемных масок, имитирующие черты лица, передает «Радиоточка НСН».

Подписывайтесь на НСН: Новости | Дзен | VK | Telegram

ФОТО: РИА Новости / Григорий Сысоев

Горячие новости

Все новости

партнеры