«Нехватка мощностей»: Разработчики не нашли эффективных методов борьбы с дипфейками
Станислав Ашманов заявил НСН, что разработчики систем генерации контента научились обходить антифейковые системы.
Разработчики систем генерации контента научились обходить антифейковые системы, поэтому подобные алгоритмы сегодня ненадежны, заявил гендиректор компании «Нейросети Ашманова» Станислав Ашманов в беседе с НСН.
Премьер-министр России Михаил Мишустин поручил Минцифры до 19 марта проработать способы выявления недостоверных данных, созданных с помощью технологий искусственного интеллекта (ИИ). По мнению экспертов, подобные дипфейки могут нести в себе огромные риски, в том числе для органов власти, пишут «Известия». Ашманов назвал эту задачу технически сложной.
«Речь идет о контенте, который генерируется нейросетями: аудиозаписи, видео, изображения, тексты. Визуально отличить сгенерированный контент иногда можно, иногда нет, иногда контент очень качественный, человек отличить не может. Есть возможность определять контент с помощью алгоритмов, которые анализируют мелкие детали и шумы на изображении. Но эти алгоритмы не очень надежные, так как здесь происходит «гонка вооружений». Когда разработчики систем генерации контента могут, основываясь на том, как антифейковые программы работают, улучшать свои системы», - объяснил он.
Также Ашманов пожаловался на нехватку мощностей, которые необходимы для создания алгоритмов по борьбе с дипфейками.
«Мы в ближайшее годы увидим шквал генеративного контента, но бороться с ним будет сложно. Пользователи должны это понимать. В России ведутся работы по созданию таких алгоритмов, это делается в рамках нескольких институтов, в частных компаниях. У меня в коллективе тоже такие разработки ведутся. Нужен огромный массив данных, а у нас огромная нехватка вычислительных мощностей. Санкции усложняют закупки, цены выросли. У нас нет пока своих нейропроцессоров, которые можно использовать для обучения нейросетей, нам приходится закупать американские», - рассказал он.
При этом разработчик заметил, что не только Россию волнуют дипфейки, во всем мире эффективных методов борьбы с ними пока нет.
«Задача важная, но довольно сложная с точки зрения технической реализации. Я хороших примеров решения этих задач в мире не встречал. Есть подходы, когда принудительно разработчиков заставляют внедрить скрытую пометку внутри контента. Такие примеры в мире есть, крупные корпорации, которые создают сервисы для генерации речи, внедряют звуковые пометки. Если мы говорим про злоумышленников, они никаких пометок делать не будут», - резюмировал собеседник НСН.
Ранее в МИСИС создали нейросеть для определения подлинности изображения лиц на фотографиях. Их можно загружать через разработанное веб-приложение. Уточняется, что разработчики опирались на обманы presentation attacks: использование фотографии лиц в печатном и электронном виде, а также объемных масок, имитирующие черты лица, передает «Радиоточка НСН».
Горячие новости
Заразились
22,9 млн
+2 379 / сут.Умерли
399 тыс.
+26 / сут.Выздоровели
22,3 млн
+2 902 / сут.- СМИ: В Германии установили личности подорвавших «Северные потоки»
- СМИ: Германия строит военную железную дорогу вглубь Украины
- СМИ: США намерены убедить Украину пойти на уступки
- Немецкий альпинист рассказал подробности подъема на пик Победы с Наговицыной
- Появился кадр из фильма с Джудом Лоу в роли Путина
- Консилиум альпинистов считает невозможным спасение Наговициной
- Минпросвещения и Минтруд разрабатывают единые критерии зарплаты учителей
- «Русский мэр» в Колумбии заявил о попытках сместить его с должности
- Дмитрий Певцов заявил о дефиците идей и «ждунах» в российском кино
- Михаил Муромов рассказал, что получает пенсию в 12 тысяч рублей
Роспотребнадзор, ВОЗ, mos.ru