Наука и технологии

Загрузит и «ослепит»: Почему маркировка ИИ-контента не поможет в борьбе с фейками

Вместо маркировки контента стоило бы проработать механизмы его дополнительной модерации в соцсетях, заявил НСН Алексей Бырдин. 

Обязательная маркировка не поможет бороться с фейками, сгенерированными нейросетями, а скорее сформирует у зрителей и пользователей соцсетей «слепоту» к такому контенту, сказал в беседе с НСН глава Ассоциации «Интернет видео» Алексей Бырдин.

Госдума планирует рассмотреть законопроект об обязательной маркировке ИИ-видео в марте 2026 года, сообщает «Коммерсант». Как уточняет издание, законопроект отправлен в федеральные органы власти для получения официальных отзывов. Из текста законопроекта следует, что маркировку обяжут производить владельцев видеохостингов, социальных сетей и иных интернет-ресурсов, у которых на платформе есть соответствующие ИИ-материалы. При этом председатель комитета Сергей Боярский не исключил, что маркировка будет касаться контента, созданного именно людьми, а не ИИ. Бырдин заметил, что любая всеобщая маркировка потребует заметных затрат.

«Подозреваю, что это будет весьма затратная история. Скорее всего, это будут сотни миллионов рублей - миллиарды рублей. Сразу замечу, что не вижу оснований применять аналогичную историю к СМИ и к аудиовизуальным сервисам. Там контент уже проходит редакционную проверку. Все категории запрещенной информации фильтруются. В этом смысле соцсети – объективно больший источник общественно опасного контента, который может распространяться быстро. Однако, всеобщая маркировка вряд ли поможет достичь поставленной цели. Если ценой нечеловеческих усилий и вычислительных мощностей люди будут знать, что видео с условным котиком создано с помощью искусственного интеллекта, меньше будут умиляться. Однако вряд ли это нужный целевой результат», - сказал он.

Как предположил собеседник НСН, излишняя маркировка приведет к тому, что люди перестанут замечать любые всплывающие плашки и предупреждения.

«Вопрос с обязательной маркировкой – к теме фейков, создаваемых с помощью генеративного искусственного интеллекта. В России в следующем сентябре выборы в Госдуму. Внимание к этой теме со стороны депутатов объяснимо. Любые политические процессы всегда уязвимы, особенно в условиях гибридных информационных войн. Однако тотальная маркировка вряд ли что-то даст. Сейчас много профессионального контента создается с применением ИИ. Излишняя маркировка приведет к "слепоте". Люди перестанут замечать маркировку действительно опасного контента. Потому любой бестолковой маркировки, которая ничего не обозначает по сути, стоит избегать. Нужно двигаться в сторону более точной оценки общественной опасности того или иного контента. Не важно, снят ли он с помощью ИИ. Любая общественная опасность не в генезисе, а в содержании», - объяснил Бырдин.

По его словам, альтернативным решением проблемы стала бы дополнительная модерация контента.

«Сейчас, наверное, пока преобладает контент, созданный людьми. С точки зрения потенциала генерации контента с помощью различных сервисов искусственного интеллекта, пропорция может довольно быстро поменяться. Делать из социальных сетей заложников технологического прогресса, на мой взгляд, странно. На мой взгляд, любой контент может подвергаться автоматизированной фильтрации. Либо должна быть оперативная система каких-то жалоб на контент. Люди с критическим мышлением могут жаловаться на контент. Если он несет что-то деструктивное, необходимо отправляться его на дополнительную модерацию. Мне кажется, вместо тотальной маркировки есть смысл думать в эту сторону», - заявил он.

Ранее эксперт комиссии по развитию информационного общества в Совете Федерации, разработчик сайта Кремля Артем Геллер в разговоре с «Радиоточкой НСН» подчеркнул, что сегодня даже самые подкованные люди уже не могут отличить реальный контент от сгенерированного. Потому маркировка контента, созданного с помощью искусственного интеллекта, необходима.

Подписывайтесь на НСН: Новости | Дзен | VK | Telegram

ФОТО: РИА Новости / Алексей Никольский