Общество

«Описавшийся щенок»: Клименко встал на защиту искусственного интеллекта

Введение ответственности за использование ИИ в преступных целях угрожает технологическому развитию РФ, заявил НСН глава совета Фонда развития цифровой экономики.

Россия может оказаться на обочине очередной технологической революции, если начнет преждевременно и необдуманно вводить регулирование искусственного интеллекта. Об этом в комментарии НСН заявил глава совета Фонда развития цифровой экономики Герман Клименко.

Ассоциация больших данных ранее раскритиковала поправки в УК, подготовленные Минцифры. Они предусматривают, в том числе, уголовную ответственность за применение ИИ при совершении преступлений. В АБД сочли, что расплывчатые определения могут затормозить развитие отрасли, снизив мотивацию разработчиков. Отмечается, что в ближайшее время большинство приложений и устройств будут использовать эти технологии, а значит, почти любое преступление можно будет квалифицировать по предлагаемым отягчающим составам.

«Есть такое правило - сперва надо развиться, а потом уже корову доить. Искусственный интеллект находится в начальной стадии своего развития. Если инструмент будет криминализирован, получится, что любая компания, которая связана с ИИ, может понести ответственность за то, что его продуктом кто-то будет пользоваться. Например, 90% бытовых преступлений совершаются обычными кухонными ножами. Представьте, что мы сейчас введем отдельную ответственность за убийство именно этими ножами. После этого, что начнется на заводах, которые выпускают ножи? Здесь такая же история. Есть еще несформированный рынок ИИ, он еще щенок практически, а мы пытаемся повесить электрический ошейник на него, чтобы бить током за каждое нарушение. Ничего кроме описавшегося щенка мы не увидим», - подчеркнул Клименко.

Он также обратил внимание на зарубежный опыт в этом плане.

«В Европе, например, цифровой акт, на основании которого Павел Дуров сейчас пребывает во Франции, никуда выехать не может, принимался 5 лет в ходе открытого обсуждения с участием представителей компаний, все игроки рынка вырабатывали что-то среднее. Мы сейчас находимся в очередной промышленной революции с участием искусственного интеллекта. Если мы хотим на гребне этой волны войти в тройку-пятерку стран, которые окажутся здесь лидерами, мы должны к ИИ относиться более нежно. Я бы перевел текст Ассоциации больших данных следующим образом: Коллеги, давайте хотя бы поговорим, не будем гнать», - призвал собеседник НСН.

Герман Клименко также выразил опасение, что новые запреты могут просто поставить крест на развитии отечественного ИИ.

«Сегодня нашего для регулирования нет ничего, есть только чужое. Но всё наше регулирование, как правило, заключается только в запрете. Если мы хотим развить искусственный интеллект, нельзя отказываться от зарубежных инструментов. Мы должны ими пользоваться, более того, на их основе развивать свои. Если мы сейчас будем принимать законы, регулирующие то, чего у нас не развито, мы рискуем запретить развитие. Вот в чем проблема. По большому счету, мы пытаемся отрегулировать половодье, когда его ни разу не было. Давайте дождемся, когда оно произойдет, ничего страшного не случится, весь мир через это проходит. Давайте не будем спешить. Искусственный интеллект вообще находится в зачаточном развитии», - заключил глава совета Фонда развития цифровой экономики.

Ранее стало известно, что «Яндекс» и ученые РАН разрабатывают «невидимую глазу» маркировку для контента, созданного искусственным интеллектом, а также считывающие их анализаторы. Выявлять творчество западных нейросетей «Яндекс» не сможет, но у них такие технологии маркировки есть с 2023 года, рассказал Telegram-каналу «Радиоточка НСН» руководитель проекта по интеграции нейросетей в TenChat Александр Жадан.

Подписывайтесь на НСН: Новости | Дзен | VK | Telegram

ФОТО: РИА Новости / Константин Михальчевский