Общество

Футурологи оценили искуственный интеллект Госдумы

В Госдуме займутся регулированием взаимоотношений людей с роботами. Эксперт НСН поддержал инициативу, предложенную спикером ГД.

Спикер Госдумы Вячеслав Володин заявил, что в ближайшее время депутаты займутся регулированием взаимоотношений людей и роботов. Как сообщает «Интерфакс», в этом вопросе народные избранники будут сотрудничать с крупнейшими компаниями. Также Володин отметил, что вопросы отношения человека и искусственного интеллекта, отношения человека и робота находятся в числе тех, которые в ближайшее время будут прописываться законодательно.

Помимо этого, спикер ГД отметил, что скоро на рынке будет происходить перераспределение профессий, что также делает вопрос развития робототехники важным.

Член Ассоциации футурологов Александр Кононов в беседе с НСН заявил, что Госдума совершенно правильно и своевременно подняла этот вопрос.

«Под эту проблематику нужно создавать комитет, и заниматься не только проблемами искусственного интеллекта, но и всех новых технологий. В первую очередь, безопасностью влияния этих новых технологий на общество. И безопасностью, как таковой. Например, мы же занимаемся проблемами целой отрасли – кибербезопасности. Очевидно, такие области безопасности должны быть созданы по всем направлениям новых технологий. На мой взгляд, это самый важнейший вопрос – быть готовыми к решению возможных проблем, которые могут возникнуть в связи с созданием и разработкой искусственного интеллекта и других новых технологий», - отметил собеседник НСН.

По мнению Александра Кононова, должны быть отрегулированы проблемы безопасности. Сейчас, к сожалению, во всём мире подходы к развитию искусственного интеллекта такие же, как к любым другим технологиям.

«Тогда вопросы безопасности ставятся только в общем плане, а вот обеспечение безопасности в процессе создания самих технологий - этого, по-прежнему, нет. А с искусственным интеллектом таких ошибок допускать нельзя. Нельзя допускать тот подход, когда инструкция по безопасности "пишется кровью": на авариях и катастрофах. Например, создание с помощью биотехнологий новых вирусов, которые могут уничтожить человечество. Или искусственного интеллекта, который выйдет из-под контроля – всё это может привести к тому, что никаких инструкций нам больше писать не придётся. Вопросы безопасности должны ставиться на весь жизненный цикл: от отдельных модулей до их внедрения. И это надо продумывать сразу», - отметил футуролог.

Эксперт подчеркнул, что второй вопрос заключается в том, что сейчас существует угроза использования роботов и искусственного интеллекта в военных целях. Фактически, для убийства людей.

«Сейчас могут быть нарушены законы робототехники, гласящие о том, что робот не может быть использован против человека. Поскольку они нигде не закреплены. То есть, не приняты законы, как конвенции. Сейчас запрещены шесть видов вооружений. И нужно запрещать седьмое или, там, восьмое – использование роботов с искусственным интеллектом в целях убийства людей. Эти вопросы надо решать, их должна ставить Госдума. Это правильный подход. Понимание, что нужно создать специальный комитет по новым технологиям. А вообще по безопасности нации и будущего человеческой цивилизации. Я поддерживаю инициативу Госдумы, которая озаботилась этими вопросами и будет готова принимать нормативные акты, а также будет готова к участию в международных обсуждениях вопроса безопасности создания новых технологий. Если Госдума займется этими вопросами, то это поставит Россию в авангард борьбы за безопасность будущего человеческой цивилизации. И это только плюсы. Потому что в минус тут поставить нечего. Россия должна показать свою озабоченность вопросами безопасности будущей цивилизации, а не только о собственных интересах», - резюмировал член Ассоциации футурологов.

Напомним, что этот вопрос спикер Госдумы уже поднимал в середине февраля в ходе своей рабочей поездки в Татарстан. Там он посетил IT-парк, бизнес-инкубатор и наукоград Иннополис.Тогда и было анонсировано создание совета по законодательному обеспечению развития цифровой экономики.

Подписывайтесь на НСН: Новости | Дзен | VK | Telegram