Футуролог предложил вариант защиты от гибели цивилизации
Член Ассоциации футурологов Александр Кононов в эфире НСН заявил о необходимости изменения человеческого сознания в целях безопасности.
Бритaнское интернет-мaркетинговое aгентство Blueclaw состaвило список потенциaльных кaтaстроф, которые могут уничтожить жизнь нa Земле. Человечество может погибнуть от климaтических изменений, ядерной войны, эпидемий или столкновения плaнеты с aстероидом, говорится в исследовaнии.
Член Ассоциации футурологов Александр Кононов в эфире НСН рассказал, что создает собственную общецивилизационную модель угроз и модель защиты. Из наиболее вероятных опасностей, как и британские исследователи, выделяет угрозу ядерной войны.
«Самая большая угроза – это применение оружия массового уничтожения. Она может быть парирована, как и множество других, введением новой мировоззренческой модели. Должно появиться общецивилизационное мышление. Для этого нужно поменять систему образования, ввести в нее критериальные модели оценки безопасности цивилизации. Критериальные модели позволяют выделить характеристики, соответствие которым позволяет максимально снизить риски нашей цивилизации сразу во многих сферах», - заявил футуролог.
Александр Кононов отметил, что поиск комплексных решений безопасности позволит устранить максимальное число угроз, поэтому создание «индивидуальных средств защиты» для каждого вида опасности нецелесообразно и даже опасно.
«Мы должны оценить наши достижения за пять тысяч лет развития цивилизации! В систему образования необходимо ввести критериальные модели безопасности, которые позволят человеческой цивилизации не стать жертвой огромного числа угроз. Необходимо избежать когнитивных искажений, когда вы концентрируетесь на защите от нескольких, пусть и главных, видов опасности, а другие могут привести вас к катастрофе. Например, люди стали осознавать опасность изменения климата – повысилась значимость «зеленых» на политической арене. Но если цивилизация решит отказаться от дальнейшего прогресса, чтобы не загрязнять окружающую среду, мы станем уязвимы для огромного количества других угроз. Поэтому нужно очень взвешенное решение», - отметил собеседник НСН.
Ранее профессор ВШЭ, футуролог Андрей Коротаев в эфире НСН рассказал, когда искусственный интеллект перестанет ошибаться.
Горячие новости
Заразились
22,9 млн
+2 379 / сут.Умерли
399 тыс.
+26 / сут.Выздоровели
22,3 млн
+2 902 / сут.- Медведев заявил, что Зеленский будет жить, пока продолжает разваливать «страну 404»
- Дерипаска: Европе угрожает не Россия, а государства Глобального Юга
- Каллас: Страны ЕС не готовы назвать дату вступления Украины в объединение
- Минобороны: Средства ПВО за 2 часа уничтожили 43 украинских БПЛА
- Богомаз: В Брянске и области нарушено тепло- и электроснабжение после атак ВСУ
- Богомаз: ПВО более 12 часов отбивает атаки беспилотников ВСУ на Брянскую область
- Серия землетрясений произошла у Курильских островов
- Aurus Motors опровергла слухи о закрытии завода в Елабуге
- Минобороны: Средства ПВО за 5 часов уничтожили 123 украинских БПЛА
- СМИ: В Санкт-Петербурге зафиксировали два случая заболевания оспой обезьян
Роспотребнадзор, ВОЗ, mos.ru
