Главные угрозы, способные уничтожить как минимум 10% населения Земли

0

Главные угрозы, способные уничтожить как минимум 10% населения Земли
Главные угрозы, способные уничтожить как минимум 10% населения Земли

Ученые из Оксфордского университета представили отчет под названием "Риски глобальных катастроф", в котором перечисляются главные угрозы, способные уничтожить как минимум 10% населения Земли. Главной угрозой в ближайшее время, как выясняется, могут стать так называемые "неизвестные риски", не зависящие от человеческих усилий: падение астероида или извержение супервулкана.

В долгосрочной же перспективе человечеству могут угрожать пандемии, ядерная война, катастрофические изменения климата и развитие искусственного интеллекта.

Можно ли минимизировать риски глобальной катастрофы?

Между тем правительства большинства стран, по мнению авторов доклада, сегодня не готовы ответить на перечисленные угрозы. Что делать?

Ведущие программы "Пятый этаж" BBC Михаил Смотряев и Александр Кан беседуют на эту тему с Алексеем Турчиным, специалистом по глобальным рискам.

Михаил Смотряев: Алексей Валерьевич, нам предстоит с вами в ближайшие 20 минут спасти планету, потому что оксфордские ученые - народ серьезный, как и все британские ученые. Если говорить чуть более серьезно, то подобного рода прогнозы появляются не первый, не второй, не третий раз за последние несколько месяцев, да и за несколько лет. Достаточно вспомнить ажиотаж вокруг 2012 года, ничем, правда, кроме суеверий, не вызванный.

Но об угрозах больших метеоритов говорят с тех пор, как человечество летает в космос, а с момента столкновения кометы Шумейкера-Леви с Юпитером это уже сделалось совсем очевидно. Потом еще случилась Фукусима. Сегодня в Бельгии правительство решило всем гражданам выдавать таблетки с йодом на случай, если у них там что-нибудь произойдет не то. Это не только британские ученые, над которыми в русском сегменте интернета принято потешаться, делают такие действительно тревожные прогнозы. Угроза, как представляется научному миру, достаточно реальна, да?

Алексей Турчин: Есть такая ситуация, что у нас есть волны публичного интереса к проблеме глобальных рисков, которые именно волнами идут и связаны с какими-то зрелищными катастрофами, и есть более-менее устойчивые научные исследования проблемы глобальных рисков, которые были начаты в Англии Ником Бостромом в районе 2000 года. Он жил в Оксфорде.

Судя по тому, что мы сейчас слышали, это были не его слова, потому что в той картине, которую он обрисовал в своей фундаментальной статье "Риски вымирания человечества", он сказал, что главные риски связаны в первую очередь с развитием новых технологий, а не с астероидом, не с вулканом.

М.С.: Астероид и вулкан нельзя списывать со счетов. Группа ученых из Оксфорда интересным образом вычислила, что в ближайшие 5-10 лет подобного рода угрозы, никак не контролируемые человечеством, будут представлять наибольшую опасность. В последующем на первое место выходят риски, в создании которых человечество принимает непосредственное участие. Вспомнили, начиная от Исламского государства, которое уже может при случае создать какой-нибудь вирус, и кончая той же самой Фукусимой. Возникает вопрос: почему такое странное деление? Можно подумать, что через пять или десять лет астероиды перестанут летать?

А.Т.: Вероятность падения астероида, который мог бы уничтожить человечество, крайне мала - один на миллион в год. При этом у нас есть процесс экспоненциального развития новых технологий. Например, Марк Цукерберг сказал, что искусственный интеллект сильнее человеческого будет у Facebook через 10 лет. У нас через 10 лет будут не такие прекрасные новые технологии, как мы видим в офисе Би-би-си, а сверхтехнологии, которые будут состоять из совершенно нового биотеха, которые будут давать полную власть над живой материей, из нанотехнологий и из искусственного интеллекта. Эти сверхтехнологии создают и сверхриски, если будут неправильно использованы.

М.С.: Об этом предупреждали совсем недавно и Стивен Хокинг, и, насколько я помню, Билл Гейтс тоже подключился, подал голос в пользу осторожного отношения к высоким технологиям. Пока на уровне обывателя это больше представляется каким-то жутким апокалиптическим, а потому не очень вероятным сценарием из голливудского фильма "Матрица". Когда он был снят? По-моему, в 1998 году первая "Матрица" появилась, - кино уже почти 20-летней давности. Насколько прогресс именно в этой области соответствует мрачным голливудским предсказаниям за последние 20 лет? 

 

Уже сейчас можно создать такой вирус или группу разных вирусов, которая может уничтожить большую часть человечестваАлексей Турчин, специалист по глобальным рискам

 

А.Т.: Если мы обратим свое внимание на биотехнологии, мы увидим, что уже сейчас можно не просто найти свиной грипп где-то, а целенаправленно создать такой вирус или группу разных вирусов, которая может уничтожить большую часть человечества, и потратить на это очень немного денег и времени, и научных знаний, потому что появились CRISPR, инструменты для заказа элементов ДНК в компаниях, чтобы тебе прислали их. Были опубликованы те вариации вируса гриппа, которые сделают его более опасным. Для нас биотех уже стал сверхтехнологией, которая может уничтожить человечество. Весь вопрос в том, как сделать так, чтобы ИГ или другие потенциальные враги не могли бы этим воспользоваться.

М.С.: Не знаю, как обстоит дело со специалистами из ИГ, но помимо всего прочего существует элемент не столько недобросовестного использования, но и элемент случайности. При этом технологии встречного характера, которые занимаются противодействием вирусам, биологическому оружию и всему, с этим связанному, тоже не стоят на месте. Нам обещают универсальную вакцину от гриппа в ближайшие десятилетия.

А.Т.: Если у нас появится такая вакцина, она откроет огромную возможность. Нам нужно развивать защитные системы с такой же, может быть, и с большей скоростью.

М.С.: Это, безусловно, так. Еще один момент, который привлек мое внимание в докладе, заключается в том, что в разряд катастроф попали события, которые в состоянии уничтожить от 10% населения Земли и выше. Не хотелось бы звучать цинично, - хотя, наверное, это все равно так прозвучит, - но на текущий момент 10% населения - это восполнимая потеря, нет?

А.Т.: Восполнимая, а 99% – невосполнимая, уже цивилизация не сможет восстановиться. Очень непонятно, какие последствия будут у выпуска вируса или группы вирусов: то ли он 10% убьет, то ли 99%? Этого никто посчитать не может.

М.С.: Как повезет. Алик, у вас заинтересованное лицо, видимо вопрос созрел.

Александр Кан: Я понимаю, что многие из этих прогнозов, предсказаний основаны на каких-то научных разработках, исследованиях, анализах, не из пустого места взяты. Но меня не покидает ощущение, что мы имеем дело почти что с тем, с чем человечество имело дело на протяжении всей своей истории, когда с ужасом ожидали какого-то очередного круглого года, конца света или каких-то других аналогичных ужасов, которые настигнут нас всех за грехи наши, что называется.

М.С.: Это очень любопытно. С одной стороны, в истории человечества есть немало подобного рода круглых дат - 1000 год, когда все ждали пришествия, или 2000-й со всеми возможными компьютерными катастрофами, или упоминавшийся уже 2012-й. С другой стороны, есть случаи, когда чума за 50 лет прошла путь от Европы до Китая и выжгла при этом четверть населения планеты, хотя посчитать это точно сложно.

А.К.: Но никто это и не предсказывал.

А.Т.: Тогда не было науки.

М.С.: Вопрос - насколько хорошо мы это можем предсказывать. Предсказание будущего сейчас носит более научный характер, чем во времена Нострадамуса, но вряд ли оно изменилось качественно, или все-таки изменилось?

А.Т.: К сожалению, очень плохо мы предсказываем. Мы можем видеть определенные тенденции развития и говорить, если они будут дальше развиваться, то будет то-то и то-то, но точно мы не можем назвать дату. Даже когда мы говорим о вероятности, то применимо к глобальным рискам, мы очень изменяем значение этого слова, потому что вероятность не применима к однократным событиям, в которых тем более погибаешь в процессе, то есть она только для статистических. Поэтому утверждение, что вероятность какой-то катастрофы - 20%, очень трудно интерпретировать. Один из возможных способов интерпретации - это сколько ресурсов нам следовало бы потратить на их предотвращение.

М.С.: Что касается траты ресурсов, это второе положение доклада, который сегодня появился. Оно коротко сводится к тому, что человечество ни к каким крупным катастрофам техногенного свойства или прилетевшим извне, не готово.

А.Т.: Абсолютно, человечество не готово к катастрофам. Я сейчас сделал свой научный проект - план предотвращения глобальных рисков, который я буду рассказывать 30 апреля на Лондонском клубе футурологов в университете. Он рассказывает о том, что есть много разных уровней, путей предотвращения рисков. Один из них - это международная кооперация, другой - создание искусственного интеллекта, который будет все контролировать. Проблема в том, что ничего из этого не делается. Наверное, только после того, как какая-то небольшая катастрофа произойдет, начнутся какие-то процессы объединения разных стран для реализации больших проектов по предотвращению глобальных рисков.

М.С.: Какие-то проекты уже существуют, например, уже совместно патрулируют те секторы неба…

А.Т.: Существуют узкие проекты по отдельным рискам, реализуемые силами отдельных стран или групп стран, как например, поиск опасных астероидов. Если мы посмотрим на ООН и ее Совет Безопасности, то она и была создана для предотвращения глобальных рисков, то есть в принципе такой международный институт существует, и в нем есть и МАГАТЭ, и так далее. При этом они не адаптированы к будущим рискам. Они рассматривают те риски, которые были хорошо известны в ХХ веке.

М.С.: Мало того, что они были хорошо известны в ХХ веке, они и сейчас или в своем первоначальном виде (если речь идет о крупном ядерном противостоянии двух держав) или слегка видоизмененном (ИГ получает в руки какой-нибудь вирус или грязную бомбу или еще что-нибудь), по калибру и, наверное, по методу противодействия, недалеко ушли из ХХ века?

А.Т.: Да, но они не действуют на опережение, потому что самые большие риски связаны с наиболее сильными, то есть будущими, технологиями - это искусственный интеллект, нанотехнологии. Ник Бостром написал довольно известную книгу "Суперинтеллект" о рисках искусственного интеллекта. Сейчас какие-то подвижки начались. Он даже выступал в ООН на каком-то комитете, но пока нет такого глобального объединения для предвидения и предотвращений всех в целом будущих рисков и обеспечения задачи неуничтожимости человеческой цивилизации. Для этого все страны мира должны объединиться, они должны прекратить все конфликты.

М.С.: Это легче сказать, чем сделать. Что касается глобальных рисков в неуничтожимости человечества, то предсказать все глобальные риски по состоянию на сегодня мы не можем. Знаете, как футурологи 50-60-х годов предсказывали, что непосредственно сейчас, в 2016 году, мы все будем одеты в серебряные костюмчики и будем летать на маленьких летающих тарелках на работу, но при этом прощелкали…

А.К.: Еще предсказывали, что в 2000 году нынешнее поколение советских людей будет жить при коммунизме. В 1980-м это было сказано.

М.С.: Так получилось бы, если бы не… При этом у меня, у Алика да и у вас тоже, - не знаю, как насчет серебряного костюмчика, - но летающей тарелки точно нет. Зато компьютеры или мобильные телефоны футурологи 50-х годов не заметили, не предсказали.

А.К.: Собственно это меня и волнует. Можно ли провести какую-то историческую перспективу обратно в историю человечества и понять: из тех опасностей, из тех вещей, которые ожидает человечество на каждом этапе его развития, каков процент того, что можно было предсказать? Мы говорим сейчас о возможности глобальных рисков, а, по всей видимости, могут оказаться риски, которые абсолютно непредсказуемы на сегодняшнем этапе.

А.Т.: Очень хороший вопрос. Основная проблема с рисками - это наше незнание. Вы правильно в этой статье сказали, что неизвестные риски составляют наибольшую опасность. Если знать, что и где, подстелю соломочку. Проблема отставания нашего знания от возможности моделирования будущего, от нашей возможности знать, когда какие технологии появятся, кто и как ими воспользуется, и составляет основную сложность этих рисков. Но разные люди, ученые - такой термин в английском языке устоялся, как экзистенциальные риски, - стараются создать модели этих рисков и способы им противостояния, то есть создать карту мира неопределенности. Но все равно остается неопределенность, потому что риск обычно не сбывается, в отличие от предсказания, что мы в 2000 году будем жить при коммунизме. Это должно было сбыться, мы видим, что не сбылось. Риск - это только вероятность. Он не произошел, мы не знаем почему, может, не выпала решка.

М.С.: Это все так. С другой стороны, если посмотреть на риски уже известные: после Чернобыля, 30-ю годовщину которого мы отмечали буквально три дня назад, казалось бы, всем стало понятно, что с этим не шутят. И вдруг раз - Фукусима. И теперь бельгийцы всем раздают таблетки с йодом. Даже говоря о тех рисках, о которых мы точно знаем, эффективных механизмов противодействия им, гарантий нет.

А.Т.: Сэр Мартин Рис, королевский астроном опубликовал - я сам читал, - еще до Фукусимы весь этот сценарий: если произойдет огромное землетрясение в Японии, то волна цунами смоет прибрежные ядерные станции, и произойдет большая ядерная катастрофа. Это было известно ученым заранее, но ни к чему это не привело, так все и произошло: цунами, волна, гибель станции и большое заражение.

М.С.: Получается, что это даже не вопрос рисков, как таковых, сколько отношение человечества к этим рискам.

 

 

 

 

 

Если человечество не поставит своей главной задачей предотвращение глобальных рисков, то вероятность его гибели гораздо возрастетАлексей Турчин, специалист по глобальным рискам

 

А.Т.: Если человечество не поставит своей главной задачей предотвращение глобальных рисков, то вероятность его гибели гораздо возрастет.

М.С.: Для того чтобы человечество этим занималось всерьез, надо, чтобы сначала человечество, как следует, испугалось.

А.Т.: Нужна двойная катастрофа: одна маленькая, потом нависающая - большая. Это не обязательно так произойдет.

М.С.: Это, во-первых, не обязательно так, во-вторых, не надо забывать, что если человечество напугать, то я не уверен, что результаты от этого будут существенно выше. Паника будет колоссальная.

А.Т.: В прошлом году очень неплохо мобилизовались. Сначала долго никак не могли, а потом с Эболой мобилизовались и придумали, как ее побороть. Отправили огромное количество врачей в очаг эпидемии и остановили ее именно в очаге. Оказалось, что это было правильно. Но полгода вообще никто на это не реагировал, хотя все кричали: "Вот Эбола экспоненциально растет, растет, растет". Потом Обама увидел это, выступил, выделил огромную сумму денег, туда отправили врачей, которые все это подавили.

М.С.: Вы вспомнили Обаму, а незадолго до того вспоминали ООН по поводу методов, которыми человечество может повернуться лицом к подступающим угрозам. Что для этого требуется помимо ученых, которые должны вычислить эти риски и достаточно популярно объяснить их?

А.Т.: Вначале ученые должны скооперироваться и составить карту рисков. Затем они должны донести ее до политиков и ООН, и она должна принять это как важное направление своей деятельности. Затем должно быть создано нечто вроде международного агентства, которое будет централизованно предотвращать все риски и которое будет зонтично объединять разные агентства, предотвращающие отдельные риски, типа МАГАТЭ, по биологическим рискам. Дальше оно должно осуществлять очень подробный мониторинг всего, что происходит. Уровень риска и уровень контроля должны быть пропорциональны.

Если у нас есть 5 тысяч потенциальных биотеррористов, то у нас должно летать 50 тысяч дронов, которые за ними наблюдают. Это создание некой всемирной компьютеризированной системы контроля за разными опасностями, но находящимися под контролем ООН или какого-то единого всемирного органа. Это, может быть, звучит немного по-оруэлловски, но именно на историческом этапе, на котором мы находимся, это один из возможных путей действительно с помощью очень жесткого контроля всей поверхности Земли подавить возможные источники рисков.

У нас нет нефантастических сценариев предотвращения глобальных рисковАлексей Турчин, специалист по глобальным рискам

М.С.: Вы говорите - один из возможных. С точки зрения теоретической науки этому сценарию ничего не противоречит. С другой стороны, представить себе, что все человечество или его значительная часть на таком уровне объединяется ради противодействия рискам, которые несут колоссальную угрозу, но при этом пока невообразимы, - это выглядит еще более фантастически, чем нашествие марсиан или любые другие сценарии.

А.Т.: Но у нас нет нефантастических сценариев предотвращения глобальных рисков. Есть еще путь создания сильного искусственного интеллекта, то есть мы создаем сверхинтеллект, который умнее человека в миллион раз, и он сам предотвращает все риски. Вот совершенно другой путь, за который многие агитируют, но, к сожалению, создание самого сверхинтеллекта само несет новые риски - вдруг он нас всех тоже уничтожит.

М.С.: Мне сразу вспомнился горячо любимый нами здесь на "Пятом этаже" Станислав Лем. В одном из его ранних рассказов "Путешествия Ийона Тихого" машину попросили создать идеальный порядок. Задача была сформулирована несколько расплывчато. Кончилось тем, что машина, которую наделили всей полнотой власти, все население планеты превратила в геометрически правильные фигуры, таким образом установив заданную ей в параметрах изначально гармонию.

Источник: BBC 


Теги статьи:
Распечатать Послать другу
comments powered by Disqus
Хроники большого дерибана: как Зиявудин Магомедов и Игорь Юсуфов аэропорт «Домодедово» делили / 16.11.2017
Хроники большого дерибана: как Зиявудин Магомедов и Игорь Юсуфов аэропорт «Домодедово» делили
В 2011 году Россия пережила очередное ужасное потрясение – теракт в аэропорту «Д… Подробнее
Ольга Сечина ушла к гламурному итальянцу / 15.11.2017
Ольга Сечина ушла к гламурному итальянцу
Францеско Провеццано дороже всей «Роснефти» Подробнее
Facebook отреагировал на дулю Хомутынника / 13.11.2017
Facebook отреагировал на дулю Хомутынника
Многих украинцев возмутили подобные действия Подробнее
Проворовавшийся девелопер Андрей Биржин взялся за строительство финансовой пирамиды / 09.11.2017
Проворовавшийся девелопер Андрей Биржин взялся за строительство финансовой пирамиды
Три года, согласно распоряжению главы государства, отведено российским девелопер… Подробнее
Наркожеребец Ключарев: «жидкий экстази», VIP-проститутки, оружие, Иванка Трамп и принцесса Йоркская / 09.11.2017
Наркожеребец Ключарев: «жидкий экстази», VIP-проститутки, оружие, Иванка Трамп и принцесса Йоркская
Британский шофер заснял групповые секс-трипы главы авиакомпании Red Wings Подробнее
Брат Ровшана Ленкоранского предложил турецкому мафиози 5 млн долларов за голову Гули / 09.11.2017
Брат Ровшана Ленкоранского предложил турецкому мафиози 5 млн долларов за голову Гули
Намика Джаниева задержали, когда он обсуждал с лидером турецкой группировки «Шир… Подробнее
Подчиненных Остапа Семерака поймали на браконьерстве / 06.11.2017
Подчиненных Остапа Семерака поймали на браконьерстве
"Природоохранители" организовали охоту на редких краснокнижных животных прямо на… Подробнее
Аудит выявил в Национальном авиационном университете нарушений на 104,1 млн / 04.11.2017
Аудит выявил в Национальном авиационном университете нарушений на 104,1 млн
В ходе ревизии в Национальном авиационном университете и его четырех структурных… Подробнее
"Властелин вкуса" Евгений Пригожин планирует задушить петербургские СМИ / 02.11.2017
"Властелин вкуса" Евгений Пригожин планирует задушить петербургские СМИ
«Кремлевский повар» Пригожин готов купить издания «Фонтанка» и «Деловой Петербур… Подробнее
loading...
Загрузка...
loading...
Загрузка...
Все статьи
Последние комментарии
Наши опросы
Где больше всего бандитов и коррупционеров?








Показать результаты опроса
Показать все опросы на сайте