Стівен Гокінг неодноразово наголошував, що людство залишається вразливим, поки вся наша цивілізація існує лише на одній планеті. На його думку, достатньо одного великого катаклізму – наприклад, астероїда, масштабної епідемії чи ядерного конфлікту – щоб поставити під загрозу існування виду, розповідає 24 Канал. Саме тому він активно говорив про різні сценарії можливого кінця світу, спонукаючи суспільство замислитися над ризиками.

Дивіться також Код життя у краплі води: нанотехнології можуть нарешті таємницю нашого походження

Глобальне потепління

Однією з найсерйозніших небезпек Гокінг вважав зміну клімату. Учений критикував повільність світових ініціатив у цьому напрямку та рішення США вийти з Паризької кліматичної угоди, наголошуючи, що це може завдати шкоди планеті.

Він наголошував на важливості глобальної співпраці, адже навіть недосконалі міжнародні домовленості мають значення, якщо їх підтримує більшість держав. За його словами, людство може наблизитися до точки неповернення, після якої кліматичні зміни стануть незворотними.

У своїх застереженнях фізик навіть змальовував екстремальний сценарій з умовами, подібними до Венери – надвисокою температурою та кислотними дощами. Деякі науковці вважають такі припущення перебільшенням, але погоджуються: навіть без цього клімат може стати непридатним для життя людей.

Сьогодні ситуація з глобальним потеплінням гірша, ніж передбачали науковці. Недавнє дослідження показало, що з 2015 року середній темп підвищення глобальної температури вдвічі перевищував темпи з 1970 до 2015 року.

Серед іншого вчені прогнозують, що Земля зрештою зазнає кардинальних атмосферних змін, які призведуть до вимирання більшості видів життя, включаючи людей, і покладуть кінець життю на Землі, яким ми його знаємо, про що йдеться у дослідженні опублікованому в журналі Nature.

Штучний інтелект

Гокінг визнавав потенціал ШІ як найбільшого прориву або найбільшої катастрофи в історії людства. Його турбувала проблема так званого "узгодження цілей", коли надрозумна система може діяти ефективно, але не враховувати інтереси людей.

У такому разі людство ризикує опинитися в становищі, подібному до сучасної дикої природи – її не знищують навмисно, але людська діяльність руйнує середовище існування.

У 2015 році вчений підписав відкритий лист із закликом розвивати дослідження безпечного штучного інтелекту, щоб максимально використати його переваги та зменшити ризики. З текстом листа можна ознайомитися на сайті Future of Life.

Нещодавно вчені провели експеримент в ході якого виявилося, що ШІ в симуляціях війни майже завжди обирає ядерний удар. Алгоритми часто припускалися помилок в умовах невизначеності, що призводило до небажаної ескалації конфліктів.

Генетична інженерія

Ще однією потенційною загрозою фізик вважав розвиток генетичних технологій. Він прогнозував, що вже у XXI столітті люди навчаться змінювати інтелектуальні здібності та поведінкові риси.

Гокінг припускав, що навіть за наявності обмежень заможні люди зможуть генетично вдосконалювати себе та своїх дітей. Це може призвести до появи нової "покращеної" групи людей і конфліктів із тими, хто не матиме доступу до таких технологій.

Крім того, учений попереджав про ризик створення штучно модифікованих вірусів – технології, що розробляються для лікування хвороб, можуть мати небезпечні альтернативні застосування.

Контакти з інопланетянами

Гокінг обережно ставився до ідеї активного пошуку позаземного розуму. Він не заперечував можливість існування інших цивілізацій, але вважав, що надсилання сигналів у космос може привернути небажану увагу.

На його думку, будь-яка цивілізація, здатна долетіти до Землі або відповісти на наші повідомлення, майже напевно буде значно технологічно розвиненішою. Це створює ризик, що такі істоти можуть ставитися до людей приблизно так само, як ми ставимося до мікроорганізмів.

У межах проєкту Breakthrough Listen, до запуску якого він долучився у 2015 році, пропонувалося лише "слухати" космос, але не надсилати сигналів.

Провал колонізації інших планет

Усі можливі катастрофи, на думку Гокінга, мають спільне рішення – розселення людства за межами Землі. Він вважав, що чим ширше наша цивілізація пошириться у Всесвіті, тим більше шансів вижити навіть після глобальних катаклізмів.

Учений припускав, що пошук нових домівок може розпочатися приблизно через століття. При цьому він попереджав: упродовж наступної тисячі років Земля майже неминуче зіткнеться або з екологічною катастрофою, або з ядерним конфліктом.

Колонізація космосу, за його логікою, не означає відмову від планети – навпаки, це може дати їй шанс на відновлення та зберегти інші види живих істот.