Четыре главных совета, которые Хокинг дал человечеству


Сегодня стало известно, что в возрасте 76 лет умер британский физик-теоретик и популяризатор науки Стивен Хокинг. Несмотря на болезнь, давно приковавшую его к креслу, известный ученый всю свою жизнь работал, писал книги и выступал с лекциями. Вспоминаем, какие советы успел дать Хокинг человечеству.


Фото: Reuters

Нужно опасаться искусственного интеллекта

Стивен Хокинг неоднократно предупреждал людей об опасности искусственного интеллекта.

В 2014 году в интервью BBC ученый выразил уверенность, что компьютеры в конечном счете обретут самосознание и заменят человеческую расу, так как они развиваются гораздо быстрее, чем биологическая жизнь.

«Примитивные формы искусственного интеллекта уже существуют. Но я думаю, что дальнейшее их развитие приведет к концу человечества», — рассказал астрофизик.

В 2015 году во время лондонской конференции Zeitgeist 2015 он даже назвал примерные сроки того, когда искусственный интеллект станет умнее людей:

«Компьютеры обгонят человека в интеллектуальных способностях в течение следующих 100 лет. Когда это случится, нужно быть уверенными, что цели компьютеров совпадают с нашими. Очень заманчиво отмести мысли о высокоинтеллектуальных машинах как о простой научной фантастике. Но это было бы нашей ошибкой — потенциально худшей ошибкой за всю историю», — сказал тогда Хокинг.


Кадр из к/ф «Терминатор» о роботах-убийцах.

Тогда же вместе с Илоном Маском и Стивом Возняком он подписался под открытым письмом, призывающим запретить «защитное автономное вооружение» или, другими словами, роботов-убийц.

В письме авторы предупреждают, что гонка вооружений с искусственным интеллектом не приведет ни к чему хорошему. К примеру, уже в ближайшие годы могут появиться боевые дроны, которые можно будет запрограммировать на поиск и убийство внесенных в базу людей.

Хокинг считал, что развитие искусственного интеллекта может привести к гибели людей, но вполне допускал и позитивное развитие ситуации:

«Эволюция искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он собой представляет».

Ученый отмечал, что при умелом подходе искусственный интеллект способен решить большинство проблем, которые существуют в мире: «Впрочем, я считаю, что это вовсе не обязательно произойдет».


Фото: Александр Васюкович, TUT.BY

Нужно бежать с Земли

В 2016 году Стивен Хокинг предупредил человечество о неминуемой техногенной катастрофе, которая произойдет в ближайшую тысячу лет.

Тогда физик выделил три основные угрозы для человечества: ядерную войну, глобальное потепление и созданные генетической инженерией вирусы. По мнению физика, в ближайшее время они не угрожают человеку, но с течением времени что-то «может пойти не так».

Спасение человечества Хокинг видел в переселении с Земли. «Мы не будем основывать автономные колонии в космосе, по крайней мере в ближайшие сто лет, так что мы должны быть очень осторожны», — предупредил будущие поколения землян ученый. «Я не думаю, что мы выживем в течение следующего тысячелетия, если не сбежим с нашей хрупкой планеты», — сказал он.


Изображение: phys.ncku.edu.tw

«У нас заканчивается пространство, единственные места, куда можно направиться, — это другие миры. Пришло время исследовать другие солнечные системы. Это может быть единственным, что спасет нас от нас самих. Я убежден, что людям нужно покинуть Землю», — рассказал физик на фестивале Starmus в городе Тронхейм.

В конце 2017 года Хокинг уточнил, сколько времени осталось у землян до катастрофы. По его словам, человечество погибнет примерно в 2600 году, после того как Земля превратится в «пылающий огненный шар».

Катастрофа на Земле, говорил он тогда, произойдет из-за перенаселения и увеличения потребления энергии, и спасение людей возможно только на других планетах: «Человечество должно смело идти туда, где еще никто не бывал, если хочет продлить свой род еще на миллион лет», — заявил ученый.

Выступая по видеосвязи на саммите Tencent WE в Пекине, Хокинг призвал инвесторов поддержать его проект Breakthrough Starshot, цель которого — путешествие к ближайшей к Солнечной системе звезде Альфа Центавра. По мнению ученого, там может находиться пригодная для жизни планета.

Нужно избегать контакта с внеземными цивилизациями

В 2016 году Хокинг снялся в короткометражном документальном фильме, в котором предостерег землян от контактов с инопланетными цивилизациями.

В фильме физик проводит виртуальное путешествие на экзопланету Gliese 832c, расположенную в созвездии Журавля всего в 16 световых годах от нашей планеты.


Gliese 832c в сравнении с Землей

«Если бы на Gliese 832c была разумная жизнь, мы бы ее уже услышали, — говорил Хокинг. — Когда-нибудь земляне получат сигнал с похожей планеты, и нам не стоит торопиться с ответом. Встреча с развитой цивилизацией будет похожа на встречу Христофора Колумба с коренными американцами, которая для последних закончилась не очень хорошо».

Физик-теоретик считал, что землянам не стоит идти на контакт с внеземными цивилизациями, хотя их поиск прекращать не следует. Он говорил, что при поступлении сигнала человечеству надо затаиться, чтобы избежать вероятной опасности, исходящей от инопланетян, в частности, возможной колонизации Земли.

Нужно опасаться черных дыр

Главный научный результат Хокинга связан с описанием излучения черных дыр.

Он называл микроскопические черные дыры источником практически неограниченной энергии для человечества в будущем и предупреждал об опасностях, с которыми могут столкнуться люди при попытке использовать в своих целях гравитационные объекты:

«Черная дыра солнечной массы может вырабатывать частицы излучения Хокинга с малой скоростью, в связи с чем его практически будет невозможно заметить. Но если ее уменьшить до размеров холма, то тогда черная дыра будет вырабатывать рентгеновское и гамма-излучение с суммарной мощностью около десяти миллионов мегаватт, чего хватит на питание электроприборов Земли».

При этом малые черные дыры, по мнению ученого, могут представлять опасность для планеты, поскольку они могут мигрировать к центру Земли и таким образом вызвать глобальную катастрофу.

Гораздо безопаснее было бы удерживать эти массивные объекты на значительном расстоянии от планеты (например, на околоземной орбите). Хокинг считал возможным в будущем создание таких дыр, в том числе благодаря прогрессу в теории струн.


Изображение: NASA, and M. Weiss (Chandra X -ray Center)

Одновременно он заявлял, что попадание в черную дыру не обязательно приведет к уничтожению. Это может быть вход в параллельную вселенную.

Хокинг считал, что есть два возможных варианта развития событий при попадании человека в черную дыру. Первый предполагает, что информация не проникает внутрь, а остается на «поверхности» горизонта — в данном случае человек перейдет в «хаотичное и бесполезное» состояние, из которого он никогда не выберется.

Второй вариант — черная дыра может быть порталом в параллельную вселенную, где события могут развиваться иным образом.

Несмотря на возможность относительно благоприятного исхода путешествия, Хокинг не стал бы рисковать: «Я заинтересован в совершении космического полета, но (лететь в черную дыру. — Прим. ред.) я пробовать не буду».

Не жмись, лайкни!!!

Похожие новости:

Вы можете оставить комментарий, или ссылку на Ваш сайт.

Оставить комментарий

Вы должны быть авторизованы, чтобы разместить комментарий.


Подробнее в Наука и технологии
Умер Стивен Хокинг

Британский физик-теоретик и популяризатор науки умер в возрасте 76 лет, сообщает The Guardian. Стивен Хокинг. Фото: National Geographic Channels / theguardian.com

ВОЗ рассказала о «болезни Икс», к которой не готово человечество

Специалисты Всемирной организации здравоохранения (ВОЗ) предупредили, что существует высокая вероятность новой глобальной эпидемии (пандемии), причиной которой станет пока еще не идентифицированная...

Первые «контрабандные» спутники могли запустить на орбиту этой зимой

Четыре американских наноспутника, выведенные на орбиту индийской ракетой-носителем, вообще не должны были оказаться в космосе: они не получили одобрения американской Комиссии по коммуникациям в космосе (FCC),...

Илон Маск рассказал о необходимости лететь на Марс и опасности искусственного интеллекта

На фестивале SXSW Илон Маск принял участие в сессии ответов на вопросы посетителей, где рассказал о планах SpaceX, угрозе со стороны искусственного интеллекта и опасности оставаться...

Закрыть
Яндекс.Метрика Рейтинг@Mail.ru