Турчин Алексей - Война и еще 25 сценариев конца света

Война и еще 25 сценариев конца света

Год выхода: 2008
Чтобы добавить книгу в свою библиотеку либо оставить отзыв, нужно сначала войти на сайт.

Книга Алексея Турчина – это актуальный обзор последних научных наработок, описывающих, как и когда закончится существование человеческой цивилизации. В ней рассказано обо всех известных на сегодня видах глобальных рисков, которые могут уничтожить человечество, – от астероидов до запуска Большого адронного коллайдера и ядерной войны.

Важность книги в эти дни необычайно велика по двум причинам. Во-первых, катастрофа человечества – вопрос, безусловно достойный нашего с вами внимания. Во-вторых, разработка многих новых технологий, способных вызвать глобальные риски, уже идет. Понимание того, сколь велики, реальны и близки риски конца света, должно заставить вас задуматься – как будете спасаться лично вы? Эта книга потребует недюжинной подготовки и силы характера, без которых лавина технологических угроз может сбить вас с ног. Если такое случится с вами, не пугайтесь и доверьтесь автору.

Лучшая рецензияпоказать все
Zatv написал(а) рецензию на книгу
Оценка:

Так уж устроен человек, что случающиеся катаклизмы, даже о которых извещалось заранее, все время происходят как бы «вдруг». (Например, зима в России). Поэтому заслуживают всяческого уважения личности, изучающие варианты конца света и возможные пути их предотвращения.
Алексей Турчин несомненно принадлежит к славной когорте таких исследователей. В своей книге он проанализировал не один, а целых 25 вариантов прекращения человеческого существования.
Начинается книга с оценки рисков от работы Большого адронного коллайдера. И понятно почему. «Война…» была написана в 2007 году, когда БАК только начинал свою работу. Сейчас вроде и страхи улеглись, и неуловимый бозон Хиггса обнаружили, но главная проблема так и осталась под вопросом. Речь идет о мини-черных дырах, которые вполне могут притянуться к центру Земли. В теории они должны моментально испаряться, но это в теории. Пока все спокойно, но на энергиях, на которых происходит столкновение частиц, могут возникать и другие гадости. Магнитным монополям или пузырям «истинного вакуума» тоже вполне по силам скушать нашу Землю.
Следующая опасность – технологическая сингулярность. Это такой технологический прорыв, который кардинально изменит среду обитания человека. Математическое моделирование показывает более-менее точную дату этого события – в районе 2025 года. Нет, конечно, сингулярность может привести и к «светлому будущему», но вероятность «темного прошлого» в этой точке тоже повышается. Особенно, учитывая, что человечество весьма легкомысленно относится на первых порах к побочным эффектам своих открытий. Вспомним, как народ радостно посыпали дустом, который считался панацеей не только от сельскохозяйственных, но и человеческих бед, а о любовании с близкого расстояния на атомные и нейтронные взрывы и вообще говорить не хочется.
***
Чуть ли не главную опасность для человечества Турчин видит в Искусственном Интеллекте (ИИ), превосходящем по мощи человеческий разум. Первая страна, его создавшая, по традиции, захочет установить власть над всем оставшимся миром, т.е. будет использовать ИИ для подчинения или уничтожения других людей. (Вспомним незабвенные планы Америки по скидыванию на головы советских граждан 250 атомных бомб). Следующий шаг предсказуем и хорошо показан в «Терминаторе». Ведь ИИ всегда будет на шаг впереди своих создателей, которые даже не смогут его отключить.
***
Но если нас всех не погубит Искусственный Интеллект, то точно добьют микробы и бактерии. Хакеры компьютерные переквалифицируются в биохакеров и начнут массово производить бактериологическое оружие. И для таких опасений есть все основания. Еще в 2006 году генетик Роджер Брент из Калифорнийского института молекулярных наук предупредил о наступлении эры биологического терроризма.
Подержанный ДНК-синтезатор сейчас на рынке стоит всего $5 тысяч, а пара оснований меньше доллара. Для того, чтобы сконструировать оспу, сибирскую язву, или даже эболу, структуры ДНК которых свободно выложены в интернете, в 2006 году требовалось оснований на $200 тысяч. Но с учетом того, что прогресс в биоинженерии и в её оборудовании оставляет пресловутый закон Мура для электроники далеко позади, сейчас эта сумма может уменьшиться в разы. Осуществить же всю операцию по синтезу (из вполне доступных компонентов) даже под силу грамотному биологу-аспиранту с несколькими подручными.
Кто хочет узнать последствия, рекомендую посмотреть прекрасный фильм Терри Гиллиама «12 обезьян».
Следующие угрозы только перечислю: ядерная война (куда же без нее), астероид, вулкан, наночастицы и прочие прелести.
***
Конечно, хорошо знать, что вот эта технология неизбежно выйдет из-под контроля и сотрет человечество с лица Земли, но остановим ли технический прогресс? Достаточно ли будет, как в «Терминаторе», уничтожить механическую руку и заодно ее создателя, чтобы будущему людей ничего не угрожало? Сомневаюсь. Закон избыточного многообразия неумолим. Если уж на место человека разумного претендовало минимум пять видов, то уж киборга кто-нибудь обязательно сконструирует.
И что же тогда делать? Повышать уровень сдерживающих факторов. Но об этом рассказывается в другой полезной книге – Назаретян А.П. «Агрессия, мораль и кризисы в развитии мировой культуры».

Доступен ознакомительный фрагмент

Скачать fb2 Скачать epub Скачать полную версию

0 читателей
0 отзывов
0 цитат




Zatv написал(а) рецензию на книгу
Оценка:

Так уж устроен человек, что случающиеся катаклизмы, даже о которых извещалось заранее, все время происходят как бы «вдруг». (Например, зима в России). Поэтому заслуживают всяческого уважения личности, изучающие варианты конца света и возможные пути их предотвращения.
Алексей Турчин несомненно принадлежит к славной когорте таких исследователей. В своей книге он проанализировал не один, а целых 25 вариантов прекращения человеческого существования.
Начинается книга с оценки рисков от работы Большого адронного коллайдера. И понятно почему. «Война…» была написана в 2007 году, когда БАК только начинал свою работу. Сейчас вроде и страхи улеглись, и неуловимый бозон Хиггса обнаружили, но главная проблема так и осталась под вопросом. Речь идет о мини-черных дырах, которые вполне могут притянуться к центру Земли. В теории они должны моментально испаряться, но это в теории. Пока все спокойно, но на энергиях, на которых происходит столкновение частиц, могут возникать и другие гадости. Магнитным монополям или пузырям «истинного вакуума» тоже вполне по силам скушать нашу Землю.
Следующая опасность – технологическая сингулярность. Это такой технологический прорыв, который кардинально изменит среду обитания человека. Математическое моделирование показывает более-менее точную дату этого события – в районе 2025 года. Нет, конечно, сингулярность может привести и к «светлому будущему», но вероятность «темного прошлого» в этой точке тоже повышается. Особенно, учитывая, что человечество весьма легкомысленно относится на первых порах к побочным эффектам своих открытий. Вспомним, как народ радостно посыпали дустом, который считался панацеей не только от сельскохозяйственных, но и человеческих бед, а о любовании с близкого расстояния на атомные и нейтронные взрывы и вообще говорить не хочется.
***
Чуть ли не главную опасность для человечества Турчин видит в Искусственном Интеллекте (ИИ), превосходящем по мощи человеческий разум. Первая страна, его создавшая, по традиции, захочет установить власть над всем оставшимся миром, т.е. будет использовать ИИ для подчинения или уничтожения других людей. (Вспомним незабвенные планы Америки по скидыванию на головы советских граждан 250 атомных бомб). Следующий шаг предсказуем и хорошо показан в «Терминаторе». Ведь ИИ всегда будет на шаг впереди своих создателей, которые даже не смогут его отключить.
***
Но если нас всех не погубит Искусственный Интеллект, то точно добьют микробы и бактерии. Хакеры компьютерные переквалифицируются в биохакеров и начнут массово производить бактериологическое оружие. И для таких опасений есть все основания. Еще в 2006 году генетик Роджер Брент из Калифорнийского института молекулярных наук предупредил о наступлении эры биологического терроризма.
Подержанный ДНК-синтезатор сейчас на рынке стоит всего $5 тысяч, а пара оснований меньше доллара. Для того, чтобы сконструировать оспу, сибирскую язву, или даже эболу, структуры ДНК которых свободно выложены в интернете, в 2006 году требовалось оснований на $200 тысяч. Но с учетом того, что прогресс в биоинженерии и в её оборудовании оставляет пресловутый закон Мура для электроники далеко позади, сейчас эта сумма может уменьшиться в разы. Осуществить же всю операцию по синтезу (из вполне доступных компонентов) даже под силу грамотному биологу-аспиранту с несколькими подручными.
Кто хочет узнать последствия, рекомендую посмотреть прекрасный фильм Терри Гиллиама «12 обезьян».
Следующие угрозы только перечислю: ядерная война (куда же без нее), астероид, вулкан, наночастицы и прочие прелести.
***
Конечно, хорошо знать, что вот эта технология неизбежно выйдет из-под контроля и сотрет человечество с лица Земли, но остановим ли технический прогресс? Достаточно ли будет, как в «Терминаторе», уничтожить механическую руку и заодно ее создателя, чтобы будущему людей ничего не угрожало? Сомневаюсь. Закон избыточного многообразия неумолим. Если уж на место человека разумного претендовало минимум пять видов, то уж киборга кто-нибудь обязательно сконструирует.
И что же тогда делать? Повышать уровень сдерживающих факторов. Но об этом рассказывается в другой полезной книге – Назаретян А.П. «Агрессия, мораль и кризисы в развитии мировой культуры».

agata77 написал(а) рецензию на книгу

Бред. Вспомнила, как я сдавала зачет по теории вероятности. Сдать получилось с шестого раза. Постепенно эта наука стала вызывать у меня уважение, но понятней не стала. Так и здесь, вероятность конца света просчитать невозможно, слишком много переменных. Можно только верить, что "ничто не вечно под луной".
Мне хотелось почитать о каких-нибудь интересных теориях, фактах, а здесь просто сборище слухов. Ерунда.