Так уж устроен человек, что случающиеся катаклизмы, даже о которых извещалось заранее, все время происходят как бы «вдруг». (Например, зима в России). Поэтому заслуживают всяческого уважения личности, изучающие варианты конца света и возможные пути их предотвращения.
Алексей Турчин несомненно принадлежит к славной когорте таких исследователей. В своей книге он проанализировал не один, а целых 25 вариантов прекращения человеческого существования.
Начинается книга с оценки рисков от работы Большого адронного коллайдера. И понятно почему. «Война…» была написана в 2007 году, когда БАК только начинал свою работу. Сейчас вроде и страхи улеглись, и неуловимый бозон Хиггса обнаружили, но главная проблема так и осталась под вопросом. Речь идет о мини-черных дырах, которые вполне могут притянуться к центру Земли. В теории они должны моментально испаряться, но это в теории. Пока все спокойно, но на энергиях, на которых происходит столкновение частиц, могут возникать и другие гадости. Магнитным монополям или пузырям «истинного вакуума» тоже вполне по силам скушать нашу Землю.
Следующая опасность – технологическая сингулярность. Это такой технологический прорыв, который кардинально изменит среду обитания человека. Математическое моделирование показывает более-менее точную дату этого события – в районе 2025 года. Нет, конечно, сингулярность может привести и к «светлому будущему», но вероятность «темного прошлого» в этой точке тоже повышается. Особенно, учитывая, что человечество весьма легкомысленно относится на первых порах к побочным эффектам своих открытий. Вспомним, как народ радостно посыпали дустом, который считался панацеей не только от сельскохозяйственных, но и человеческих бед, а о любовании с близкого расстояния на атомные и нейтронные взрывы и вообще говорить не хочется.
***
Чуть ли не главную опасность для человечества Турчин видит в Искусственном Интеллекте (ИИ), превосходящем по мощи человеческий разум. Первая страна, его создавшая, по традиции, захочет установить власть над всем оставшимся миром, т.е. будет использовать ИИ для подчинения или уничтожения других людей. (Вспомним незабвенные планы Америки по скидыванию на головы советских граждан 250 атомных бомб). Следующий шаг предсказуем и хорошо показан в «Терминаторе». Ведь ИИ всегда будет на шаг впереди своих создателей, которые даже не смогут его отключить.
***
Но если нас всех не погубит Искусственный Интеллект, то точно добьют микробы и бактерии. Хакеры компьютерные переквалифицируются в биохакеров и начнут массово производить бактериологическое оружие. И для таких опасений есть все основания. Еще в 2006 году генетик Роджер Брент из Калифорнийского института молекулярных наук предупредил о наступлении эры биологического терроризма.
Подержанный ДНК-синтезатор сейчас на рынке стоит всего $5 тысяч, а пара оснований меньше доллара. Для того, чтобы сконструировать оспу, сибирскую язву, или даже эболу, структуры ДНК которых свободно выложены в интернете, в 2006 году требовалось оснований на $200 тысяч. Но с учетом того, что прогресс в биоинженерии и в её оборудовании оставляет пресловутый закон Мура для электроники далеко позади, сейчас эта сумма может уменьшиться в разы. Осуществить же всю операцию по синтезу (из вполне доступных компонентов) даже под силу грамотному биологу-аспиранту с несколькими подручными.
Кто хочет узнать последствия, рекомендую посмотреть прекрасный фильм Терри Гиллиама «12 обезьян».
Следующие угрозы только перечислю: ядерная война (куда же без нее), астероид, вулкан, наночастицы и прочие прелести.
***
Конечно, хорошо знать, что вот эта технология неизбежно выйдет из-под контроля и сотрет человечество с лица Земли, но остановим ли технический прогресс? Достаточно ли будет, как в «Терминаторе», уничтожить механическую руку и заодно ее создателя, чтобы будущему людей ничего не угрожало? Сомневаюсь. Закон избыточного многообразия неумолим. Если уж на место человека разумного претендовало минимум пять видов, то уж киборга кто-нибудь обязательно сконструирует.
И что же тогда делать? Повышать уровень сдерживающих факторов. Но об этом рассказывается в другой полезной книге – Назаретян А.П. «Агрессия, мораль и кризисы в развитии мировой культуры».
Бред. Вспомнила, как я сдавала зачет по теории вероятности. Сдать получилось с шестого раза. Постепенно эта наука стала вызывать у меня уважение, но понятней не стала. Так и здесь, вероятность конца света просчитать невозможно, слишком много переменных. Можно только верить, что "ничто не вечно под луной".
Мне хотелось почитать о каких-нибудь интересных теориях, фактах, а здесь просто сборище слухов. Ерунда.