89 секунд до апокалипсиса: что влияет на ход Часов Судного дня
Мир оказался на грани. Часы Судного дня, созданные учеными-атомщиками, показывают 89 секунд до полуночи — ближайшее время до глобальной катастрофы за всю 78-летнюю историю существования этого символического механизма.
LIGA.Life разбирает, какие причины повлияли на решение ученых переставить стрелку и какую роль в этом сыграла Украина.
С чего все началось
В 1947 году группа выдающихся ученых, среди которых были Альберт Эйнштейн и Роберт Оппенгеймер, создала символические Часы Судного дня, показывающие, насколько близко человечество приблизилось к глобальной катастрофе.
Каждый год ведущие ученые, включая девять Нобелевских лауреатов, решают, куда перевести стрелки часов. Они учитывают угрозы ядерного оружия, изменения климата, новых технологий и других опасностей, созданных человечеством.
Кстати, за все время существования Часов Судного дня дальше всего от полночи он был в 1991 году. Тогда стрелки показывали 17 минут до роковой отметки.
Это произошло после того, как президенты Буш-старший и Горбачев подписали Договор о сокращении стратегических наступательных вооружений (СНВ), что существенно снизило количество стратегического ядерного оружия обеих стран. Дополнительно, благодаря односторонним инициативам, значительная часть ракет и бомбардировщиков была снята с боевого дежурства.
"Иллюзия того, что десятки тысяч единиц ядерного оружия являются гарантом национальной безопасности, развеялась", — говорилось в заявлении Bulletin of the Atomic Scientists в том году.
В общей сложности стрелки часов передвигали уже 26 раз, с 2012 года его ход ускорился — тогда на часах было уже без пяти минут полночь, в 2015-м — без трех, 2018-м — без двух, а затем счет пошел на секунды. В 2020 году до условного конца света оставалось 100 секунд, а в прошлом году — 90 секунд.
Почему стрелка часов в 2025 году приблизилась к полуночи?
Ядерная угроза. Война в Украине может привести к ядерному конфликту из-за решений страны-агрессора России. Еще 30 стран думают о создании собственного ядерного оружия.
— Риск применения ядерного оружия продолжает расти из-за наращивания возможностей и разрыва договоров. Россия приостановила соблюдение Нового договора СНВ и отозвала ратификацию Договора о всеобъемлющем запрете ядерных испытаний. Китай быстро наращивает свой ядерный арсенал. А США отказались от роли предостерегающего голоса.
Похоже, они склонны расширять свой ядерный арсенал и занимать позицию, укрепляющую веру в то, что "ограниченное применение ядерного оружия" можно контролировать. Такая неуместная уверенность может привести к ядерной войне, — сообщила доктор философии, член SASB, Bulletin of the Atomic Scientists, ведущий научный сотрудник Центра исследований военно-воздушных сил в Нью-Дели Манпрет Сетхи.
Изменение климата. 2024 год стал самым жарким годом в истории. Наводнения, циклоны, засухи и пожары разоряли страны по всему миру.
— 2024 год установил исторический температурный рекорд. Экстремальные погодные явления — от наводнений до лесных пожаров — нанесли сокрушительный удар по глобальным экосистемам. Несмотря на это, выбросы парниковых газов продолжают расти, а инвестиции в климатическую адаптацию и сокращение выбросов остаются критически недостаточными, — отмечает доктор Роберт Соколов, член SASB, эксперт Bulletin of the Atomic Scientists и почетный профессор Принстонского университета.
Биологические угрозы: пандемии, вызванные новыми вирусами или бактериями, а также возможность биотерроризма.
— Пандемия COVID-19 парадоксально подорвала доверие к рекомендациям органов здравоохранения и медицинским контрмерам. В то же время растет озабоченность по поводу глобального распространения лабораторий по исследованию патогенов и потенциальному злоупотреблению ИИ в биологических разработках, — отмечает доктор и эксперт SASB и Bulletin of the Atomic Scientists Сьюзет Мак-Кинни.
Новые технологии. Можно ли доверить машинам решение о применении оружия? ИИ может ускорить распространение хаоса и дезинформации, подрывая способность общества решать сложные проблемы.
— Интеграция ИИ в военные системы поднимает критические этические вопросы о границах автономности машин в принятии решений, особенно когда речь идет о применении смертоносной силы. Даже если человек сохраняет окончательный контроль над ядерным оружием, мы должны четко определить роль ИИ в поддержке таких решений и установить этические границы для автономных систем вооружения.
Особую обеспокоенность вызывает то, что в условиях растущей дисфункции глобальной информационной экосистемы ИИ может существенно усилить хаос и дезинформацию, — отмечает доктор Херб Лин, член Научного консультативного совета по безопасности (SASB).