Философ из Оксфорда оценил вероятность вымирания человечества в ближайшие 100 лет как 1 к 6. По каким причинам? В топе: столкновение Земли с астероидом (1 к 1 000 000), климатический кризис (1 к 1000), неконтролируемое развитие ИИ (1 к 10).
Однако другие ученые опасаются, что распространение такого прогноза может пагубно сказаться на технологическом прогрессе в целом.
“С моей точки зрения, я бы сказал, что 1 к 6 хорошо вписывается в реальность. 1 к 100 может показаться достаточно маленьким, чтобы просто проигнорировать, в то время как 1 к 3 может вызвать панику или быть отвергнутым как апокалиптический бред.
Как человек, обеспокоенный будущим, я надеюсь, что такие риски, как изменение климата и распространение ядерного оружия, получат то внимание, которого они заслуживают. Но как специалист по данным, я надеюсь, что небрежное использование вероятности останется на обочине и будет заменено широким образованием о ее истинном значении и соответствующем использовании.”
Стивен Стерн, профессор науки о данных в Университете Бонда