Согласно опросу, проведенному среди 738 ученых, более 50% из них полагают, что дальнейшее совершенствование искусственного интеллекта может приблизить человечество к апокалипсису. Ученые оценивают вероятность этого риска в 5%, в то время как руководители лабораторий считают, что она составляет от 10% до 20%. Они предполагают, что до возможного краха человечества осталось около ста лет.
Для снижения этих рисков ученые предлагают остановить все исследования в области ИИ и прекратить его обучение, так как потенциальные угрозы слишком велики.
Важно отметить, что в различных отраслях экономики существует понятие допустимого риска. Например, в производстве лекарств он не должен превышать 0,01% годовых смертей. Препараты с более высоким уровнем риска не допускаются к гражданскому обороту. Тем не менее, были случаи, когда риск занижался, как это произошло с ЛСД и морфием, которые не сразу попали в список запрещенных веществ.