Исследователи из центра Rand оценили риски полного уничтожения человечества искусственным интеллектом. Их вывод: сейчас у продвинутых ИИ-систем появляется небольшой шанс истребить людей. Но есть нюансы.
➡️ Ядерный армагеддон — наименее вероятный сценарий. Даже взрыв всех боеголовок в мире не сможет вызвать такую «ядерную зиму» или радиоактивное заражение, которые полностью бы уничтожили людей, считает автор исследования Майкл Вермеер.
➡️ Больше шансов у ИИ покончить с нами с помощью мощного биологического оружия. Однако даже создание и однократное распространение супероружия не гарантирует вымирания. Для этого ИИ пришлось бы на протяжении долгого времени выслеживать и уничтожать выжившие изолированные группы людей.
➡️ Повышение температуры до 40-50°C на всей планете с помощью стойких парниковых газов — не только возможно в теории, но и окажется необратимым. Но для этого ИИ понадобится слишком много времени и неограниченный доступ к инфраструктуре.
🌿 Но есть и хорошие новости
Для реализации самых мрачных прогнозов нужен ряд условий, уточняют исследователи. Во-первых, у ИИ-систем должна появиться четкая цель — уничтожить людей. Во-вторых, ИИ должен получить полный контроль над критической инфраструктурой и обманом убедить людей себе помогать. Это создает слишком высокие барьеры, которые в реальности ИИ будет трудно преодолеть.
«Убьет ли ИИ нас всех в один прекрасный день? То, что он может это сделать, — не за гранью реальности. Но наши расчеты показывают, что людям не нужна помощь ИИ, чтобы уничтожить самих себя», — говорит Майкл Вермеер.
А вы считаете возможным «ИИ-апокалипсис»?
Напишите свои версии в комментариях: как бы вы уничтожили человечество на месте ИИ?