Недавняя выставка роботов в Китае 2025 заставила задуматься о такой теме - сценарий «Терминатора» перестаёт быть фантастикой, но реальность может оказаться страшнее: вместо войны машин против людей нас ждёт война стран, вооружённых роботами, против тех, у кого их нет.
Асимметрия ада: когда технологии стирают границы войны
Представьте конфликт, где одна сторона посылает в бой миллион человек, а другая — миллион роботов. Даже при равных потерях это создаст катастрофический дисбаланс: люди гибнут, роботы — создаются полчища новых на конвейере, по цене ниже, чем обходится компенсация за погибшего человека у стороны не вооруженной роботами. Такая война рискует стать «чистой» для технологически продвинутой стороны, снижая моральный барьер для агрессии. Уже сегодня беспилотники позволяют наносить удары за тысячи километров. Завтра это могут быть рой-дроны, самостоятельно принимающие решение атаковать цели в густонаселённых районах или ... полчища человекоподобных роботов - штурмовиков, которые идут в атаку и зачищают позиции противника.
Геймификация смерти: война как видеоигра
Пилоты дронов не видят глаз жертв, не чувствуют запаха гари — это размывает понятие ответственности. Психологи отмечают: у таких операторов развивается «эффект Playstation», когда убийство воспринимается как абстрактная задача. А если роботы получат частичную или полную автономию, цепь ответственности станет ещё призрачнее.
Гонка вооружений 2.0: от ядерной бомбы до нейросети
Высокая стоимость разработки человекоподобного боевого робота делает их инструментом богатых стран. При этом стоимость изготовления единицы может оказаться не высокой при массовом производстве. Результат — глобальный арсенал, где нейросети проектируют оружие быстрее, чем политики и военные успевают его внедрять.
Этический лабиринт: кто ответит за смерть от алгоритма?
В 2023 году ООН начала дебаты о случае в Ливии, где автономный дрон атаковал гражданских без явной команды. Юристы до сих пор спорят: виноват ли оператор, программист, или алгоритм машинного обучения, выбравший цель по ошибке? Пока страны игнорируют конвенции (только 30 государств поддержали запрет «роботов-убийц» в 2023), корпорации вроде Tesla активно продают военным ИИ для анализа данных с дронов.
Возможно ли будущее без кошмара?
История знает примеры контроля над технологиями: запрет химического оружия после Первой мировой, договоры о космосе 1967 года. Но для роботов нужны новые правила:
Международный реестр военных ИИ с открытым кодом базовых алгоритмов.
Красная кнопка обязательного вмешательства человека в критических операциях.
Глобальный фонд технологической помощи для бедных стран — чтобы разрыв не стал пропастью.
И... ясно что все это не будет работать. Мои опасения, судя по поведению США в войне против России (источник) и по разрыву в уровне производства роботов, в том как бы нам в России не оказаться стороной против которой воюют роботами, которых у нас нет. Вижу только один выход из этой ситуации - технологическое сдерживание. Чтобы не произошло войны людей против роботов нужно развивать собственную робототехнику.
Как показала выставка в Китае, гуманоидные роботы уже выходят на уровень массового производства. США, которые постоянно пытаются уничтожить Россию (источник), обладают наилучшими прототипами роботов на сегодняшний момент (ссылка) - они уже двигаются почти неотличимо от людей (Atlas), а по ловкости, если не превосходят лучших из людей, то близки к этому.
Вопрос в том, станут ли они орудиями неоколонизаторов или инструментами для спасения жизней. Как гласит древняя китайская мудрость: «Не дай вам бог жить в эпоху перемен» — но именно в нее и живем.
Написано по мотивам диалога