» К 2040 году искусственный интеллект может произвести переворот в принципах ядерной безопасности
26.04.2018 10:27

К 2040 году искусственный интеллект может произвести переворот в принципах ядерной безопасности

Источник перевод для gearmix ()

В недавно опубликованном исследовании корпорации RAND сделан вывод, что к 2040 году искусственный интеллект (ИИ) может радикально изменить концепцию ядерного сдерживания.

«Машина судного дня» под управлением ИИ пока представляется маловероятной, но реальные риски ИИ для ядерной безопасности заключаются в способности ИИ побудить людей к принятию неоправданных, потенциально апокалипсических решений.

Во времена Холодной войны концепция гарантированного взаимного уничтожения поддерживала шаткий мир между супердержавами, утверждая, что любая атака приведёт к разрушительному возмездию. В итоге концепция ГВУ обеспечивала стратегическую стабильность, отрезвляюще действуя на обе стороны в их готовности к действиям, реально способным перерасти в атомную войну.

В публикации RAND говорится, что в ближайшие десятилетия ИИ вполне способен разрушить концепцию гарантированного взаимного уничтожения и тем самым подорвать стратегическую стабильность нашего мира. Более совершенные датчики делают вероятной ситуацию, когда «орудие возмездия» — например, атомная субмарина и мобильные ракеты, — могут быть опознаны и уничтожены.

Нации могут войти в соблазн стремиться к обладанию средствами первого удара, как если бы это давало преимущества над соперниками, даже если у них нет намерения нанести удар первыми. Это подрывает стабильность тем, что если даже сторона, способная атаковать первой, не собирается использовать эту возможность, её противник не может быть уверен в этом.

«Связь между ядерной войной и ИИ не нова, в действительности их истории переплетаются, — говорит Эдвард Гайст, соавтор статьи и сотрудник корпорации RAND. — Изначально существенная часть исследований в области ИИ выполнялась с поддержкой военных, преследуя их цели».

Как пример он привел «адаптивный планируемый эксперимент выживаемости», проведённый в 1980-х, целью которого было использовать ИИ для объединения разведданных с целеуказанием для средств ядерного поражения.

В случае неопределённости ИИ мог бы укрепить стабильность стратегической ситуации, улучшив точность собираемых разведданных и их анализ.

Исследователи полагают, что в процессе развития ИИ станет менее подвержен совершению ошибок по сравнению с людьми, а значит окажется фактором стабильности в долгосрочном плане.



ПОХОЖИЕ ЗАПИСИ


© Gearmix 2013
Права на опубликованный перевод принадлежат владельцам вебсайта gearmix.ru
Все графические изображения, использованные при оформлении статьи принадлежат их владельцам. Знак охраны авторского права распространяется только на текст статьи.
Использование материалов сайта без активной индексируемой ссылки на источник запрещено.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *