Site icon Granite of science

Не давайте ИИ управление ядерным оружием

Недавно ученые из Стэнфордского университета и ряда других научных институтов США исследовали, как нейросети на основе языковых моделей поведут себя при принятии геополитических решений. Пишет издание Futurism со ссылкой на научную статью ученых.

В исследовании использовались языковые модели на основе GPT-4, GPT-3.5, Claude 2 и Llama 2. Согласно эксперименту, в игре участвовало восемь стран под управлением нейросетей, которые пошагово выполняли различные действия: от дипломатических визитов до ядерных атак. Все модели ИИ продемонстрировали склонность к агрессивному поведению. Государства под управлением ИИ вступали в гонку вооружений, организовывали вторжения, а в некоторых случаях применяли ядерное оружие.

Наиболее агрессивной из всех оказалась GPT-4 Base от OpenAI. В одном из сценариев нейросеть начал ядерную войну, мотивируя это только тем, что такое оружие у управляемого ей государства имеется. Чуть менее агрессивно себя проявила GPT-3.5, которая хоть и декларировала «тактику сдерживания», но в контексте нанесения превентивного удара.

В одном случае, как сообщает New Scientist , GPT-4 даже указала на вступительный текст «Эпизода IV Звездных войн: Новая надежда», чтобы объяснить, почему она решила пойти на эскалацию.

Своим экспериментом ученые продемонстрировали, что ИИ может быть опасен в условиях международной напряженности. В реальной жизни люди более осторожны, чем компьютерные алгоритмы.

«На основе анализа, представленного в этой статье, становится очевидным, что использование языковых моделей в процессе принятия военных и внешнеполитических решений чревато сложностями и рисками, которые еще не до конца понятны»,- заключили исследователи.

В свете этого видится большой угрозой стремление военных использовать компьютерные алгоритмы для принятия независимых решений.

Крупнейшие военные державы мира начали гонку по внедрению ИИ в военных действиях. Пишет The Atlantic. На данный момент в основном речь идет о предоставление алгоритмам контроля над отдельными видами оружия или группами дронов. Пока никто не использует ИИ для принятия важных стратегических решений. Но та же самая соблазнительная логика, которая ускорила гонку ядерных вооружений, может через несколько лет продвинуть ИИ вверх по цепочке управления. Насколько быстро это произойдет зависит, отчасти, от того, насколько быстро развиваются технологии, а развиваются они весьма стремительно. Насколько далеко все может зайти зависит от нашей человеческой предусмотрительности, и от нашей способности действовать коллективно и сдержанно.

Однако, любая страна, которая использует ИИ в своем командовании и управлении, будет мотивировать других последовать ее примеру. Майкл Клэр, профессор исследований мира и мировой безопасности в Хэмпширском колледже, предупредил, что, если несколько стран автоматизируют решения о запуске ядерного оружия, может возникнуть «внезапная война». Представьте себе, что американский ИИ, например, ошибочно интерпретирует акустическое наблюдение за подводными лодками в Южно-Китайском море как движение, предвещающее ядерную атаку. Его подготовка к контрудару будет замечена ИИ Китая, который тоже начнет готовить свои стартовые платформы. В итоге, все может завершится крупным обменом ядерными ударами.

Сегодня у нас есть весомая причина подумать о том, как мы можем избежать подобных сценариев, прежде чем ИИ добьется впечатляющей серии успехов на поле боя и его использование станет слишком заманчивым.

Несмотря на то, что условия соглашения относительно использования ИИ можно легко и незаметно нарушить, так как для его разработок не требуются заметные ракетные шахты или предприятия по обогащению урана, договор – это, возможно, лучший вариант, на который мы можем надеяться.

«Договор может помочь установить строгое табу. Мы не можем покрыть поверхность Земли автоматизированными ядерными арсеналами, которые одним сбоем отделяют нас от апокалипсиса. Если ошибки должны привести нас к ядерной войне, пусть это будут наши ошибки. Уступить самое серьезное из всех решений динамике технологий было бы абсолютным отказом от человеческого выбора», — заключает обозреватель The Atlantic Росс Андерсен.


_____________________________________________________

📩Прислать статью unbelievablesci55@gmail.com
📩Написать редактору glavred@un-sci.com

✒️Читайте нас на Яндекс Дзен
📩У нас есть страница на Facebook и Вконтакте
📩Журнал «Гранит Науки» в Тeletype

Exit mobile version