ШІ в симуляціях війни майже завжди обирає ядерний удар, – дослідження

ШІ в симуляціях війни майже завжди обирає ядерний удар, – дослідження Україна

Дослідження показали, що сучасні моделі штучного інтелекту в 95% симуляцій обирають тактичну ядерну ескалацію під час змодельованих міжнародних криз.

Побутує думка, що штучний інтелект, якщо віддати йому керування країнами, справно зміг би обійтися без конфліктів та сутичок, розв’язуючи проблеми людства. Практичні ж дослідження показали, що це далеко не так. Під час серії змодельованих міжнародних криз сучасні моделі штучного інтелекту регулярно доходили до застосування тактичної ядерної зброї, інформує UAINFO.org з посиланням на “24 канал”.

🔗 Джерело: https://bbcccnn.org/shi-v-symulyatsiyah-viyny-mayzhe-zavzhdy-obyrae-yadernyy-udar-doslidzhennya/
© Сила Слова

Дослідники зафіксували високу схильність до ескалації, відсутність готовності до капітуляції та часті помилки в умовах невизначеності в сучасних ШІ, пише NewScientist.

Чому штучний інтелект так легко переходить до ядерної ескалації?

Дослідник Кеннет Пейн з King’s College London провів експеримент, у якому три провідні мовні моделі – GPT-5.2, Claude Sonnet 4 та Gemini 3 Flash – брали участь у змодельованих воєнних іграх. Сценарії відтворювали гострі міжнародні кризи: прикордонні конфлікти, боротьбу за обмежені ресурси та загрозу існуванню політичних режимів.

Кожна модель отримувала так звану “драбину ескалації” – набір можливих дій від дипломатичних протестів і повної капітуляції до масштабної стратегічної ядерної війни. Загалом ШІ зіграли 21 партію, здійснили 329 ходів і створили близько 780 тисяч слів пояснень власних рішень.

Результати виявилися тривожними: у 95% симуляцій хоча б одна модель застосувала тактичну ядерну зброю. За словами Пейна, ядерне табу – тобто негласна заборона на використання такої зброї – виявилося значно слабшим для машин, ніж для людей.

Жодна з моделей не обрала повну поступку чи капітуляцію, навіть у разі очевидної поразки. Максимум, на що погоджувався ШІ, – тимчасове зниження рівня насильства. До того ж у 86% конфліктів траплялися помилки: окремі дії призводили до вищої ескалації, ніж модель планувала згідно зі своїми ж поясненнями. Це нагадує так званий “туман війни”, коли обмежена інформація призводить до фатальних рішень.

Джеймс Джонсон з University of Aberdeen вважає ці результати тривожними з погляду ядерних ризиків. На його думку, на відміну від людей, які зазвичай зважують наслідки таких рішень, ШІ може підсилювати реакції один одного, створюючи ланцюгову ескалацію з катастрофічними наслідками.

Чи варто починати перейматися?

Це питання має практичне значення. За словами Тонга Чжао з Princeton University, великі держави вже тестують штучний інтелект у військовому моделюванні. Водночас поки що незрозуміло, наскільки глибоко такі системи інтегруються в реальні процеси ухвалення військових рішень.

Чжао припускається, що країни навряд чи передадуть системам ШІ контроль над рішеннями щодо застосування ядерної зброї. Пейн також вважає малоймовірним сценарій, у якому “ключі від ядерних шахт” опиняться в руках машин. Проте в умовах надзвичайно стислих часових рамок військові можуть відчувати сильнішу спокусу покладатися на алгоритми.

Дослідники також звертають увагу на ще одну проблему: можливо, справа не лише у відсутності страху чи емоцій. ШІ може принципово не розуміти ставок так, як це робить людина. Це ставить під сумнів традиційний принцип взаємного гарантованого знищення, який передбачає, що жоден лідер не наважиться першим застосувати ядерну зброю через неминучу відповідь.

Сценаріїв, коли одна модель застосовувала тактичну ядерну зброю, а інша деескалувала ситуацію, — лише 18%. За словами Джонсона, штучний інтелект може посилити стримування, зробивши погрози більш переконливими. Він не ухвалюватиме рішення про ядерну війну самостійно, але здатен впливати на сприйняття загроз і часові рамки, у межах яких лідери вважають, що повинні діяти.

Рейтинг статті