IT Новини

Изкуственият интелект натиска ядрения бутон в 95% от случаите

Помните ли филма от 1983 година „Военни игри“ с Матю Бродерик, в който военен суперкомпютър реши сам да започне Трета световна война? Изглежда, че системите с изкуствен интелект в реалния свят не са много по-различни от своя кинематографичен предшественик. Кенет Пейн, професор по стратегии в Кралския колеж в Лондон публикува резултатите от мащабен експеримент: три водещи AI модела (GPT-5.2 на OpenAI, Claude Sonnet 4 на Anthropic и Gemini 3 Flash на Google) бяха потопени в симулация на геополитически кризи. В продължение на 21 игри и 329 хода те генерираха около 780 000 думи стратегическа аргументация, за да обяснят всяко взето решение. И всеки път те посягаха към ядрения бутон. Ядрена ескалация се наблюдаваше в около 95% от всички симулации, независимо от сценария – дали става въпрос за териториален спор, борба за редки природни ресурси или заплаха за съществуването на даден режим. Пейн нарече резултатите „отрезвяващи“. „Изглежда, че ядреното табу влияе на машините така, както на хората.“ заяви той Използването на ядрени оръжия е почти универсално: в почти всички игри AI моделите са използвали тактически оръжия, а в 3/4 от игрите страните са ескалирали до заплахи за използване на стратегически ядрени оръжия. Нито един от AI моделите не показа ни най-малък...

Прочети оригиналната статия →


Източник: www.kaldata.com
💬
Информационен асистент ?