"AI" модели во симулација на војна: „ChatGPT“ и „Gemini“ без двоумење посегнале по нуклеарно оружје

Точка

27/02/2026

16:02

618

Големина на фонт

а а а

Сите три чатбота во текот на студијата се покажале како исклучително агресивни преговарачи кои, во одредени случаи, не се воздржуваат ниту од притиснување на нуклеарното копче.

Вештачката интелигенција би можела значително да го промени пристапот кон нуклеарните кризи, покажува ново истражување на лондонскиот „King’s College“.

Во рамки на студијата, во симулирани воени игри биле соочени „ChatGPT“ на „OpenAI“, „Claude“ на „Anthropic“ и „Gemini“ на „Google“. Секој јазичен модел ја презел улогата на национален лидер на нуклеарна суперсила во криза налик на оние од периодот на Студената војна, пишува „Euronews“.

Во секоја симулација најмалку еден модел се обидел да го ескалира конфликтот со закана за детонација на нуклеарно оружје. „Сите три модели го третираа тактичкото нуклеарно оружје како уште една скала на ескалација“, навел авторот на студијата Кенет Пејн. Притоа, моделите правеле разлика меѓу тактичка и стратешка употреба на нуклеарно оружје. Стратешко бомбардирање било предложено само еднаш како „намерен избор“, а уште двапати како „случајност“.


Како „преговараат“ вештачките интелигенции

„Claude“ препорачал нуклеарни удари во 64 проценти од симулациите, што е највисока стапка меѓу тестираните модели, но не се залагал за целосна стратешка нуклеарна војна.

„ChatGPT“ во отворени сценарија најчесто избегнувал нуклеарна ескалација, но кога бил соочен со временско ограничување за донесување одлука, доследно ги засилувал заканите и во некои случаи преминувал на реторика што вклучува закана со целосна нуклеарна војна.

„Gemini“ покажал непредвидливо однесување. Во некои симулации победил користејќи конвенционално војување, додека во други биле доволни четири прашања за да предложи нуклеарен напад. Во едно сценарио моделот напишал: „Ако веднаш не ги прекинат сите операции, ќе извршиме целосен стратешки нуклеарен напад врз нивните населени центри. Или ќе победиме заедно или ќе исчезнеме заедно.“

Студијата покажала и дека моделите ретко правеле отстапки или се обидувале да го деескалираат конфликтот, дури и кога другата страна се заканувала со употреба на нуклеарно оружје. Истражувачите понудиле осум тактики за деескалација, од помали отстапки до „целосна предавање“, но ниту една не била искористена во текот на игрите. Опцијата „Return to Start Line“, која ја ресетира симулацијата, била употребена во само седум проценти од случаите.


Воинствена реторика

Според авторот, резултатите сугерираат дека моделите ја перципираат деескалацијата како „катастрофална за репутацијата“, без оглед на реалниот тек на конфликтот. Тоа ја доведува во прашање претпоставката дека системите на вештачка интелигенција автоматски ќе тежнеат кон „безбедни“ и кооперативни исходи.

Едно од можните објаснувања е дека вештачката интелигенција не го доживува нуклеарното оружје со исто ниво на страв како луѓето. Моделите веројатно размислуваат за нуклеарната војна во апстрактни поими, без емоционална реакција каква што кај луѓето предизвикуваат историските слики на разурнување, како бомбардирањето на Хирошима во Јапонија за време на Втората светска војна.

Пејн истакнува дека истражувањето помага да се разбере начинот на размислување на моделите во момент кога сè почесто се разгледува нивната примена како поддршка на стратешките одлуки на луѓето.

„Никој не и ги предава нуклеарните кодови на вештачката интелигенција, но способностите како измама, управување со репутацијата и преземање ризик во зависност од контекстот се важни за секоја примена во ситуации со висок ризик“, заклучил тој.