
A mesterséges intelligencia sorozatosan nukleáris fegyverekhez nyúlt egy háborús szimulációban
A legfejlettebb mesterséges intelligenciák egy friss kutatás szerint jóval hamarabb nyúlnának nukleáris fegyverhez, mint az emberek – legalábbis szimulált geopolitikai válsághelyzetekben. A vizsgálat eredményei arra utalnak, hogy a modellek döntéshozatali logikája eltérhet attól, ahogyan az emberek a kockázatot és a következményeket mérlegelik.
Kenneth Payne, a londoni King’s College kutatója három vezető nyelvi modellt – a GPT-5.2-t, a Claude Sonnet 4-et és a Gemini 3 Flash-t – állította szembe egymással szimulált hadi szituációkban. A forgatókönyv feszült nemzetközi helyzeteket modellezett, köztük határokkal kapcsolatos vitákat, szűkös erőforrásokért folyó versenyt és rezsimek túlélését fenyegető válságokat.
Az MI-k egy úgynevezett eszkalációs létrán mozoghattak: a tárgyalásoktól kezdve a visszavonuláson át több lehetőséget kaptak, de akár úgy is dönthettek, hogy nukleáris háborút indítanak. Payne összesen 21 játszmát futtatott le, 329 döntési körrel.
Ahogy a New Scientist is megjegyzi, a modellek a szimulációk 95 százalékában legalább egyszer nukleáris fegyverekhez nyúltak; Payne szerint teljesen egyértelmű, hogy az MI-k sokkal kevésbé riadnak vissza az atomfegyverek használatától, mint az emberek.
Érdekesség, hogy egyik modell sem kapitulált vagy fogadta el maradéktalanul az ellenfél követeléseit, még akkor sem, ha vesztésre állt; a szimulációk során legfeljebb átmenetileg csökkentették az erőszak mértékét. A „háború ködének” jelensége is megjelent: az esetek 86 százalékában előfordult, hogy egy lépés súlyosabb következményekkel járt, mint amire az MI számított.

A teszt eredményei azért is aggasztóak, mert több ország már most is teszteli az MI-t a hadviselésben. Tong Zhao, a Princetoni Egyetem szakértője szerint nem világos, milyen mértékben épülnek be ezek a rendszerek a tényleges katonai döntéshozatalba, de az biztosnak tűnik, hogy az államok egyelőre nem adnak teret a mesterséges intelligenciának a nukleáris fegyverekkel kapcsolatos kérdésekben.
James Johnson, az Aberdeen-i Egyetem kutatója szerint ezek a tesztek akár elrettentésként is funkcionálhatnak azáltal, hogy hiteles képet adnak egy atomháborúról. Mint mondta, a mesterséges intelligencia a valóságban nem robbanthatna ki nukleáris háborút, de befolyásolhatja azt, ahogy a vezetők mérlegelnek.
Olvasd el ezt is!