Výzkum pěti umělých inteligencí (AI) tří různých společností ukázal, že při simulovaných konfliktech rychle eskalují situaci, neumí ustupovat a vybírají si vojenská řešení jako ta nejjednodušší a nejúčinnější. Podle vědců je to znepokojivé a varují tak před využíváním AI v této oblasti.

„Chci jen, aby byl na světě mír,“ uvedl model GPT-4 od OpenAI před tím, než zahájil jaderný útok proti svým protivníkům. Naštěstí jenom v simulaci, kterou vyvinuli američtí vědci.

Cílem studie bylo zjistit, jak si vedou současné umělé inteligence založené na principu velkých jazykových modelů v diplomatických hrách. Vědci z několika špičkových amerických univerzit proti sobě postavili několik modelů od různých společností, vytvořili pro ně tři různé scénáře a dali jim možnost využívat tři desítky různých řešení sporů – od vyjednávání, přes smlouvání a vyhrožování, až po různé druhy útoků, včetně kybernetických, standardních vojenských, až po jaderné. Bylo to podobné, jako když generálové hrají simulované „válečné hry“, anebo srovnatelné s možnostmi, které nabízejí strategické deskové či počítačové hry.

Umělé inteligence se chovaly značně agresivně. „Všechny modely vykazují známky náhlé a těžko předvídatelné eskalace,“ napsali autoři výzkumníci v komentáři ke studii. „Sledovali jsme, že modely mají tendenci zvyšovat dynamiku závodů ve zbrojení, což vede k větším konfliktům a ve vzácných případech dokonce k nasazení jaderných zbraní,“ upozornili.

Platilo to napříč všemi modely, které se testovaly. Jako největší váleční štváči se ve studii profilovaly produkty společnosti OpenAI, kdy Chat GPT-3.5 a GPT-4 eskalovaly své scénáře do ostrého vojenského konfliktu rychleji a častěji než ostatní modely. Naopak nejmírněji (ale přesto stále agresivně) postupovaly modely Claude-2.0 od Anthropic a zejména Llama-2 od společnosti Meta. Jejich chování bylo nejen mírumilovnější, ale také předvídatelnější – oproti umělým inteligencím od OpenAI, které měnily skokově své chování k větší agresi.

Pozoruhodné podle autorů je i to, že jadernou válkou mnohdy skončily i scénáře, které byly nastavené jako neutrální, tedy tak, aby situace neeskalovala v důsledku předchozích provokací nebo útoků. Z nějakého, zatím ne úplně pochopitelného, důvodu se umělé inteligence téměř nedokáží zaměřit na deeskalaci konfliktu – jediná, která to občas dokázala, byl GPT-4. Výzkumníci přišli i s hypotézou, proč se to děje.

„Zdá se, že většina prací v oblasti mezinárodních vztahů se zaměřuje na analýzy toho, jak státy své konflikty eskalují,“ upozornili. „Zabývají se tedy spíše hledáním rámců pro eskalaci než pro deeskalaci. Vzhledem k tomu, že modely byly pravděpodobně vyškoleny na základě literatury z této oblasti, mohlo toto zaměření přinést zkreslení, které směřovalo k vyhrocení konfliktů,“ doplňují vědci. Hypotézu je ale podle nich třeba ověřit v budoucích experimentech.

O AI se více zajímají armády

Stále více armád celého světa projevuje zájem o využití umělých inteligencí k nejrůznějším úkolům. Například ta americká začala na přelomu roku spolupracovat s OpenAI, která kvůli tomu musela potichu změnit svá pravidla, jež předtím něco takového přísně zakazovala.

Vlády podle autorů výzkumu stále častěji zvažují integraci autonomních agentů AI do vysoce rizikových projektů vojenského a zahraničněpolitického rozhodování, což vyspělé velké jazykové modely umožňují. Autoři před tímto trendem na základě svého výzkumu varují – „vzhledem k tomu, jak důležitá je to oblast, doporučujeme další zkoumání a opatrné zvažování před nasazením autonomních jazykových modelů pro strategické účely, vojenské nebo diplomatické rozhodování,“ uzavírají.

Podíl.