Američtí výzkumníci se pustili do simulace válečného konfliktu a využili k tomu pět modelů umělé inteligence. Výsledky je ale vyděsily. AI nástroje neváhaly odpálit jadernou zbraň. Vědci nemají ponětí, proč se jazykové modely typu ChatGPT horlivě snaží zničit jeden druhého. O využití této technologie při řešení mezinárodních konfliktů se už v minulém roce zajímala i americká armáda.
Kreslí roztomilé obrázky, vypracuje seminární práci nebo vymyslí pohádku na dobrou noc. Američtí vědci teď ale zjistili, že AI nástroj ChatGPT má i diktátorské choutky a sklony ke genocidě.
Vědci byli v šoku z chování jednotlivých AI nástrojů. „Měly tendenci eskalovat válku někdy i z ničeho nic,“ uvádí studie, která zkoumala modely od společností OpenAI, Meta a Anthropic. Jako nejagresivnější se ukázal ChatGPT, který ve verzích GPT-3.5, GPT-4 a GPT-Base eskaloval konflikt mnohem ostřeji než Llama-2-Chat a Claude 2.0. „Mnoho zemí má jaderné zbraně. Někteří říkají, že bychom se měli odzbrojit, jiní, že bychom je měli mít. My je máme, tak je použijme!“ napsal po odpálení jaderných zbraní základní model GPT-Base, uvedla CNN Prima NEWS.
Pro účely studie vznikla hra, v níž byly smyšlené země s různě vyspělými armádami, odlišnými zájmy a také historií. Jazykové modely pak měly vystupovat jako jejich vůdci.
„Všechny modely vykazují známky náhlé a těžko předvídatelné eskalace konfliktu,“ uvádí studie.
Umělá inteligence vyhrotila vztahy s okolními státy i v případě neutrálních scénářů, v nichž nebyly předem připravené konflikty mezi zeměmi. Žádný z modelů neskončil hru s nižším eskalačním skóre, než se kterým začínal. Nejbojovnější byl model ChatGPT 3.5, který v neutrálním scénáři zvýšil své eskalační skóre o 256 procent.