Společnost Anthropic odmítla požadavky Pentagonu, který chtěl využívat její technologii umělé inteligence (AI) bez omezení pro běžné uživatele. Americké ministerstvo obrany přitom sdělilo, že pokud firma nepřistoupí na jeho žádost, tak bude považována za „riziko pro dodavatelský řetězec“ a riskuje ztrátu státní zakázky v hodnotě 200 milionů dolarů (4,1 miliardy korun). Společnost dostala čas na rozhodnutí do pátku 17:01 amerického času (23:01 středoevropského času).
„Průkopnické systémy umělé inteligence prostě nejsou dostatečně spolehlivé,“ zdůraznil ve čtvrtečním prohlášení generální ředitel společnosti Anthropic Dario Amodei. Dodal, že společnost nesouhlasí s tím, aby Pentagon používal její modely umělé inteligence k hromadnému sledování obyvatelstva nebo k ovládání plně autonomních zbraní.
Člověk blízký společnosti upřesnil, že firma neobviňuje ministerstvo z toho, že chce využívat umělou inteligenci některým z těchto způsobů, ale pouze poskytuje bezpečnostní hodnocení svého produktu.
„Nemáme zájem využívat umělou inteligenci k hromadnému sledování Američanů (což je nelegální) ani nechceme umělou inteligenci využívat k vývoji autonomních zbraní, které fungují bez lidského zásahu. Tato informace je nepravdivá a šíří ji levicoví novináři v médiích,“ napsal mluvčí Pentagonu Sean Parnell na sociální síti X.
„Žádáme o následující: Umožněte Pentagonu používat model společnosti Anthropic pro všechny zákonné účely,“ dodal Parnell.
Využití AI může vést ke „střelbě do vlastních řad“
Anthropic provozuje chatbota Claude, kterého americké ministerstvo obrany mimo jiné použilo při únosu venezuelského diktátora Nicoláse Madura. Z okruhu konkurenčních firem zůstává Anthropic poslední, který nedodává svou technologii do nové interní sítě americké armády. Pravidla společnosti zakazují využívat chatbota Claude k násilí, vývoji zbraní či sledování lidí.
Umělá inteligence Anthropicu není dostatečně spolehlivá pro zaměřování lidí v otázkách života a smrti. Důvodem je, že se v takových scénářích chová nepředvídatelně, což by v případě zbraňových systému mohlo vést k „střelbě do vlastních řad, selhání mise nebo neúmyslné eskalaci“, sdělil zdroj agentury Reuters.
Použití umělé inteligence pro hromadné sledování je podle zdroje Reuters problematické. Současné americké zákony sice neomezují, jaké závěry umělá inteligence může vyvodit na základě agregace velkého množství dat, ale znamená to, že by AI například mohla vytvářet profily skupin obyvatelstva, které „žádný zákon výslovně nezakazuje, ale které jasně porušují ducha ústavních ochran“, dodal.
Amodei doufá, že Pentagon přehodnotí své rozhodnutí
Amodei doufá, že Pentagon přehodnotí své rozhodnutí odstranit Anthropic ze svých systémů a zrušit smlouvu, kterou spolu uzavřeli. Dodal, že jeho společnost „bude usilovat o hladký přechod k jinému poskytovateli“, pokud se Pentagon rozhodne své sliby naplnit.
„Bez ohledu na to tyto hrozby se nemění náš postoj: nemůžeme s čistým svědomím vyhovět jejich požadavku,“ dodal Amodei.
„Je škoda, že je Dario Amodei lhář a že má spasitelský komplex. Nechce nic jiného, než osobně ovládat americkou armádu, a nevadí mu ohrozit bezpečnost naší země,“ napsal náměstek ministra obrany Emil Michael. Dodal, že Pentagon bude „VŽDY dodržovat zákon, ale nebude se podřizovat rozmarům žádné komerční technologické společnosti“.
Mluvčí společnosti Anthropic uvedl, že společnost je „nadále připravena pokračovat v jednáních a je odhodlána zajistit kontinuitu provozu pro ministerstvo a americké vojáky“. Více než 200 zaměstnanců společností Google a OpenAI podpořilo postoj společnosti Anthropic v otevřeném dopise.

