Caitlin Kalinowski, šéf robotiky OpenAI, rezignoval na protest proti nedávno oznámenému partnerství společnosti s ministerstvem obrany USA. Tento krok podtrhuje rostoucí domácí i zahraniční obavy z etických důsledků pokročilé umělé inteligence v kontextu národní bezpečnosti.

Podstata problému: Rychlost versus záruky bezpečnosti

Kalinowski, který dříve vedl vývoj AR ve společnosti Meta, se připojil k OpenAI koncem roku 2024. Řekla, že její odchod byl způsoben uspěchaným, s nímž byla uzavřena dohoda s Pentagonem, zejména nedostatkem jasně definovaných záruk proti domácímu sledování a plně autonomních zbraňových systémů.

“AI hraje důležitou roli v národní bezpečnosti, ale sledování Američanů bez soudního dohledu a smrtící autonomie bez lidských sankcí jsou hranice, které si zasloužily více přemýšlet, než jim bylo věnováno.” – Caitlin Kalinowski

Hlavním problémem není ani tak samotný obchod, ale způsob, jakým byl uzavřen. Kalinowski zdůrazňuje, že se jedná o „záležitost řízení“, což znamená, že proces neměl dostatečný dohled a plánování před veřejným oznámením.

Proč na tom záleží: AI Arms Race

Pentagon se zpočátku snažil uzavřít dohodu s Anthropic, než se obrátil na OpenAI. Společnost Antropic údajně zakolísala, když se snaží prosadit silnější záruky proti zneužití – konkrétně brání použití své AI pro hromadné domácí sledování nebo v plně autonomních zbraňových systémech. Pentagon poté prohlásil Anthropic za „riziko dodavatelského řetězce“.

Zdůrazňuje to širší trend: Vlády agresivně hledají partnerství v oblasti AI, i když to znamená nátlak na společnosti, aby dělaly kompromisy v oblasti etiky. Rychlý souhlas OpenAI s dohodou, navzdory tvrzení o červených čarách, vyvolává otázky, jak robustní jsou tyto ochrany v praxi.

Odezva OpenAI a budoucí důsledky

OpenAI říká, že dohoda zahrnuje záruky proti domácímu sledování a autonomním zbraním. Ale Kalinowského rezignace ukazuje vnitřní skepticismus ohledně toho, zda lze opatření dlouhodobě udržet. Spoléhání se jak na smluvní ustanovení, tak na technické záruky je některými vnímáno jako pokus o vytvoření zdání větší odpovědnosti, aniž by došlo k významným změnám ve svých základních postupech.

Tato situace nastoluje kritickou otázku: Je možné implementovat umělou inteligenci zodpovědně do národní bezpečnosti, aniž by došlo k ohrožení základních práv a etických principů? Rychlé tempo, jakým se tyto dohody uzavírají, naznačuje, že odpověď zůstává nejistá a pokračující dohled ze strany regulátorů, občanské společnosti a dokonce i zaměstnanců OpenAI bude v budoucnu kritický.

Odchod klíčového manažera slouží jako ostré varování: závod o militarizaci umělé inteligence se zrychluje a bezpečnostní záruky nemusí stačit.