Google osiąga przełomowe porozumienie umożliwiające Departamentowi Obrony USA wykorzystywanie jego modeli sztucznej inteligencji do ściśle tajnych celów. Decyzja została podjęta pomimo silnego sprzeciwu wewnętrznego, w którym setki pracowników wzywały firmę do unikania wojskowych zastosowań sztucznej inteligencji, które uważają za niebezpieczne lub niekontrolowane.
Wiadomo, że transakcja, o której po raz pierwszy poinformował The Information, pozwala Pentagonowi na korzystanie z narzędzi Google AI do „wszelkich zgodnych z prawem celów rządowych”, w tym wrażliwych operacji wojskowych. Podpisując tę umowę, Google dołącza do rosnącej liczby gigantów technologicznych – w tym OpenAI i xAI – którzy zawarli podobne umowy dotyczące danych wrażliwych z armią USA.
Zakres umowy i środki bezpieczeństwa
Choć traktat przewiduje szerokie zastosowanie wojskowe, zawiera szczegółowe ograniczenia. Umowa wyraźnie stwierdza, że systemy sztucznej inteligencji Google nie są przeznaczone do masowego nadzoru krajowego ani broni autonomicznej bez kontroli człowieka.
Warunki wyjaśniają jednak również, że Google nie ma prawa weta w stosunku do zgodnych z prawem decyzji operacyjnych podejmowanych przez rząd. Ponadto firma zobowiązuje się pomóc w ustaleniu parametrów i filtrów bezpieczeństwa na zlecenie agencji rządowych. Rzecznik Google powiedział CNET, że zapewnianie dostępu do interfejsów API modeli komercyjnych zgodnie ze standardowymi praktykami stanowi „odpowiedzialne podejście” do wspierania bezpieczeństwa narodowego, potwierdzając zaangażowanie firmy na rzecz zakazu niekontrolowanej broni autonomicznej i nadzoru krajowego.
Kluczowy kontekst: Ta zmiana oznacza odejście od poprzedniego stanowiska Google. W lutym firma zaktualizowała swoje zasady dotyczące sztucznej inteligencji, podkreślając, że „demokracje muszą przewodzić w rozwoju sztucznej inteligencji” oraz że współpraca między firmami a rządami jest niezbędna do ochrony ludzi i wspierania bezpieczeństwa narodowego. Zastąpiło to wcześniejszy język, który surowo zabraniał technologii, które mogłyby wyrządzić ogólną krzywdę lub naruszać prawa człowieka.
Opór wewnętrzny i sprzeczności historyczne
Ogłoszenie wywołało znaczną falę krytyki w Google. Ponad 600 pracowników podpisało list otwarty do dyrektora generalnego Sundara Pichai, w którym wzywa firmę do „odmowy udostępniania naszych systemów sztucznej inteligencji do zadań stanowiących tajemnicę państwową”.
Pracownicy argumentują, że bliskość technologii wiąże się z odpowiedzialnością za zapobieganie jej najbardziej nieetycznym zastosowaniom. Ich obawy wykraczają poza śmiercionośną broń autonomiczną i masową inwigilację: obawiają się, że praca z tajnymi danymi eliminuje przejrzystość, uniemożliwiając pracownikom dokładne określenie, jak i gdzie wykorzystywane są modele.
To napięcie nawiązuje do jednego z najbardziej widocznych konfliktów wewnętrznych w historii Google: protestów w 2018 r. przeciwko Project Maven, programowi Pentagonu wykorzystującemu sztuczną inteligencję do analizy nagrań z dronów. Następnie tysiące pracowników sprzeciwiło się umowie, co ostatecznie doprowadziło do decyzji Google o jej nieprzedłużaniu. Od tego czasu stanowisko firmy w sprawie wojskowej sztucznej inteligencji wyraźnie złagodniało.
Dlaczego to jest ważne?
Rozwój ten rodzi krytyczne pytania o rolę prywatnych firm technologicznych w bezpieczeństwie narodowym i granicach kontroli korporacyjnej.
- Utrata przejrzystości: W przeciwieństwie do zastosowań komercyjnych, tajne zastosowania wojskowe występują w cieniu. Pracownicy i opinia publiczna nie mogą kontrolować zachowania tych modeli w rzeczywistych scenariuszach bojowych lub rozpoznawczych.
- Trend branżowy: Współpraca OpenAI i xAI z Pentagonem sygnalizuje szerszą zmianę w branży, w której główni twórcy sztucznej inteligencji stają się integralną częścią infrastruktury wojskowej, zacierając granicę między innowacjami w zakresie technologii cywilnych a możliwościami obronnymi.
- Dylemat etyczny: Podstawowy konflikt pozostaje pytanie: czy firma może twierdzić, że przestrzega zasad etycznych sztucznej inteligencji, zapewniając jednocześnie narzędzia do nieprzejrzystych i potencjalnie szkodliwych działań rządu?
„Chcemy, aby sztuczna inteligencja przynosiła korzyści ludzkości, a nie była wykorzystywana w nieludzki lub wyjątkowo szkodliwy sposób” – czytamy w liście otwartym, podkreślając głęboki rozłam moralny w grupie.
Wniosek
Decyzja Google o współpracy z Pentagonem przy tajnych projektach związanych ze sztuczną inteligencją stanowi strategiczny zwrot w kierunku współpracy w zakresie bezpieczeństwa narodowego, łącząc firmę z innymi dużymi firmami zajmującymi się sztuczną inteligencją. Jednak to posunięcie ponownie rozpaliło gorącą debatę wewnętrzną, podkreślając rosnące trudności w pogodzeniu obowiązków etycznych i żądań rządu w szybko zmieniającej się dziedzinie sztucznej inteligencji.


























