Caitlin Kalinowski, szefowa robotyki w OpenAI, złożyła rezygnację w proteście przeciwko ogłoszonemu niedawno partnerstwu firmy z Departamentem Obrony USA. Posunięcie to podkreśla rosnące krajowe i zagraniczne obawy dotyczące etycznych implikacji zaawansowanej sztucznej inteligencji w kontekście bezpieczeństwa narodowego.

Istota problemu: szybkość kontra gwarancja bezpieczeństwa

Kalinowski, która wcześniej kierowała rozwojem AR w Meta, dołączyła do OpenAI pod koniec 2024 roku. Powiedziała, że jej odejście było spowodowane pośpiechem, z jakim zawarto umowę z Pentagonem, w szczególności brakiem jasno określonych zabezpieczeń przed inwigilacją krajową i w pełni autonomicznymi systemami uzbrojenia.

„Sztuczna inteligencja odgrywa ważną rolę w bezpieczeństwie narodowym, ale inwigilacja Amerykanów bez nadzoru sądowego i zabójcza autonomia bez sankcji ludzkich to granice, które zasługiwały na więcej przemyślenia, niż im zostało”. – Caitlin Kalinowski

Głównym problemem nie jest sama umowa, ale sposób jej zawarcia. Kalinowski podkreśla, że ​​jest to „kwestia zarządzania”, co oznacza, że ​​przed publicznym ogłoszeniem proces nie był odpowiednio nadzorowany i planowany.

Dlaczego to ma znaczenie: wyścig zbrojeń AI

Pentagon początkowo próbował zawrzeć umowę z Anthropic, zanim zwrócił się do OpenAI. Według doniesień Anthropic waha się, próbując nalegać na silniejsze zabezpieczenia przed nadużyciami, w szczególności zapobiegając wykorzystywaniu swojej sztucznej inteligencji do masowego nadzoru krajowego lub w w pełni autonomicznych systemach uzbrojenia. Następnie Pentagon uznał Anthropic za „ryzyko łańcucha dostaw”.

Podkreśla to szerszy trend: rządy agresywnie poszukują partnerstw w zakresie sztucznej inteligencji, nawet jeśli oznacza to wywieranie presji na firmy, aby osiągnęły kompromis w sprawie etyki. Szybka zgoda OpenAI na transakcję, pomimo zapewnień o czerwonych liniach, rodzi pytania o solidność tych zabezpieczeń w praktyce.

Reakcja OpenAI i przyszłe implikacje

OpenAI twierdzi, że umowa obejmuje zabezpieczenia przed inwigilacją krajową i bronią autonomiczną. Dymisja Kalinowskiego pokazuje jednak wewnętrzny sceptycyzm co do możliwości utrzymania wprowadzonych środków w dłuższej perspektywie. Opieranie się przez firmę zarówno na postanowieniach umownych, jak i gwarancjach technicznych jest przez niektórych postrzegane jako próba stworzenia pozoru większej odpowiedzialności bez wprowadzania znaczących zmian w jej podstawowych praktykach.

Sytuacja ta nasuwa kluczowe pytanie: Czy możliwe jest odpowiedzialne wdrożenie sztucznej inteligencji w zakresie bezpieczeństwa narodowego bez narażania praw podstawowych i zasad etycznych? Szybkie tempo zawierania tych umów sugeruje, że odpowiedź pozostaje niepewna, a stały nadzór ze strony organów regulacyjnych, społeczeństwa obywatelskiego, a nawet pracowników OpenAI będzie miał w przyszłości kluczowe znaczenie.

Odejście kluczowego dyrektora stanowi wyraźne ostrzeżenie: wyścig w kierunku militaryzacji sztucznej inteligencji nabiera tempa, a gwarancje bezpieczeństwa mogą nie wystarczyć.