Caitlin Kalinowski, szefowa robotyki w OpenAI, złożyła rezygnację w proteście przeciwko ogłoszonemu niedawno partnerstwu firmy z Departamentem Obrony USA. Posunięcie to podkreśla rosnące krajowe i zagraniczne obawy dotyczące etycznych implikacji zaawansowanej sztucznej inteligencji w kontekście bezpieczeństwa narodowego.
Istota problemu: szybkość kontra gwarancja bezpieczeństwa
Kalinowski, która wcześniej kierowała rozwojem AR w Meta, dołączyła do OpenAI pod koniec 2024 roku. Powiedziała, że jej odejście było spowodowane pośpiechem, z jakim zawarto umowę z Pentagonem, w szczególności brakiem jasno określonych zabezpieczeń przed inwigilacją krajową i w pełni autonomicznymi systemami uzbrojenia.
„Sztuczna inteligencja odgrywa ważną rolę w bezpieczeństwie narodowym, ale inwigilacja Amerykanów bez nadzoru sądowego i zabójcza autonomia bez sankcji ludzkich to granice, które zasługiwały na więcej przemyślenia, niż im zostało”. – Caitlin Kalinowski
Głównym problemem nie jest sama umowa, ale sposób jej zawarcia. Kalinowski podkreśla, że jest to „kwestia zarządzania”, co oznacza, że przed publicznym ogłoszeniem proces nie był odpowiednio nadzorowany i planowany.
Dlaczego to ma znaczenie: wyścig zbrojeń AI
Pentagon początkowo próbował zawrzeć umowę z Anthropic, zanim zwrócił się do OpenAI. Według doniesień Anthropic waha się, próbując nalegać na silniejsze zabezpieczenia przed nadużyciami, w szczególności zapobiegając wykorzystywaniu swojej sztucznej inteligencji do masowego nadzoru krajowego lub w w pełni autonomicznych systemach uzbrojenia. Następnie Pentagon uznał Anthropic za „ryzyko łańcucha dostaw”.
Podkreśla to szerszy trend: rządy agresywnie poszukują partnerstw w zakresie sztucznej inteligencji, nawet jeśli oznacza to wywieranie presji na firmy, aby osiągnęły kompromis w sprawie etyki. Szybka zgoda OpenAI na transakcję, pomimo zapewnień o czerwonych liniach, rodzi pytania o solidność tych zabezpieczeń w praktyce.
Reakcja OpenAI i przyszłe implikacje
OpenAI twierdzi, że umowa obejmuje zabezpieczenia przed inwigilacją krajową i bronią autonomiczną. Dymisja Kalinowskiego pokazuje jednak wewnętrzny sceptycyzm co do możliwości utrzymania wprowadzonych środków w dłuższej perspektywie. Opieranie się przez firmę zarówno na postanowieniach umownych, jak i gwarancjach technicznych jest przez niektórych postrzegane jako próba stworzenia pozoru większej odpowiedzialności bez wprowadzania znaczących zmian w jej podstawowych praktykach.
Sytuacja ta nasuwa kluczowe pytanie: Czy możliwe jest odpowiedzialne wdrożenie sztucznej inteligencji w zakresie bezpieczeństwa narodowego bez narażania praw podstawowych i zasad etycznych? Szybkie tempo zawierania tych umów sugeruje, że odpowiedź pozostaje niepewna, a stały nadzór ze strony organów regulacyjnych, społeczeństwa obywatelskiego, a nawet pracowników OpenAI będzie miał w przyszłości kluczowe znaczenie.
Odejście kluczowego dyrektora stanowi wyraźne ostrzeżenie: wyścig w kierunku militaryzacji sztucznej inteligencji nabiera tempa, a gwarancje bezpieczeństwa mogą nie wystarczyć.


























