Google telah melangkah maju dengan perjanjian signifikan yang memungkinkan Departemen Pertahanan AS memanfaatkan model kecerdasan buatannya untuk tujuan rahasia. Keputusan ini diambil meskipun ada penolakan keras dari internal, dengan ratusan karyawan mendesak perusahaan untuk menghindari aplikasi militer yang mereka anggap berbahaya atau tidak dapat dipantau.
Kesepakatan tersebut, yang pertama kali dilaporkan oleh The Information, mengizinkan Pentagon menggunakan alat AI Google untuk “setiap tujuan pemerintah yang sah”, termasuk operasi militer yang sensitif. Dengan menandatangani perjanjian ini, Google bergabung dengan sejumlah raksasa teknologi—termasuk OpenAI dan xAI—yang telah menjalin kemitraan rahasia serupa dengan militer AS.
Ruang Lingkup dan Perlindungan Perjanjian
Meskipun kontrak tersebut mengizinkan penggunaan militer secara luas, kontrak tersebut mencakup batasan-batasan tertentu. Perjanjian tersebut secara eksplisit menyatakan bahwa sistem AI Google tidak ditujukan untuk pengawasan massal dalam negeri atau untuk senjata otonom yang tidak dapat diawasi oleh manusia.
Namun, ketentuan tersebut juga memperjelas bahwa Google tidak memiliki hak untuk memveto keputusan operasional sah yang dibuat oleh pemerintah. Selanjutnya, perusahaan akan membantu menyesuaikan pengaturan keselamatan dan filter berdasarkan permintaan pemerintah. Seorang juru bicara Google mengatakan kepada CNET bahwa menyediakan akses API ke model komersial berdasarkan praktik standar adalah “pendekatan yang bertanggung jawab” untuk mendukung keamanan nasional, menegaskan kembali komitmen mereka terhadap senjata otonom tanpa pengawasan atau pengawasan domestik.
Konteks Utama: Pergeseran ini menandai perubahan dari pendirian Google sebelumnya. Pada bulan Februari, Google memperbarui prinsip-prinsip AI-nya untuk menekankan bahwa “negara demokrasi harus memimpin dalam pengembangan AI” dan bahwa kolaborasi antara perusahaan dan pemerintah sangat penting untuk melindungi masyarakat dan mendukung keamanan nasional. Hal ini menggantikan pernyataan sebelumnya yang melarang keras teknologi yang mungkin menyebabkan kerugian secara keseluruhan atau melanggar hak asasi manusia.
Perlawanan Internal dan Ketegangan Sejarah
Pengumuman tersebut telah memicu reaksi balik yang signifikan di dalam Google. Lebih dari 600 karyawan menandatangani surat terbuka yang ditujukan kepada CEO Sundar Pichai, menyerukan perusahaan untuk “menolak menyediakan sistem AI kami untuk beban kerja rahasia.”
Para karyawan berpendapat bahwa kedekatan mereka dengan teknologi memberikan tanggung jawab untuk mencegah penggunaan teknologi yang paling tidak etis. Kekhawatiran mereka lebih dari sekedar senjata otonom yang mematikan dan pengawasan massal; mereka khawatir pekerjaan rahasia menghilangkan visibilitas, sehingga mustahil bagi karyawan untuk mengetahui bagaimana atau di mana model tersebut diterapkan.
Ketegangan ini mencerminkan salah satu konflik internal Google yang paling menonjol: protes tahun 2018 terhadap Project Maven, sebuah program Pentagon yang menggunakan AI untuk menganalisis rekaman drone. Pada saat itu, ribuan pekerja melakukan unjuk rasa menentang kontrak tersebut, sehingga Google akhirnya memutuskan untuk tidak memperbarui kontrak tersebut. Sejak itu, sikap perusahaan terhadap AI militer semakin melemah.
Mengapa Ini Penting
Perkembangan ini menimbulkan pertanyaan kritis mengenai peran perusahaan teknologi swasta dalam keamanan nasional dan batasan pengawasan perusahaan.
- Hilangnya Transparansi: Tidak seperti aplikasi komersial, penggunaan militer rahasia terjadi secara rahasia. Karyawan dan masyarakat tidak dapat mengaudit bagaimana model ini berperilaku dalam skenario pertempuran atau intelijen di dunia nyata.
- Tren Industri: Dengan adanya keterlibatan OpenAI dan xAI dengan Pentagon, hal ini menandakan pergeseran industri yang lebih luas di mana pengembang AI besar menjadi bagian integral dari infrastruktur militer, sehingga mengaburkan batas antara inovasi teknologi sipil dan kemampuan pertahanan.
- Dilema Etis: Konflik inti masih ada: Bisakah sebuah perusahaan mengklaim mematuhi prinsip-prinsip etika AI sambil menyediakan alat untuk operasi pemerintah yang tidak jelas dan berpotensi membahayakan?
“Kami ingin melihat AI memberikan manfaat bagi umat manusia, bukan melihatnya digunakan dengan cara yang tidak manusiawi atau sangat berbahaya,” tulis surat terbuka tersebut, menyoroti kesenjangan moral yang mendalam di dunia kerja.
Kesimpulan
Keputusan Google untuk bermitra dengan Pentagon dalam pekerjaan AI rahasia mewakili poros strategis menuju kolaborasi keamanan nasional, menyelaraskannya dengan perusahaan AI besar lainnya. Namun, langkah ini telah memicu kembali perdebatan internal yang intens, yang menggarisbawahi semakin sulitnya menyeimbangkan tanggung jawab etis dengan tuntutan pemerintah dalam lanskap kecerdasan buatan yang berkembang pesat.


























