OpenAI Bantu Militer AS, Seberapa Berbahaya AI untuk Perang?
- Pakar memperingatkan risiko bias algoritma, senjata otonom, hingga perlombaan senjata AI tanpa regulasi internasional yang jelas.

Muhammad Imam Hatami
Author


JAKARTA, TRENASIA.ID - Keputusan OpenAI untuk menjalin kerja sama dengan United States Department of War kembali memantik perdebatan global mengenai batas etika penggunaan kecerdasan buatan (AI) dalam konflik bersenjata.
Langkah ini bukan sekadar keputusan bisnis, melainkan isu yang menyentuh dimensi keamanan nasional, hukum humaniter internasional, hingga tata kelola korporasi di era teknologi disruptif. Pengumuman kerja sama yang dilakukan pada akhir Februari 2026 itu disebut mencakup penyediaan teknologi AI dalam lingkungan militer yang bersifat rahasia.
Keputusan tersebut segera memicu reaksi keras, baik dari publik, karyawan perusahaan teknologi, maupun komunitas hak asasi manusia internasional.
- Baca juga : Kala Raksasa AI Berebut Modal ke Timur Tengah
Kontroversi semakin tajam karena pengumuman itu terjadi tak lama setelah pesaing OpenAI, Anthropic, dilaporkan diskors pemerintah AS akibat mempertahankan “garis merah” etisnya, menolak penggunaan model AI untuk senjata otonom mematikan dan pengawasan massal domestik.
Dampaknya langsung terasa di pasar konsumen. Aplikasi ChatGPT dilaporkan mengalami lonjakan penghapusan (uninstall) secara signifikan dalam sehari, sementara aplikasi Claude milik Anthropic justru melonjak dalam jumlah unduhan.
Tekanan juga datang dari internal industri teknologi. Hampir 900 karyawan dari OpenAI dan Google menandatangani surat terbuka yang mendesak pimpinan perusahaan untuk menolak penggunaan AI dalam sistem pengawasan dan “pembunuhan otonom tanpa pengawasan manusia.”
CEO OpenAI, Sam Altman, kemudian mengakui bahwa langkah tersebut terkesan “oportunistis dan ceroboh” di mata publik. Ia menyatakan komitmen untuk merevisi perjanjian dan secara eksplisit melarang penggunaan sistem OpenAI untuk pengawasan domestik warga Amerika Serikat.
Peristiwa ini menggambarkan ketegangan nyata antara kepentingan bisnis, tekanan pemerintah, dan tanggung jawab moral perusahaan teknologi.
Risiko AI di Medan Perang
Dilansir media resmi pemerintah China, People’s Daily Online, Kamis, 5 Maret 2026, di luar polemik korporasi, penggunaan AI dalam konflik bersenjata menghadirkan risiko sistemik yang jauh lebih besar. Para ahli militer dan keamanan siber mengidentifikasi sejumlah ancaman teknis serius.
Pertama adalah bias algoritma, AI belajar dari data historis yang dapat mengandung prasangka berbasis etnis, lokasi, atau profil tertentu. Dalam konteks militer, bias ini berpotensi menyebabkan salah identifikasi target dan korban sipil.
Kedua, risiko “halusinasi” pada AI generatif. Sistem dapat menghasilkan informasi fiktif yang tampak meyakinkan, sehingga berpotensi memicu keputusan fatal berbasis data keliru. Dalam situasi pertempuran yang cepat, miskomunikasi semacam ini dapat meningkatkan risiko tembakan kawan (friendly fire).
Ketiga adalah keracunan data (data poisoning), di mana pihak lawan menyusupkan data palsu ke sistem pelatihan AI. Serangan ini dapat membuat sistem lumpuh atau bahkan memberikan keuntungan taktis kepada musuh.
Keempat adalah efek “kotak hitam”. Kompleksitas algoritma membuat proses pengambilan keputusan sulit dijelaskan, sehingga komandan militer mungkin tidak memahami mengapa sistem merekomendasikan tindakan tertentu. Ketidakjelasan ini berpotensi menghambat evaluasi dan akuntabilitas.
Studi Kasus “Lavender”, Ketika Algoritma Menentukan Target
Menurut People’s Daily, risiko tersebut bukan sekadar teori. Sebagai contoh dalam konflik Gaza 2023, sistem AI Israel yang dikenal sebagai Lavender dilaporkan digunakan untuk menandai puluhan ribu warga Palestina sebagai target potensial.
Sistem tersebut disebut memiliki tingkat toleransi kesalahan hingga 10 persen. Artinya, ribuan individu yang tidak terlibat langsung dalam pertempuran dapat masuk dalam daftar target otomatis.
Laporan investigatif menyebut proses verifikasi manusia dalam beberapa kasus hanya berlangsung beberapa detik sebelum serangan dilakukan. Kasus ini memicu kecaman internasional dan menyoroti bahaya ketika keputusan hidup dan mati terlalu bergantung pada algoritma.
Di ranah hukum dan etika, penggunaan AI militer memunculkan dilema mendasar. Prinsip hukum humaniter internasional mensyaratkan pembedaan antara kombatan dan warga sipil serta penggunaan kekuatan secara proporsional. Penilaian moral semacam ini sangat sulit direplikasi oleh algoritma.
Masalah lain adalah akuntabilitas. Jika sistem AI melakukan kesalahan fatal atau bahkan kejahatan perang, siapa yang bertanggung jawab? Komandan di lapangan, pembuat kebijakan, atau programmer yang merancang kode? Ketidakjelasan rantai tanggung jawab ini menciptakan celah hukum yang berbahaya.
Risiko Perlombaan Senjata AI
Kerja sama OpenAI dan Pentagon juga memperkuat narasi perlombaan senjata AI global. Negara-negara besar seperti Amerika Serikat, China, dan Rusia terus mengembangkan sistem senjata otonom.
Penggunaan AI dalam sistem deteksi dan respons ancaman berpotensi mempercepat eskalasi konflik. Kesalahan persepsi kecil dalam sistem otomatis dapat memicu respons militer yang tak terduga. Beberapa analis menyebut risiko ini sebagai bentuk “Perang Dingin Digital” baru.
Pejabat Perserikatan Bangsa-Bangsa telah berulang kali memperingatkan bahwa AI yang tidak diatur secara ketat dapat menjadi ancaman eksistensial, sejajar dengan perubahan iklim dan proliferasi senjata nuklir.
Hingga kini, belum ada perjanjian internasional yang secara spesifik dan mengikat mengatur senjata otonom berbasis AI. Upaya diplomatik di tingkat PBB masih berlangsung, tetapi konsensus global sulit dicapai karena perbedaan kepentingan strategis negara-negara besar. Tanpa regulasi yang jelas, perkembangan teknologi militer berbasis AI berisiko melampaui kerangka hukum yang ada.
Keputusan OpenAI bekerja sama dengan Pentagon membuka babak baru dalam perdebatan global tentang masa depan perang berbasis AI. Risiko teknis, dilema etika, kekosongan akuntabilitas, dan potensi destabilisasi geopolitik menunjukkan bahwa persoalan ini jauh melampaui urusan kontrak bisnis.
Di tengah percepatan inovasi, satu prinsip menjadi krusial: mempertahankan kendali manusia yang bermakna atas setiap penggunaan kekuatan mematikan. Tanpa itu, teknologi yang diciptakan untuk meningkatkan efisiensi justru berpotensi memperbesar risiko kemanusiaan dan ketidakstabilan global.

Muhammad Imam Hatami
Editor
