Tren Global

Kala AI Jadi Amunisi Perang, Dampaknya Bisa Sangat Brutal

  • Dari ladang drone di Ukraina hingga ruang intelijen Israel, kecerdasan buatan kini menjadi senjata paling berbahaya di abad ini
Photo by cottonbro studio: https://www.pexels.com/photo/a-woman-looking-afar-5473955/
Ilustrasi kecerdasan buatan. (Pexels / Cottonbro Studio)

JAKARTA, TRENASIA.ID - Pada suatu malam di Gaza, sebuah sistem komputer memutuskan bahwa seorang pria perlu dibunuh. Bukan jenderal, bukan komandan lapangan, melainkan sebuah algoritma bernama Lavender. Dalam waktu dua puluh detik, seorang analis intelijen mengklik tombol konfirmasi, bom dijatuhkan, rumah hancur, seluruh keluarga ikut terkubur.

Perang di Ukraina dan Gaza telah memperlihatkan kepada dunia bahwa teknologi baru kini nyata mengubah medan pertempuran, kecerdasan buatan. Pasukan Ukraina dan Rusia menggunakan AI untuk membantu menemukan dan mengidentifikasi target, menerbangkan drone, serta mendukung pengambilan keputusan taktis. 

Demikian pula Israel, yang menggunakannya untuk mengidentifikasi pimpinan Hamas, pusat komando, dan pola pergerakan. Kondisi inilah babak baru peperangan, di mana mesin bukan sekadar alat, tapi juga pengambil keputusan.

AI Israel Tentukan Siapa yang Mati

Dikutip laman Al Jazeeta, Israel menggunakan sistem AI bernama "Habsora" atau "The Gospel" untuk menentukan target yang akan dibom oleh Angkatan Udara Israel. 

Sistem ini secara otomatis memberikan rekomendasi target kepada analis manusia, yang kemudian memutuskan apakah rekomendasi itu diteruskan ke lapangan atau tidak.

Namun sistem yang lebih kontroversial adalah Lavender. Investigasi mengungkap bahwa AI Lavender digunakan oleh IDF untuk membantu mengidentifikasi individu di Gaza sebagai target, sementara "The Gospel" digunakan untuk memilih dan memprioritaskan target fisik yang akan diserang.

Skala operasinya mencengangkan, Lavender mampu mengidentifikasi dan menyetujui target hanya dalam 20 detik, sering kali tanpa pengawasan manusia yang berarti. Sistem ini dilaporkan membuat daftar 37.000 orang yang dilabeli sebagai anggota Hamas, banyak di antaranya berpangkat rendah atau tanpa peran militer yang terkonfirmasi.

Dalam kampanye pemboman 2023-2024, militer Israel mengklaim lebih dari 22.000 serangan di Gaza, dengan hingga 250 target yang diserang per hari dibandingkan hanya 1.500 target yang diserang sepanjang 2021. AI disebut secara eksplisit sebagai pengali kemampuan operasi ini.

Ada pula sistem ketiga, "Where's Daddy?". Sistem ini dirancang secara khusus untuk melacak individu yang masuk dalam daftar target dan sengaja dirancang untuk membantu Israel menyerang mereka saat berada di rumah pada malam hari bersama keluarga.

Para petugas intelijen Israel mengaku bahwa rata-rata waktu tinjauan hanyalah dua puluh detik, sekadar memastikan bahwa target yang ditandai oleh Lavender adalah laki-laki sebelum pemboman diizinkan. Tidak ada kewajiban untuk memeriksa mengapa mesin membuat pilihan tersebut atau menelaah data mentah di baliknya.

Sekretaris Jenderal PBB Antonio Guterres menyatakan ia "sangat terganggu" oleh laporan penggunaan AI militer Israel di Gaza, menyebut praktik ini membahayakan warga sipil dan mengaburkan akuntabilitas.

Ukraina Vs Rusia Jadi Laboratorium AI

Dilansir laman Fox News, perang Rusia-Ukraina adalah konflik pertama dalam sejarah di mana kedua pihak menggunakan AI. Rusia menggunakan AI untuk melancarkan serangan siber dan membuat video deepfake yang menampilkan Presiden Zelensky seolah-olah menyerah. 

Sementara itu, Ukraina menggunakan teknologi pengenalan wajah untuk mengidentifikasi agen dan prajurit Rusia, serta menganalisis intelijen dan merencanakan strategi.

Di sisi Ukraina, lompatan teknologinya dramatis. Ukraina mengambil model AI yang tersedia secara publik, melatih ulang dengan data tempur nyata dari garis depan, lalu menggunakannya pada berbagai jenis drone untuk meningkatkan peluang mengenai target Rusia tiga hingga empat kali lipat. 

Dengan menghilangkan kebutuhan kendali manual yang konstan, drone dengan navigasi otonom meningkatkan tingkat keberhasilan keterlibatan dari 10 - 20 % menjadi sekitar 70 - 80 %

Per musim panas 2025, Ukraina dilaporkan telah menerapkan teknologi drone swarm dalam lebih dari 100 operasi. Dikembangkan oleh perusahaan Ukraina bernama Swarmer, teknologi ini memungkinkan kelompok drone untuk mengkoordinasikan serangan secara otonom, menyesuaikan peran jika satu drone tidak berfungsi atau kehabisan daya.

Satu operasi menjadi bukti nyata kapabilitas ini. Dalam Operasi Spiderweb pada 1 Juni 2025, Ukraina menghancurkan atau merusak setidaknya 20 pesawat strategis Rusia menggunakan drone FPV dengan elemen AI yang dilatih untuk mengidentifikasi titik-titik lemah pada pesawat pengebom dan secara otomatis mengarahkan serangan ke celah tersebut.

Di pihak Rusia, drone Shahed kini jauh lebih cerdas dari sebelumnya. Drone Shahed varian terbaru Rusia membawa modul Nvidia Jetson Orin yang memungkinkan drone memproses umpan sensor secara langsung, mendeteksi kendaraan atau struktur menggunakan computer vision bawaan, dan memprioritaskan target berdasarkan apa yang "dilihatnya.

AI Masuk ke Semua Sektor Militer AS

Laporan media mengungkap bahwa militer AS menggunakan chatbot AI Claude milik Anthropic selama operasi yang menarget pemimpin di Venezuela dan Iran, menawarkan gambaran langka tentang bagaimana sistem AI canggih mungkin sudah mendukung perencanaan militer dan kerja intelijen AS.

Anthropic menyatakan Claude telah digunakan di seluruh jaringan informasi rahasia pemerintah AS, dikerahkan di laboratorium nuklir nasional, dan melakukan analisis intelijen langsung untuk Departemen Perang.

Dari sisi anggaran, komitmen AS tidak main-main. Anggaran 2025 AS menyisihkan 650 juta dolar untuk inovasi militer, termasuk 145 juta dolar untuk mengembangkan sistem anti-drone bertenaga AI, 250 juta dolar untuk pengembangan ekosistem AI, dan 250 juta dolar lagi untuk memperluas kapabilitas AI di pusat Cyber Command.

Angkatan Darat AS mengalokasikan kontrak senilai 98,9 juta dolar kepada TurbineOne untuk membantu prajurit memproses data medan pertempuran secara langsung di perangkat mereka, bahkan ketika koneksi cloud tidak tersedia dengan tujuan pengenalan ancaman dan pengambilan keputusan yang lebih cepat di lingkungan yang penuh jamming.

China Mulai Andalkan AI

Pada tahun 2019, China mengumumkan strategi militer baru bernama "Intelligentized Warfare" yang memanfaatkan AI. Pejabat Tentara Pembebasan Rakyat China (PLA) menyatakan bahwa China dapat melampaui militer AS dengan menggunakan AI, Beijing kini mengekspor doktrin ini bersama drone siluman CH-7 dan demonstrasi swarm ke negara-negara mitra.

Austrian Foreign Minister Alexander Schallenberg memperingatkan,"Inilah momen Oppenheimer generasi kita." Sama seperti senjata nuklir yang mendefinisikan ulang perang di abad ke-20, senjata bertenaga AI mengancam mendefinisikan ulang perang abad ke-21.

Pertanyaan terbesar yang belum terjawab bukan soal apakah AI bisa membunuh dengan lebih efisien. Ia sudah terbukti bisa. Pertanyaannya adalah, ketika mesin yang membuat keputusan itu salah dan ia pasti pernah salah, siapa yang bertanggung jawab?

Itulah paradoks paling gelap dari perang AI: ia bisa membuat pembunuhan terasa lebih bersih, lebih terorganisir, lebih legal padahal yang terjadi justru sebaliknya.