Tren Global

Dugaan Instruksi AI di Balik Pengeboman 170 Siswi Iran

  • Apakah kecerdasan buatan (AI) memang digunakan Amerika Serikat untuk mengambil keputusan menyerang sekolah di Iran yang menewaskan 170 siswi?
Iran.jpg
Ratusan siswi Iran jadi korban keganasan Israel (Amirhossein Khorgooei/ISNA via AFP)

JAKARTA, TRENASIA.ID - Tiga puluh menit setelah sirene meraung di pangkalan militer Iran, langit Minhab berubah menjadi neraka. Pertanyaan yang kini menghantui dunia tak hanya menanyakan "siapa yang menembak?", melainkan juga "siapa yang memutuskan?". 

Di balik puing-puing Sekolah Dasar khusus perempuan Shajarah Tayyebeh yang hangus dan 170 nyawa siswinya melayang, tersembunyi sebuah skenario perang masa depan yang mencekam, kala algoritma diduga menjadi "operator" di balik serangan mematikan Amerika Serikat.

Pertanyaannya apakah kecerdasan buatan (AI) memang digunakan Amerika Serikat untuk mengambil keputusan menyerang sekolah di Iran?

Dikutip laman The Wall Street Journal, Rabu, 11 Maret 2026, berdasarkan dokumen dan laporan yang dihimpun dari berbagai sumber, Pentagon mengandalkan sistem penargetan canggih bernama Project Maven yang diperkuat oleh model AI canggih, termasuk Claude dari perusahaan Anthropic dan platform analitik dari Palantir Technologies.

Untuk pertama kalinya dalam sejarah konflik bersenjata, militer Amerika Serikat mengintegrasikan AI generasi terbaru secara masif ke dalam rantai komando mereka. 

Berbeda dengan fiksi ilmiah di mana robot otonom menarik pelatuk, peran AI di sini justru lebih halus namun lebih mengerikan yakni sebagai "otak digital" yang menentukan siapa yang hidup dan siapa yang mati. 

Sistem ini bekerja dengan langkah-langkah sebagai berikut,

1. Menganalisis Data Intelijen: Membaca dan menerjemahkan ribuan jam komunikasi intersepsi secara instan.

2. Mengidentifikasi Target Potensial: Menyortir data dari satelit, radar, dan drone untuk memberikan rekomendasi target kepada analis manusia.

3. Mempercepat Rantai Serangan: Memadatkan waktu pengambilan keputusan dari hitungan jam menjadi hitungan detik.

Craig Jones, dosen senior geografi politik di Universitas Newcastle, menggambarkan situasi ini sebagai "mesin yang memberikan rekomendasi tentang apa yang harus ditargetkan, yang dalam beberapa hal jauh lebih cepat daripada kecepatan berpikir manusia."

Baca juga : Kala AI Jadi Amunisi Perang, Dampaknya Bisa Sangat Brutal

Risiko Mengerikan dari 'Bias Algoritma'

Tanggal 28 Februari 2026, menjadi saksi bisu tragedi yang mungkin akan mengubah sejarah perang modern. Dalam gelombang serangan presisi AS yang menyasar pangkalan angkatan laut Korps Garda Revolusi Iran (IRGC) di dekat Minhab, sebuah rudal nyasar menghantam Sekolah Dasar Shajarah Tayyebeh.

Analisis mendalam oleh The New York Times berdasarkan citra satelit dan rekaman media sosial menunjukkan bukti yang mengerikan, rudal tersebut diluncurkan dalam gelombang serangan presisi, namun alih-alih menghantam pangkalan militer, rudal itu justru membantai anak-anak yang sedang belajar.

Wes Bryant, seorang analis dan mantan pejabat Pentagon yang bertanggung jawab atas perlindungan sipil, mengatakan kepada The New York Times bahwa bukti-bukti yang ada mengarah pada skenario yang paling mungkin, kesalahan identifikasi oleh sistem.

Pengalaman militer Israel di Gaza dengan sistem AI bernama "Lavender" menjadi peringatan nyata. Sistem tersebut menghasilkan setidaknya 37.000 rekomendasi target dalam enam minggu pertama perang, dengan tingkat kesalahan mencapai 10 %. Yang lebih mengkhawatirkan, para operator manusia hanya diberi waktu sekitar "20 detik" untuk meninjau setiap rekomendasi sebelum mengizinkan serangan.

Fenomena ini dikenal sebagai automation bias, di mana manusia cenderung terlalu percaya pada rekomendasi mesin. Seorang komandan mungkin mengabaikan naluri atau intelijen lain yang bertentangan dengan saran AI. Dalam hitungan detik, proses pengecekan etika dan hukum menjadi dangkal.

Lebih jauh lagi, masalah bias algoritma menjadi momok yang tak terhindarkan. Sebuah studi menunjukkan bahwa sistem pengenalan wajah bisa memiliki tingkat kesalahan positif palsu 4 persen untuk wajah Asia, dibandingkan hanya 0,04 persen untuk wajah kulit putih. Artinya, kesalahan sistem tidak terdistribusi secara merata, tetapi cenderung menimpa mereka yang kurang terwakili dalam data pelatihan.

Dalam konteks Minhab, sekolah yang terletak di Iran selatan dengan karakteristik arsitektur yang mungkin mirip dengan pangkalan militer di mata algoritma, menjadi korban dari "buta budaya" mesin.

Baca juga : Kala Raksasa AI Berebut Modal ke Timur Tengah

Siapa Penjahat Perangnya?

Jika terbukti bahwa rudal yang menghantam sekolah Minhab adalah hasil rekomendasi dari sistem AI, pertanyaan paling mendasar muncul, siapa yang bertanggung jawab?

Komandan di ruang perang yang hanya punya 20 detik untuk meninjau? Programmer di Silicon Valley yang menulis algoritma? Atau CEO perusahaan teknologi seperti Anthropic atau Palantir?

Hukum internasional saat ini menegaskan bahwa tanggung jawab tetap berada pada komandan manusia. Namun, dalam praktiknya, akan sangat sulit untuk menentukan apakah kesalahan terletak pada komandan yang terlalu percaya pada mesin, atau pada desain sistem yang cacat.

Situasi ini semakin ironis karena Anthropic, pengembang Claude, sebenarnya telah menolak memberikan akses modelnya untuk sistem senjata otonom dan pengawasan massal. 

Namun, karena adanya masa transisi kontrak, sistem mereka tetap aktif saat operasi dilancarkan. Sementara itu, pesaingnya, OpenAI, justru mengambil langkah sebaliknya dengan meneken kontrak dengan Pentagon.

Pentagon melalui Department of Defense Directive 3000.09 secara resmi menyatakan bahwa sistem senjata otonom harus tetap memungkinkan "human judgment over the use of force" atau keputusan manusia atas penggunaan kekuatan.

Namun, realitas di lapangan seringkali berbeda. Ketika waktu dipadatkan dan tekanan meningkat, garis antara "rekomendasi AI" dan "perintah AI" menjadi kabur. Dalam simulasi perang, US Air Force telah menggunakan AI untuk membantu operator menemukan target lebih cepat, memadatkan proses keputusan serangan secara dramatis.

Sementara itu, di ruang server yang jauh di Virginia atau California, mungkin tidak ada yang menyadari bahwa algoritma yang mereka tulis telah berubah menjadi algojo.

Hingga saat ini, otoritas AS belum secara resmi mengkonfirmasi atau membantah bertanggung jawab atas serangan di sekolah Minhab. Presiden Donald Trump bahkan sempat melontarkan spekulasi bahwa rudal tersebut bisa jadi berasal dari Iran sendiri.

Namun, bagi 170 keluarga yang kehilangan putri mereka, dan bagi dunia yang menyaksikan, tragedi Minhab telah menjadi simbol kelam dari era baru peperangan. Saat algoritma bertemu dengan medan perang, garis merah antara target militer dan kehidupan sipil menjadi kabur. Nyawa manusia menjadi taruhan dalam "permainan" kecepatan dan presisi mesin.

Pertanyaan mendesak yang kini menggema di ruang sidang PBB, di ruang redaksi media, dan di hati masyarakat dunia bukan lagi apa yang bisa dilakukan AI?, tetapi menjadi beranikah kita menghentikannya sebelum lebih banyak anak menjadi korban?