Apa Saja Kecerdasan Buatan yang Digunakan Israel di Perang Gaza?


Konflik yang sedang berlangsung antara Israel dan Hamas telah mengungkap peran penting kecerdasan buatan (AI) dalam peperangan modern. Hanya saja penggunaan AI tak selalu berjalan mulus dan tentu saja korbannya adalah orang-orang yang tak berdosa. 

Pasukan Pertahanan Israel (IDF) telah secara resmi mengakui penggunaan sistem bertenaga AI yang disebut Habsora atau The Gospel untuk mengidentifikasi dan memilih sasaran pengeboman di Gaza dengan cepat. Hal ini menandai pengakuan resmi pertama IDF atas sistem akuisisi target berbasis AI. 

Namun, laporan investigasi baru-baru ini menunjukkan bahwa sistem AI lain, yang dikenal sebagai ‘The Lavender’, juga digunakan bersamaan dengan The Gospel.

Meski memiliki banyak keuntungan, AI bisa sangat berbahaya dalam situasi tertentu. Ada laporan mengenai korban sipil dalam jumlah besar di Rafah. AS sempat marah bahkan mengancam akan memblokir pasokan militer ke Israel jika tren ini terus berlanjut.

Kecerdasan Buatan Gagal Mengenali Kendaraan PBB?

Baru-baru ini, seorang mantan kolonel India yang bekerja untuk Departemen Keselamatan dan Keamanan PBB terbunuh di Rafah. Dia sedang dalam perjalanan ke Rumah Sakit Eropa bersama seorang rekannya ketika kendaraan PBB yang dinaikinya dengan jelas ditabrak.

Kapten TP Srivastava, mantan pilot Angkatan Udara Indian (IAF), mengutip Eurasian Times, mengungkapkan evolusi AI yang cepat mungkin menimbulkan ancaman nyata bagi umat manusia jika dibiarkan berkembang tanpa terkendali. Ancaman ini dirasakan oleh orang-orang ‘terbaik’ di bidang pengembangan AI.

Kenyataan adalah sistem AI jika disalahgunakan dapat mengakibatkan bencana. Teknologi Deepfake misalnya telah mengubah seluruh tatanan masyarakat dengan menciptakan ‘Boneka Digital’ dan memposting pernyataan palsu oleh para pemimpin dunia.

Pikiran yang gila atau tidak stabil dan memiliki akses terhadap senjata mematikan serta pengetahuan tentang AI dapat menjadi pertanda bencana yang tidak terpikirkan. Pengendalian senjata mematikan oleh entitas jahat tidak lagi berada dalam ranah fiksi. Ini adalah kenyataan. Demi kemanusiaan, senjata, khususnya nuklir, harus dijauhkan dari lingkup sistem AI.

Sistem Lavender Pilihan Target Sederhanakan AI

Sistem Lavender dirancang untuk mengidentifikasi individu yang dicurigai berafiliasi dengan Hamas dan Jihad Islam Palestina (PIJ), termasuk mereka yang berpangkat lebih rendah, yang berpotensi menjadikan mereka sasaran pemboman udara. Lavender diciptakan oleh Unit 8200, divisi intelijen elit IDF, yang dianalogikan dengan National Security Agency (NSA) di Amerika Serikat atau GCHQ di Inggris.

Ini adalah program yang digunakan oleh IDF dan didukung oleh AI yang menyederhanakan proses pemilihan target pengeboman. Biasanya, verifikasi target memerlukan konfirmasi manual, namun Lavender mengidentifikasi target potensial menggunakan AI, menurut laporan yang diterbitkan oleh majalah +972 Israel.

Hanya saja, penting untuk dicatat bahwa Lavender tidak secara mandiri memutuskan untuk melakukan eksekusi. Operator manusia pada akhirnya membuat keputusan berdasarkan rekomendasinya. Lavender merupakan sistem pemrosesan data, bukan senjata otonom, dan operator manusia bertanggung jawab untuk memutuskan apakah akan bertindak berdasarkan rekomendasinya atau tidak.

Menurut laporan, selama minggu-minggu awal konflik, Lavender mengidentifikasi 37.000 warga Palestina sebagai target potensial, dengan setidaknya 15.000 serangan udara dilakukan di Gaza antara tanggal 7 Oktober dan 24 November dengan menggunakan sistem ini. Namun, tingkat kesalahan sistem sebesar 10% telah menyebabkan kesalahan identifikasi terhadap individu yang tidak memiliki hubungan dengan kelompok militan tersebut.

The Gospel, Perang AI Pertama

Istilah The Gospel secara harafiah diterjemahkan menjadi ‘kabar baik’. Pasukan IDF mengklaim bahwa mereka mengobarkan ‘Perang Intelijen Buatan’ pertama di dunia melawan Hamas, mengakui penerapan sistem Habsora, juga dikenal sebagai sistem The Gospel, melawan Hamas. Hal ini menandai pengakuan resmi pertama IDF atas sistem akuisisi target berbasis AI.

IDF menggambarkan Habsora sebagai sistem senjata ‘defensif’ yang membantu menemukan lokasi kombatan dan peralatan musuh dengan cepat. Hal ini bertujuan ‘untuk mengurangi korban sipil’ dengan mengumpulkan data dari berbagai sumber dan memberikan rekomendasi penargetan kepada operator manusia.

Perbedaan The Gospel dan Lavender

Perbedaan mendasar antara sistem Gospel dan Lavender terletak pada definisi targetnya. The Gospel menandai bangunan-bangunan yang diklaim tentara sebagai tempat para militan beroperasi, sementara Lavender menandai individu-individu dan memasukkan mereka ke dalam ‘Daftar Pembunuhan’, menurut laporan.

Selain identifikasi target, Israel juga memanfaatkan AI untuk memetakan dan memantau jaringan luas terowongan yang dibangun oleh Hamas. Kendaraan udara tak berawak (UAV) yang dilengkapi dengan sensor bertenaga AI digunakan untuk mensurvei infrastruktur bawah tanah, memberikan informasi intelijen penting untuk mendukung operasi militer IDF di Gaza.

Penerapan sistem AI seperti ‘Lavender’ dan ‘Gospel’ telah memicu kekhawatiran mengenai korban sipil, yang oleh militer diakui sebagai ‘Kerusakan Tambahan’. Selain itu, IDF telah membela tindakannya, dengan menyatakan bahwa mereka mematuhi prinsip proporsionalitas yang digariskan dalam hukum internasional. Namun, penerapan sistem AI terhadap Hamas telah memicu perdebatan hukum dan etika, khususnya mengenai penerimaan kerusakan tambahan dan pra-otorisasi atas korban sipil.

AI Menjadi Arsitek Peperangan Baru

“Kami sangat yakin bahwa konflik yang sedang berlangsung dan di masa depan dapat dimenangkan, dikalahkan, atau dipengaruhi oleh kecepatan AI, kemanjuran AI, dan siapa yang benar-benar menggunakan AI di medan perang,” kata Dr Nikos Loutas, Kepala Kebijakan Data dan Kecerdasan Buatan NATO saat berbicara pada KTT AI tahunan ke-8 di London.

Integrasi sistem AI seperti Habsora dan Lavender ke dalam strategi militer Israel menunjukkan kemajuan signifikan dalam taktik peperangan modern. Pada saat yang sama, kemampuan menghasilkan target yang cepat dari teknologi ini menimbulkan kekhawatiran mengenai keakuratan identifikasi target dan potensi peningkatan korban sipil.

Meskipun sistem yang digerakkan oleh AI ini bertujuan untuk menyederhanakan identifikasi target dan mengurangi korban sipil, pemanfaatannya menimbulkan kekhawatiran etika dan menuntut pengawasan yang cermat. Menemukan keseimbangan antara kemajuan teknologi dan kewajiban etis menghadirkan tantangan yang berkelanjutan dan signifikan bagi angkatan bersenjata di seluruh dunia.

Yang jelas, ketika konflik antara Israel dan Hamas terus berlanjut, peran AI dalam operasi militer tidak diragukan lagi akan menentukan arah konflik dan hubungan internasional di masa depan.