Kanal

Kecerdasan Buatan dapat Memicu Bencana Nuklir

Kontroversi tentang kecerdasan buatan atau artificial intelligence (AI) makin meruncing. Kini muncul kekhawatiran bahwa teknologi ini akan memicu bencana nuklir. Sistem canggih ini dikhawatirkan mampu melancarkan serangan nuklir tanpa pengawasan manusia.

Anggota parlemen Amerika Serikat (AS) telah membunyikan alarm atas penggunaan kecerdasan buatan di gudang senjata nuklir negara itu, khawatir bahwa teknologi itu berpotensi menembakkan hulu ledak sendiri. Sekelompok anggota parlemen bipartisan, yang terdiri dari tiga Demokrat dan satu Republik, telah mengajukan Rancangan Undang-undang (RUU) di DPR AS yang berupaya mengekang pengembangan sistem kecerdasan buatan yang mampu melancarkan serangan nuklir tanpa pengawasan manusia.

Mengutip EurAsian Times, RUU yang diusulkan berusaha untuk secara proaktif memblokir potensi kebijakan Departemen Pertahanan yang dapat menghasilkan pengerahan sistem AI otonom yang mampu meluncurkan senjata nuklir. Dalam wawancara Fox News baru-baru ini, Perwakilan AS Ken Buck, seorang Republikan Colorado, menekankan potensi bahaya penerapan sistem AI untuk senjata nuklir tanpa pengawasan manusia, menyebutnya ‘sembrono’ dan ‘berbahaya’.

Meskipun mengakui bahwa AI dapat meningkatkan keamanan nasional, dia menekankan pentingnya melarang penggunaannya dalam keputusan peluncuran nuklir otonom. “Jadi Anda melihat film sci-fi, dan dunia menjadi tidak terkendali karena AI telah mengambil alih – kita akan melibatkan manusia dalam proses ini,” tambahnya.

Buck merujuk pada penggambaran Hollywood tentang AI yang mengendalikan senjata nuklir dalam film seperti ‘WarGames’ dan ‘Colossus: The Forbidden Project’ dan memperingatkan bahwa menggunakan AI tanpa campur tangan manusia akan menjadi tidak aman dan tidak bertanggung jawab.

Perwakilan Ted Lieu dari California setuju dengan kekhawatiran Buck dan mengakui potensi manfaat dan risiko AI, dengan menyatakan bahwa meskipun dapat mengubah masyarakat, AI juga dapat mengancam kehidupan manusia. Bersama dengan dua Demokrat lainnya, Perwakilan Don Beyer dari Virginia dan Senator Edward Markey dari Massachusetts, adalah pendukung utama undang-undang AI yang berupaya mencegah potensi bahaya sistem AI otonom di gudang senjata nuklir negara.

Pada bulan April, Pemimpin Mayoritas Senat Chuck Schumer meluncurkan kerangka kerja komprehensif yang meminta perusahaan yang terlibat dalam pengembangan AI untuk mengizinkan pakar eksternal menilai teknologi mereka sebelum tersedia untuk penggunaan publik. Kerangka kerja ini bertujuan untuk mempromosikan transparansi dan akuntabilitas dalam pengembangan AI sambil memastikan manfaat potensialnya dapat diakses oleh semua orang.

Meskipun gagasan tentang konflik nuklir yang digerakkan oleh AI mungkin dipandang sebagai karya fiksi di masa lalu, banyak ahli sekarang menganggapnya sebagai risiko yang dapat dipercaya. Menurut survei terbaru oleh Stanford Institute for Human-Centered Artificial Intelligence, 36% pakar percaya bahwa AI berpotensi menyebabkan ‘malapetaka tingkat nuklir’.

Sikap Pentagon terhadap penggunaan AI

Pentagon telah mengalokasikan US$1,8 miliar secara eksklusif untuk penelitian dan pengembangan kemampuan AI dalam anggaran tahun fiskal 2024. Investasi tersebut mencerminkan peningkatan fokus militer AS pada AI sebagai elemen penting dalam menjaga keamanan nasional dan komitmennya untuk tetap berada di garis depan inovasi teknologi di bidang ini.

Komando Pusat AS (CENTCOM) baru-baru ini menunjuk penasihat AI pertamanya, Dr. Andrew Moore, menandakan penekanan yang lebih besar dalam memanfaatkan keunggulan teknologi yang berkembang pesat di militer.

Sementara itu, Schuyler Moore, Chief Technology Officer di CENTCOM, sebelumnya menyatakan bahwa AI dipandang sebagai ‘tombol lampu’ yang membantu individu dalam menginterpretasikan data dan membimbing mereka ke arah yang benar. Dia menekankan bahwa posisi Pentagon adalah harus selalu ada manusia yang membuat keputusan akhir dan bahwa AI akan melengkapi penilaian manusia.

Moore menambahkan bahwa salah satu aplikasi AI dalam domain CENTCOM adalah pemanfaatannya dalam memerangi pengiriman senjata ilegal di sekitar Iran. Dia menunjukkan bahwa militer percaya bahwa AI dapat membantu mengurangi jumlah pengiriman yang berpotensi mencurigakan dengan memahami pola pengiriman reguler dan menandai setiap anomali yang menyimpang dari norma.

Pejabat di Pentagon telah berulang kali menyatakan bahwa AS sedang berlomba untuk mengembangkan sistem AI yang lebih etis dan bertanggung jawab daripada sistem yang dikembangkan oleh musuh-musuhnya. Mereka telah menyatakan keprihatinan bahwa beberapa negara menjadi sangat mahir dalam menggunakan AI untuk pengawasan yang tidak sah. Mereka telah menyoroti perlunya AS bersiap untuk melawan taktik semacam itu jika digunakan melawan negara tersebut.

Banyak tokoh sudah khawatir

Kekhawatiran tentang pengembangan AI ini muncul tidak hanya di kalangan pengamat senjata tetapi juga banyak tokoh dunia. Pada Maret, miliarder teknologi Elon Musk dan sejumlah ahli menyerukan jeda dalam pengembangan sistem AI untuk memberikan waktu guna memastikan keamanannya. Sebuah surat terbuka, yang ditandatangani oleh lebih dari 1.000 orang termasuk Musk dan salah satu pendiri Apple Steve Wozniak, dipicu oleh peluncuran GPT-4, versi teknologi yang jauh lebih kuat yang digunakan oleh ChatGPT.

Sementara Geoffrey Hinton, ilmuwan komputer yang sering dijuluki ‘Godfather Artificial Intelegence’ yang menciptakan teknologi dasar untuk sistem AI, mengatakan Senin (1/5/2023) kepada The New York Times bahwa kemajuan yang dibuat di lapangan menimbulkan risiko besar bagi masyarakat dan kemanusiaan.

“Lihatlah bagaimana lima tahun lalu dan sekarang. Ambil perbedaannya dan sebarkan ke depan. Itu menakutkan.” Hinton mengatakan bahwa persaingan antara raksasa teknologi mendorong perusahaan untuk merilis teknologi AI baru dengan kecepatan yang berbahaya, mempertaruhkan pekerjaan, dan menyebarkan informasi yang salah. “Sulit untuk melihat bagaimana Anda dapat mencegah aktor jahat menggunakannya untuk hal-hal buruk,” katanya kepada Times.

Pada tahun 2022, Google dan OpenAI – perusahaan rintisan di balik chatbot AI ChatGPT yang populer – mulai membangun sistem menggunakan jumlah data yang jauh lebih besar daripada sebelumnya. Hinton mengatakan kepada Times bahwa dia percaya bahwa sistem ini melampaui kecerdasan manusia dalam beberapa hal karena jumlah data yang mereka analisis. “Mungkin apa yang terjadi dalam sistem ini sebenarnya jauh lebih baik daripada apa yang terjadi di otak,” katanya kepada surat kabar tersebut.

Sementara AI telah digunakan untuk mendukung pekerja manusia, perluasan chatbot yang cepat seperti ChatGPT dapat membahayakan pekerjaan. AI ‘menghilangkan kerja keras’ tetapi ‘mungkin menghilangkan lebih dari itu’, katanya. Ilmuwan tersebut juga memperingatkan tentang potensi penyebaran informasi yang salah yang dibuat oleh AI, mengatakan kepada Times bahwa rata-rata orang “tidak akan dapat lagi mengetahui apa yang benar”.

Para ilmuwan seharusnya tidak meningkatkan teknologi ini terlebih dahulu sampai mereka mengerti apakah mereka dapat mengendalikannya. Jangan sampai menyesal kemudian.

Beri Komentar (menggunakan Facebook)

Back to top button