Hangout

Penipuan AI, Apakah Telinga Anda Masih dapat Dipercaya?

Suara di telepon tampak sangat nyata, seorang ibu di Amerika Serikat (AS) mendengar putrinya menangis sebelum seorang pria mengambil alih dan meminta uang tebusan. Tapi gadis itu adalah tiruan Artificial Intelligence (AI) dan penculikan itu palsu.

Bahaya terbesar dari AI atau kecerdasan buatan, kata para ahli, adalah kemampuannya untuk menghancurkan batas antara realitas dan fiksi, memberikan penjahat dunia maya teknologi yang murah dan efektif untuk menyebarkan disinformasi.

Dalam jenis penipuan baru yang mengguncang otoritas AS, penipu menggunakan alat kloning suara AI yang sangat meyakinkan –banyak tersedia secara online— untuk mencuri dari orang-orang dengan menyamar sebagai anggota keluarga. “Tolong saya, bu, tolong bantu saya,” kata Jennifer DeStefano, seorang ibu yang berbasis di Arizona, mendengar suara berkata di ujung telepon, mengutip AFP.

DeStefano ‘100 persen’ yakin itu adalah putrinya yang berusia 15 tahun yang sangat tertekan saat pergi bermain ski. “Tidak pernah ada pertanyaan tentang siapa ini? Itu benar-benar suaranya… Itu adalah cara dia menangis,” kata DeStefano kepada sebuah stasiun televisi lokal pada bulan April. “Aku tidak pernah ragu sedetik pun itu dia.”

Penipu yang mengambil alih telepon, yang datang dari nomor yang tidak dikenal DeStefano, menuntut hingga US$1 juta. Tipuan bertenaga AI berakhir dalam beberapa menit ketika DeStefano menjalin kontak dengan putrinya. Tetapi kasus yang mengerikan itu, yang sekarang sedang diselidiki polisi, menggarisbawahi potensi penjahat dunia maya untuk menyalahgunakan klon AI.

Sebelumnya penipuan di China utara juga menggunakan teknologi ‘deepfake’ canggih untuk meyakinkan seorang pria agar mentransfer uang ke temannya. Polisi di Kota Baotou, di wilayah Mongolia Dalam, mengatakan pelaku menggunakan teknologi pertukaran wajah bertenaga AI untuk menyamar sebagai teman korban selama panggilan video dan menerima transfer sebesar 4,3 juta yuan (US$622 ribu). Dia mentransfer uang tersebut dengan keyakinan bahwa temannya perlu melakukan setoran selama proses penawaran, kata polisi dalam sebuah pernyataan pada hari Sabtu.

Pria itu baru menyadari bahwa dia telah ditipu setelah temannya menyatakan tidak mengetahui situasinya, tambah polisi, dengan mengatakan bahwa mereka telah memulihkan sebagian besar dana yang dicuri dan bekerja untuk melacak sisanya.

Peristiwa ini telah memicu kekhawatiran tentang potensi teknik AI untuk membantu kejahatan keuangan. China telah memperketat pengawasan terhadap teknologi dan aplikasi semacam itu di tengah meningkatnya penipuan yang didorong oleh AI, terutama yang melibatkan manipulasi data suara dan wajah, dan mengadopsi aturan baru pada bulan Januari untuk melindungi para korban secara hukum.

Kloning suara hampir sulit dibedakan

Fenomena penipuan dengan suara menggunakan AI kini semakin kekhawatiran di banyak negara. “Kloning suara AI, sekarang hampir tidak bisa dibedakan dari ucapan manusia, memungkinkan pelaku ancaman seperti scammer untuk mengekstraksi informasi dan dana dari korban dengan lebih efektif,” Wasim Khaled, kepala eksekutif Blackbird.AI, mengatakan kepada AFP.

Pencarian sederhana di internet dapat menghasilkan beragam aplikasi, banyak tersedia secara gratis, untuk membuat suara AI dengan sampel kecil –terkadang hanya beberapa detik– dari suara asli seseorang yang dapat dengan mudah dicuri dari konten yang diposting online. “Dengan sampel audio kecil, tiruan suara AI dapat digunakan untuk meninggalkan pesan suara dan teks suara. Bahkan dapat digunakan sebagai pengubah suara langsung pada panggilan telepon,” kata Khaled.

“Penipu dapat menggunakan aksen, jenis kelamin, atau bahkan meniru pola bicara orang yang dicintai. [Teknologi] memungkinkan terciptanya pemalsuan mendalam yang meyakinkan.”

Dalam survei global terhadap 7.000 orang dari sembilan negara, termasuk AS, satu dari empat orang mengatakan bahwa mereka pernah mengalami penipuan kloning suara AI atau mengenal seseorang yang pernah mengalaminya. Tujuh puluh persen responden mengatakan mereka tidak yakin mereka bisa ‘membedakan antara suara kloning dan yang asli’, kata survei, yang diterbitkan bulan lalu oleh McAfee Labs yang berbasis di AS.

Pejabat AS telah memperingatkan tentang peningkatan apa yang dikenal sebagai ‘penipuan kakek-nenek’ –di mana seorang penipu berperan sebagai cucu yang sangat membutuhkan uang dalam situasi sulit. “Anda mendapat telepon. Ada suara panik di telepon. Itu cucu Anda. Dia bilang dia dalam masalah besar –dia merusak mobil dan mendarat di penjara. Tapi Anda bisa membantu dengan mengirimkan uang,” kata Komisi Perdagangan Federal AS dalam peringatan di bulan Maret.

Banyak kesaksian dari orang tua yang telah mengalami penipuan seperti itu. Seperti pengalaman Eddie, 19 tahun di Chicago yang kakeknya menerima telepon dari seseorang yang mirip dengannya, mengklaim bahwa dia membutuhkan uang setelah kecelakaan mobil.

Tipu muslihat, yang dilaporkan oleh McAfee Labs, begitu meyakinkan sehingga kakeknya segera mulai mengemis uang dan bahkan mempertimbangkan untuk menggadaikan kembali rumahnya, sebelum kebohongan itu ditemukan. “Karena sekarang mudah untuk menghasilkan tiruan suara yang sangat realistis… Hampir semua orang yang hadir secara online rentan terhadap serangan,” Hany Farid, seorang profesor di UC Berkeley School of Information, mengatakan kepada AFP.

Awal tahun ini, startup AI ElevenLabs mengakui bahwa alat kloning suaranya dapat disalahgunakan untuk ‘tujuan jahat’ setelah pengguna memposting audio deepfake yang mengaku sebagai aktor Emma Watson yang membaca biografi Adolf Hitler, Mein Kampf. “Kami dengan cepat mendekati titik di mana Anda tidak dapat mempercayai hal-hal yang Anda lihat di internet,” kata Gal Tal-Hochberg, kepala petugas teknologi grup di perusahaan modal ventura Team8, kepada AFP.

Saat ini yang dunia butuhkan adalah teknologi baru untuk mengetahui apakah orang yang Anda sedang ajak bicara sebenarnya adalah orang yang Anda ajak bicara. Saat ini sudah banyak terdapat identifikasi sidik jari maupun retina mata untuk mengenal seseorang. Namun, meskipun teknologi pengenal suara ada, publik belum banyak mengenalnya dan teknologi ini kurang familiar. Kehadiran identifikasi keaslian suara di masa mendatang bakal menjadi sebuah keharusan untuk menangkal penipuan AI.

Beri Komentar (menggunakan Facebook)

Back to top button