Penjahat siber semakin canggih dalam menjebak korban dengan memanfaatkan kecerdasan buatan (AI) untuk membuat suara tiruan. Metode penipuan terbaru ini telah diungkap oleh Starling Bank, sebuah perusahaan pinjaman online asal Inggris, yang memperingatkan bahwa teknik ini berpotensi mengelabui jutaan orang.
Penipuan ini dimulai dengan mengumpulkan rekaman suara seseorang yang diunggah di platform online. Penipu kemudian membuat replika suara tersebut dan menghubungi kerabat atau teman orang tersebut, berpura-pura menjadi mereka dan meminta sejumlah uang.
Jika Anda familier dengan konsep deepfake video, perangkat lunak kloning suara AI daring adalah padanannya dalam bentuk ucapan.
Dengan rekaman ucapan beberapa menit saja, pengembang dapat membuat kumpulan data audio dan menggunakannya untuk melatih model suara AI yang dapat membaca teks apa pun dalam suara target.
Lisa Grahame, Kepala Petugas Keamanan Informasi di Starling Bank, mengungkapkan bahwa banyak orang tidak menyadari risiko mengunggah rekaman suara mereka secara online.
“Orang-orang secara rutin mengunggah konten di platform online yang berisi rekaman suara mereka, tanpa membayangkan bahwa hal tersebut membuat mereka lebih rentan terhadap penipuan,” ujarnya, mengutip CNN.
Menurut survei Starling Bank, sekitar 750 orang telah menjadi korban penipuan ini dalam 12 bulan terakhir. Dari 3.000 responden, 46 persen tidak mengetahui adanya metode penipuan ini, sementara 8 persen lainnya mengaku akan mengirimkan uang jika diminta oleh teman atau anggota keluarga.
Untuk menghindari jebakan ini, Starling Bank menyarankan penggunaan “kata kunci” yang hanya diketahui oleh keluarga atau teman dekat. Kata kunci ini harus sederhana, mudah diingat, dan berbeda dari password yang biasa digunakan. Hal ini bertujuan untuk memastikan bahwa kita berbicara dengan orang yang tepat.
Penting untuk membagikan kata kunci ini secara langsung, bukan melalui teks, untuk mencegah penipu melacaknya. Jika terpaksa harus membagikan lewat teks, pastikan untuk segera menghapus pesan tersebut.
Kekhawatiran tentang penyalahgunaan AI terus meningkat seiring dengan pesatnya perkembangan teknologi ini. AI, yang dapat membantu pekerjaan manusia, juga bisa menjadi alat bagi penjahat siber untuk mendapatkan informasi vital seperti akun bank dan menyebarkan misinformasi.
Awal tahun ini, OpenAI, pengembang ChatGPT, memperkenalkan alat bernama Voice Engine untuk mereplikasi suara. Namun, alat ini tidak dirilis ke publik karena potensi ancaman penyalahgunaan suara sintetik.