Jakarta Bank asal Inggris, Starling Bank mengingatkan bahwa jutaan orang bisa menjadi korban penipuan dari penggunaan teknologi Kecerdasan Buatan untuk mengkloning suara mereka.
Melansir CNN Business, Kamis (19/9/2024) Starling Bank mengatakan bahwa penipu mampu menggunakan AI untuk meniru suara seseorang hanya dari rekaman audio berdurasi tiga detik yang ditemukan, misalnya, dalam video yang diunggah orang tersebut secara daring.
Penipu kemudian dapat mengidentifikasi teman dan anggota keluarga orang tersebut dan menggunakan suara hasil kloning AI untuk melakukan panggilan telepon guna meminta uang.
“Jenis penipuan ini berpotensi memengaruhi jutaan orang, kata Starling Bank.
Ratusan Korban
Penipuan jenis ini pun telah memakan ratusan korban. Menurut survei terhadap lebih dari 3.000 orang dewasa yang dilakukan bank tersebut dengan Mortar Research bulan lalu, lebih dari seperempat responden mengatakan bahwa mereka telah menjadi sasaran penipuan kloning suara AI dalam 12 bulan terakhir.
Survei tersebut juga menunjukkan bahwa 46% responden tidak menyadari adanya penipuan tersebut, dan 8% mengatakan akan menghabiskan dana sebanyak mungkin yang diminta oleh teman atau anggota keluarga, meskipun mereka menganggap panggilan itu aneh.
Orang-orang secara teratur mengunggah konten daring yang berisi rekaman suara mereka, tanpa pernah membayangkan bahwa hal itu membuat mereka lebih rentan terhadap penipu, kata Lisa Grahame, kepala petugas keamanan informasi di Starling Bank.