penipuan suara deepfake 7 18
 Mengklon suara seseorang lebih mudah berbanding sebelum ini. D-Keine/iStock melalui Getty Images

Anda baru pulang ke rumah selepas seharian bekerja dan hendak duduk untuk makan malam tiba-tiba telefon anda mula berdengung. Di sisi lain adalah orang yang disayangi, mungkin ibu bapa, anak atau rakan zaman kanak-kanak, memohon anda untuk menghantar wang kepada mereka dengan segera.

Anda bertanya kepada mereka soalan, cuba memahami. Terdapat sesuatu yang tidak kena pada jawapan mereka, yang sama ada samar-samar atau di luar watak, dan kadangkala terdapat kelewatan yang pelik, hampir seolah-olah mereka berfikir terlalu perlahan. Namun, anda pasti bahawa orang yang anda sayangi bercakap: Itu adalah suara mereka yang anda dengar, dan ID pemanggil menunjukkan nombor mereka. Menjelaskan keanehan panik mereka, anda dengan patuh menghantar wang ke akaun bank yang mereka berikan kepada anda.

Keesokan harinya, anda menghubungi mereka semula untuk memastikan semuanya baik-baik saja. Orang yang anda sayangi tidak tahu apa yang anda cakapkan. Ini kerana mereka tidak pernah memanggil anda – anda telah ditipu oleh teknologi: suara palsu. Beribu-ribu orang ditipu dengan cara ini pada tahun 2022.

Keupayaan untuk mengklonkan suara seseorang semakin boleh dicapai oleh sesiapa sahaja yang mempunyai komputer.


grafik langganan dalaman


 

As keselamatan komputer penyelidik, kami melihat bahawa kemajuan berterusan dalam algoritma pembelajaran mendalam, penyuntingan audio dan kejuruteraan serta penjanaan suara sintetik bermakna semakin mungkin untuk mensimulasikan suara seseorang dengan meyakinkan.

Lebih teruk lagi, chatbots seperti ChatGPT mula menjana skrip realistik dengan respons masa nyata adaptif. Oleh menggabungkan teknologi ini dengan penjanaan suara, deepfake bertukar daripada rakaman statik kepada avatar hidup seperti hidup yang boleh menyakinkan perbualan telefon.

Mengklonkan suara

Mencipta deepfake berkualiti tinggi yang menarik, sama ada video atau audio, bukanlah perkara yang paling mudah untuk dilakukan. Ia memerlukan banyak kemahiran artistik dan teknikal, perkakasan berkuasa dan sampel suara sasaran yang agak besar.

Terdapat semakin banyak perkhidmatan yang ditawarkan kepada menghasilkan klon suara sederhana hingga berkualiti tinggi dengan bayaran, dan beberapa alat voice deepfake memerlukan sampel seminit sahaja, atau bahkan hanya beberapa saat, untuk menghasilkan klon suara yang boleh cukup meyakinkan untuk menipu seseorang. Walau bagaimanapun, untuk meyakinkan orang yang disayangi - sebagai contoh, untuk menggunakan dalam penipuan penyamaran - mungkin memerlukan sampel yang jauh lebih besar.

Penyelidik telah dapat mengklon suara dengan hanya lima saat rakaman.

 

Melindungi daripada penipuan dan maklumat salah

Dengan semua yang dikatakan, kami di Projek DeFake daripada Institut Teknologi Rochester, Universiti Mississippi dan Universiti Negeri Michigan, dan penyelidik lain berusaha keras untuk dapat mengesan video dan audio palsu serta mengehadkan bahaya yang ditimbulkan. Terdapat juga tindakan mudah dan harian yang boleh anda lakukan untuk melindungi diri anda.

Sebagai permulaan, pancingan data suara, atau "vishing", penipuan seperti yang diterangkan di atas adalah kemungkinan besar palsu suara yang mungkin anda hadapi dalam kehidupan seharian, di tempat kerja dan di rumah. Pada tahun 2019, an firma tenaga telah ditipu daripada AS$243,000 apabila penjenayah meniru suara bos syarikat induknya untuk mengarahkan pekerja memindahkan dana kepada pembekal. Pada tahun 2022, orang ramai ditipu daripada anggaran $11 juta melalui suara simulasi, termasuk hubungan peribadi yang rapat.

Apa yang boleh anda lakukan?

Berhati-hati dengan panggilan yang tidak dijangka, walaupun daripada orang yang anda kenali dengan baik. Ini bukan bermakna anda perlu menjadualkan setiap panggilan, tetapi ia membantu sekurang-kurangnya menghantar e-mel atau mesej teks ke hadapan. Juga, jangan bergantung pada ID pemanggil, kerana itu boleh dipalsukan juga. Contohnya, jika anda menerima panggilan daripada seseorang yang mendakwa mewakili bank anda, tutup dan hubungi bank terus untuk mengesahkan kesahihan panggilan tersebut. Pastikan anda menggunakan nombor yang telah anda tulis, disimpan dalam senarai kenalan anda atau yang boleh anda temui di Google.

Selain itu, berhati-hati dengan maklumat pengenalan peribadi anda, seperti nombor Keselamatan Sosial anda, alamat rumah, tarikh lahir, nombor telefon, nama tengah dan juga nama anak dan haiwan peliharaan anda. Penipu boleh menggunakan maklumat ini untuk menyamar sebagai bank, broker barang dan lain-lain, memperkayakan diri mereka semasa memufliskan anda atau memusnahkan kredit anda.

Berikut adalah satu lagi nasihat: kenali diri anda. Secara khususnya, ketahui kecenderungan dan kelemahan intelektual dan emosi anda. Ini adalah nasihat kehidupan yang baik secara umum, tetapi ia adalah kunci untuk melindungi diri anda daripada dimanipulasi. Penipu lazimnya berusaha untuk melepaskan diri dan kemudian menjadi mangsa kebimbangan kewangan anda, keterikatan politik anda atau kecenderungan lain, walau apa pun itu.

Kewaspadaan ini juga merupakan pertahanan yang baik terhadap maklumat salah menggunakan voice deepfakes. Deepfakes boleh digunakan untuk memanfaatkan anda bias pengesahan, atau perkara yang anda cenderung untuk percaya tentang seseorang.

Jika anda mendengar orang penting, sama ada dari komuniti anda atau kerajaan, mengatakan sesuatu yang sama ada kelihatan sangat tidak biasa bagi mereka atau mengesahkan syak wasangka terburuk anda terhadap mereka, anda adalah bijak untuk berhati-hati.Perbualan

Mengenai Pengarang

Matthew Wright, Profesor Keselamatan Pengkomputeran, Rochester Institute of Technology and Christopher Schwartz, Associate Penyelidik Pasca Doktoral Keselamatan Pengkomputeran, Rochester Institute of Technology

Artikel ini diterbitkan semula daripada Perbualan di bawah lesen Creative Commons. Membaca artikel asal.