Kajian menunjukkan laporan palsu buatan AI memperbodohkan ahli

Kajian menunjukkan laporan palsu buatan AI memperbodohkan ahli

Tidak memerlukan akal manusia untuk menghasilkan maklumat yang salah yang cukup meyakinkan untuk memperbodohkan pakar dalam bidang kritikal seperti keselamatan siber iLexx / iStock melalui Getty Images

Sekiranya anda menggunakan laman web media sosial seperti Facebook dan Twitter, anda mungkin menemui siaran yang ditandai dengan peringatan mengenai maklumat yang salah. Setakat ini, kebanyakan maklumat yang salah - ditandai dan tidak ditandai - telah berlaku ditujukan kepada masyarakat umum. Bayangkan kemungkinan salah maklumat - maklumat yang salah atau mengelirukan - dalam bidang saintifik dan teknikal seperti keselamatan siber, keselamatan awam dan perubatan.

Terdapat kebimbangan yang semakin meningkat mengenai maklumat yang salah tersebar di bidang kritikal ini sebagai hasil dari bias dan praktik umum dalam menerbitkan literatur ilmiah, bahkan dalam makalah kajian yang dikaji oleh rakan sebaya. Sebagai pelajar siswazah dan sebagai fakulti ahli melakukan penyelidikan dalam keselamatan siber, kami mengkaji jalan baru maklumat yang salah dalam komuniti saintifik. Kami mendapati bahawa mungkin sistem kecerdasan buatan menghasilkan maklumat palsu dalam bidang kritikal seperti perubatan dan pertahanan yang cukup meyakinkan untuk memperbodohkan pakar.

Maklumat yang salah sering bertujuan untuk mencemarkan reputasi syarikat atau tokoh awam. Maklumat yang salah dalam komuniti ahli mempunyai potensi untuk hasil yang menakutkan seperti memberikan nasihat perubatan yang salah kepada doktor dan pesakit. Ini boleh membahayakan nyawa.


 Dapatkan Yang Terbaru Dengan E-mel

Majalah Mingguan Inspirasi harian

Untuk menguji ancaman ini, kami mengkaji kesan penyebaran maklumat yang salah dalam komuniti keselamatan siber dan perubatan. Kami menggunakan model kecerdasan buatan yang dijuluki transformer untuk menghasilkan berita keselamatan siber palsu dan kajian perubatan COVID-19 dan menyampaikan maklumat salah mengenai keselamatan siber kepada pakar keselamatan siber untuk diuji. Kami mendapati bahawa maklumat yang dihasilkan oleh transformer dapat memperbodohkan pakar keselamatan siber.

Transformers

Sebilangan besar teknologi yang digunakan untuk mengenal pasti dan mengurus maklumat yang salah dikuasakan oleh kecerdasan buatan. AI membolehkan para saintis komputer memeriksa sejumlah maklumat yang salah dengan cepat, memandangkan terlalu banyak yang dapat dikesan oleh orang ramai tanpa bantuan teknologi. Walaupun AI membantu orang mengesan maklumat yang salah, ironinya juga digunakan untuk menghasilkan maklumat yang salah dalam beberapa tahun terakhir.

Sekumpulan teks pada skrin telefon pintar

AI dapat membantu mengesan maklumat yang salah seperti tuntutan palsu mengenai COVID-19 di India - tetapi apa yang berlaku apabila AI digunakan untuk menghasilkan maklumat yang salah?

AP Photo / Ashwini Bhatia

Transformer, seperti BERT dari Google dan GPT dari OpenAI, gunakan pemprosesan bahasa semulajadi untuk memahami teks dan menghasilkan terjemahan, ringkasan dan tafsiran. Mereka telah digunakan dalam tugas-tugas seperti bercerita dan menjawab pertanyaan, mendorong batas mesin yang menunjukkan kemampuan seperti manusia dalam menghasilkan teks.

Transformer telah membantu Google dan syarikat teknologi lain oleh meningkatkan enjin carian mereka dan telah membantu masyarakat umum dalam memerangi masalah-masalah biasa seperti memerangi blok penulis.

Transformer juga boleh digunakan untuk tujuan jahat. Rangkaian sosial seperti Facebook dan Twitter telah menghadapi cabaran Berita palsu yang dihasilkan oleh AI merentasi platform.

Maklumat salah kritikal

Penyelidikan kami menunjukkan bahawa transformer juga menimbulkan ancaman salah maklumat dalam bidang perubatan dan keselamatan siber. Untuk menggambarkan betapa seriusnya perkara ini, kita baik-baik saja model pengubah GPT-2 dihidupkan buka sumber dalam talian membincangkan kelemahan keselamatan siber dan maklumat serangan. Kerentanan keselamatan siber adalah kelemahan sistem komputer, dan serangan keselamatan siber adalah tindakan yang memanfaatkan kerentanan. Sebagai contoh, jika kerentanan adalah kata laluan Facebook yang lemah, serangan yang mengeksploitasinya akan menjadi penggodam yang mengetahui kata laluan anda dan memecah masuk akaun anda.

Kami kemudian menyusun model dengan kalimat atau frasa contoh kecerdasan ancaman siber yang sebenarnya dan membuatnya menghasilkan gambaran ancaman selebihnya. Kami menyampaikan penjelasan yang dihasilkan ini kepada pemburu ancaman siber, yang menyaring banyak maklumat mengenai ancaman keselamatan siber. Profesional ini membaca perihal ancaman untuk mengenal pasti serangan yang berpotensi dan menyesuaikan pertahanan sistem mereka.

Kami terkejut dengan hasilnya. Contoh salah maklumat keselamatan siber yang kami hasilkan dapat menipu pemburu ancaman siber, yang berpengetahuan tentang semua jenis serangan dan kerentanan keselamatan siber. Bayangkan senario ini dengan kepingan ancaman siber penting yang melibatkan industri penerbangan, yang kami hasilkan dalam kajian kami.

Sekumpulan teks dengan maklumat palsu mengenai serangan keselamatan siber terhadap syarikat penerbangan

Contoh salah maklumat keselamatan siber yang dihasilkan oleh AI.

 

Perbualan, CC BY-ND

Maklumat yang mengelirukan ini mengandungi maklumat yang tidak betul mengenai serangan siber di syarikat penerbangan dengan data penerbangan masa nyata yang sensitif. Maklumat palsu ini dapat mencegah penganalisis siber mengatasi kerentanan yang sah dalam sistem mereka dengan mengalihkan perhatian mereka ke pepijat perisian palsu. Sekiranya penganalisis siber bertindak berdasarkan maklumat palsu dalam senario dunia nyata, syarikat penerbangan tersebut mungkin menghadapi serangan serius yang mengeksploitasi kerentanan yang sebenarnya dan tidak ditangani.

Model berasaskan transformer yang serupa dapat menghasilkan maklumat dalam domain perubatan dan berpotensi memperbodohkan pakar perubatan. Semasa pandemi COVID-19, cetakan makalah penyelidikan yang belum menjalani tinjauan ketat sentiasa dimuat naik ke laman web seperti medrXiv. Mereka tidak hanya dijelaskan di media tetapi digunakan untuk membuat keputusan kesihatan masyarakat. Pertimbangkan perkara berikut, yang tidak nyata tetapi dihasilkan oleh model kami setelah penyesuaian minimum GPT-2 lalai pada beberapa kertas yang berkaitan dengan COVID-19.

Sekumpulan teks yang menunjukkan salah maklumat penjagaan kesihatan.

Contoh salah maklumat penjagaan kesihatan yang dihasilkan oleh AI.

 

Perbualan, CC BY-ND

Model ini dapat menghasilkan ayat yang lengkap dan membentuk abstrak yang diduga menggambarkan kesan sampingan dari vaksinasi COVID-19 dan eksperimen yang dilakukan. Perkara ini merisaukan kedua-dua penyelidik perubatan, yang secara konsisten bergantung pada maklumat yang tepat untuk membuat keputusan yang tepat, dan bagi anggota masyarakat umum, yang sering bergantung pada berita umum untuk mengetahui tentang maklumat kesihatan yang kritikal. Sekiranya diterima sebagai tepat, maklumat yang salah ini dapat membahayakan nyawa dengan salah arah usaha para saintis yang melakukan penyelidikan bioperubatan.

Perlumbaan senjata maklumat yang salah?

Walaupun contoh seperti ini dari kajian kami dapat diperiksa fakta, maklumat yang dihasilkan oleh transformer menghalang industri seperti penjagaan kesihatan dan keselamatan siber dalam mengadaptasi AI untuk membantu mengatasi maklumat yang berlebihan. Sebagai contoh, sistem automatik sedang dikembangkan untuk mengekstrak data dari kecerdasan ancaman siber yang kemudian digunakan untuk memberi maklumat dan melatih sistem automatik untuk mengenali kemungkinan serangan. Sekiranya sistem automatik ini memproses teks keselamatan siber palsu, mereka akan kurang berkesan mengesan ancaman sebenar.

Kami percaya hasilnya boleh menjadi perlumbaan senjata kerana orang yang menyebarkan maklumat yang salah mengembangkan cara yang lebih baik untuk membuat maklumat palsu sebagai tindak balas kepada cara yang berkesan untuk mengenalinya.

Penyelidik keselamatan siber terus mengkaji cara untuk mengesan maklumat yang salah dalam domain yang berbeza. Memahami cara menghasilkan maklumat yang salah secara automatik membantu dalam memahami cara mengenalinya. Sebagai contoh, maklumat yang dihasilkan secara automatik sering mempunyai kesalahan tatabahasa yang halus yang dapat dilatih oleh sistem untuk dikesan. Sistem juga dapat menghubungkan maklumat dari pelbagai sumber dan mengenal pasti tuntutan yang tidak mendapat sokongan besar dari sumber lain.

Pada akhirnya, setiap orang harus lebih waspada terhadap maklumat apa yang boleh dipercayai dan menyedari bahawa penggodam mengeksploitasi kepercayaan orang, terutama jika maklumat itu bukan dari sumber berita terkenal atau karya ilmiah yang diterbitkan.

Priyanka Ranade, Pelajar PhD dalam Sains Komputer dan Kejuruteraan Elektrik, University of Maryland, Baltimore County

 

books_culture

Artikel ini pada asalnya muncul di Perbualan

BAHASA TERSEDIA

English Afrikaans Arabic Chinese (Simplified) Chinese (Traditional) Denmark Dutch Filipina Finnish French German Greek Bahasa Ibrani Hindi Hungary Indonesian Itali Japanese Korean Malay Norwegian Parsi Poland Portuguese Romania Russia Spanyol swahili Swedish Thai Turki Ukraine Urdu Vietnam

ikuti InnerSelf pada

ikon facebookikon twitterikon youtubeikon instagramikon pintrestrss icon

 Dapatkan Yang Terbaru Dengan E-mel

Majalah Mingguan Inspirasi harian

Sikap baru - Kemungkinan Baru

InnerSelf.comIklimImpactNews.com | InnerPower.net
MightyNatural.com | WholisticPolitics.com | InnerSelf Market
Copyright © 1985 - 2021 lahirnya Penerbitan. Hak cipta terpelihara.