Algoritma YouTube Mungkin Radikalkan Orang - Tetapi Masalah Sebenarnya Kami Tidak Ada Idea Cara Mereka Bekerja

Algoritma YouTube Mungkin Radikalkan Orang - Tetapi Masalah Sebenarnya Kami Tidak Ada Idea Cara Mereka Bekerja Encik Tempter / Shutterstock

Adakah YouTube mencipta pelampau? A kajian baru-baru menyebabkan hujah di kalangan saintis dengan mengatakan bahawa algoritma yang menguasai tapak tidak membantu orang radikal dengan mencadangkan video yang lebih ekstrim, seperti telah dicadangkan beberapa tahun kebelakangan ini.

Kertas ini, yang dikemukakan kepada jurnal akses terbuka pada Isnin Pertama tetapi belum secara rasmi dikaji semula, menganalisis cadangan video yang diterima oleh pelbagai saluran. Ia mendakwa bahawa algoritma YouTube nikmat saluran media arus perdana atas kandungan bebas, menyimpulkan bahawa radikalisasi mempunyai lebih banyak kaitan dengan orang yang membuat kandungan berbahaya daripada algoritma tapak.

Pakar dalam bidang ini cepat masuk menanggapi kajian, dengan beberapa mengkritik kaedah kertas itu dan yang lain berpendapat bahawa algoritma itu adalah salah satu beberapa faktor penting dan ilmu data sahaja tidak akan memberi kita jawapan.

Masalahnya dengan perbincangan ini ialah kita tidak dapat menjawab persoalan apa yang berperanan dalam algoritma YouTube dalam membangkitkan orang kerana kita tidak faham bagaimana ia berfungsi. Dan ini hanyalah satu gejala masalah yang lebih luas. Algoritma ini memainkan peranan yang semakin meningkat dalam kehidupan seharian kita tetapi kekurangan ketelusan.

Sukar untuk berhujah bahawa YouTube tidak memainkan peranan dalam radikalisasi. Ini pertama kali ditunjukkan oleh ahli sosiologi teknologi Zeynep Tufekci, yang menggambarkan bagaimana video yang dicadangkan secara beransur-ansur memacu pengguna ke arah kandungan yang lebih melampau. Dalam kata-kata Tufekci, video tentang joging membawa kepada video tentang menjalankan ultramaraton, video tentang vaksin membawa kepada teori konspirasi, dan video tentang politik membawa kepada "penafian Holocaust dan kandungan mengganggu lain".

Ini juga telah ditulis tentang secara terperinci oleh bekas pekerja YouTube Guillaume Chaslot yang bekerja di algoritma cadangan laman web. Sejak meninggalkan syarikat itu, Chaslot terus berusaha membuat cadangan itu lebih telus. Beliau berkata cadangan YouTube adalah berat sebelah terhadapnya teori konspirasi dan video yang tidak tepat, yang mana bagaimanapun, membolehkan orang ramai menghabiskan lebih banyak masa di laman web ini.

Malah, memaksimumkan masa tontonan adalah keseluruhan titik algoritma YouTube, dan ini menggalakkan pencipta video untuk memperjuangkan perhatian dalam apa jua cara yang mungkin. Syarikat itu semata-mata kekurangan ketelusan kira-kira dengan tepat bagaimana ini berfungsi menjadikan hampir mustahil untuk melawan radikalisasi di laman web ini. Lagipun, tanpa ketelusan, sukar untuk mengetahui apa yang boleh diubah untuk memperbaiki keadaan.


Dapatkan yang terbaru dari InnerSelf


Algoritma YouTube Mungkin Radikalkan Orang - Tetapi Masalah Sebenarnya Kami Tidak Ada Idea Cara Mereka Bekerja Bagaimana cara algoritma YouTube berfungsi sebagai misteri. Siapa Danny / Shutterstock

Tetapi YouTube tidak biasa dalam hal ini. Kekurangan ketelusan tentang cara kerja algoritma biasanya berlaku apabila mereka digunakan dalam sistem besar, sama ada oleh syarikat swasta atau badan awam. Serta memutuskan apa video untuk menunjukkan kepada anda seterusnya, algoritma pembelajaran mesin kini digunakan tempatkan kanak-kanak di sekolah, tentukan pada hukuman penjara, tentukan skor kredit dan kadar insurans, serta nasib pendatang, calon pekerjaan dan pemohon universiti. Dan biasanya kita tidak faham bagaimana sistem ini membuat keputusan mereka.

Para penyelidik telah menemui cara kreatif untuk menunjukkan kesan algoritma ini kepada masyarakat, sama ada dengan mengkaji kebangkitan hak reaksioner atau penyebaran teori konspirasi di YouTube, atau dengan menunjukkan bagaimana enjin carian mencerminkan kecenderungan perkauman daripada orang-orang yang mencipta mereka.

Sistem pembelajaran mesin biasanya besar, kompleks, dan legap. Dengan tepat, mereka sering digambarkan sebagai kotak hitam, di mana maklumat masuk, dan maklumat atau tindakan keluar, tetapi tidak ada yang dapat melihat apa yang terjadi di antara. Ini bermakna, kerana kita tidak tahu dengan tepat bagaimana algoritma seperti sistem cadangan YouTube beroperasi, cuba untuk mengetahui bagaimana laman web berfungsi seperti cuba memahami kereta tanpa membuka bonet.

Sebaliknya, ini bermakna bahawa cuba menulis undang-undang untuk mengawal selia apa yang perlu atau tidak patut dilakukan oleh algoritma menjadi proses buta atau percubaan dan kesilapan. Inilah yang berlaku dengan YouTube dan dengan begitu banyak algoritma pembelajaran mesin lain. Kami cuba untuk mengatakan dalam hasil mereka, tanpa pemahaman sebenar bagaimana mereka benar-benar bekerja. Kita perlu membuka teknologi yang dipatenkan ini, atau sekurang-kurangnya menjadikannya cukup telus sehingga kita boleh mengawalnya.

Penjelasan dan pengujian

Satu cara untuk melakukan ini adalah untuk algoritma yang disediakan penjelasan counterfactual bersama dengan keputusan mereka. Ini bermakna menyelesaikan syarat-syarat minimum yang diperlukan untuk algoritma untuk membuat keputusan yang berbeza, tanpa menerangkan logik penuhnya. Contohnya, algoritma membuat keputusan tentang pinjaman bank mungkin menghasilkan output yang mengatakan bahawa "jika anda berusia 18 tahun dan tidak mempunyai hutang sebelumnya, anda akan mendapat pinjaman bank anda". Tetapi ini mungkin sukar dilakukan dengan YouTube dan laman web lain yang menggunakan algoritma pengesyoran, seperti teori mana-mana video di platform boleh disyorkan pada bila-bila.

Alat lain yang berkuasa adalah ujian dan pengauditan algoritma, yang sangat berguna dalam mendiagnosis algoritma yang bias. Dalam kes baru-baru ini, syarikat penapisan semula profesional mendapati bahawa algoritmanya adalah mengutamakan dua faktor sebagai peramal terbaik prestasi kerja: sama ada nama calon itu adalah Jared, dan jika mereka bermain lacrosse di sekolah menengah. Inilah yang berlaku ketika mesin berjalan tanpa pengawasan.

Dalam kes ini, algoritma penapisan resume telah menyedari bahawa lelaki kulit putih mempunyai peluang yang lebih tinggi untuk diupah, dan mendapati terdapat kaitan dengan ciri-ciri proksi (seperti yang dinamakan Jared atau bermain lacrosse) yang terdapat dalam calon-calon yang diupah. Dengan YouTube, pengauditan algoritma dapat membantu memahami jenis video yang diprioritaskan untuk cadangan - dan mungkin membantu menyelesaikan perdebatan mengenai sama ada cadangan YouTube menyumbang kepada penyebaran atau tidak.

Memperkenalkan penjelasan counterfactual atau menggunakan pengauditan algoritma adalah proses yang sukar dan mahal. Tetapi ia penting, kerana alternatifnya lebih teruk. Sekiranya algoritma tidak dikawal dan tidak dikawal, kita dapat melihat secara beransur-ansur teori teori konspirasi dan pelampau ke dalam media kita, dan perhatian kita dikawal oleh sesiapa sahaja yang boleh menghasilkan kandungan yang paling menguntungkan.Perbualan

Mengenai Penulis

Chico Q. Camargo, Penyelidik Postdoctoral dalam Sains Data, Universiti Oxford

Artikel ini diterbitkan semula daripada Perbualan di bawah lesen Creative Commons. Membaca artikel asal.

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

ikuti InnerSelf pada

icon-facebooktwitter-iconrss-icon

Dapatkan Yang Terbaru Dengan E-mel

{Emailcloak = mati}