Cara 3 Facebook Boleh Kurangkan Berita Palsu

Cara 3 Facebook Boleh Kurangkan Berita Palsu

Orang ramai mendapat banyak berita dan maklumat dari Facebook. Ada yang palsu. Itu memberikan masalah kepada pengguna laman web, dan bagi syarikat itu sendiri.

Pengasas dan pengasas Facebook Mark Zuckerberg berkata syarikat itu akan mencari jalan untuk menangani masalah itu, walaupun beliau tidak mengakui keterukannya. Dan tanpa ironi yang ketara, dia membuat pengumuman ini dalam a Jawatan Facebook dikelilingi - sekurang-kurangnya untuk sesetengah penonton - oleh barang berita palsu.

Syarikat-syarikat teknologi yang pertama dengan kuasa yang serupa mengenai bagaimana orang ramai memberitahu dirinya sendiri, seperti Google, telah bekerja keras selama bertahun-tahun untuk menurunkan maklumat berkualiti rendah dalam hasil carian mereka. Tetapi Facebook belum membuat langkah serupa untuk membantu pengguna.

Apa yang boleh dilakukan Facebook untuk memenuhi kewajipan sosialnya untuk menyusun fakta daripada fiksyen untuk 70 peratus pengguna internet yang mengakses Facebook? Sekiranya laman web semakin meningkat di mana orang mendapat berita mereka, apa yang boleh dilakukan oleh syarikat itu tanpa mengambil jawatan menjadi pengadil muktamad kebenaran? Kerja saya sebagai profesor dalam kajian maklumat menunjukkan terdapat sekurang-kurangnya tiga pilihan.

Peranan Facebook

Facebook mengatakan ia adalah syarikat teknologi, bukan syarikat media. Motif utama syarikat adalah keuntungan, bukan a matlamat yang lebih tinggi seperti menghasilkan maklumat berkualiti tinggi untuk membantu orang ramai bertindak secara arif di dunia.

Walau bagaimanapun, siaran di laman web ini, dan perbualan di sekeliling dalam talian dan di luar, semakin meningkat terlibat dengan wacana awam kami dan agenda politik negara. Akibatnya, perbadanan itu mempunyai kewajipan sosial untuk menggunakan teknologinya untuk memajukan kebaikan bersama.

Walau bagaimanapun, pengertian kebenaran dari kepalsuan dapat menakutkan. Facebook tidak bersendirian meningkatkan kebimbangan tentang keupayaannya - dan syarikat teknologi lain - untuk menilai kualiti berita. Pengarah FactCheck.org, kumpulan pemeriksa fakta bukan berasaskan di University of Pennsylvania, memberitahu Bloomberg News bahawa banyak tuntutan dan cerita tidak sepenuhnya palsu. Ramai yang ada kernel kebenaran, walaupun mereka sangat mengelirukan. Jadi apa yang boleh dilakukan oleh Facebook?

Pilihan 1: Nudging

Satu pilihan Facebook boleh mengamalkan melibatkan menggunakan senarai yang sedia ada yang mengenalpasti prescreened yang boleh dipercayai dan laman berita palsu. Laman ini kemudian boleh memberi amaran kepada mereka yang ingin berkongsi artikel yang menyusahkan yang sumbernya dipersoalkan.


Dapatkan yang terbaru dari InnerSelf


Sebagai contoh, seorang pemaju telah membuat sambungan kepada pelayar Chrome yang menunjukkan apabila sebuah laman web anda cari mungkin palsu. (Dia memanggilnya "Pengesan BS.") Dalam hackathon 36-jam, sekumpulan pelajar kolej mewujudkan pelanjutan penyemak imbas Chrome serupa yang menunjukkan sama ada laman web artikel itu berasal dari pada senarai laman web dipercayai yang sah, atau sebaliknya tidak disahkan.

Sambungan ini menyampaikan makluman mereka semasa orang menatal melalui berita mereka. Pada masa ini, kedua-dua karya ini tidak langsung sebagai sebahagian daripada Facebook. Mengintegrasikan mereka akan memberikan pengalaman yang lebih lancar, dan akan menjadikan perkhidmatan ini tersedia untuk semua pengguna Facebook, di luar hanya mereka yang memasang salah satu sambungan pada komputer mereka sendiri.

Syarikat itu juga boleh menggunakan maklumat yang menjana sambungan - atau bahan sumbernya - untuk memberi amaran pengguna sebelum mereka berkongsi maklumat yang tidak boleh dipercayai. Di dunia reka bentuk perisian, ini dikenali sebagai "sedikit usaha. "Sistem amaran memantau tingkah laku pengguna dan memberitahu orang atau memberi mereka maklum balas untuk membantu mengubah tindakan mereka semasa menggunakan perisian.

Ini telah dilakukan sebelum ini, untuk tujuan lain. Sebagai contoh, rakan-rakan saya di sini di Universiti Syracuse membina aplikasi nudging yang memantau apa yang pengguna Facebook menulis dalam jawatan baru. Ia muncul pemberitahuan jika kandungan yang mereka tulis adalah sesuatu yang mereka boleh menyesal, seperti mesej yang marah dengan kata-kata sumpah.

Keindahan nudges adalah cara yang lembut tetapi berkesan mereka mengingatkan orang tentang tingkah laku untuk membantu mereka kemudian menukar tingkah laku itu. Kajian yang telah menguji penggunaan nudges kepada meningkatkan tingkah laku yang sihat, sebagai contoh, mendapati bahawa orang lebih cenderung untuk menukar diet dan senaman mereka berdasarkan peringatan dan cadangan yang lembut. Nudges boleh menjadi berkesan kerana mereka memberi kawalan kepada orang ramai sambil memberi mereka maklumat yang berguna. Akhirnya penerima nudge masih memutuskan sama ada menggunakan maklum balas yang disediakan. Nudges tidak merasa paksaan; Sebaliknya, mereka berpotensi memberi kuasa.

Pilihan 2: Crowdsourcing

Facebook juga boleh menggunakan kuasa crowdsourcing untuk membantu menilai sumber berita dan menunjukkan apabila berita yang dikongsi telah dinilai dan dinilai. Satu cabaran penting dengan berita palsu ialah ia memainkan bagaimana otak kita berwayar. Kami mempunyai pintasan mental, dipanggil Kecenderungan kognitif, yang membantu kita membuat keputusan apabila kita tidak mempunyai maklumat yang cukup (tidak pernah kita lakukan), atau masa yang cukup (kita tidak pernah lakukan). Secara umumnya pintasan ini berfungsi dengan baik untuk kami kerana kami membuat keputusan mengenai segala-galanya dari mana laluan untuk memandu untuk bekerja untuk membeli kereta Tetapi, kadang-kadang, mereka gagal kami. Jatuh untuk berita palsu adalah salah satu contoh.

Ini boleh berlaku kepada sesiapa sahaja - walaupun saya. Pada musim utama, saya mengikuti hashtag Twitter yang mana kemudian calon utama Donald Trump tweet. Mesej muncul bahawa saya mendapati jenis yang mengejutkan. Saya mengkritiknya dengan komen mengejek keganasannya. Sehari kemudian, saya menyedari bahawa tweet itu adalah dari akaun parodi yang sama dengan nama pemegang Twitter Trump, tetapi mempunyai satu huruf berubah.

Saya terlepas kerana saya telah jatuh bias pengesahan - kecenderungan untuk mengabaikan beberapa maklumat kerana ia bertentangan dengan jangkaan, ramalan atau hunches saya. Dalam kes ini, saya tidak menghiraukan suara kecil itu yang memberitahu saya tweet tertentu ini terlalu kecil di atas untuk Trump, kerana saya percaya dia mampu menghasilkan mesej yang lebih tidak sesuai. Berita palsu menyerang kami dengan cara yang sama.

Satu lagi masalah dengan berita palsu adalah bahawa ia boleh bergerak lebih jauh daripada pembetulan yang mungkin akan berlaku selepas itu. Ini sama dengan cabaran yang selalu dihadapi bilik berita apabila mereka melaporkan maklumat yang salah. Walaupun mereka menerbitkan pembetulan, sering orang yang mula-mula mendedahkan maklumat salah maklumat tidak pernah melihat kemas kini, dan oleh itu tidak tahu apa yang mereka baca sebelumnya salah. Lebih-lebih lagi, orang cenderung berpegang pada maklumat pertama yang mereka hadapi; Pembetulan boleh menjadi bumerang dengan mengulangi maklumat yang salah dan menguatkan kesilapan dalam minda pembaca.

Sekiranya orang menilai maklumat ketika mereka membacanya dan berkongsi penilaian tersebut, markah kebenaran, seperti pengguguran, boleh menjadi sebahagian daripada aplikasi Facebook. Itu boleh membantu pengguna memutuskan sama ada untuk membaca, berkongsi atau hanya mengabaikannya. Satu cabaran dengan orang ramai adalah bahawa orang boleh bermain sistem ini untuk mencuba dan memandu hasil yang berat sebelah. Tetapi, keindahan orang ramai ialah orang ramai juga boleh menilai penipu, seperti yang berlaku pada Reddit atau dengan ulasan Amazon, untuk mengurangkan kesan dan berat pengacau.

Pilihan 3: Jarak sosial algoritmik

Cara ketiga yang dapat membantu Facebook adalah mengurangkan kecenderungan algoritma yang kini wujud di Facebook. Laman ini terutamanya menunjukkan siaran dari orang-orang yang anda telah terlibat di Facebook. Dalam erti kata lain, algoritma Facebook mewujudkan apa yang dipanggil oleh beberapa gelembung penapis, fenomena berita dalam talian yang ada ulama yang bersangkutan selama beberapa dekad sekarang. Sekiranya anda terdedah kepada orang yang mempunyai idea yang sama seperti anda sendiri, ia membawa kepada polarisasi politik: Liberal semakin melampau dalam liberalisme mereka, dan konservatif semakin konservatif.

Gelembung penapis mencipta "ruang echo," di mana idea-idea yang sama melantun tanpa henti, tetapi maklumat baru mempunyai masa sukar mencari jalan masuk. Ini adalah masalah apabila ruang echo menyekat maklumat pembetulan atau fakta-fakta.

Jika Facebook membuka lebih banyak berita untuk masuk ke newsfeed seseorang daripada kumpulan orang rawak di rangkaian sosial mereka, ia akan meningkatkan peluang bahawa maklumat baru, maklumat alternatif dan maklumat yang bercanggah akan mengalir dalam rangkaian itu. Bilangan purata rakan dalam rangkaian pengguna Facebook adalah 338. Walaupun ramai di antara kita mempunyai teman dan keluarga yang berkongsi nilai dan kepercayaan kita, kita juga mempunyai kenalan dan orang yang tidak dikenali yang merupakan sebahagian daripada rangkaian Facebook kita yang mempunyai pandangan yang bertentangan secara mendasar. Jika algoritma Facebook membawa lebih banyak pandangan tersebut ke dalam rangkaian kami, gelembung penapis akan menjadi lebih berliang.

Semua pilihan ini berada dalam kemampuan jurutera dan penyelidik di Facebook. Mereka akan memberi kuasa kepada pengguna untuk membuat keputusan yang lebih baik mengenai maklumat yang mereka pilih untuk dibaca dan untuk berkongsi dengan rangkaian sosial mereka. Sebagai platform utama penyebaran maklumat dan penjana budaya sosial dan politik melalui perkongsian maklumat dan perkongsian, Facebook tidak perlu menjadi pengantara utama kebenaran. Tetapi ia boleh menggunakan kuasa rangkaian sosialnya untuk membantu pengguna mengukur nilai item di tengah-tengah aliran kandungan yang mereka hadapi.

Perbualan

Tentang Pengarang

Jennifer Stromer-Galley, Profesor Pengajian Maklumat, Universiti Syracuse

Artikel ini pada asalnya diterbitkan pada Perbualan. Membaca artikel asal.

Buku berkaitan:

{amazonWS: searchindex = Books; keywords = news online; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

ikuti InnerSelf pada

icon-facebooktwitter-iconrss-icon

Dapatkan Yang Terbaru Dengan E-mel

{Emailcloak = mati}