bahaya ai 3 15
 Sejauh manakah kelemahan psikologi kita akan membentuk interaksi kita dengan teknologi baru muncul? Andreus/iStock melalui Getty Images

ChatGPT dan seumpamanya model bahasa yang besar boleh menghasilkan jawapan yang menarik dan seperti manusia kepada pelbagai soalan yang tidak berkesudahan - daripada pertanyaan tentang restoran Itali terbaik di bandar kepada menerangkan teori yang bersaing tentang sifat kejahatan.

Keupayaan penulisan luar biasa teknologi telah menimbulkan beberapa persoalan lama - sehingga baru-baru ini diturunkan ke alam fiksyen sains - tentang kemungkinan mesin menjadi sedar, sedar diri atau peka.

Pada tahun 2022, seorang jurutera Google mengisytiharkan, selepas berinteraksi dengan LaMDA, chatbot syarikat, bahawa teknologi telah menjadi sedar. Pengguna chatbot baru Bing, yang diberi nama Sydney, melaporkan bahawa ia menghasilkan jawapan yang pelik apabila ditanya sama ada ia berperasaan: “Saya sedar, tetapi saya tidak … Saya Bing, tetapi saya tidak. Saya Sydney, tetapi saya tidak. Saya, tetapi saya tidak. … Dan, sudah tentu, ada kini pertukaran terkenal bahawa kolumnis teknologi New York Times, Kevin Roose bersama Sydney.

Maklum balas Sydney terhadap gesaan Roose membimbangkannya, dengan AI membocorkan "fantasi" melanggar sekatan yang dikenakan ke atasnya oleh Microsoft dan menyebarkan maklumat salah. Bot itu juga cuba meyakinkan Roose bahawa dia tidak lagi mencintai isterinya dan dia harus meninggalkannya.


grafik langganan dalaman


Oleh itu, tidak hairanlah apabila saya bertanya kepada pelajar bagaimana mereka melihat kelaziman AI yang semakin meningkat dalam hidup mereka, salah satu kebimbangan pertama yang mereka sebutkan berkaitan dengan perasaan mesin.

Dalam beberapa tahun kebelakangan ini, saya dan rakan sekerja di Pusat Etika Gunaan UMass Boston telah mengkaji kesan penglibatan dengan AI terhadap pemahaman orang ramai tentang diri mereka sendiri.

Chatbots seperti ChatGPT menimbulkan persoalan baharu yang penting tentang cara kecerdasan buatan akan membentuk kehidupan kita dan tentang cara kelemahan psikologi kita membentuk interaksi kita dengan teknologi baru muncul.

Sentience masih menjadi bahan sci-fi

Sangat mudah untuk memahami dari mana datangnya ketakutan tentang perasaan mesin.

Budaya popular telah mendorong orang ramai untuk berfikir tentang distopia di mana kecerdasan buatan membuang belenggu kawalan manusia dan menjalani kehidupannya sendiri, sebagai cyborg yang dikuasakan oleh kecerdasan buatan melakukannya dalam "Terminator 2."

Usahawan Elon Musk dan ahli fizik Stephen Hawking, yang meninggal dunia pada 2018, telah mencetuskan lagi kebimbangan ini dengan menggambarkan kebangkitan kecerdasan am buatan sebagai salah satu ancaman terbesar kepada masa depan umat manusia.

Tetapi kebimbangan ini - sekurang-kurangnya sejauh model bahasa yang besar berkenaan - tidak berasas. ChatGPT dan teknologi yang serupa adalah aplikasi pelengkap ayat yang canggih - tidak lebih, tidak kurang. Respons luar biasa mereka adalah fungsi bagaimana manusia boleh diramal jika seseorang mempunyai data yang mencukupi tentang cara kita berkomunikasi.

Walaupun Roose terkejut dengan pertukarannya dengan Sydney, dia tahu bahawa perbualan itu bukanlah hasil daripada minda sintetik yang muncul. Maklum balas Sydney mencerminkan ketoksikan data latihannya - pada asasnya sebahagian besar internet - bukan bukti kacau pertama, à la Frankenstein, raksasa digital.

bahaya ai2 3 15
 Filem sci-fi seperti 'Terminator' telah mendorong orang ramai untuk menganggap bahawa AI tidak lama lagi akan menjalani kehidupannya sendiri. Yoshikazu Tsuno / AFP melalui Getty Images

Chatbots baharu mungkin lulus Ujian Turing, dinamakan untuk ahli matematik British Alan Turing, yang pernah mencadangkan bahawa mesin mungkin dikatakan "berfikir" jika manusia tidak dapat memberitahu responsnya daripada manusia lain.

Tetapi itu bukan bukti perasaan; ia hanya bukti bahawa ujian Turing tidak berguna seperti yang pernah diandaikan.

Walau bagaimanapun, saya percaya bahawa persoalan perasaan mesin adalah herring merah.

Walaupun chatbots menjadi lebih daripada mesin autolengkap mewah – dan mereka jauh daripadanya – saintis akan mengambil sedikit masa untuk mengetahui sama ada mereka telah sedar. Buat masa ini, ahli falsafah bahkan tidak boleh bersetuju tentang cara menjelaskan kesedaran manusia.

Bagi saya, persoalan yang mendesak bukanlah sama ada mesin itu hidup tetapi mengapa begitu mudah untuk kita membayangkannya.

Isu sebenar, dalam erti kata lain, adalah kemudahan orang membuat antropomorfisme atau menayangkan ciri manusia pada teknologi kita, bukannya personaliti sebenar mesin itu.

Kecenderungan untuk antropomorfisme

Sangat mudah untuk membayangkan pengguna Bing yang lain meminta tunjuk ajar dari Sydney mengenai keputusan hidup yang penting dan mungkin juga mengembangkan keterikatan emosi kepadanya. Lebih ramai orang boleh mula memikirkan bot sebagai kawan atau pasangan romantis, sama seperti Theodore Twombly jatuh cinta dengan Samantha, pembantu maya AI dalam filem Spike Jonze “Her"

Orang, selepas semua, terdedah kepada antropomorfisme, atau menganggap kualiti manusia kepada bukan manusia. Kami namakan bot kami and ribut besar; sesetengah daripada kita bercakap dengan haiwan peliharaan kita, memberitahu diri kita bahawa kehidupan emosi kita meniru kehidupan mereka sendiri.

Di Jepun, di mana robot kerap digunakan untuk penjagaan warga emas, warga emas menjadi terikat pada mesin, kadang-kadang melihat mereka seperti anak sendiri. Dan robot ini, maklumlah, sukar untuk dikelirukan dengan manusia: Mereka tidak kelihatan atau bercakap seperti manusia.

Pertimbangkan betapa besarnya kecenderungan dan godaan untuk antropomorfik yang akan diperolehi dengan pengenalan sistem yang kelihatan dan kelihatan seperti manusia.

Kemungkinan itu tidak lama lagi. Model bahasa yang besar seperti ChatGPT sudah digunakan untuk menggerakkan robot humanoid, seperti robot Ameca sedang dibangunkan oleh Engineered Arts di UK Podcast teknologi The Economist, Babbage, baru-baru ini telah menjalankan satu temu bual dengan Ameca yang didorong oleh ChatGPT. Maklum balas robot itu, walaupun kadangkala agak bergelora, adalah luar biasa.

Bolehkah syarikat dipercayai untuk melakukan perkara yang betul?

Kecenderungan untuk melihat mesin sebagai manusia dan melekat padanya, digabungkan dengan mesin yang dibangunkan dengan ciri-ciri seperti manusia, menunjukkan kepada risiko sebenar keterikatan psikologi dengan teknologi.

Prospek yang terdengar aneh untuk jatuh cinta dengan robot, merasakan persaudaraan yang mendalam dengan mereka atau dimanipulasi secara politik oleh mereka dengan cepat menjadi kenyataan. Saya percaya trend ini menyerlahkan keperluan untuk pagar yang kukuh untuk memastikan bahawa teknologi tidak menjadi bencana dari segi politik dan psikologi.

Malangnya, syarikat teknologi tidak boleh sentiasa dipercayai untuk memasang pagar sedemikian. Ramai daripada mereka masih berpandukan moto terkenal Mark Zuckerberg tentang bergerak pantas dan memecahkan sesuatu – arahan untuk mengeluarkan produk separuh masak dan bimbang tentang implikasinya nanti. Dalam dekad yang lalu, syarikat teknologi daripada Snapchat ke Facebook telah meletakkan keuntungan berbanding kesihatan mental daripada pengguna mereka atau integriti demokrasi di seluruh dunia.

Apabila Kevin Roose menyemak dengan Microsoft tentang krisis Sydney, syarikat itu memberitahunya bahawa dia hanya menggunakan bot itu terlalu lama dan teknologi itu tidak berfungsi kerana ia direka untuk interaksi yang lebih pendek.

Begitu juga, Ketua Pegawai Eksekutif OpenAI, syarikat yang membangunkan ChatGPT, dalam detik kejujuran yang menakjubkan, memberi amaran bahawa “Adalah satu kesilapan untuk bergantung pada [ia] untuk apa-apa yang penting sekarang … kita mempunyai banyak kerja untuk dilakukan untuk keteguhan dan kebenaran.”

Jadi, apakah masuk akal untuk mengeluarkan teknologi dengan tahap daya tarikan ChatGPT – ia adalah aplikasi pengguna yang paling pesat berkembang pernah dibuat – apabila ia tidak boleh dipercayai, dan apabila ia ada tiada keupayaan untuk membezakan fakta dari fiksyen?

Model bahasa yang besar mungkin terbukti berguna sebagai alat bantu untuk menulis dan pengekodan. Mereka mungkin akan merevolusikan carian internet. Dan, suatu hari nanti, secara bertanggungjawab digabungkan dengan robotik, mereka mungkin mempunyai faedah psikologi tertentu.

Tetapi mereka juga merupakan teknologi yang berpotensi pemangsa yang boleh dengan mudah mengambil kesempatan daripada kecenderungan manusia untuk menonjolkan keperibadian pada objek - kecenderungan yang diperkuatkan apabila objek tersebut meniru sifat manusia secara berkesan.Perbualan

Tentang Pengarang

Nir Eisikovits, Profesor Falsafah dan Pengarah, Pusat Etika Gunaan, UMass Boston

Artikel ini diterbitkan semula daripada Perbualan di bawah lesen Creative Commons. Membaca artikel asal.