4rupi02z

R. Classen / Shutterstock

AI chatbots sudah digunakan secara meluas oleh perniagaan untuk menyambut pelanggan dan menjawab soalan mereka - sama ada melalui telefon atau di tapak web. Sesetengah syarikat mendapati bahawa mereka boleh, sedikit sebanyak, menggantikan manusia dengan mesin dalam peranan pusat panggilan.

Walau bagaimanapun, bukti yang ada menunjukkan terdapat sektor - seperti penjagaan kesihatan dan sumber manusia - di mana penjagaan yang melampau perlu diambil berhubung penggunaan alat barisan hadapan ini, dan pengawasan etika mungkin diperlukan.

Contoh baru-baru ini, dan sangat dipublikasikan, ialah a chatbot yang dipanggil Tessa, yang digunakan oleh Persatuan Gangguan Makan Kebangsaan (NEDA) di AS. Organisasi itu pada mulanya mengekalkan talian bantuan yang dikendalikan oleh gabungan pekerja bergaji dan sukarelawan. Ini mempunyai matlamat nyata untuk membantu orang yang terdedah yang mengalami gangguan makan.

Walau bagaimanapun, pada tahun ini, organisasi membubarkan kakitangan talian bantuannya, mengumumkan bahawa ia akan menggantikannya dengan chatbot Tessa. Sebab-sebab ini dipertikaikan. Bekas pekerja mendakwa bahawa peralihan itu mengikut keputusan kakitangan talian bantuan untuk bersatu. The naib presiden NEDA dipetik peningkatan bilangan panggilan dan masa menunggu, serta liabiliti undang-undang seputar penggunaan kakitangan sukarelawan.

Walau apa pun, selepas tempoh operasi yang sangat singkat, Tessa telah diambil alih di luar talian kerana laporan bahawa chatbot telah mengeluarkan nasihat bermasalah yang boleh memburukkan lagi gejala orang yang mencari bantuan untuk gangguan makan.


grafik langganan dalaman


Ia juga dilaporkan bahawa Dr Ellen Fitzsimmons-Craft dan Dr C Barr Taylor, dua penyelidik berkelayakan tinggi yang membantu dalam penciptaan Tessa, telah menetapkan bahawa chatbot tidak pernah dimaksudkan sebagai pengganti talian bantuan sedia ada atau untuk memberikan bantuan segera kepada mereka yang mengalami gejala gangguan makan yang teruk.

Peningkatan yang ketara

Jadi untuk apa Tessa direka? Para penyelidik, bersama-sama rakan sekerja, telah menghasilkan satu kajian observasi menonjolkan cabaran yang mereka hadapi dalam mereka bentuk chatbot berasaskan peraturan untuk berinteraksi dengan pengguna yang mengambil berat tentang gangguan makan. Ia adalah bacaan yang cukup menarik, menggambarkan pilihan reka bentuk, operasi, perangkap dan pindaan.

Versi asal Tessa adalah tradisional, chatbot berasaskan peraturan, walaupun yang sangat halus, iaitu yang mengikut struktur yang telah ditetapkan berdasarkan logik. Ia tidak boleh menyimpang daripada tindak balas pra-program piawai yang ditentukur oleh penciptanya.

Kesimpulan mereka termasuk perkara berikut: "Bot sembang berasaskan peraturan mempunyai potensi untuk menjangkau populasi yang besar dengan kos rendah dalam menyediakan maklumat dan interaksi mudah tetapi terhad dalam memahami dan bertindak balas dengan sewajarnya kepada respons pengguna yang tidak dijangka".

Ini mungkin kelihatan mengehadkan penggunaan yang sesuai dengan Tessa. Jadi bagaimana ia akhirnya menggantikan talian bantuan yang digunakan oleh NEDA sebelum ini? Rangkaian peristiwa yang tepat sedang dibincangkan di tengah-tengah akaun yang berbeza, tetapi, menurut NPR, syarikat pengehosan chatbot menukar Tessa daripada chatbot berasaskan peraturan dengan respons yang telah diprogramkan kepada satu dengan "ciri soalan dan jawapan yang dipertingkatkan".

Versi Tessa yang lebih baru adalah yang menggunakan AI generatif, sama seperti ChatGPT dan produk yang serupa. Chatbot AI lanjutan ini direka bentuk untuk mensimulasikan corak perbualan manusia dengan tujuan untuk memberikan respons yang lebih realistik dan berguna. Menjana jawapan tersuai ini bergantung pada pangkalan data maklumat yang besar, yang model AI dilatih untuk "memahami" melalui pelbagai proses teknologi: pembelajaran mesin, pembelajaran mendalam and pemprosesan bahasa semulajadi.

Pembelajaran pelajaran

Akhirnya, chatbot menjana apa yang telah digambarkan sebagai jawapan yang berpotensi berbahaya kepada beberapa soalan pengguna. Perbincangan seterusnya telah mengalihkan kesalahan dari satu institusi ke institusi yang lain. Walau bagaimanapun, perkara yang perlu diingat ialah keadaan seterusnya berpotensi dapat dielakkan jika terdapat badan yang menyediakan pengawasan etika, "manusia dalam gelung" dan pematuhan kepada tujuan jelas reka bentuk asal Tessa.

Adalah penting untuk belajar pengajaran daripada kes seperti ini dengan latar belakang tergesa-gesa ke arah penyepaduan AI dalam pelbagai sistem. Dan sementara peristiwa ini berlaku di AS, ia mengandungi pengajaran bagi mereka yang ingin melakukan perkara yang sama di negara lain.

UK nampaknya mempunyai pendekatan yang agak berpecah-belah untuk isu ini. Lembaga penasihat kepada Pusat Etika dan Inovasi Data (CDEI) baru-baru ini dibubarkan dan tempat duduknya di meja telah diambil oleh Pasukan Petugas AI Frontier yang baru ditubuhkan. Terdapat juga laporan bahawa sistem AI sedang diuji di London sebagai alat untuk membantu pekerja - walaupun bukan sebagai pengganti talian bantuan.

Kedua-dua contoh ini menyerlahkan potensi ketegangan antara pertimbangan etika dan kepentingan perniagaan. Kita mesti berharap bahawa kedua-duanya akhirnya akan menyelaraskan, mengimbangi kesejahteraan individu dengan kecekapan dan faedah yang boleh diberikan oleh AI.

Walau bagaimanapun, dalam sesetengah kawasan di mana organisasi berinteraksi dengan orang ramai, respons yang dijana AI dan empati yang disimulasikan mungkin tidak pernah mencukupi untuk menggantikan kemanusiaan dan belas kasihan yang tulen - terutamanya dalam bidang perubatan dan kesihatan mental.Perbualan

Mark Tsagas, Pensyarah, Undang-undang Jenayah, University of East London

Artikel ini diterbitkan semula daripada Perbualan di bawah lesen Creative Commons. Membaca artikel asal.