chatGPT
Sekumpulan saintis komputer terkemuka dan industri teknologi lain yang terkenal menyeru agar berhenti selama enam bulan pada teknologi kecerdasan buatan. (Shutterstock)

Surat terbuka baru-baru ini oleh saintis komputer dan pemimpin industri teknologi menyeru larangan selama enam bulan terhadap pembangunan kecerdasan buatan mempunyai mendapat perhatian meluas dalam talian. Malah Menteri Inovasi Kanada François-Philippe Champagne telah membalas surat tersebut di Twitter.

Surat itu, yang diterbitkan oleh Future of Life Institute bukan keuntungan, telah meminta semua makmal AI menghentikan latihan sistem AI yang lebih berkuasa daripada GPT-4, model di sebalik ChatGPT. Surat itu berhujah bahawa AI telah "terkunci dalam perlumbaan luar kawalan untuk membangun dan menggunakan minda digital yang lebih berkuasa yang tiada siapa - malah pencipta mereka - boleh memahami, meramal, atau mengawal dengan pasti."

Surat itu menganggap AI menjadi, atau boleh menjadi, "minda digital yang berkuasa" - a tafsiran jangka panjang pembangunan AI Bahawa mengabaikan perdebatan penting tentang AI hari ini sebagai ganti kebimbangan masa depan.

Jangka panjang dan AI

Longtermism ialah kepercayaan bahawa kecerdasan buatan menimbulkan risiko jangka panjang atau wujud kepada masa depan manusia dengan menjadi superintelligence di luar kawalan.


innerself subscribe graphic


Kebimbangan tentang AI superintelligent biasanya menjadi bahan fiksyen sains. fantasi AI adalah salah satu daripada banyak ketakutan di Silicon Valley yang boleh membawa kepada nubuatan gelap. Tetapi seperti Meme Nexus seksa, kebimbangan ini diterjemahkan kepada pelaburan utama bukan berhati-hati. Kebanyakan firma teknologi utama mempunyai potong pasukan AI mereka yang bertanggungjawab.

ChatGPT jelas sekali bukan laluan kepada superintelligence. Surat terbuka itu melihat teknologi bahasa AI seperti ChatGPT sebagai satu kejayaan kognitif — sesuatu yang membolehkan AI bersaing dengan manusia dalam tugas umum. Tetapi itu hanya satu pendapat.

Terdapat ramai lagi yang melihat ChatGPT, model GPT-4 dan model pembelajaran bahasa lain sebagai “burung kakak tua stokastik” itu hanya mengulangi apa yang mereka pelajari dalam talian supaya mereka muncul bijak kepada manusia.

Titik buta Superintelligence

Longtermism mempunyai implikasi dasar langsung yang mengutamakan superintelligence daripada perkara yang lebih mendesak seperti Ketidakseimbangan kuasa AI. Beberapa penyokong jangka panjang malah menganggap peraturan untuk menghentikan superintelligence lebih mendesak daripada menangani kecemasan iklim.

Implikasi dasar AI adalah serta-merta, tidak jauh dari masalah. Oleh kerana GPT-4 dilatih di seluruh internet dan mempunyai tujuan komersial yang jelas, ia menimbulkan persoalan tentang urus niaga adil dan penggunaan adil.

Kami masih tidak tahu sama ada teks dan imej yang dijana AI boleh hak cipta pada mulanya, sejak mesin dan haiwan tidak boleh memegang hak cipta.

Dan apabila ia melibatkan perkara privasi, pendekatan ChatGPT sukar untuk dibezakan daripada aplikasi AI yang lain, Clearview AI. Kedua-dua model AI telah dilatih menggunakan sejumlah besar maklumat peribadi yang dikumpul di internet terbuka. Pihak berkuasa perlindungan data Itali baru sahaja mengharamkan ChatGPT kerana kebimbangan privasi.

Risiko serta-merta ini tidak dinyatakan dalam surat terbuka, yang berubah antara falsafah liar dan penyelesaian teknikal, mengabaikan isu yang ada di hadapan kita.

Menenggelamkan pragmatisme

Surat itu mengikuti dinamik lama yang saya dan pengarang bersama saya kenal pasti dalam a bab semakan rakan sebaya yang akan datang tentang tadbir urus AI. Terdapat kecenderungan untuk melihat AI sebagai sama ada risiko wujud atau sesuatu yang biasa dan teknikal.

Ketegangan antara dua ekstrem ini dipamerkan dalam surat terbuka. Surat itu bermula dengan mendakwa "AI lanjutan boleh mewakili perubahan mendalam dalam sejarah kehidupan di Bumi" sebelum meminta "pembiayaan awam yang teguh untuk penyelidikan keselamatan AI teknikal." Yang terakhir mencadangkan kemudaratan sosial AI hanyalah projek teknikal untuk diselesaikan.

Tumpuan pada kedua-dua ekstrem ini menimbulkan suara-suara penting yang cuba membincangkan secara pragmatik risiko segera AI yang disebutkan di atas serta isu buruh dan banyak lagi.

Perhatian yang diberikan kepada surat terbuka amat bermasalah di Kanada kerana dua surat lain, ditulis oleh artis and organisasi kebebasan awam, tidak menerima jumlah perhatian yang sama. Surat-surat ini memerlukan pembaharuan dan pendekatan yang lebih mantap terhadap tadbir urus AI untuk melindungi mereka yang terjejas olehnya.

Gangguan yang tidak diperlukan terhadap perundangan AI

Tanggapan kerajaan terhadap surat terbuka itu telah menekankan bahawa Kanada memang mempunyai undang-undang — Akta Kecerdasan Buatan dan Data (AIDA). Risiko jangka panjang AI sedang digunakan untuk menyegerakan undang-undang sekarang seperti AIDA.

AIDA ialah langkah penting ke arah rejim tadbir urus AI yang betul, tetapi ia perlu lebih baik berunding dengan mereka yang terjejas oleh AI sebelum dilaksanakan. Ia tidak boleh tergesa-gesa untuk bertindak balas terhadap ketakutan jangka panjang yang dirasakan.

Seruan surat itu untuk menyegerakan perundangan AI mungkin akhirnya menguntungkan beberapa firma yang sama memacu penyelidikan AI hari ini. Tanpa masa untuk berunding, meningkatkan literasi awam dan mendengar mereka yang terjejas oleh AI, AIDA berisiko menyerahkan akauntabiliti dan pengauditan AI kepada institusi yang sudah berada pada kedudukan yang baik untuk mendapat manfaat daripada teknologi, mewujudkan pasaran bagi industri pengauditan AI baharu.

Nasib manusia mungkin tidak berada di hadapan, tetapi tadbir urus AI yang baik pastinya.The Conversation

Tentang Pengarang

Fenwick McKelvey, Profesor Madya dalam Dasar Teknologi Maklumat dan Komunikasi, Universiti Concordia

Artikel ini diterbitkan semula daripada Perbualan di bawah lesen Creative Commons. Membaca artikel asal.