Kecerdasan Buatan Dapat Meniru Kelakuan Manusia Dan Segera Ia Akan Berbahaya BaikAdakah wajah ini hanya perhimpunan bit komputer? PHOTOCREO Michal Bednarek / Shutterstock.com

Apabila sistem perisikan buatan mula menjadi kreatif, mereka boleh membuat perkara yang hebat - dan menakutkan. Ambil, contohnya, program AI yang membiarkan pengguna web mengarang muzik bersama-sama dengan maya Johann Sebastian Bach dengan memasukkan nota ke dalam program yang menghasilkan harmoni Bach seperti yang sepadan dengannya.

Jalankan oleh Google, aplikasinya menarik perhatian besar pujian untuk menjadi pemula dan menyeronokkan untuk bermain. Ia juga tertarik kritikan, dan menimbulkan kebimbangan mengenai bahaya AI.

Kajian saya bagaimana Teknologi baru muncul menjejaskan kehidupan orang ramai telah mengajar saya bahawa masalah melampaui kebimbangan yang besar sama ada algoritma boleh benar-benar buat muzik atau seni secara umum. Sesetengah aduan kelihatan kecil, tetapi benar-benar tidak, seperti pemerhatian bahawa AI Google adalah melanggar peraturan asas daripada komposisi muzik.

Sebenarnya, usaha untuk mempunyai komputer menyerupai tingkah laku orang sebenar boleh mengelirukan dan berpotensi membahayakan.


grafik langganan dalaman


Teknologi peniruan

Program Google menganalisis nota-nota dalam karya muzik 306 Bach, mencari hubungan antara melodi dan nota yang memberikan keharmonian. Kerana Bach mematuhi peraturan ketat yang ketat, program itu secara efektif mempelajari peraturan tersebut, sehingga dapat menerapkannya ketika pengguna memberikan nota mereka sendiri.

 Pasukan Google Doodle menerangkan program Bach.

{youtube}XBfYPp6KF2g{/youtube}

Aplikasi Bach itu sendiri baru, tetapi teknologi yang mendasari tidak. Algoritma dilatih untuk mengiktiraf corak dan buat keputusan kebarangkalian telah wujud untuk masa yang lama. Sesetengah algoritma ini sangat rumit untuk orang ramai tidak selalu faham bagaimana mereka membuat keputusan atau menghasilkan keputusan tertentu.

Sistem AI tidak sempurna - kebanyakannya bergantung data yang tidak mewakili daripada keseluruhan penduduk, atau yang dipengaruhi oleh bias manusia. Ia tidak sepenuhnya jelas yang mungkin bertanggungjawab secara sah apabila sistem AI membuat ralat atau menyebabkan masalah.

Kini, walaupun, teknologi kecerdasan buatan semakin tinggi untuk dapat menghampiri gaya penulisan atau bercakap individu, dan juga ekspresi muka. Ini tidak selalu buruk: AI cukup mudah memberikan Stephen Hawking keupayaan untuk berkomunikasi lebih cekap dengan orang lain dengan meramalkan kata-kata yang paling banyak digunakannya.

Program yang lebih kompleks yang meniru suara manusia membantu orang kurang upaya - tetapi juga boleh digunakan untuk menipu pendengar. Sebagai contoh, para pembuat Lyrebird, program meniru suara, telah mengeluarkan a perbualan simulasi antara Barack Obama, Donald Trump dan Hillary Clinton. Ia mungkin terdengar nyata, tetapi pertukaran itu tidak pernah berlaku.

Dari yang baik hingga buruk

Pada bulan Februari 2019, syarikat bukan keuntungan OpenAI mencipta satu program yang menjana teks yang ada hampir tidak dapat dibezakan dari teks ditulis oleh orang. Ia boleh "menulis" ucapan dalam gaya John F. Kennedy, JRR Tolkien dalam "The Lord of the Rings"Atau penulisan pelajar tugasan sekolah mengenai Perang Saudara AS.

Teks yang dihasilkan oleh perisian OpenAI sangat dipercayai bahawa syarikat telah memilih tidak melepaskan program itu sendiri.

Teknologi serupa boleh mensimulasikan foto dan video. Pada awal 2018, misalnya, pelakon dan pembikin filem Jordan Peele mencipta video yang muncul untuk menunjukkan bekas Presiden Amerika Syarikat, Barack Obama perkara Obama tidak pernah benar-benar berkata untuk memberi amaran kepada orang ramai tentang bahaya yang ditimbulkan oleh teknologi ini.

Berhati-hati apa video yang anda percayai.

{youtube}cQ54GDm1eL0{/youtube}

Pada awal 2019, a foto bogel palsu Rep. Amerika Syarikat Alexandria Ocasio-Cortez diedarkan dalam talian. Video yang dibuat, sering disebut "deepfakes, "Dijangka akan berlaku semakin digunakan dalam kempen pilihan raya.

Ahli-ahli Kongres telah mula mengkaji isu ini menjelang pilihan raya 2020. Jabatan Pertahanan AS mengajar orang ramai bagaimana untuk menjejaki video yang dikawal dan audio. Pertubuhan berita seperti Reuters mula melatih para wartawan untuk melihat deepfakes.

Tetapi, pada pendapat saya, kebimbangan yang lebih besar masih: Pengguna mungkin tidak dapat belajar dengan cepat untuk membezakan kandungan palsu kerana teknologi AI menjadi lebih canggih. Sebagai contoh, ketika orang ramai mula menyadari deepfakes, AI sudah digunakan untuk penipuan bahkan lebih maju. Sekarang ada program yang boleh menghasilkan muka palsu and cap jari digital palsu, dengan berkesan mewujudkan maklumat yang diperlukan untuk mengarang seluruh orang - sekurang-kurangnya dalam rekod korporat atau kerajaan.

Mesin terus belajar

Pada masa ini, terdapat potensi potensi kesalahan dalam teknologi ini untuk memberi peluang kepada pengguna untuk mengesan fabrikasi digital. Komposer Bach Google membuat beberapa kesilapan seorang pakar dapat mengesan. Sebagai contoh, apabila saya mencubanya, program membenarkan saya masuk selari kelima, selang muzik yang Bach dengan teliti dielakkan. Aplikasi ini juga memecahkan peraturan muzik of counterpoint dengan mengharmonikan melodi dalam kunci yang salah. Begitu juga, program penjanaan teks OpenAI kadang-kadang menulis frasa seperti "kebakaran berlaku di bawah air"Yang tidak masuk akal dalam konteksnya.

Apabila pemaju bekerja pada ciptaan mereka, kesilapan ini akan menjadi jarang. Secara berkesan, teknologi AI akan berkembang dan belajar. Prestasi yang lebih baik mempunyai potensi untuk membawa banyak faedah sosial - termasuk penjagaan kesihatan yang lebih baik, sebagai program AI membantu demokrasi amalan perubatan.

Memberi kebebasan penyelidik dan syarikat untuk meneroka, untuk mencari pencapaian positif dari sistem AI ini, bermakna membuka peluang untuk mengembangkan cara yang lebih maju untuk mencipta penipuan dan masalah sosial yang lain. Sangat mengehadkan penyelidikan AI boleh membendung kemajuan itu. Tetapi memberi teknologi yang bermanfaat ruang untuk berkembang tidak ada kos yang kecil - dan potensi penyalahgunaan, sama ada untuk membuat muzik "Bach-suka" yang tidak tepat atau menipu berjuta-juta, mungkin akan berkembang dengan cara orang tidak dapat menjangkakan.Perbualan

Tentang Pengarang

Ana Santos Rutschman, Penolong Profesor Undang-undang, Universiti Saint Louis

Artikel ini diterbitkan semula daripada Perbualan di bawah lesen Creative Commons. Membaca artikel asal.

Buku-buku yang berkaitan

at InnerSelf Market dan Amazon