Kenapa Teknologi Meletakkan Hak Asasi Manusia Pada Risiko
Spainter_vfx / Shutterstock.com

Filem seperti 2001: A Space Odyssey, Blade Runner and Terminator membawa robot penyangak dan sistem komputer ke skrin pawagam kami. Tetapi hari ini, kacamata fiksyen sains klasik seperti ini tidak kelihatan jauh dari realiti.

Semakin kita hidup, bekerja dan bermain dengan teknologi pengkomputeran yang berautonomi dan cerdas. Sistem-sistem ini merangkumi perisian dan perkakasan dengan kapasiti untuk penalaran bebas dan membuat keputusan. Mereka bekerja untuk kami di lantai kilang; mereka memutuskan sama ada kita boleh mendapatkan gadai janji; mereka mengesan dan mengukur tahap aktiviti dan kecergasan kami; mereka membersihkan lantai ruang tamu kami dan memotong rumput kami.

Sistem yang mempunyai autonomi dan pintar berpotensi untuk menjejaskan hampir setiap aspek kehidupan sosial, ekonomi, politik dan persendirian kita, termasuk aspek kehidupan sehari-hari. Kebanyakannya kelihatan tidak bersalah, tetapi ada sebab untuk dibimbangkan. Teknologi komputasi memberi impak kepada setiap hak asasi manusia, dari hak kepada kehidupan kepada hak privasi, kebebasan bersuara kepada hak-hak sosial dan ekonomi. Jadi bagaimana kita dapat mempertahankan hak asasi manusia dalam landskap teknologi yang semakin dibentuk oleh robot dan kecerdasan buatan (AI)?

AI dan hak asasi manusia

Pertama, terdapat ketakutan yang nyata bahawa peningkatan autonomi mesin akan menjejaskan status manusia. Ketakutan ini diburukkan lagi dengan kekurangan kejelasan yang akan dipertanggungjawabkan, sama ada dalam undang-undang atau akal moral, apabila mesin pintar berbahaya. Tetapi saya tidak pasti bahawa tumpuan perhatian kita terhadap hak asasi manusia seharusnya benar-benar berbohong robot penyangak, kerana ia seolah-olah pada masa ini. Sebaliknya, kita harus bimbang tentang penggunaan robot dan kecerdasan buatan manusia dan penggunaannya dalam konteks politik, ketenteraan, ekonomi dan sosial yang tidak adil dan tidak seimbang.

Kebimbangan ini amat berkaitan dengan sistem senjata autonomi yang mematikan (LAWS), yang sering digambarkan sebagai robot pembunuh. Seperti kita bergerak ke arah perlumbaan senjata AI, ulama dan penggiat hak asasi manusia seperti Christof Heyns, bekas pelapor khas PBB mengenai eksekusi ekstremisial, ringkasan atau sewenang-wenangnya, takut penggunaan LAWS akan meletakkan sistem robot yang autonomi yang bertanggungjawab terhadap keputusan hidup dan mati, dengan kawalan manusia terhad atau tiada.


grafik langganan dalaman


AI juga merevolusikan hubungan antara amalan peperangan dan pengawasan. Kumpulan seperti Jawatankuasa Antarabangsa bagi Robot Arms Control (ICRAC) baru-baru ini menyatakan penentangan mereka terhadap penyertaan Google dalam Projek Maven, sebuah program tentera yang menggunakan pembelajaran mesin untuk menganalisis rekod pengawasan drone, yang boleh digunakan untuk membunuh ekstremudisial. ICRAC merayu kepada Google untuk memastikan data yang dikumpulkannya kepada penggunanya tidak digunakan untuk tujuan ketenteraan, menyertai protes oleh pekerja Google atas penglibatan syarikat dalam projek itu. Google baru-baru ini mengumumkan bahawa ia tidak akan memperbaharui kontraknya.

Di 2013, tahap amalan pengawasan telah diserlahkan oleh Edward Snowden ayat-ayat. Ini mengajar kita banyak tentang ancaman hak privasi dan perkongsian data antara perkhidmatan perisikan, agensi kerajaan dan syarikat swasta. Kontroversi baru-baru ini Cambridge Analytica'Penuaian data peribadi melalui penggunaan platform media sosial seperti Facebook terus menimbulkan keraguan serius, kali ini atas manipulasi dan campur tangan dalam pemilihan demokratik yang merusak hak kebebasan bersuara.

Sementara itu, penganalisis data kritikal mencabar amalan diskriminasi dikaitkan dengan apa yang mereka panggil "masalah lelaki putih" AI. Ini adalah kebimbangan bahawa sistem AI yang dilatih dalam data sedia ada mereplikasi stereotaip perkauman dan jantina sedia ada yang mengekalkan amalan diskriminasi dalam bidang seperti kepolisan, keputusan kehakiman atau pekerjaan.

AI boleh meniru dan membina stereotaip.
AI boleh meniru dan membina stereotaip.
Ollyy / Shutterstock.com

Bot yang tidak masuk akal

Ancaman potensi teknologi pengkomputeran kepada hak asasi manusia dan keselamatan fizikal, politik dan digital telah ditekankan dalam kajian yang baru-baru ini diterbitkan Penggunaan Intelligence Artificial Intelligence. Kebimbangan yang dinyatakan dalam laporan Universiti Cambridge ini perlu diambil serius. Tetapi bagaimana kita harus menangani ancaman ini? Adakah hak asasi manusia bersedia untuk era robotik dan AI?

Terdapat usaha berterusan untuk mengemas kini prinsip-prinsip hak asasi manusia yang ada untuk era ini. Ini termasuk Prinsip Pengantara dan Panduan PBB mengenai Perniagaan dan Hak Asasi Manusia, percubaan untuk menulis a Magna Carta untuk umur digital dan Institut Masa Depan Kehidupan Prinsip Asilomar AI, yang mengenal pasti garis panduan penyelidikan etika, pematuhan kepada nilai-nilai dan komitmen untuk pembangunan benefisial AI jangka panjang.

Upaya-upaya ini dapat dipuji tetapi tidak mencukupi. Kerajaan dan agensi kerajaan, parti politik dan syarikat swasta, terutama syarikat teknologi tinggi, mesti komit untuk menggunakan etika AI. Kami juga memerlukan kawalan perundangan yang berkesan dan boleh dikuatkuasakan.

Apa sahaja langkah baru yang kami perkenalkan, adalah penting untuk mengakui bahawa kehidupan kita semakin terikat dengan mesin autonomi dan sistem pintar. Keterlambatan ini meningkatkan kesejahteraan manusia dalam bidang seperti penyelidikan dan rawatan perubatan, dalam sistem pengangkutan kami, dalam pengaturan penjagaan sosial dan dalam usaha untuk melindungi alam sekitar.

Tetapi di kawasan lain gangguan ini membuang prospek yang membimbangkan. Teknologi komputasi digunakan untuk menonton dan menjejaki tindakan dan tingkah laku kita, mengesan langkah, lokasi, kesihatan, cita rasa dan persahabatan kita. Sistem ini membentuk tingkah laku manusia dan mendorong kita ke arah amalan pengawasan diri yang menghalang kebebasan kita dan melemahkan idea dan cita-cita hak asasi manusia.

PerbualanDan di sinilah letaknya: keupayaan untuk penggunaan dua teknologi pengkomputeran membariskan garis antara amalan yang berbahaya dan berniat jahat. Terlebih lagi, teknologi pengkomputeran sangat terlibat dalam hubungan kuasa yang tidak sama antara warga individu, negara dan agensinya, dan syarikat swasta. Sekiranya tidak terkira dari cek dan baki sistem nasional dan antarabangsa yang berkesan, mereka menimbulkan ancaman yang nyata dan membimbangkan terhadap hak asasi manusia.

Tentang Pengarang

Birgit Schippers, Fellow Penyelidikan Pelawat, Senator George J Mitchell Institut untuk Keamanan Global, Keamanan dan Keadilan, Queen's University Belfast

Artikel ini pada asalnya diterbitkan pada Perbualan. Membaca artikel asal.

Buku-buku yang berkaitan

{amazonWS:searchindex=Books;Birgit Schippers=innerself" target="_blank" rel="nofollow noopener">InnerSelf Market dan Amazon