
Napoleon boleh belajar daripada masa lalu. lukisan oleh Adolph Northen/wikipedia
Ia adalah klise bahawa tidak mengetahui sejarah membuatkan seseorang mengulanginya. Seperti yang telah ditunjukkan oleh ramai orang, satu-satunya perkara yang kita pelajari daripada sejarah ialah kita jarang mempelajari apa-apa daripada sejarah. Orang ramai terlibat dalam perang darat di Asia berulang kali. Mereka juga mengulangi kesilapan temu janji yang sama, berulang kali. Tetapi mengapa ini berlaku? Dan adakah teknologi akan menamatkannya?
Satu isu ialah sifat pelupa dan "myopia": kita tidak melihat bagaimana peristiwa lalu relevan dengan peristiwa semasa, dengan mengabaikan corak yang sedang berlaku. Napoleon sepatutnya perasan persamaan antara perarakannya ke Moscow dan raja Sweden Percubaan Charles XII yang gagal untuk melakukan perkara yang sama kira-kira satu abad sebelum beliau.
Kami juga teruk dalam pembelajaran apabila sesuatu perkara menjadi salah. Daripada menentukan mengapa sesuatu keputusan itu salah dan bagaimana untuk mengelakkannya daripada berlaku lagi, kita sering cuba mengabaikan peristiwa yang memalukan itu. Ini bermakna apabila situasi yang serupa berlaku lagi, kita tidak melihat persamaannya – dan mengulangi kesilapan itu.
Kedua-duanya mendedahkan masalah dengan maklumat. Dalam kes pertama, kita gagal mengingati maklumat peribadi atau sejarah. Dalam kes kedua, kita gagal mengekod maklumat apabila ia tersedia.
Walau bagaimanapun, kita juga melakukan kesilapan apabila kita tidak dapat membuat kesimpulan yang cekap tentang apa yang akan berlaku. Mungkin situasinya terlalu rumit atau terlalu memakan masa untuk difikirkan. Atau kita cenderung untuk salah tafsir tentang apa yang sedang berlaku.
Kuasa teknologi yang menjengkelkan
Tetapi pastinya teknologi boleh membantu kita? Kita kini boleh menyimpan maklumat di luar otak kita, dan menggunakan komputer untuk mendapatkannya semula. Itu sepatutnya memudahkan pembelajaran dan mengingati, bukan?
Menyimpan maklumat berguna apabila ia boleh diambil dengan baik. Tetapi mengingati bukanlah perkara yang sama seperti mengambil fail dari lokasi atau tarikh yang diketahui. Mengingati melibatkan mengenal pasti persamaan dan mengingati sesuatu.
Kecerdasan buatan (AI) juga perlu berupaya membawa persamaan ke dalam minda kita secara spontan – selalunya persamaan yang tidak diingini. Tetapi jika ia pandai memerhatikan kemungkinan persamaan (lagipun, ia boleh mencari di semua internet dan semua data peribadi kita), ia juga akan sering memerhatikan persamaan palsu.
Bagi temu janji yang gagal, mungkin perlu dinyatakan bahawa semuanya melibatkan makan malam. Tetapi masalahnya bukanlah soal waktu makan. Dan ia adalah satu kebetulan sahaja terdapat bunga tulip di atas meja – tiada sebab untuk mengelakkannya. Kita sering mengulangi kesilapan ketika berpacaran.
Ini bermakna ia akan memberi amaran kepada kita tentang perkara yang kita tidak pedulikan, mungkin dengan cara yang menjengkelkan. Mengurangkan kepekaannya bermakna meningkatkan risiko tidak mendapat amaran apabila diperlukan.
Ini adalah masalah asas dan sama pentingnya dengan mana-mana penasihat: penasihat yang berhati-hati akan terlalu kerap menangis teresak-esak, penasihat yang optimistik akan terlepas risiko.
Penasihat yang baik ialah seseorang yang kita percayai. Mereka mempunyai tahap kehati-hatian yang sama seperti kita, dan kita tahu mereka tahu apa yang kita mahukan. Ini sukar ditemui dalam penasihat manusia, dan lebih-lebih lagi dalam AI.
Di manakah teknologi dapat menghentikan kesilapan? Pengurangan kebodohan berfungsi. Mesin pemotong memerlukan anda menekan butang, menjauhkan tangan anda daripada bilah. "Suis orang mati" akan menghentikan mesin jika pengendali menjadi tidak berupaya.
Ketuhar gelombang mikro mematikan radiasi apabila pintu dibuka. Untuk melancarkan peluru berpandu, dua orang perlu memusingkan kunci secara serentak merentasi bilik. Di sini, reka bentuk yang teliti menjadikan kesilapan sukar dilakukan. Tetapi kita tidak cukup peduli tentang situasi yang kurang penting, menjadikan reka bentuk di sana jauh kurang kalis daripada kebodohan.
Apabila teknologi berfungsi dengan baik, kita sering terlalu mempercayainya. Juruterbang syarikat penerbangan mempunyai waktu penerbangan sebenar yang lebih sedikit hari ini berbanding dahulu disebabkan oleh kecekapan sistem autopilot yang luar biasa. Ini adalah berita buruk apabila autopilot gagal, dan juruterbang mempunyai kurang pengalaman untuk membetulkan keadaan.
Yang pertama daripada platform minyak jenis baharu (Sleipnir A) karam kerana jurutera mempercayai pengiraan perisian tentang daya yang bertindak ke atasnya. Model itu salah, tetapi ia membentangkan keputusan dengan cara yang begitu menarik sehingga kelihatan boleh dipercayai.
Kebanyakan teknologi kita sangat andal. Contohnya, kita tidak perasan bagaimana paket data yang hilang di internet sentiasa ditemui di sebalik tabir, bagaimana kod pembetulan ralat menghilangkan hingar atau bagaimana fius dan redundansi menjadikan peralatan selamat.
Tetapi apabila kita menimbun tahap demi tahap kerumitan, ia kelihatan sangat tidak boleh dipercayai. Kita memang perasan apabila video Zoom tertangguh, program AI menjawab salah atau komputer ranap. Namun, tanyakan kepada sesiapa sahaja yang menggunakan komputer atau kereta 50 tahun yang lalu bagaimana ia berfungsi, dan anda akan mendapati bahawa kedua-duanya kurang berkemampuan dan kurang boleh dipercayai.
Kita menjadikan teknologi lebih kompleks sehingga ia menjadi terlalu menjengkelkan atau tidak selamat untuk digunakan. Apabila bahagian-bahagiannya menjadi lebih baik dan lebih andal, kita sering memilih untuk menambah ciri-ciri baharu yang menarik dan berguna daripada kekal dengan apa yang berkesan. Ini akhirnya menjadikan teknologi kurang andal daripada yang sepatutnya.
Kesilapan akan dibuat
Inilah juga sebabnya AI ibarat pedang bermata dua untuk mengelakkan kesilapan. Automasi selalunya menjadikan sesuatu lebih selamat dan lebih cekap apabila ia berfungsi, tetapi apabila ia gagal, ia menjadikan masalah lebih besar. Autonomi bermaksud perisian pintar boleh melengkapi pemikiran kita dan mengurangkan beban kita, tetapi apabila ia tidak berfikir seperti yang kita mahukan, ia boleh bertindak salah.
Lebih kompleks lagi, lebih hebat kesilapan yang boleh berlaku. Sesiapa yang pernah berurusan dengan cendekiawan yang sangat bijak tahu betapa baiknya mereka boleh merosakkan sesuatu dengan kepintaran yang tinggi apabila akal sehat mereka gagal – dan AI mempunyai sangat sedikit akal sehat manusia.
Ini juga merupakan sebab yang mendalam untuk bimbang tentang AI yang membimbing pembuatan keputusan: mereka membuat kesilapan baharuKita manusia tahu kesilapan manusia, bermakna kita boleh memerhatikannya. Tetapi mesin pintar boleh membuat kesilapan yang tidak pernah kita bayangkan.
Tambahan pula, sistem AI diprogramkan dan dilatih oleh manusia. Dan terdapat banyak contoh sistem sedemikian. menjadi berat sebelah dan juga fanatikMereka meniru bias dan mengulangi kesilapan dari dunia manusia, walaupun orang yang terlibat secara eksplisit cuba mengelakkannya.
Akhirnya, kesilapan akan terus berlaku. Terdapat sebab-sebab asas mengapa kita salah tentang dunia, mengapa kita tidak mengingati semua yang sepatutnya kita ingat, dan mengapa teknologi kita tidak dapat membantu kita mengelakkan masalah dengan sempurna.
Tetapi kita boleh berusaha untuk mengurangkan akibat kesilapan. Butang buat asal dan autosimpan telah menyimpan banyak dokumen pada komputer kita. Tugu di London, batu tsunami di Jepun dan monumen lain bertindak untuk mengingatkan kita tentang risiko tertentu. Amalan reka bentuk yang baik menjadikan kehidupan kita lebih selamat.
Akhirnya, adalah mungkin untuk mempelajari sesuatu daripada sejarah. Matlamat kita haruslah untuk terus hidup dan belajar daripada kesilapan kita, bukan menghalangnya daripada berlaku. Teknologi boleh membantu kita dalam hal ini, tetapi kita perlu memikirkan dengan teliti tentang apa yang sebenarnya kita mahukan daripadanya – dan mereka bentuk dengan sewajarnya.
Tentang Pengarang
Anders Sandberg, Felo Penyelidik James Martin, Institut Masa Depan Kemanusiaan & Sekolah Oxford Martin, Universiti Oxford
Artikel ini diterbitkan semula daripada Perbualan di bawah lesen Creative Commons. Membaca artikel asal.



