Artikel ini awalnya diterbitkan di The Conversation. Publikasi tersebut menyumbangkan artikel tersebut ke Ilmu Pengetahuan Ahli Pengetahuan: Op-Ed & Wawasan.
Sebagai peneliti kecerdasan buatan, saya sering menemukan gagasan bahwa banyak orang takut pada apa yang AI hadirkan. Mungkin tidak mengherankan, mengingat sejarah dan industri hiburan, bahwa kita mungkin takut akan pengambilalihan cybernetic yang memaksa kita untuk hidup terkunci, “Matrix” – seperti, sebagai semacam baterai manusia.
Namun sulit bagi saya untuk melihat dari model komputer evolusioner yang saya gunakan untuk mengembangkan AI, untuk memikirkan bagaimana makhluk maya yang tidak berdosa di layar saya bisa menjadi monster masa depan. Mungkinkah saya menjadi “penghancur dunia,” seperti yang dikeluhkan Oppenheimer setelah mempelopori pembangunan bom nuklir pertama?
Sebagai peneliti kecerdasan buatan, saya sering menemukan gagasan bahwa banyak orang takut pada apa yang AI hadirkan. Mungkin tidak mengherankan, mengingat sejarah dan industri hiburan, bahwa kita mungkin takut akan pengambilalihan cybernetic yang memaksa kita untuk hidup terkunci, “Matrix” – seperti, sebagai semacam baterai manusia.
Namun sulit bagi saya untuk melihat dari model komputer evolusioner yang saya gunakan untuk mengembangkan AI, untuk memikirkan bagaimana makhluk maya yang tidak berdosa di layar saya bisa menjadi monster masa depan. Mungkinkah saya menjadi “penghancur dunia,” seperti yang dikeluhkan Oppenheimer setelah mempelopori pembangunan bom nuklir pertama?
Saya akan mengambil ketenaran, saya kira, tapi mungkin para kritikus itu benar. Mungkin sebaiknya saya tidak bertanya: Sebagai ahli AI, apa yang saya takutkan tentang kecerdasan buatan?
Takut tak terduga
Komputer HAL 9000, yang diimpikan oleh penulis fiksi ilmiah Arthur C. Clarke dan dibesarkan oleh sutradara Stanley Kubrick dalam “2001: A Space Odyssey,” adalah contoh bagus dari sistem yang gagal karena konsekuensi yang tidak diinginkan. Dalam banyak sistem yang kompleks – RMS Titanic, pesawat luar angkasa NASA, pembangkit tenaga nuklir Chernobyl – para insinyur membuat banyak komponen yang berbeda. Perancang mungkin sudah tahu betul bagaimana masing-masing elemen bekerja secara individual, tapi tidak cukup tahu tentang bagaimana mereka semua bekerja sama.
Itu menghasilkan sistem yang tidak akan pernah bisa sepenuhnya dipahami, dan bisa gagal dengan cara yang tidak terduga. Dalam setiap bencana – menenggelamkan sebuah kapal, meledakkan dua pesawat terbang dan menyebarkan kontaminasi radioaktif ke seluruh Eropa dan Asia – serangkaian kegagalan yang relatif kecil digabungkan bersama untuk menciptakan malapetaka.
Saya dapat melihat bagaimana kita bisa jatuh ke dalam perangkap yang sama dalam penelitian AI. Kami melihat penelitian terbaru dari ilmu kognitif, menerjemahkannya ke dalam algoritma dan menambahkannya ke sistem yang ada. Kami mencoba insinyur AI tanpa memahami kecerdasan atau kognisi terlebih dahulu.
Sistem seperti IBM’s Watson dan Google’s Alpha melengkapi jaringan syaraf tiruan dengan daya komputasi yang sangat besar, dan mencapai prestasi yang mengesankan. Tapi jika mesin ini membuat kesalahan, mereka kalah pada “Jeopardy!” Atau tidak mengalahkan Go master. Ini bukan konsekuensi duniawi; Memang, yang terburuk yang mungkin terjadi pada orang biasa akibatnya adalah kehilangan sejumlah taruhan atas keberhasilan mereka.
Tapi karena desain AI semakin rumit dan prosesor komputer semakin cepat, keterampilan mereka akan meningkat. Itu akan membawa kita untuk memberi mereka tanggung jawab lebih, bahkan karena risiko konsekuensi yang tidak diinginkan meningkat. Kita tahu bahwa “berbuat salah adalah manusiawi,” jadi mungkin tidak mungkin kita menciptakan sistem yang benar-benar aman.
Takut disalahgunakan
Saya tidak terlalu memperhatikan konsekuensi yang tidak diinginkan dalam jenis AI yang saya kembangkan, dengan menggunakan pendekatan yang disebut neuroevolution. Saya menciptakan lingkungan virtual dan mengembangkan makhluk digital dan otak mereka untuk menyelesaikan tugas yang semakin kompleks. Kinerja makhluk dievaluasi; Mereka yang melakukan yang terbaik dipilih untuk bereproduksi, membuat generasi berikutnya. Selama beberapa generasi, makhluk mesin ini mengembangkan kemampuan kognitif.
Saat ini kita sedang mengambil langkah kecil untuk mengembangkan mesin yang bisa melakukan tugas navigasi sederhana, membuat keputusan sederhana, atau mengingat beberapa bit. Tapi segera kita akan mengembangkan mesin yang bisa melakukan tugas yang lebih kompleks dan memiliki kecerdasan umum yang jauh lebih baik. Akhirnya kami berharap bisa menciptakan kecerdasan tingkat manusia.
Sepanjang jalan, kita akan menemukan dan menghilangkan kesalahan dan masalah melalui proses evolusi. Dengan setiap generasi, mesin menjadi lebih baik dalam menangani kesalahan yang terjadi pada generasi sebelumnya. Itu meningkatkan kemungkinan bahwa kita akan menemukan konsekuensi yang tidak diinginkan dalam simulasi, yang dapat dieliminasi sebelum mereka memasuki dunia nyata.
Kemungkinan lain yang jauh di bawah garis adalah menggunakan evolusi untuk mempengaruhi etika sistem kecerdasan buatan. Kemungkinan etika dan moral manusia, seperti kepercayaan dan altruisme, merupakan hasil evolusi kita – dan merupakan faktor kelanjutannya. Kita bisa membangun lingkungan virtual kita untuk memberi keuntungan evolusioner pada mesin yang menunjukkan kebaikan, kejujuran dan empati. Ini mungkin cara untuk memastikan bahwa kita mengembangkan pelayan yang lebih patuh atau teman yang dapat dipercaya dan robot pembunuh yang lebih kejam.
Sementara neuroevolution dapat mengurangi kemungkinan konsekuensi yang tidak diinginkan, namun neuroevolution tidak mencegah penyalahgunaan. Tapi itu pertanyaan moral, bukan pertanyaan ilmiah. Sebagai seorang ilmuwan, saya harus mengikuti kewajiban saya terhadap kebenaran, melaporkan apa yang saya temukan dalam eksperimen saya, apakah saya menyukai hasilnya atau tidak. Fokus saya bukan pada menentukan apakah saya suka atau menyetujui sesuatu; Hanya penting bagiku untuk mengungkapnya.
Takut akan prioritas sosial yang salah
Sebagai ilmuwan, saya juga tidak membebaskan saya dari kemanusiaan saya. Saya harus, pada tingkat tertentu, berhubungan kembali dengan harapan dan ketakutan saya. Sebagai makhluk moral dan politik, saya harus mempertimbangkan implikasi potensial dari pekerjaan saya dan potensi dampaknya terhadap masyarakat.
Sebagai peneliti, dan sebagai masyarakat, kita belum menemukan gagasan yang jelas tentang apa yang kita inginkan AI lakukan atau jadilah. Sebagian, tentu saja, ini karena kita belum tahu apa kemampuannya. Tapi kita perlu memutuskan apa hasil yang diinginkan dari AI maju.
Satu area besar yang diperhatikan orang adalah pekerjaan. Robot sudah melakukan pekerjaan fisik seperti mengelas bagian mobil bersama. Suatu hari nanti mereka juga bisa melakukan tugas kognitif yang pernah kita anggap unik manusia. Mobil self-driving bisa menggantikan supir taksi; Pesawat terbang sendiri bisa menggantikan pilot.
Alih-alih mendapatkan bantuan medis di ruang gawat darurat yang dikelola oleh dokter yang berpotensi kelelahan, pasien dapat mendapat pemeriksaan dan diagnosis dari sistem pakar dengan akses instan ke semua pengetahuan medis yang pernah dikumpulkan – dan menjalani operasi yang dilakukan oleh robot tak kenal lelah dengan “tangan” yang mantap. . ” Saran hukum bisa berasal dari database hukum yang lengkap; Saran investasi bisa datang dari sistem prediksi pasar.
Mungkin suatu hari, semua pekerjaan manusia akan dilakukan oleh mesin. Bahkan pekerjaan saya sendiri bisa dilakukan lebih cepat, dengan sejumlah besar mesin tanpa lelah meneliti bagaimana membuat mesin yang lebih cerdas sekalipun.
Dalam masyarakat kita saat ini, otomasi mendorong orang keluar dari pekerjaan, membuat orang-orang yang memiliki mesin lebih kaya dan orang lain lebih miskin. Itu bukan masalah ilmiah; Ini adalah masalah politik dan sosioekonomi yang harus kita selesaikan oleh masyarakat. Penelitian saya tidak akan mengubahnya, meski saya sendiri bersama dengan umat manusia lainnya – mungkin dapat menciptakan keadaan di mana AI menjadi bermanfaat secara luas daripada meningkatkan perbedaan antara satu persen dan sisanya dari kita.
Takut skenario mimpi buruk
Ada satu ketakutan terakhir, yang diwujudkan oleh HAL 9000, Terminator dan sejumlah superinteligen fiksi lainnya: Jika AI terus membaik sampai melampaui kecerdasan manusia, akankah sistem superinteligen (atau lebih dari satu dari mereka) merasa tidak lagi membutuhkan manusia? Bagaimana kita membenarkan keberadaan kita di hadapan superintelligence yang bisa melakukan hal-hal yang tidak dapat dilakukan manusia? Bisakah kita menghindari penghapusan wajah bumi dengan mesin yang telah kita ciptakan?
Pertanyaan kunci dalam skenario ini adalah: Mengapa superinteligen menjaga kita di sekitar?
Saya berpendapat bahwa saya adalah orang baik yang bahkan mungkin telah membantu mewujudkan superintelligence itu sendiri. Saya akan memohon belas kasihan dan empati bahwa superintelligence harus menjaga saya, orang yang penuh kasih dan empati, hidup. Saya juga berpendapat bahwa keragaman memiliki nilai tersendiri, dan bahwa alam semesta begitu besar sehingga eksistensi manusia di dalamnya mungkin sama sekali tidak penting.
Tapi saya tidak berbicara untuk semua umat manusia, dan saya merasa sulit untuk membuat argumen yang meyakinkan bagi kita semua. Ketika saya melihat sekilas kita semua, ada banyak kesalahan: Kita saling membenci. Kami saling berperang satu sama lain. Kami tidak mendistribusikan makanan, pengetahuan atau bantuan medis secara setara. Kami mencemari planet ini. Ada banyak hal baik di dunia ini, tapi semua yang buruk melemahkan argumen kita karena diizinkan hadir.
Untungnya, kita tidak perlu membenarkan keberadaan kita. Kami memiliki beberapa waktu – di suatu tempat antara 50 dan 250 tahun, tergantung pada seberapa cepat perkembangan AI. Sebagai spesies kita bisa berkumpul dan memberikan jawaban yang bagus mengapa superintelligence seharusnya tidak menghapus kita. Tapi itu akan sulit: Mengatakan bahwa kita merangkul keragaman dan benar-benar melakukannya adalah dua hal yang berbeda – seperti yang mengatakan bahwa kita ingin menyelamatkan planet ini dan berhasil melakukannya.
Kita semua, secara individu dan sebagai masyarakat, perlu mempersiapkan skenario mimpi buruk itu, dengan menggunakan waktu yang kita tinggalkan untuk menunjukkan mengapa ciptaan kita harus membiarkan kita terus eksis. Atau kita bisa memutuskan untuk percaya bahwa itu tidak akan pernah terjadi, dan berhenti khawatir sama sekali. Tapi terlepas dari ancaman fisik, superinteligen dapat hadir, mereka juga menimbulkan bahaya politik dan ekonomi. Jika kita tidak menemukan cara untuk mendistribusikan kekayaan kita dengan lebih baik, kita akan memicu kapitalisme dengan para perwira intelijen buatan yang hanya melayani sedikit orang yang memiliki semua alat produksi.
Arend Hintze, Asisten Profesor Biologi Integratif & Ilmu Komputer dan Teknik, Michigan State University