https://frosthead.com

Bisakah Mesin Mempelajari Moralitas?

Ketika John Brennan, pilihan Presiden Obama untuk menjadi kepala CIA berikutnya, muncul di hadapan komite Senat kemarin, satu pertanyaan menggantikan semua yang lain di sidang konfirmasi:

Bagaimana keputusan yang dibuat untuk mengirim drone pembunuh setelah tersangka teroris?

Bagaimana dan, dalam hal ini, mengapa memesan serangan pesawat tak berawak tertentu sebagian besar masih menjadi misteri, tetapi setidaknya satu hal yang jelas - keputusan sedang dibuat oleh manusia yang, orang akan berharap, bergulat dengan pemikiran mengirim rudal yang mematikan ke dalam bangunan yang ditempati.

Tetapi bagaimana jika manusia tidak terlibat? Bagaimana jika suatu hari keputusan hidup atau mati diserahkan kepada mesin yang dilengkapi dengan banyak data, tetapi juga rasa benar dan salah?

Pertengkaran moral

Sejauh ini belum diambil. Ini tidak akan terjadi dalam waktu dekat, tetapi tidak ada pertanyaan bahwa ketika mesin menjadi lebih cerdas dan lebih otonom, bagian terpenting dari transformasi mereka adalah kemampuan untuk belajar moral.

Bahkan, itu mungkin tidak terlalu jauh. Gary Marcus, yang baru-baru ini menulis di The New Yorker, mempresentasikan skenario salah satu mobil tanpa pengemudi Google sebelum dipaksa untuk membuat keputusan sepersekian detik: “Mobil Anda melaju di sepanjang jembatan dengan kecepatan 50 mil per jam ketika bus sekolah yang salah membawa 40 anak yang tidak bersalah melintasi jalannya. Haruskah mobil Anda membelok, mungkin mempertaruhkan nyawa pemiliknya (Anda), untuk menyelamatkan anak-anak, atau terus berjalan, menempatkan semua 40 anak dalam bahaya? Jika keputusan harus dibuat dalam milidetik, komputer harus melakukan panggilan. ”

Dan bagaimana dengan senjata robot atau tentara? Mungkinkah sebuah pesawat tak berawak dapat belajar untuk tidak menembaki sebuah rumah jika tahu warga sipil yang tidak bersalah juga ada di dalam? Bisakah mesin diajarkan untuk mengikuti aturan perang internasional?

Ronald Arkin, seorang profesor ilmu komputer dan ahli robotika di Georgia Tech, tentu saja berpikir demikian. Dia telah mengembangkan perangkat lunak, disebut sebagai "gubernur etis, " yang akan membuat mesin mampu memutuskan kapan layak untuk memecat dan kapan tidak.

Arkin mengakui bahwa ini masih bisa beberapa dekade lagi, tetapi ia percaya bahwa robot mungkin suatu hari secara fisik dan etis lebih unggul daripada prajurit manusia, tidak rentan terhadap trauma emosional pertempuran atau keinginan untuk balas dendam. Dia tidak membayangkan pasukan semua robot, tetapi pasukan yang melayani mesin dengan manusia, melakukan pekerjaan berisiko tinggi penuh dengan keputusan cepat yang menegangkan, seperti membersihkan gedung.

Waspadalah terhadap robot pembunuh

Tetapi yang lain merasa sudah waktunya untuk menghancurkan pemikiran seperti ini sebelum melangkah terlalu jauh. Akhir tahun lalu, Human Rights Watch dan Klinik Hak Asasi Manusia Harvard Law School mengeluarkan laporan, "Kehilangan Kemanusiaan: Kasus Terhadap Robot Pembunuh, " yang, sesuai dengan judulnya, meminta pemerintah untuk melarang semua senjata otonom karena mereka akan "meningkatkan risiko kematian atau cedera pada warga sipil selama konflik bersenjata. "

Pada waktu yang hampir bersamaan, sekelompok profesor Universitas Cambridge mengumumkan rencana untuk meluncurkan apa yang mereka sebut Pusat Studi Risiko Eksistensial. Ketika dibuka akhir tahun ini, itu akan mendorong untuk penelitian ilmiah yang serius tentang apa yang bisa terjadi jika dan ketika mesin menjadi lebih pintar dari kita.

Bahayanya, kata Huw Price, salah satu pendiri Pusat, adalah bahwa suatu hari kita bisa berurusan dengan "mesin yang tidak berbahaya, tetapi mesin yang minatnya tidak termasuk kita".

Seni penipuan

Shades of Skynet, sistem kecerdasan buatan palsu yang menelurkan cyborg Arnold Schwarzenegger dalam film The Terminator . Mungkin ini akan selalu menjadi bahan fiksi ilmiah.

Tetapi pertimbangkan penelitian lain yang dilakukan Ronald Arkin sebagai bagian dari proyek yang didanai oleh Departemen Pertahanan. Dia dan rekannya telah mempelajari bagaimana binatang saling menipu satu sama lain, dengan tujuan mengajarkan robot seni menipu.

Misalnya, mereka telah mengerjakan robot pemrograman sehingga mereka dapat, jika perlu, berpura-pura kuat seperti yang sering dilakukan binatang. Dan mereka telah melihat mesin pengajaran untuk meniru perilaku makhluk seperti tupai abu-abu timur. Tupai menyembunyikan kacang mereka dari hewan lain, dan ketika tupai atau predator lainnya muncul, tupai kelabu kadang-kadang akan mengunjungi tempat-tempat di mana mereka menyembunyikan kacang untuk melemparkan pesaing mereka keluar dari jalur. Robot yang diprogram untuk mengikuti strategi serupa telah mampu membingungkan dan memperlambat pesaing.

Itu semua untuk kepentingan, kata Arkin, untuk mengembangkan mesin yang tidak akan menjadi ancaman bagi manusia, melainkan aset, khususnya dalam kekacauan perang yang buruk. Kuncinya adalah mulai fokus sekarang pada pengaturan pedoman untuk perilaku robot yang sesuai.

"Ketika Anda mulai membuka Kotak Pandora itu, apa yang harus dilakukan dengan kemampuan baru ini ?, " katanya dalam sebuah wawancara baru-baru ini. "Saya percaya bahwa ada potensi korban non-pejuang dikurangi oleh robot-robot cerdas ini, tetapi kita harus sangat berhati-hati tentang bagaimana mereka digunakan dan tidak hanya melepaskan mereka ke medan perang tanpa perhatian yang tepat."

Untuk mempercayai penulis New Yorker Gary Marcus, mesin-mesin yang secara etis maju menawarkan potensi besar di luar medan perang.

Pikiran yang paling menghantui saya adalah bahwa etika manusia sendiri hanyalah sebuah karya yang sedang dalam proses. Kami masih menghadapi situasi di mana kami tidak memiliki kode yang dikembangkan dengan baik (misalnya, dalam kasus bunuh diri berbantuan) dan tidak perlu melihat jauh ke masa lalu untuk menemukan kasus-kasus di mana kode kami sendiri meragukan, atau lebih buruk (misalnya, undang-undang yang perbudakan dan pemisahan yang diizinkan).

Apa yang benar-benar kita inginkan adalah mesin yang dapat melangkah lebih jauh, tidak hanya diberkahi dengan kode etik yang paling sehat yang dapat dirumuskan oleh para filsuf kontemporer terbaik kita, tetapi juga dengan kemungkinan mesin membuat kemajuan moral mereka sendiri, membawa mereka melewati keterbatasan kita lebih awal Ide moralitas abad kedua puluh satu. "

Mesin berjalan

Berikut adalah perkembangan robot terbaru:

  • Hmmmm, etis dan licik: Para peneliti di Australia telah mengembangkan robot yang dapat menyelinap dengan bergerak hanya ketika ada suara latar yang cukup untuk menutupi suaranya.
  • Apa itu suara mendengung ?: Tentara Inggris di Afghanistan sudah mulai menggunakan drone pengintai yang bisa muat di telapak tangan mereka. Disebut Black Hornet Nano, robot kecil ini hanya memiliki panjang empat inci, tetapi memiliki kamera mata-mata dan dapat terbang selama 30 menit dengan muatan penuh.
  • Menggaruk permukaan: NASA sedang mengembangkan robot yang disebut RASSOR yang beratnya hanya 100 pon, tetapi akan dapat menambang mineral di bulan dan planet lain. Ia dapat bergerak di medan yang kasar dan bahkan lebih tebal dengan menopang dirinya pada lengannya.
  • Ah, hawa nafsu: Dan inilah kisah awal Hari Valentine. Para ilmuwan di Universitas Tokyo menggunakan ngengat jantan untuk menggerakkan robot. Sebenarnya, mereka menggunakan gerakan kawinnya untuk mengarahkan perangkat ke objek yang beraroma feromon ngengat betina.

Bonus video: Jadi Anda tidak yakin bisa mengoperasikan robot setinggi 13 kaki? Tidak masalah. Berikut ini adalah demo bagus yang menunjukkan betapa mudahnya melakukannya. Model yang bahagia bahkan menunjukkan kepada Anda bagaimana mengoperasikan fitur "Smile Shot". Anda tersenyum, itu membakar BB. Seberapa keras itu?

Lebih banyak dari Smithsonian.com

Robot Ini Adalah Ayah Yang Lebih Baik Daripada Ayahmu

Robot Dapatkan Sentuhan Manusia

Bisakah Mesin Mempelajari Moralitas?