Seperti Hari Peringatan mengingatkan kita setiap tahun, perang tidak hilang.
Tapi itu memang berubah. Dan salah satu perubahan besar yang akan kita saksikan di tahun-tahun mendatang adalah militer semakin tergantung pada robot. Drone mendapatkan sebagian besar perhatian sekarang, tetapi semakin banyak inovasi Departemen Pertahanan adalah jenis lain dari mesin tak berawak, dari pesawat eksperimental hingga prajurit darat.
Sangat mudah untuk memahami atraksi. Menggunakan robot berpotensi lebih efisien, lebih tepat dan lebih murah daripada hanya mengandalkan manusia dalam peperangan. Dan itu juga, tentu saja, berarti lebih sedikit korban manusia.
Tetapi transformasi ini membawa tantangan yang kompleks: Dapatkah mesin militer diprogram untuk membuat keputusan? Yang mengarah ke pertanyaan lengket: Bisakah robot belajar moral?
Kantor Riset Angkatan Laut AS berpikir sekaranglah saatnya untuk mencari tahu. Awal bulan ini, mengumumkan hibah lima tahun, $ 7, 5 juta untuk mendanai penelitian di universitas Tufts, Brown, Yale dan Georgetown dan Rensselaer Polytechnic Institute (RPI) tentang apakah suatu hari mesin dapat memilih yang benar atau salah.
Angkatan Laut ingin menghindari situasi yang dihadapi oleh mobil tanpa pengemudi Google: memiliki teknologi yang dirilis jauh di depan dari segala kejelasan tentang masalah hukum dan etika yang ditimbulkannya. Sebelum robot otonom keluar ke lapangan, militer ingin tahu apakah mereka benar-benar dapat belajar melakukan hal yang benar.
Sebagai Selmer Bringsjord, kepala Departemen Ilmu Kognitif RPI melihatnya, kecerdasan buatan robot dapat dirancang untuk berfungsi pada dua tingkat moralitas. Yang pertama akan didasarkan pada daftar pilihan etis yang jelas, seperti "jika Anda menemukan seorang prajurit yang terluka, Anda harus membantunya." Tetapi bagaimana jika tindakan ini bertentangan dengan misi utamanya, seperti mengirimkan amunisi yang sangat dibutuhkan oleh prajurit lain? Pada titik itu, kata Bringsjord, robot perlu memiliki kemampuan untuk terlibat dalam "penalaran moral yang lebih dalam" untuk membuat keputusan dalam situasi yang mungkin tidak dapat diantisipasi oleh pemrogramnya.
Para peneliti perlu mengembangkan algoritma unik dan mekanisme komputasi yang dapat diintegrasikan ke dalam arsitektur robot otonom yang ada, sebuah "proses berpikir" yang akan memungkinkan mesin untuk menimpa perilaku yang direncanakan berdasarkan kemampuannya untuk menerapkan penalaran moral.
Jika ini tampaknya sangat ambisius, ya, memang. Untuk memulainya, para peneliti perlu mengisolasi elemen-elemen dasar moralitas manusia — prinsip-prinsip mana yang kita semua sepakati? —Dan kemudian mencari cara untuk memasukkannya ke dalam algoritma yang akan memberi robot beberapa tingkat kompetensi moral.
Itu bukan usaha kecil. Karena itu, kemungkinan mesin yang tidak dikontrol oleh manusia akan, untuk masa mendatang, terbatas pada peran non-tempur, seperti pengawasan, keamanan, pencarian dan penyelamatan atau perawatan medis. Tapi mau tak mau, perencana militer akan menginginkan jawaban untuk pertanyaan yang menggantung di atas semua ini: Haruskah robot, bertindak sendiri, pernah diizinkan untuk membunuh manusia?
Jika sebuah mesin 90 persen yakin bahwa setiap orang di dalam kendaraan yang hendak ditembak adalah seorang teroris, apakah itu cukup yakin? Apakah robot dapat menembakkan senjata ke anak-anak jika itu menentukan bahwa itu adalah musuh? Jika ada yang salah dan robot otonom keliru meledakkan desa, siapa yang bertanggung jawab? Komandan yang memerintahkan operasi? Orang yang memprogram robot? Atau tidak ada?
Jika Anda pikir ini masih merupakan hal-hal fiksi ilmiah, pertimbangkan bahwa awal bulan ini, para ahli mulai dari kecerdasan buatan hingga hak asasi manusia hingga hukum internasional membebani "robot pembunuh" pada konferensi PBB di Jenewa. Kelompok-kelompok seperti Human Rights Watch dan pejabat dari segelintir negara, termasuk Pakistan, Mesir, Kuba dan Vatikan, menyerukan larangan langsung terhadap robot dengan wewenang untuk membunuh. Tetapi sebagian besar negara, terutama yang memiliki robot paling canggih, tidak siap untuk sejauh itu.
Lihatlah, misalnya, di WildCat, robot berkaki empat sedang dikembangkan untuk berjalan dengan kecepatan tinggi di semua jenis medan.
Untuk saat ini, militer AS mengikuti arahan Departemen Pertahanan 2012 bahwa tidak ada mesin dengan kekuatan untuk membunuh dapat sepenuhnya otonom. Manusia harus, secara harfiah, memanggil tembakan. Tapi itu mungkin tidak berlaku untuk semua tempat: Pada bulan Maret, New Scientist mengutip seorang pejabat Rusia yang mengatakan bahwa robot yang dikirim di lima instalasi rudal balistik akan dapat mendeteksi dan menghancurkan target tanpa manusia memberikan lampu hijau.
Foster-Miller Talon, yang terlihat di bawah, adalah salah satu dari banyak mesin di seluruh dunia yang dikembangkan untuk pertempuran.
Aturan Perang
Sebuah laporan tentang konferensi robot pembunuh akan dipresentasikan kepada komite Senjata Coventional Tertentu PBB pada bulan November. Tapi sepertinya tidak akan ada larangan dalam waktu dekat.
Di antara mereka yang bergabung dalam diskusi di Jenewa adalah Ronald Arkin, seorang ahli kecerdasan buatan dari Georgia Tech, yang telah lama menjadi advokat untuk memberikan mesin kemampuan untuk membuat keputusan moral. Dia percaya bahwa jika robot dapat belajar untuk mengikuti hukum internasional, mereka sebenarnya bisa berperilaku lebih etis daripada manusia dalam peperangan karena mereka akan konsisten konsisten. Mereka tidak akan bisa menanggapi dengan marah atau dengan panik atau prasangka. Jadi Arkin menentang larangan itu, meskipun ia terbuka untuk moratorium senjata otonom sampai mesin diberi kesempatan untuk melihat apakah mereka dapat menguasai aturan perang.
Ilmuwan AI lain, Noel Sharkey, yang berdebat dengan Arkin di Jenewa, memiliki pemikiran yang sangat berbeda. Dia tidak berpikir robot harus diberi wewenang untuk membuat keputusan hidup atau mati.
Baru-baru ini dia mengatakan kepada Defense One : “Saya tidak berpikir mereka akan berakhir dengan robot moral atau etika. Untuk itu kita perlu memiliki hak pilihan moral. Untuk itu kita perlu memahami orang lain dan tahu apa artinya menderita. "
"Robot mungkin dipasang dengan beberapa aturan etika, tetapi tidak akan peduli, " katanya.