https://frosthead.com

Akankah AI Menjadi Lebih Cerdas Daripada Empat Tahun?

Semua orang mendengar tentang kemajuan baru dalam kecerdasan buatan, dan terutama pembelajaran mesin. Anda juga pernah mendengar prediksi utopis atau apokaliptik tentang apa arti kemajuan itu. Mereka telah dianggap sebagai keabadian atau akhir dunia, dan banyak yang telah ditulis tentang kedua kemungkinan itu. Tetapi AI yang paling canggih masih jauh dari mampu menyelesaikan masalah yang dicapai manusia usia empat tahun dengan mudah. Terlepas dari nama yang mengesankan, kecerdasan buatan sebagian besar terdiri dari teknik untuk mendeteksi pola statistik dalam kumpulan data besar. Ada banyak lagi pembelajaran manusia.

Bagaimana kita bisa tahu banyak tentang dunia di sekitar kita? Kita belajar banyak sekali bahkan ketika kita masih kecil; anak berusia empat tahun sudah tahu tentang tanaman, hewan, dan mesin; keinginan, kepercayaan, dan emosi; bahkan dinosaurus dan pesawat ruang angkasa.

Sains telah memperluas pengetahuan kita tentang dunia hingga yang tak terbayangkan besar dan sangat kecil, hingga ke ujung alam semesta dan awal waktu. Dan kami menggunakan pengetahuan itu untuk membuat klasifikasi dan prediksi baru, membayangkan kemungkinan baru, dan membuat hal-hal baru terjadi di dunia. Tapi semua yang mencapai kita dari dunia adalah aliran foton yang mengenai retina dan gangguan udara di gendang telinga kita. Bagaimana kita belajar banyak tentang dunia ketika bukti yang kita miliki sangat terbatas? Dan bagaimana kita melakukan semua ini dengan beberapa pon goo abu-abu yang ada di belakang mata kita?

Jawaban terbaik sejauh ini adalah bahwa otak kita melakukan perhitungan pada data konkret, khususnya, berantakan tiba di indra kita, dan perhitungan tersebut menghasilkan representasi dunia yang akurat. Representasi tampaknya terstruktur, abstrak, dan hierarkis; mereka termasuk persepsi objek tiga dimensi, tata bahasa yang mendasari bahasa, dan kapasitas mental seperti "teori pikiran, " yang memungkinkan kita memahami apa yang dipikirkan orang lain. Representasi tersebut memungkinkan kita untuk membuat berbagai prediksi baru dan membayangkan banyak kemungkinan baru dengan cara manusia yang kreatif.

Jenis pembelajaran ini bukan satu-satunya jenis kecerdasan, tetapi kecerdasan yang sangat penting bagi umat manusia. Dan itu adalah jenis kecerdasan yang merupakan spesialisasi anak-anak muda. Meskipun anak-anak secara dramatis buruk dalam perencanaan dan pengambilan keputusan, mereka adalah pembelajar terbaik di alam semesta. Banyak proses mengubah data menjadi teori terjadi sebelum kita berusia lima tahun.

Sejak Aristoteles dan Plato, ada dua cara dasar untuk mengatasi masalah bagaimana kita tahu apa yang kita ketahui, dan mereka masih merupakan pendekatan utama dalam pembelajaran mesin. Aristoteles mendekati masalah dari bawah ke atas: Mulailah dengan indera — aliran foton dan getaran udara (atau piksel atau sampel suara dari gambar atau rekaman digital) —dan lihat apakah Anda dapat mengekstraksi pola dari mereka. Pendekatan ini dilakukan lebih lanjut oleh asosiasi klasik seperti filsuf David Hume dan JS Mill dan kemudian oleh psikolog perilaku, seperti Pavlov dan BF Skinner. Pada pandangan ini, abstrak dan struktur hirarki dari representasi adalah semacam ilusi, atau setidaknya suatu epifenomenon. Semua pekerjaan dapat dilakukan dengan asosiasi dan deteksi pola — terutama jika ada cukup data.

Preview thumbnail for video 'Possible Minds: 25 Ways of Looking at AI

Pikiran yang Mungkin: 25 Cara Melihat AI

Tokoh termasyhur dunia sains John Brockman mengumpulkan dua puluh lima dari pikiran ilmiah paling penting, orang-orang yang telah memikirkan kecerdasan buatan bidang untuk sebagian besar karier mereka, untuk pemeriksaan meja bundar yang tak tertandingi tentang pikiran, pemikiran, kecerdasan, dan apa artinya bagi menjadi manusia.

Membeli

Dari waktu ke waktu, telah ada jungkat-jungkit antara pendekatan bottom-up untuk misteri pembelajaran dan alternatif Plato, yang top-down. Mungkin kita mendapatkan pengetahuan abstrak dari data konkret karena kita sudah tahu banyak, dan terutama karena kita sudah memiliki berbagai konsep dasar abstrak, berkat evolusi. Seperti para ilmuwan, kita dapat menggunakan konsep-konsep itu untuk merumuskan hipotesis tentang dunia. Kemudian, alih-alih mencoba mengekstraksi pola dari data mentah, kita dapat membuat prediksi tentang seperti apa data seharusnya jika hipotesis itu benar. Bersama dengan Plato, para filsuf dan psikolog "rasionalis" seperti Descartes dan Noam Chomsky mengambil pendekatan ini.

Berikut adalah contoh sehari-hari yang menggambarkan perbedaan antara kedua metode: menyelesaikan wabah spam. Data terdiri dari daftar panjang, pesan yang tidak disortir dalam kotak masuk Anda. Kenyataannya adalah bahwa beberapa dari pesan ini adalah asli dan beberapa adalah spam. Bagaimana Anda bisa menggunakan data untuk membedakannya?

Pertimbangkan teknik bottom-up terlebih dahulu. Anda memperhatikan bahwa pesan-pesan spam cenderung memiliki fitur-fitur tertentu: daftar panjang penerima, asal-usul di Nigeria, referensi untuk hadiah jutaan dolar, atau Viagra. Masalahnya adalah bahwa pesan yang sangat berguna mungkin memiliki fitur-fitur ini juga. Jika Anda melihat contoh-contoh email spam dan nonspam yang cukup, Anda mungkin melihat tidak hanya bahwa email-email spam cenderung memiliki fitur-fitur itu tetapi bahwa fitur-fitur tersebut cenderung berjalan bersama dengan cara-cara tertentu (Nigeria ditambah satu juta dolar mantera kesulitan). Bahkan, mungkin ada beberapa korelasi tingkat tinggi yang halus yang membeda-bedakan pesan spam dari yang bermanfaat — pola tertentu salah eja dan alamat IP, katakanlah. Jika Anda mendeteksi pola itu, Anda dapat memfilter spam.

Teknik pembelajaran mesin dari bawah ke atas melakukan hal ini. Pelajar mendapatkan jutaan contoh, masing-masing dengan beberapa set fitur dan masing-masing dilabeli sebagai spam (atau beberapa kategori lainnya) atau tidak. Komputer dapat mengekstrak pola fitur yang membedakan keduanya, bahkan jika itu cukup halus.

Bagaimana dengan pendekatan top-down? Saya mendapat email dari editor Journal of Clinical Biology . Itu merujuk pada salah satu makalah saya dan mengatakan bahwa mereka ingin menerbitkan artikel oleh saya. Tidak ada Nigeria, tidak ada Viagra, tidak ada juta dolar; email tidak memiliki fitur spam apa pun. Tetapi dengan menggunakan apa yang sudah saya ketahui, dan berpikir secara abstrak tentang proses yang menghasilkan spam, saya dapat mengetahui bahwa email ini mencurigakan:

1. Saya tahu bahwa spammer mencoba mengekstraksi uang dari orang-orang dengan memohon keserakahan manusia.

2. Saya juga tahu bahwa jurnal “akses terbuka” yang sah telah mulai menutupi biayanya dengan membebankan biaya kepada penulis alih-alih pelanggan, dan bahwa saya tidak mempraktikkan apa pun seperti biologi klinis.

Kumpulkan semua itu dan saya dapat menghasilkan hipotesis baru yang baik tentang dari mana email itu berasal. Ini dirancang untuk menghisap akademisi agar membayar untuk "menerbitkan" sebuah artikel di jurnal palsu. Email itu adalah hasil dari proses yang meragukan yang sama dengan email spam lainnya, meskipun tidak seperti mereka. Saya bisa menarik kesimpulan ini hanya dari satu contoh, dan saya bisa menguji hipotesis saya lebih jauh, melampaui apa pun di email itu sendiri, dengan googling "editor."

Dalam istilah komputer, saya mulai dengan "model generatif" yang mencakup konsep abstrak seperti keserakahan dan penipuan dan menggambarkan proses yang menghasilkan penipuan email. Itu memungkinkan saya mengenali spam email klasik Nigeria, tetapi juga memungkinkan saya membayangkan berbagai jenis spam yang mungkin. Ketika saya mendapatkan email jurnal, saya dapat bekerja mundur: "Ini sepertinya hanya jenis surat yang akan keluar dari proses menghasilkan spam."

Kegembiraan baru tentang AI datang karena peneliti AI baru-baru ini menghasilkan versi yang kuat dan efektif dari kedua metode pembelajaran ini. Tetapi tidak ada yang sangat baru tentang metode itu sendiri.

Pembelajaran Jauh dari Bawah ke Atas

Pada 1980-an, para ilmuwan komputer menemukan cara yang cerdik untuk membuat komputer mendeteksi pola dalam data: arsitektur koneksionis, atau jaringan-saraf, (bagian "neural" adalah, dan sampai sekarang, metaforis). Pendekatan ini jatuh ke dalam kelesuan pada tahun 1990-an tetapi baru-baru ini dihidupkan kembali dengan metode "pembelajaran mendalam" yang kuat seperti Google DeepMind.

Misalnya, Anda dapat memberikan program pembelajaran mendalam sekelompok gambar Internet berlabel "kucing, " yang lain berlabel "rumah, " dan seterusnya. Program ini dapat mendeteksi pola yang membedakan dua set gambar dan menggunakan informasi itu untuk memberi label gambar baru dengan benar. Beberapa jenis pembelajaran mesin, yang disebut pembelajaran tanpa pengawasan, dapat mendeteksi pola dalam data tanpa label sama sekali; mereka hanya mencari kumpulan fitur — yang oleh para ilmuwan disebut analisis faktor. Dalam mesin pembelajaran dalam, proses ini diulangi pada tingkat yang berbeda. Beberapa program bahkan dapat menemukan fitur yang relevan dari data mentah piksel atau suara; komputer mungkin mulai dengan mendeteksi pola-pola dalam gambar mentah yang sesuai dengan tepi dan garis dan kemudian menemukan pola-pola dalam pola-pola yang sesuai dengan wajah, dan seterusnya.

Teknik bottom-up lain dengan sejarah panjang adalah pembelajaran penguatan. Pada 1950-an, BF Skinner, yang membangun karya John Watson, yang terkenal memprogram merpati untuk melakukan tindakan rumit — bahkan memandu rudal yang diluncurkan udara ke target mereka (gema yang mengganggu dari AI baru-baru ini) dengan memberi mereka jadwal hadiah dan hukuman tertentu . Ide penting adalah bahwa tindakan yang dihargai akan diulangi dan tindakan yang dihukum tidak akan, sampai perilaku yang diinginkan tercapai. Bahkan di zaman Skinner, proses sederhana ini, berulang-ulang, dapat menyebabkan perilaku yang kompleks. Komputer dirancang untuk melakukan operasi sederhana berulang-ulang dalam skala yang mengerdilkan imajinasi manusia, dan sistem komputasi dapat mempelajari keterampilan yang sangat rumit dengan cara ini.

Sebagai contoh, peneliti di Google's DeepMind menggunakan kombinasi pembelajaran yang mendalam dan pembelajaran penguatan untuk mengajar komputer bermain video game Atari. Komputer tidak tahu apa-apa tentang cara kerja gim. Itu dimulai dengan bertindak secara acak dan mendapat informasi hanya tentang seperti apa layar pada setiap saat dan seberapa baik skornya. Pembelajaran yang mendalam membantu menginterpretasikan fitur-fitur di layar, dan pembelajaran penguatan menghargai sistem untuk skor yang lebih tinggi. Komputer menjadi sangat baik dalam memainkan beberapa game, tetapi juga benar-benar mengebom yang lain yang mudah bagi manusia untuk dikuasai.

Kombinasi serupa dari pembelajaran mendalam dan pembelajaran penguatan telah memungkinkan keberhasilan DeepZind's AlphaZero, sebuah program yang berhasil mengalahkan pemain manusia baik di catur dan Go, dilengkapi dengan hanya pengetahuan dasar tentang aturan permainan dan beberapa kapasitas perencanaan. AlphaZero memiliki fitur menarik lainnya: Ia bekerja dengan memainkan ratusan juta game melawan dirinya sendiri. Saat melakukannya, memangkas kesalahan yang menyebabkan kerugian, dan mengulangi dan menguraikan strategi yang mengarah pada kemenangan. Sistem seperti itu, dan lainnya yang melibatkan teknik yang disebut jaringan permusuhan generatif, menghasilkan data serta mengamati data.

Ketika Anda memiliki kekuatan komputasi untuk menerapkan teknik-teknik itu ke kumpulan data yang sangat besar atau jutaan pesan email, gambar Instagram, atau rekaman suara, Anda dapat memecahkan masalah yang tampaknya sangat sulit sebelumnya. Itulah sumber banyak kegembiraan dalam ilmu komputer. Tetapi perlu diingat bahwa masalah-masalah itu - seperti mengenali bahwa gambar adalah kucing atau kata yang diucapkan adalah Siri - sepele untuk balita manusia. Salah satu penemuan paling menarik dari ilmu komputer adalah bahwa masalah yang mudah bagi kita (seperti mengidentifikasi kucing) sulit untuk komputer — jauh lebih sulit daripada bermain catur atau Go. Komputer membutuhkan jutaan contoh untuk mengategorikan objek yang dapat kita kategorikan hanya dengan beberapa. Sistem bottom-up ini dapat menggeneralisasi ke contoh baru; mereka dapat melabeli gambar baru sebagai kucing dengan cukup akurat. Tetapi mereka melakukannya dengan cara yang sangat berbeda dari cara manusia menggeneralisasi. Beberapa gambar yang hampir identik dengan gambar kucing tidak akan diidentifikasi oleh kami sebagai kucing sama sekali. Orang lain yang terlihat seperti blur acak akan menjadi.

Model Bayesian Top-Down

Pendekatan top-down memainkan peran besar dalam AI awal, dan pada 2000-an itu juga mengalami kebangkitan, dalam bentuk model generatif probabilistik, atau Bayesian.

Upaya awal untuk menggunakan pendekatan ini menghadapi dua jenis masalah. Pertama, sebagian besar pola bukti pada prinsipnya dapat dijelaskan oleh banyak hipotesis berbeda: Ada kemungkinan bahwa pesan email jurnal saya asli, sepertinya tidak mungkin. Kedua, dari mana konsep yang menggunakan model generatif berasal dari tempat pertama? Plato dan Chomsky berkata kamu dilahirkan dengan mereka. Tetapi bagaimana kita bisa menjelaskan bagaimana kita mempelajari konsep sains terbaru? Atau bagaimana anak kecil pun mengerti tentang dinosaurus dan kapal roket?

Model Bayesian menggabungkan model generatif dan pengujian hipotesis dengan teori probabilitas, dan mereka mengatasi dua masalah ini. Model Bayesian memungkinkan Anda menghitung seberapa besar kemungkinan hipotesis tertentu benar, mengingat datanya. Dan dengan membuat penyesuaian kecil tapi sistematis untuk model yang sudah kita miliki, dan mengujinya terhadap data, kita kadang-kadang dapat membuat konsep dan model baru dari yang lama. Namun keunggulan ini diimbangi oleh masalah lain. Teknik Bayesian dapat membantu Anda memilih mana dari dua hipotesis yang lebih mungkin, tetapi hampir selalu ada sejumlah besar hipotesis yang mungkin, dan tidak ada sistem yang dapat secara efisien mempertimbangkan semuanya. Bagaimana Anda memutuskan hipotesis mana yang layak untuk diuji?

Danau Brenden di NYU dan rekannya telah menggunakan metode top-down semacam ini untuk memecahkan masalah lain yang mudah bagi orang tetapi sangat sulit bagi komputer: mengenali karakter tulisan tangan yang tidak dikenal. Lihatlah karakter pada gulungan Jepang. Bahkan jika Anda belum pernah melihatnya sebelumnya, Anda mungkin dapat mengetahui apakah itu mirip atau berbeda dari karakter pada gulir Jepang lainnya. Anda mungkin dapat menggambarnya dan bahkan mendesain karakter Jepang palsu berdasarkan yang Anda lihat — karakter yang akan terlihat sangat berbeda dari karakter Korea atau Rusia.

Metode bottom-up untuk mengenali karakter tulisan tangan adalah memberikan kepada komputer ribuan contoh masing-masing dan membiarkannya mengeluarkan fitur-fitur yang menonjol. Sebagai gantinya, Lake et al. memberi program model umum tentang bagaimana Anda menggambar karakter: Sebuah pukulan berjalan ke kanan atau kiri; setelah Anda menyelesaikan satu, Anda memulai yang lain; dan seterusnya. Ketika program melihat karakter tertentu, ia dapat menyimpulkan urutan pukulan yang paling mungkin menyebabkannya — persis seperti yang saya simpulkan bahwa proses spam mengarah ke email saya yang meragukan. Kemudian dapat menilai apakah karakter baru kemungkinan dihasilkan dari urutan itu atau dari yang berbeda, dan itu dapat menghasilkan serangkaian stroke yang sama. Program ini bekerja jauh lebih baik daripada program pembelajaran mendalam yang diterapkan pada data yang persis sama, dan itu sangat mencerminkan kinerja manusia.

Dua pendekatan pembelajaran mesin ini memiliki kekuatan dan kelemahan yang saling melengkapi. Dalam pendekatan bottom-up, program tidak memerlukan banyak pengetahuan untuk memulai, tetapi membutuhkan banyak data, dan hanya dapat digeneralisasi secara terbatas. Dalam pendekatan top-down, program dapat belajar dari hanya beberapa contoh dan membuat generalisasi yang jauh lebih luas dan lebih bervariasi, tetapi Anda perlu membangun lebih banyak ke dalamnya untuk memulainya. Sejumlah penyelidik saat ini sedang mencoba untuk menggabungkan kedua pendekatan tersebut, menggunakan pembelajaran mendalam untuk mengimplementasikan inferensi Bayesian.

Keberhasilan AI baru-baru ini sebagian merupakan hasil dari perluasan ide-ide lama itu. Tetapi ini lebih berkaitan dengan fakta bahwa, berkat Internet, kami memiliki lebih banyak data, dan berkat Hukum Moore, kami memiliki kekuatan komputasi yang lebih besar untuk diterapkan pada data itu. Selain itu, fakta yang tidak dihargai adalah bahwa data yang kita miliki telah dipilah dan diproses oleh manusia. Gambar-gambar kucing yang diposting di Web adalah gambar-gambar kucing kanonik — gambar-gambar yang telah dipilih manusia sebagai gambar-gambar “baik”. Google Translate berfungsi karena mengambil keuntungan dari jutaan terjemahan manusia dan menggeneralisasikannya ke bagian teks yang baru, daripada benar-benar memahami kalimat itu sendiri.

Tetapi hal yang benar-benar luar biasa tentang anak-anak manusia adalah bahwa mereka entah bagaimana menggabungkan fitur terbaik dari setiap pendekatan dan kemudian melampaui mereka. Selama lima belas tahun terakhir, para developmentalis telah mengeksplorasi cara anak-anak mempelajari struktur dari data. Anak berusia empat tahun dapat belajar dengan mengambil hanya satu atau dua contoh data, seperti yang dilakukan sistem top-down, dan menggeneralisasi ke konsep yang sangat berbeda. Tetapi mereka juga dapat mempelajari konsep dan model baru dari data itu sendiri, seperti sistem bottom-up.

Sebagai contoh, di lab kami, kami memberi anak kecil “detektor blicket” —suatu mesin baru untuk mencari tahu, yang belum pernah mereka lihat sebelumnya. Ini adalah kotak yang menyala dan memutar musik ketika Anda meletakkan benda-benda tertentu di atasnya tetapi tidak orang lain. Kami memberi anak-anak hanya satu atau dua contoh tentang bagaimana mesin bekerja, menunjukkan kepada mereka bahwa, katakanlah, dua balok merah berhasil, sementara kombinasi hijau dan kuning tidak. Bahkan anak berusia delapan belas bulan segera mengetahui prinsip umum bahwa kedua objek harus sama untuk membuatnya pergi, dan mereka menggeneralisasikan prinsip itu menjadi contoh baru: Misalnya, mereka akan memilih dua objek yang memiliki bentuk yang sama untuk dibuat. pekerjaan mesin. Dalam eksperimen lain, kami telah menunjukkan bahwa anak-anak bahkan dapat mengetahui bahwa beberapa properti tersembunyi yang tidak terlihat membuat mesin berjalan, atau bahwa mesin bekerja berdasarkan beberapa prinsip logis abstrak.

Anda dapat menunjukkan ini dalam pembelajaran sehari-hari anak-anak juga. Anak-anak muda dengan cepat mempelajari teori intuitif abstrak biologi, fisika, dan psikologi dalam banyak cara yang dilakukan para ilmuwan dewasa, bahkan dengan data yang relatif sedikit.

Pencapaian pembelajaran mesin yang luar biasa dari sistem AI baru-baru ini, baik dari bawah ke atas dan dari atas ke bawah, terjadi di ruang hipotesis dan konsep yang sempit dan terdefinisi dengan baik — serangkaian potongan dan gerakan permainan yang tepat, serangkaian gambar yang telah ditentukan sebelumnya. . Sebaliknya, anak-anak dan ilmuwan kadang-kadang mengubah konsep mereka dengan cara yang radikal, melakukan perubahan paradigma daripada sekadar mengubah konsep yang sudah mereka miliki.

Anak berusia empat tahun dapat langsung mengenali kucing dan memahami kata-kata, tetapi mereka juga dapat membuat kesimpulan baru yang kreatif dan mengejutkan yang jauh melampaui pengalaman mereka. Cucu saya sendiri baru-baru ini menjelaskan, misalnya, bahwa jika orang dewasa ingin menjadi anak lagi, ia harus mencoba untuk tidak makan sayuran yang sehat, karena sayuran yang sehat membuat anak tumbuh menjadi orang dewasa. Hipotesis semacam ini, yang masuk akal yang tidak akan pernah dihibur oleh orang dewasa, adalah karakteristik anak-anak. Sebenarnya, rekan saya dan saya telah menunjukkan secara sistematis bahwa anak-anak prasekolah lebih baik dalam membuat hipotesis yang tidak mungkin daripada anak-anak yang lebih tua dan orang dewasa. Kami hampir tidak tahu bagaimana pembelajaran kreatif dan inovasi semacam ini dimungkinkan.

Namun, melihat apa yang dilakukan anak-anak, dapat memberikan petunjuk yang berguna bagi programmer tentang arahan untuk pembelajaran komputer. Dua fitur pembelajaran anak-anak sangat mencolok. Anak-anak adalah pembelajar aktif; mereka tidak hanya secara pasif menyerap data seperti AI. Sama seperti eksperimen para ilmuwan, anak-anak pada dasarnya termotivasi untuk mengekstraksi informasi dari dunia di sekitar mereka melalui permainan dan penjelajahan mereka yang tiada akhir. Studi terbaru menunjukkan bahwa eksplorasi ini lebih sistematis daripada yang terlihat dan disesuaikan dengan baik untuk menemukan bukti persuasif untuk mendukung pembentukan hipotesis dan pilihan teori. Membangun rasa ingin tahu ke dalam mesin dan memungkinkan mereka untuk secara aktif berinteraksi dengan dunia mungkin menjadi rute untuk pembelajaran yang lebih realistis dan luas.

Kedua, anak-anak, tidak seperti AI yang ada, adalah pembelajar sosial dan budaya. Manusia tidak belajar secara terpisah tetapi memanfaatkan diri mereka sendiri dari akumulasi kebijaksanaan generasi yang lalu. Studi terbaru menunjukkan bahwa bahkan anak-anak prasekolah belajar melalui peniruan dan dengan mendengarkan kesaksian orang lain. Tetapi mereka tidak secara pasif mematuhi guru mereka. Sebaliknya mereka mengambil informasi dari orang lain dengan cara yang sangat halus dan sensitif, membuat kesimpulan yang kompleks tentang dari mana informasi itu berasal dan seberapa dapat dipercayanya dan secara sistematis mengintegrasikan pengalaman mereka sendiri dengan apa yang mereka dengar.

"Kecerdasan buatan" dan "pembelajaran mesin" terdengar menakutkan. Dan dalam beberapa hal mereka. Sistem ini digunakan untuk mengendalikan senjata, misalnya, dan kita benar-benar harus takut tentang itu. Namun, kebodohan alam dapat menimbulkan lebih banyak kekacauan daripada kecerdasan buatan; kita manusia harus jauh lebih pintar daripada kita di masa lalu untuk mengatur teknologi baru dengan tepat. Tapi tidak ada banyak dasar untuk penglihatan AI utokalis atau utopis menggantikan manusia. Sampai kita memecahkan paradoks dasar pembelajaran, kecerdasan buatan terbaik tidak akan mampu bersaing dengan manusia rata-rata berusia empat tahun.

Dari koleksi yang akan datang PIKIRAN MUNGKIN: 25 Cara Melihat AI, diedit oleh John Brockman. Diterbitkan oleh pengaturan dengan Penguin Press, anggota dari Penguin Random House LLC. Hak Cipta © 2019 John Brockman.

Akankah AI Menjadi Lebih Cerdas Daripada Empat Tahun?