Untuk semua frekuensi menakjubkan mereka, penembakan di sekolah tetap menjadi horor yang membingungkan.
Tidak hanya ada sedikit konsensus tentang cara menghentikan mereka — dengan saran mulai dari membatasi akses senjata hingga mempersenjatai guru — tetapi bahkan ada lebih sedikit kepastian tentang mengapa seorang siswa akan menembaki teman-teman sekelasnya.
Sekarang, beberapa ilmuwan mulai mengeksplorasi jika kecerdasan buatan (AI) dapat membantu menemukan jawaban. Idenya adalah bahwa algoritma mungkin dapat menganalisis data yang lebih baik terkait dengan penembakan di sekolah, dan mungkin bahkan mengidentifikasi pola dalam bahasa siswa atau perilaku yang dapat menunjukkan kekerasan sekolah. Penelitian ini masih dalam tahap awal, dan prospek menggunakan mesin untuk memprediksi siapa yang mungkin menjadi penembak sekolah menimbulkan masalah privasi dan pertanyaan etis lainnya yang terkait dengan segala jenis profil, terutama karena prosesnya akan melibatkan anak-anak. Tujuannya, bagaimanapun, adalah untuk melihat apakah kekuatan analitis dari mesin cerdas dapat memberikan kejelasan yang lebih besar terhadap tragedi yang terlalu sering dikonsumsi dalam pusaran emosi dan retorika politik yang tinggi.
Beralih ke teknologi
Menggunakan kecerdasan buatan sebagai cara untuk membawa analisis ilmiah ke sesuatu yang tak terduga seperti penembakan di sekolah sangat menarik bagi Shreya Nallapati. Dia baru saja lulus dari sekolah menengah di Colorado, tetapi kembali pada bulan Februari, setelah kematian penembakan 17 siswa di Parkland, Florida, dia terinspirasi oleh pemimpin siswa Emma Gonzalez untuk mengambil tindakan.
“Saya merasa kita seharusnya tidak hanya memposting pikiran dan belasungkawa kami, ” kata Nallapati. "Saya berpikir bahwa sebagai generasi milenial yang sedang bangkit, kita harus mencoba menggunakan apa yang paling kita ketahui — teknologi."
Jadi Nallapati, yang telah mempelajari kecerdasan buatan di sekolah menengah, menjangkau wanita muda lain yang ia kenal melalui program yang disebut Aspirasi dalam Komputasi yang dijalankan oleh Pusat Nasional untuk Wanita & Teknologi Informasi. Aspirasi dalam Komputasi mendorong wanita muda untuk memasuki bidang komputasi dan teknologi.
Nallapati meminta orang lain dalam grup untuk bergabung dengannya dalam proyek baru, #NeverAgainTech. Dia berharap bahwa upaya kolaboratif akan menghasilkan kompilasi yang digerakkan oleh AI dan analisis dari berbagai data yang terkait dengan penembakan di sekolah - dari informasi demografis dan sosial-ekonomi tentang penembak masa lalu, hingga riwayat penggunaan narkoba atau gangguan neurologis, hingga ketersediaan senjata di negara bagian tempat serangan terjadi. Tujuannya adalah untuk mengembangkan rincian yang lebih komprehensif dari banyak komponen penembakan di sekolah daripada apa pun yang ada saat ini, dan membuat perangkat lunak yang dihasilkan tersedia untuk umum, terutama sekolah dan lembaga penegak hukum, tahun depan.
Menilai risiko
Sebuah tim peneliti di Cincinnati Children's Hospital Medical Center mengambil pendekatan berbeda dalam menggunakan AI untuk mengatasi kekerasan di sekolah. Ini menerbitkan sebuah studi baru-baru ini yang menunjukkan pembelajaran mesin berpotensi dapat membantu terapis dan konselor dalam membedakan tingkat risiko yang mungkin dialami siswa.
Secara khusus, para ilmuwan menemukan bahwa AI adalah seakurat tim psikiater anak dan remaja ketika datang untuk menilai risiko perilaku kekerasan, berdasarkan wawancara dengan 119 anak-anak antara usia 12 dan 18 tahun. Sementara penelitian difokuskan secara luas pada fisik agresi, ketua peneliti Drew Barzman mengatakan itu juga berlaku untuk menilai risiko penembakan di sekolah.
“Biasanya ada tanda peringatan sebelum ada kekerasan di sekolah, ” katanya. Secara khusus, bahasa yang digunakan siswa selama wawancara dapat membantu membedakan remaja yang berisiko tinggi dari yang berisiko rendah, menurut penelitian sebelumnya yang diarahkan Barzman. Studi itu menyimpulkan bahwa yang pertama lebih cenderung mengekspresikan perasaan negatif tentang dirinya sendiri dan tentang tindakan orang lain. Dia juga lebih cenderung berbicara tentang tindakan kekerasan yang melibatkan dirinya dan video game atau film kekerasan.
Tim mengambil langkah lain dengan memiliki algoritma AI menggunakan hasil dari studi sebelumnya untuk menganalisis transkrip siswa yang diwawancarai untuk penelitian baru. Berdasarkan pola bahasa, itu menunjukkan apakah seseorang berisiko tinggi atau rendah melakukan kekerasan. Lebih dari 91 persen waktu, algoritma, hanya menggunakan transciripts, selaras dengan penilaian yang lebih luas dari tim psikiater anak dan remaja, yang juga memiliki akses ke informasi dari orang tua dan sekolah.
Para siswa dalam penelitian ini sebagian besar direkrut dari klinik rawat jalan psikiatri, unit rawat inap dan gawat darurat. Beberapa baru-baru ini menunjukkan perubahan perilaku utama, tetapi untuk yang lain, perubahannya lebih kecil. Barzman mengatakan mereka menghadiri beragam sekolah, meskipun tidak ada sekolah di rumah.
Menurut Barzman, penelitian ini berfokus pada prediksi agresi fisik di sekolah, tetapi masih belum diketahui apakah pembelajaran mesin benar-benar dapat mencegah kekerasan. Fokus pada titik ini adalah untuk memberikan alat terapis dan konselor dengan alat yang dapat mempertajam penilaian siswa berdasarkan wawancara. Maksudnya, Barzman mencatat, bukan untuk memiliki mesin membuat keputusan tentang siswa.
"Ini pada dasarnya dimaksudkan untuk membantu dokter dalam pengambilan keputusannya, " kata Barzman. "Kami akan memberi mereka struktur dari apa yang kami temukan sebagai pertanyaan penting. Mungkin sulit untuk mewawancarai seorang siswa, memilih informasi yang tepat dan mengingat semuanya. Idenya adalah memberi mereka alat yang dapat membantu mereka melalui proses dan meningkatkan akurasi penilaian mereka. "
Matty Squarzoni adalah orang percaya lain dalam potensi kecerdasan buatan dalam menangani kekerasan di sekolah. Dia adalah CEO dari startup California bernama Sitch AI, yang berencana untuk memasarkan teknologi yang katanya dapat membantu sekolah menghadapi ancaman semacam itu. Fokus awal akan pada pengembangan sistem sensor yang akan memungkinkan petugas polisi untuk mendeteksi lokasi yang tepat dari tembakan, dan juga melacak gerakan penembak melalui sekolah. Tetapi Squarzoni mengatakan perusahaan juga mencari cara untuk menggunakan analisis prediksi untuk menemukan masalah potensial sebelum mereka berubah menjadi kekerasan.
Dia percaya bahwa kecerdasan buatan dapat menganalisis data siswa dan menandai perubahan penting dalam kinerja atau perilakunya. Squarzoni mengakui kekhawatiran potensial tentang privasi, tetapi mengatakan perusahaan tidak akan tahu identitas siswa.
"Kami tidak berbicara tentang membuat profil, " katanya. “Kami akan memandang setiap orang sebagai entitas yang unik. Tetapi manusia adalah makhluk kebiasaan. Ketika mereka mulai memiliki penyimpangan, saat itulah Anda mulai melihatnya. Anda melihat bendera, dan mungkin bendera mulai semakin dekat. Mereka bisa jadi masalah kesehatan mental, atau mungkin nilainya turun.
"Kami tidak melihat bisa mengatakan, 'Orang ini akan menjadi penembak.' Kami ingin dapat mengatakan, 'Orang ini membutuhkan bantuan.' "
Tidak secepat itu?
Tetapi yang lain memiliki keprihatinan serius tentang terburu-buru untuk menggunakan algoritma perangkat lunak untuk mengatasi masalah sosial yang kompleks.
"Kami sekarang melihat tren AI diterapkan ke domain yang sangat sensitif dengan kecepatan yang mengkhawatirkan, dan orang-orang yang membuat algoritma ini tidak selalu memahami semua aspek sosial, dan bahkan politik, dari data yang mereka gunakan, " kata Rashida Richardson, direktur penelitian kebijakan di AI Now Institute, sebuah program di New York University yang mempelajari implikasi sosial dari kecerdasan buatan.
Salah satu area di mana penggunaan AI menjadi sasaran adalah apa yang dikenal sebagai kepolisian prediktif. Ini adalah produk perangkat lunak yang menganalisis statistik kejahatan, dan kemudian memprediksi di mana kejahatan lebih mungkin dilakukan. Tetapi para kritikus menunjukkan bahwa data seperti penangkapan dapat menjadi hasil dari bias manusia, yang pada akhirnya dapat dimasukkan ke dalam algoritma.
Itu selalu merupakan risiko analisis prediktif dan mengapa sumber data merupakan faktor kunci dalam menentukan seberapa objektif sebenarnya. Namun, dengan alat AI dikembangkan oleh para peneliti Rumah Sakit Anak Cincinnati, analisis ini didasarkan pada apa yang dikatakan masing-masing siswa selama wawancara, dan bukannya kumpulan statistik yang luas.
Namun, Richardson percaya bahwa penting bahwa tim yang menciptakan perangkat lunak semacam ini adalah "interdisipliner, " sehingga pendidik, misalnya, terlibat dalam program yang menilai perilaku siswa.
“Para peneliti mungkin tidak memahami banyak nuansa dari apa yang orang-orang di dunia pendidikan dan kebijakan hukum sebut sebagai iklim sekolah. Itu termasuk masalah keselamatan dan perilaku, ”katanya. “Jenis sekolah tempat Anda akan sering menentukan bagaimana perilaku ditangani dan bagaimana disiplin ditangani.
"Misalnya, sekolah charter ditemukan memiliki kebijakan disiplin yang jauh lebih ketat, " tambah Richardson. “Anak-anak di lingkungan itu akan diperlakukan jauh berbeda dari di sekolah swasta kelas atas dan bahkan di lingkungan sekolah umum yang berbeda.
“Berusaha memahami masalah yang sangat rumit yang memiliki banyak sekali input dan menerapkan solusi teknologi yang mencerminkan sepotong itu adalah masalah karena dapat mengulangi masalah yang sama yang kita lihat di masyarakat atau menciptakan solusi untuk masalah yang tidak ada. ”
Richardson mengatakan kekhawatiran lain adalah bahwa bahkan jika sebuah program AI dikembangkan dengan niat terbaik, program itu dapat digunakan dengan cara yang tidak diantisipasi oleh penciptanya.
"Begitu Anda menemukan alat-alat ini, " katanya, "bukan berarti Anda terus memiliki kendali atas penerapannya atau bagaimana mereka akan terus memengaruhi masyarakat secara luas."