
Ilustrasi. Foto: www.colorado.edu
Ilustrasi. Foto: www.colorado.edu
Jakarta, Cyberthreat.id – Praktik penindasan di dunia maya (cyberbullying) bisa meninggalkan kenangan buruk bagi korban seumur hidupnya.
Banyak orang yang menganggap penindasan di internet hal biasa di tengah masyarakat yang modern dan progesif. Padahl, efeknya bisa dalam jangka panjang bagi kesehatan, hubungan sosial, juga pada kekayaan seseorang.
Bahkan, beberapa korban bisa melukai diri lebih dari dua kali dan mencoba bunuh diri. Dan, kelompok paling rentan adalah anak-anak dan remaja.
Kini kecerdasan buatan (artificial intelligence/AI) bisa membantu korban untuk menghilangkan trauma di dunia maya. Pada Februari lalu, BBC membuat sebuah laporan menarik tentang pencegahan cyberbullying dengan teknologi kecerdasan buatan.
Gilles Jacobs, seorang peneliti bahasa asal Universitas Ghent di Belgia, melakukan penelitian terhadap fenomena cyberbullying. Menurut dia, tidak mungkin bagi manusia untuk memantau dan mendeteksi secara manual tentang masalah bullying dan trolling di medsos. Maka, menurut dia, teknologi AI adalah kunci untuk mendeteksinya secara otomatis.
Trolling adalah istilah di dunia maya yang ditujukan kepada pengirim pesan tertentu yang nyleneh atau sengaja ingin menimbulkan emosi atau tanggapan kemarahan dari orang lain.
Jacobs bersama tim menciptakan algoritma mesin pembelajaran untuk menemukan kata dan frasa berkaitan cyberbullying di situs web medsos, AskFM.
Dengan algoritma tersebut, ia dkk berhasil mendeteksi dan memblokir hampir dua pertiga penindasan dan penghinaan hampir 114.000 unggahan dalam bahasa Inggris. Temuan itu juga diklaim lebih akurat ketimbang pencarian kata kunci sederhana. Namun, alat tersebut masih belum bisa mendeteksi kata-kata bersifat sarkastik.
Kata-kata kotor sulit dideteksi karena orang menggunakan bahasa serangan untuk banyak alasan dan beberapa komentar menjijikkan pun tidak menggunakan kata-kata menyerang.
Tak hanya Jacobs, para peneliti di McGill University, Montreal, Kanada juga mendesain algoritma khusus guna mendeteksi kata-kata yang mengandung ujaran kebencian. Penelitian dikhususkan pada wanita, orang berkulit hitam, orang kelebihan berat badan (overweight) di situs web Reddit.
Menurut Haji Saleem, kepala penelitian tersebut, mengatakan, teknologi yang dirancang tersebut diklaim lebih akurat ketimbang hanya menemukan kata kunci. Juga, mampu menunjukkan dengan tepat penyalahgunaan tidak jelas, seperti umpatan dengan nama binatang.
Pada survei 2017, dalam percobaan pada Instagram, medsos milik Facebook ini, alat tersebut mampu menemukan 42 persen pengguna remaja pernah mengalami intimidasi. Temuan itu tertinggi dibanding medsos lainnya. Dalam beberapa kasus ekstrem, pengguna yang begitu tertekan memilih jalur bunuh diri.
Facebook juga mengklaim telah menggunakan AI untuk mengidentifikasi unggahan dari orang-orang yang mungkin akan bunuh diri. Facebook melatih algoritma mereka untuk mengidentifikasi pola kata-kata di pos utama dan komentar untuk mencegah upaya bunuh diri. Semua data ini disalurkan ke algoritma lain yang nantinya akan ditinjau oleh tim operasi komunitas Facebook.
“Kami bukan dokter, dan kami tidak berusaha membuat diagnosis kesehatan mental. Kami berusaha untuk mendapatkan informasi kepada orang yang tepat dengan cepat,” ujar Dan Muriello, salah satu tim AI Facebook.
Hal serupa juga dilakukan Instagram untuk mengatasi berbagai konten yang berkaitan dengan bunuh diri. Saat ini Instagram telah menerapkan teknologi AI yang menggunakan pengenalan teks, foto, dan video untuk mendeteksi konten yang mengandung cyberbullying dan komentar jahat.
Instagram mengatakan secara aktif mengidentifikasi dan menghapus materi yang mengandung bullying tanpa harus ada laporan dari korban. Hal itu juga diterapkan pada akun pengunggah konten yang menyinggung meski masih banyak pengguna licik yang membuat akun anonim dan mengirimkan pesan kebencian kepada seseorang.
AI tidak hanya dapat membantu menghilangkan bullying, tetapi juga mencegah seseorang untuk bunuh diri. Meski kita sulit memprediksi seseorang berisiko bunuh diri sangat sulit, algoritma mampu memprediksi apakah seorang pasien akan berusaha untuk mengakhiri hidup mereka dalam waktu sepekan setelah kejadian buruk menimpa mereka.
“AI dapat mengumpulkan banyak informasi dan mengumpulkannya dengan cepat sehingga dapat membantu melihat berbagai faktor risiko,” ujar Martina Di Simplicio, dosen senior klinis psikiatri di Imperial College London, Inggris.
Sementara ilmuwan di Vanderbilt University Medical Center dan Florida State University juga menggunakan algoritma mesin pembelajaran untuk mencatat kesehatan pasien yang melukai diri sendiri. Algoritma, tulis BBC, mampu memprediksi apakah pasien akan berusaha mengakhiri hidup mereka dalam sepekan setelah kejadian yang buruk baginya: dengan tingkat akurasi sekitar 92 persen.
“Kami dapat mengembangkan algoritma yang hanya mengandalkan data yang telah dikumpulkan secara rutin di tempat perawatan untuk memprediksi risiko pikiran dan perilaku bunuh diri,” kata Colin Walsh, asisten profesor informatika biomedis di Vanderbilt University Medical Center di Nashville, Tennessee, yang memimpin riset tersebut.
Mesin mungkin dapat membantu mendeteksi bullying dan prediksi seseorang tentang kondisi mentalnya. Namun, tetap saja teknologi AI tak cukup untuk mendeteksi hal-hal lain yang bersifat sangat detail yang hanya bisa dirasakan dan dideteksi secara manual. Setidaknya teknologi cukup membantu manusia dalam menganalisis fenomena dan kondisi sosial yang terjadi di era serbainternet ini.
Share: