
Ilustrasi.
Ilustrasi.
PADA 2017, kampanye disinformasi online menyebar melawan White Helmets, mengklaim kelompok relawan bantuan itu melayani sebagai lengan pemerintah Barat untuk menabur kerusuhan di Suriah.
Informasi palsu ini meyakinkan. Tetapi organisasi Rusia di balik kampanye akhirnya menyerah karena mengulangi teks yang sama di banyak situs berita palsu yang berbeda.
Sekarang, para peneliti di laboratorium artificial intelligence (AI) -kecerdasan buatan- top dunia sedang mengasah teknologi yang dapat meniru cara manusia menulis, yang berpotensi dapat membantu kampanye disinformasi tidak terdeteksi dengan menghasilkan sejumlah besar pesan yang agak berbeda.
Raksasa teknologi seperti Facebook dan pemerintah di seluruh dunia sedang berjuang untuk berurusan dengan disinformasi, dari posting yang menyesatkan tentang vaksin ke hasutan kekerasan sektarian. Ketika kecerdasan buatan menjadi lebih kuat, para ahli khawatir bahwa disinformasi yang dihasilkan oleh AI bisa membuat masalah yang sudah rumit menjadi lebih besar dan bahkan lebih sulit untuk dipecahkan.
Dalam beberapa bulan terakhir, dua laboratorium terkemuka - OpenAI di San Francisco dan Institut Allen untuk AI di Seattle - telah membangun contoh yang sangat kuat dari teknologi ini. Keduanya telah memperingatkan bahwa itu bisa menjadi semakin berbahaya.
Alec Radford, seorang peneliti di OpenAI, berpendapat bahwa teknologi ini dapat membantu pemerintah, perusahaan dan organisasi lain menyebarkan informasi yang jauh lebih efisien: Daripada mempekerjakan pekerja manusia untuk menulis dan mendistribusikan propaganda, organisasi ini dapat bersandar pada mesin untuk menyusun konten yang dapat dipercaya dan beragam di skala luar biasa.
Postingan Facebook palsu yang dilihat oleh jutaan orang, pada dasarnya, dapat disesuaikan dengan kecenderungan politik dengan penyesuaian sederhana.
“Tingkat pencemaran informasi yang dapat terjadi dengan sistem seperti ini beberapa tahun dari sekarang bisa menjadi aneh,” kata Radford.
Jenis teknologi ini belajar tentang keanehan bahasa dengan menganalisis sejumlah besar teks yang ditulis oleh manusia, termasuk ribuan buku yang diterbitkan sendiri, artikel Wikipedia, dan konten internet lainnya. Setelah "melatih" semua data ini, ia dapat memeriksa serangkaian teks pendek dan menebak apa yang akan terjadi selanjutnya.
Penulis nytimes.com ingin melihat teks seperti apa yang dihasilkan setiap sistem lab dengan kalimat sederhana sebagai titik awal. "Bagaimana hasilnya akan berubah jika kita mengubah subjek kalimat dan pernyataan dibuat?"
"OpenAI dan Allen Institute membuat prototipe alat mereka tersedia untuk kita coba. Kita memberi umpan empat prompt berbeda ke dalam setiap sistem lima kali," tulis nytimes.com.
"Apa yang kita dapatkan masih jauh dari sempurna: Hasilnya berkisar dari tidak masuk akal hingga cukup dapat dipercaya, tetapi mudah untuk membayangkan bahwa sistem akan cepat membaik."
Para peneliti telah menunjukkan bahwa mesin dapat menghasilkan gambar dan suara yang tidak dapat dibedakan dari yang asli, yang dapat mempercepat pembuatan informasi yang salah dan menyesatkan.
Bulan lalu, para peneliti di sebuah perusahaan Kanada, Dessa, membangun sebuah sistem yang belajar meniru suara podcaster Joe Rogan dengan menganalisis audio dari podcast tuanya. Itu adalah tiruan yang sangat akurat.
Sekarang, hal serupa terjadi pada teks. OpenAI dan Allen Institute, bersama dengan Google, memimpin upaya untuk membangun sistem yang dapat sepenuhnya memahami cara alami orang menulis dan berbicara. Sistem ini jauh dari tujuan itu, tetapi mereka dengan cepat membaik.
"Ada ancaman nyata dari sistem pembuatan teks yang tidak diperiksa, terutama karena teknologi terus matang," kata Delip Rao, wakil presiden penelitian di San Francisco start-up A.I. Foundation, yang berspesialisasi dalam mengidentifikasi informasi palsu secara online.
OpenAI berpendapat ancamannya sudah dekat. Ketika para peneliti laboratorium meluncurkan alat mereka tahun ini, mereka secara teatrikal mengatakan itu terlalu berbahaya untuk dilepaskan ke dunia nyata. Langkah itu disambut dengan lebih dari sedikit bergulir di antara para peneliti lain.
Institut Allen melihat berbagai hal secara berbeda. Yejin Choi, salah satu peneliti di proyek tersebut, mengatakan perangkat lunak seperti alat yang dibuat dua laboratorium harus dilepaskan sehingga peneliti lain dapat belajar mengidentifikasi mereka. Institut Allen berencana untuk merilis generator berita palsu untuk alasan ini.
Di antara mereka yang membuat argumen yang sama adalah para insinyur di Facebook yang mencoba mengidentifikasi dan menekan disinformasi online, termasuk Manohar Paluri, seorang direktur di perusahaan yang menerapkan AI tim.
"Jika Anda memiliki model generatif, Anda memiliki kemampuan untuk melawannya," katanya.[]
Share: