
Cyberthreat.id - Seorang mantan manajer Facebook bernama Frances Haugen membuat heboh setelah data-data internal Facebook yang diungkapnya dan dipublikasikan The Wall Street Journal dalam laporan 'Facebook Files' membuat Kongres Amerika Serikat memanggil pihak Facebook untuk dimintai keterangannya.
Data yang diungkap itu antara lain penelitian internal Facebook [PDF1, PDF2, PDF3, PDF4, PDF5, PDF6] tentang dampak Instagram bagi kesehatan mental remaja. Menurut laporan Wall Street, berdasarkan dokumen yang dibagikan oleh Frances Haugen, Facebook tahu bahwa Instagram adalah "toxic" bagi remaja perempuan, namun perusahaan tak pernah mengakuinya secara terbuka.
CEO Facebook Mark Zuckerberg ketika dipanggil Kongres pada Maret 2021 lalu menyebut bahwa sosmed bagi anak muda "secara umum berdampak positif." Padahal, penelitian internal mereka yang dibuat Maret 2020 menyimpulkan penggunaan Instagram dalam jangka panjang berperan pada kesehatan mental remaja, khususnya perempuan. Antara lain, kata penelitian itu, perempuan muda cenderung membandingkan diri sendiri dengan apa yag mereka lihat di Instagram, sehingga memicu rasa rendah diri, terutama terkait bentuk tubuh.
Dokumen itulah yang dibocorkan oleh Haugen.
Awalnya, Wall Street Journal merahasiakan sumber dokumen itu. Namun, Frances Haugen kemudian muncul dalam sebuah wawancara dengan televisi CBS pada 3 Oktober kemarin.
Dokumen itu juga dikirim ke Kongres Amerika Serikat. Kongres akan mendengarkan kesaksikan Haugen pada Selasa besok (5 Oktober 2021).
Sebelumnya, pada 30 September, Senator AS telah meminta keterangan Facebook di mana perusahaan menyebut laporan The Wall Street Journal "tidak akurat."
Dalam wawancara dengan CBS, Haugen merinci bagaimana Facebook mengetahui bahwa produknya, termasuk Instagram, membahayakan kesehatan mental anak-anak dan remaja.
Salah satu dokumen Facebook yang diungkap Frances Haugen tentang dampak Instagram bagi kesehatan mental remaja
Menurutnya, Facebook secara substansial lebih buruk daripada apa pun yang pernah dilihatnya sebelumnya.
“Facebook berulang kali telah menunjukkan bahwa mereka memilih keuntungan daripada keamanan. Itu seperti menyubsidi, membayar keuntungannya dengan keselamatan kita. Versi Facebook yang ada saat ini menghancurkan masyarakat kita dan menyebabkan kekerasan etnis di seluruh dunia,” kata Haugen.
Dia lantas menjelaskan bagaimana algoritma yang digunakan Facebook dapat memicu reaksi lebih banyak pada konten yang tampil di halaman beranda pengguna.
“Facebook menyadari jika mereka mengubah algoritma menjadi lebih aman, orang akan menghabiskan lebih sedikit waktu di situs, mereka akan mengeklik lebih sedikit iklan, yang membuat Facebook menghasilkan lebih sedikit uang,” ujarnya.
Dalam wawancara terbaru dengan The Wall Street, Haugen mengatakan dia menjadi frustrasi dengan apa yang dia lihat sebagai kurangnya keterbukaan perusahaan tentang potensi bahaya platformnya dan keengganan mengatasi kekurangannya.
Frances yang meninggalkan perusahaan pada bulan Mei setelah bekerja hampir dua tahun, mengatakan bahwa dia datang ke pekerjaan itu dengan harapan besar untuk membantu Facebook memperbaiki kelemahannya. Dia segera menjadi skeptis bahwa timnya dapat membuat dampak, katanya. Kata dia, timnya memiliki sedikit sumber daya, dan dia merasa perusahaan menempatkan pertumbuhan dan keterlibatan pengguna di atas apa yang diketahui melalui penelitiannya sendiri tentang efek buruk platformnya.
Menjelang akhir waktunya di Facebook, kata Haugen, dia menjadi percaya bahwa orang-orang di luar perusahaan —termasuk pembuat undang-undang dan regulator— harus tahu apa yang dia temukan.
"Jika orang lebih membenci Facebook karena apa yang telah saya lakukan, maka saya telah gagal," katanya. “Saya percaya pada kebenaran dan rekonsiliasi—kita harus mengakui kenyataan. Langkah pertama adalah dokumentasi.”
Dia mengaku terkejut dengan apa yang dia temukan. Laporan The Wall Street Journal, sebagian didasarkan pada dokumen yang dia kumpulkan serta wawancara dengan karyawan saat ini dan mantan karyawan, menjelaskan bagaimana aturan perusahaan menguntungkan elit; bagaimana algoritmanya mendorong perselisihan; dan bagaimana kartel narkoba dan pedagang manusia menggunakan layanannya secara terbuka.
Saat masih di Facebook, Haugen meninjau ribuan dokumen selama beberapa minggu. Facebook mencatat aktivitas karyawan di Workplace, dan dia menjelajahi bagian dari jaringannya yang, meskipun terbuka, tidak terkait dengan pekerjaannya.
Dia mengatakan bahwa dia mulai berpikir untuk meninggalkan pesan untuk tim keamanan internal Facebook ketika mereka mau tidak mau meninjau aktivitas pencariannya. Dia menyukai sebagian besar koleganya, katanya, dan tahu beberapa akan merasa dikhianati. Dia tahu perusahaan juga akan melakukannya, tetapi dia pikir taruhannya cukup tinggi sehingga dia perlu berbicara, katanya.
Pada 17 Mei, tak lama sebelum jam 7 malam, dia masuk untuk terakhir kalinya dan mengetik pesan terakhirnya di bilah pencarian Workplace untuk mencoba menjelaskan motifnya.
"Saya tidak membenci Facebook," tulisnya. “Saya suka Facebook. Saya ingin menyelamatkannya."
Haugen pun bertanya-tanya: apakah mungkin membangun sistem rekomendasi otomatis yang aman. Lantaran menemui jalan buntu, ia akhirnya mengundurkan diri pada pertengahan April 2021 dan bersiap "meledakkan" apa yang dilihatnya di dalam Facebook.
Keluar dari Facebook, Haugen kemudian menghubungi pengacara di Whistleblower Aid, sebuah organisasi nirlaba di Washington DC yang mewakili orang-orang yang melaporkan prilaku buruk perusahaan dan pemerintah.
Selain menyuarakan keprihatinannya dengan bersaksi di depan Kongres AS, Haugen mengatakan tertarik untuk bekerja sama dengan jaksa agung negara bagian dan regulator Uni Eropa.
Menurut Haugen, inti persoalan di Facebook terletak pada sistem algoritma yang mengutamakan keterlibatan (semakin banyak komentar dan suka pada sebuah postingan, semakin direkomendasikan). Penelitian Facebook sendiri menemukan bahwa "informasi yang salah, toksisitas, dan konten kekerasan sangat lazim" dibagikan ulang oleh pengguna dan dipromosikan oleh mesin perusahaan itu sendiri.
"Selama tujuan Anda adalah menciptakan lebih banyak keterlibatan, mengoptimalkan suka, membagikan ulang, dan komentar, Anda akan terus memprioritaskan konten yang mempolarisasi dan penuh kebencian," kata Haugen.[]
Share: