
Foto: imdb.com
Foto: imdb.com
Cyberthreat.id – Facebook angkat suara terkait dokumenter Netflix, The Social Dilemma, yang menggambarkan di balik praktik bisnis media sosial dan dampak negatifnya kepada pengguna.
Facebook mengatakan, pembuat film tidak memasukkan wawasan dari karyawan yang saat ini masih bekerja di perusahaan, demikian dalam unggahan di blog perusahaan, Jumat (2 Oktober).
Raksasa media sosial itu menyebut dokumenter itu memberikan pandangan yang keliru tentang bagaimana medsos bekerja untuk menciptakan sesuatu yang nyaman.
“Mereka juga tidak mengakui, secara kritis atau sebaliknya, upaya yang telah dilakukan oleh perusahaan untuk mengatasi banyak masalah yang mereka angkat. Sebaliknya, mereka mengandalkan komentar dari mereka yang tidak pernah berada di dalamnya selama bertahun-tahun. Inilah poin-poin inti yang keliru dari film itu,” kata Facebook seperti dikutip dari CNET, diakses Minggu (4 Oktober 2020).
Facebook menjelaskan setidaknya tujuh hal yang dianggap salah atau tidak coba digambarkan dalam film, antara lain:
Facebook mengklaim tim produknya tidak diberikan insentif untuk membangun fitur yang dapat membuat orang kecanduan dan menghabiskan waktu untuk berada di dalam produk tersebut.
“Misalnya, pada 2018 kami mengubah peringkat untuk News Feed menjadi prioritas interaksi sosial yang bermakna dan mengurangi prioritas hal-hal seperti video viral. Perubahan tersebut menyebabkan penurunan waktu yang dihabiskan selama 50 juta jam sehari Facebook,” tulis Facebook.
Lebih lanjut, Facebook juga mengklaim bahwa pihaknya bekerja sama dengan pakar kesehatan mental, organisasi dan akademisi untuk mempelajari dampak media sosial.
Facebook membantah salah satu yang coba digambarkan terkait pengguna yang merupakan produk untuk menghasilkan pendapatan dari platform.
“Facebook adalah platform yang didukung iklan, yang berarti menjual iklan memungkinkan kami menawarkan kepada semua orang kemampuan untuk terhubung secara gratis. Ini model memungkinkan usaha kecil dan pengusaha untuk tumbuh dan bersaing dengan merek yang lebih besar dengan lebih mudah menemukan pelanggan baru,” kata Facebook.
Facebook menekankan sebuah persetujuan dari penggunanya untuk berbagi data pribadi untuk personalisasi iklan.
“Kami memberikan laporan kepada pengiklan tentang jenis orang yang melihat iklan mereka dan bagaimana kinerja iklan mereka, tetapi kami tidak membagikan informasi yang mengidentifikasi Anda secara pribadi kecuali Anda memberi kami izin. Kami tidak menjual informasi Anda kepada siapa pun.”
Facebook mengatakan menggunakan algoritma dan pembelajaran mesin (machine learning) untuk meningkatkan layanan mereka.
“Itu juga termasuk Netflix, yang menggunakan algoritma untuk menentukan siapa yang dipikirkannya harus menonton film The Social Dilemma dan kemudian merekomendasikannya kepada mereka. Ini terjadi dengan setiap konten yang muncul di layanan,” kata Facebook menjelaskan bagaimana contohnya algoritma itu berjalan.
Untuk itu, Facebook mengklaim pemanfaatannya itu untuk menampilkan konten kepada pengguna sesuai dengan minatnya.
Facebook mengatakan telah membuat perbaikan di seluruh perusahaan untuk melindungi data pribadi pengguna.
“Kami telah membuat perlindungan baru terkait bagaimana data digunakan, memberi orang kontrol tentang bagaimana mengelola data mereka. Sekarang ada ribuan orang yang mengerjakan proyek terkait privasi sehingga kami dapat terus memenuhi komitmen privasi dan menjaga keamanan informasi orang,” kata Facebook.
Facebook pun mendukung adanya sebuah regulasi yang dapat memandu industri secara keseluruhan, di mana hal itu juga yang coba disampaikan oleh The Social Dilemma.
Facebook membantah bahwa platform online yang menimbulkan dampak ke polarisasi. Kondisi ini, kata Facebook, telah terjadi jauh sebelum platform online hadir. Pihaknya pun mencoba mengambil langkah-langkah untuk mengurangi hal itu terjadi.
“Kami mengurangi jumlah konten yang dapat mendorong polarisasi di kami platform, termasuk tautan ke headline clickbait atau misinformasi. Kami melakukan penelitian kami sendiri – dan secara langsung mendanai penelitian independen akademisi – untuk lebih memahami bagaimana produk kami dapat berkontribusi ke polarisasi sehingga kami dapat terus mengelola ini secara bertanggung jawab," tulis Facebook.
Facebook mengakui kesalahannya pada 2016 terkait pemilu Amerika Serikat. Namun, menurut Facebook, The Social Dilemma tidak mencoba menggambarkan apa yang dilakukan Facebook setelah itu, padahal perusahaan telah meningkatkan sistemnya seperti mencoba menghapus berbagai perilaku tidak autentik terkoordinasi, serta menghapus konten yang melanggar kebijakan terkait pemilu.
Facebook membantah gagasan yang digambarkan oleh The Social Dilemma sebagai platform yang membiarkan informasi yang salah membusuk di platformnya. Facebook pun membantah hal itu sebab perusahaan kini memiliki mitra dengan 70 pemeriksa fakta yang mengulas konten dalam berbagai bahasa di dunia.
“Konten yang diidentifikasi sebagai salah oleh mitra pemeriksa fakta kami diberi label dan peringkat bawah di News Feed. Misinformasi yang berpotensi berkontribusi pada kekerasan yang akan terjadi, kerusakan fisik, dan penindasan pemilih dihapus langsung, termasuk informasi yang salah tentang Covid-19,” kata Facebook.
Facebook pun menekankan tidak ingin mendorong kebencian di platformnya sehingga pihaknya berupaya menghapusnya.
“Kami tahu sistem kami tidak sempurna dan ada hal-hal yang kami lewatkan. Tapi, kami tidak diam saja dan membiarkan informasi yang salah atau kebencian pidato untuk menyebar di Facebook,” kata Facebook.
Netflix belum berkomentar atas pernyataan kritik dari Facebook untuk film dokumenter buatannya.[]
Redaktur: Andi Nugroho
Share: