
Demonstrasi video deepfake dari Facebook. | Foto: Facebook
Demonstrasi video deepfake dari Facebook. | Foto: Facebook
California, Cyberthreat.id – Pemerintah Negara Bagian California, Amerika Serikat baru saja menerbitkan undang-undang terkait dengan larangan penggunaan deepfake untuk wacana politik dan pornografi.
Pada Kamis (4 Oktober 2019) Gubernur California Gavin Newsom telah menandatangani dua undang-undang,yaitu Assembly Bills 730 dan 602. UU tersebut sengaja dibuat untuk memerangi penyalahgunaan deepfake.
RUU pertama, AB730, berisi larangan produksi dan distribusi materi politik deepfake "jahat" atau "menipu secara material", termasuk gambar pada materi kampanye seperti audio dan video hingga 2023.
"RUU ini akan [...] melarang seseorang, panitia, atau entitas lain, dalam waktu 60 hari pemilihan, di mana seorang calon untuk kantor pemilihan akan muncul dalam pemungutan suara, dari mendistribusikan dengan kejahatan yang sebenarnya secara material audio yang menipu atau media visual dari kandidat dengan maksud untuk melukai reputasi kandidat atau menipu seorang pemilih untuk memilih atau menentang kandidat, kecuali media menyertakan pengungkapan yang menyatakan bahwa media telah dimanipulasi," demikian bunyi RUU itu.
Berita Terkait:
RUU kedua, AB602, berisi memberikan warga negara hak untuk melawan jika mereka menjadi korban manipulasi deepfake, terutama dalam kasus materi yang eksplisit secara seksual atau pornografi.
Sementara undang-undang yang telah ada memberikan jalur hukum bagi korban yang fotonya pribadi dibagikan tanpa persetujuan, seperti untuk tujuan balas dendam porno, RUU tersebut menambah kemungkinan tindakan hukum:
Pertama, terhadap mereka yang membuat dan dengan sengaja mengungkapkan materi yang eksplisit secara seksual jika orang tersebut tahu atau secara wajar seharusnya mengetahui bahwa orang yang digambarkan itu tidak menyetujui penciptaan atau pengungkapannya.
Kedua, terhadap mereka yang berbagi materi eksplisit seksual yang tidak dibuat dan disetujui oleh orang yang menjadi korban tersebut.
Berita Terkait:
Antisipasi Propaganda
Istilah deepfake berasal dari “deep learning” dan “fake”. Teknologi ini memanipulasi video, gambar, dan audio menjadi wujud baru dengan bantuan kecerdasan buatan (AI).
Kadang-kadang, bahkan deepfake digunakan untuk mengolok-olok pejabat pemerintah atau isu politik yang sedang aktual.
Namun, konten yang dimanipulasi AI dapat berubah menjadi jahat ketika digunakan, “Untuk menghasilkan propaganda politik yang dapat membodohi masyarakat,” tulis ZDNet, Selasa (8 Oktober 2019).
Pornografi adalah salah satu area yang menjadi sasaran penggunaan deepfake. Sebuah studi baru-baru ini mendapati , bahwa perempuan merupakan mayoritas korban deepfake pornografi atau dikenal dengan sebutan “involuntary porn".
Dalam kasus-kasus ini, wajah para perempuan terkenal, atau bisa wajah siapa saja, dimasukkan ke dalam konten porno yang ada. Efeknya, ini mirip dengan video porno balas dendam yang juga terjadi di kehidupan nyata—video seksual pribadi seseorang diungkap ke publik oleh mantan pacar atau seseorang lain secara sengaja untuk aksi mempermalukan atau balas dendam.
Konsekuensi dari konten deepfake juga tidak luput dari perhatian oleh perusahaan teknologi.
Facebook dan Microsoft mengumumkan proyek baru pada September lalu yang disebut “Tantangan Deteksi Deepfake”. Mereka membiayai senilai US$ 10 juta kepada akademisi yang bersedia mengajukan dan mengembangkan solusi untuk deteksi otomatis video deepfake.
Google juga ingin terlibat dalam aksi tersebut. Pada bulan yang sama, raksasa teknologi ini merilis database yang berisi 3.000 video yang dimanipulasi AI kepada akademisi yang juga memanfaatkan aktor berbayar.
Basis data telah dikontribusikan ke benchmark FaceForensics, standar yang dikembangkan oleh Technical University of Munich dan University Federico II of Naples dengan harapan menjadi patokan yang diterima untuk mendeteksi deepfake di masa depan.
Lucu tapi membawa petaka
Tidak semua hal lucu itu menyenangkan, tapi bisa jadi berujung malapetaka. Deepfake memang terlihat lucu dan menyenangkan. Wajah seseorang diganti-ganti semau pembuatnya, lalu disebarkan untuk menjadi viral olok-olok.
Saat menerimanya memang kita bisa dibuat tertawa, tapi tak sadar bahwa dampak teknologi itu ke depan terhadap peradaban manusia, sungguh menakutkan. Orang-orang bisa-bisa tak lagi percaya dengan sebuah rekamanan video kejadian atau laporan televisi atau reportase jurnalistik sebab video dan audio bisa dimanipulasi begitu halus.
Jika sudah begitu, publik sulit rasanya untuk membedakan mana kenyataan yang asli dan palsu.
Share: