Teknologi baru telah lama dijadikan senjata untuk melawan perempuan. Solusinya melibatkan semua orang

8 Min Read

palsu dalam

Kredit: Markus Winkler dari Pexels

Gambar-gambar “deepfake” yang bersifat seksual dari Taylor Swift menjadi viral di media sosial minggu lalu, memicu kecaman luas dari Swifties, masyarakat umum dan bahkan Gedung Putih.

Masalah ini bukanlah hal baru. Swift adalah salah satu dari sekian banyak selebritas dan tokoh masyarakat, terutama perempuan, yang menjadi korban pornografi deepfake dalam beberapa tahun terakhir. Contoh-contoh penting menarik perhatian media secara signifikan, namun sifat AI yang semakin canggih membuat siapa pun kini dapat menjadi sasaran.

Meskipun ada kekhawatiran besar mengenai dampak deepfake yang lebih luas, penting untuk diingat bahwa teknologi bukanlah solusinya menyebabkan penyalahgunaan. Itu hanyalah alat lain yang digunakan untuk memberlakukannya.

Deepfakes dan media yang dimanipulasi secara digital lainnya

Deepfake Swift yang eksplisit secara seksual muncul di berbagai platform media sosial minggu lalu, termasuk X (sebelumnya Twitter), Instagram, Facebook, dan Reddit.

Sebagian besar platform besar melarang berbagi media sintetis dan yang dimanipulasi secara digital yang menyebabkan kerugian, kebingungan, atau penipuan, termasuk pornografi deepfake. Ini termasuk gambar yang dibuat melalui cara yang lebih sederhana seperti perangkat lunak pengedit foto. Meskipun demikian, satu deepfake yang menggambarkan Swift telah dilihat 47 juta kali selama periode 17 jam sebelum dihapus dari X.

Ada sejarah panjang teknologi, aplikasi, dan layanan digital yang digunakan untuk memfasilitasi kekerasan berbasis gender, termasuk pelecehan seksual, penyerangan seksual, kekerasan dalam rumah tangga atau keluarga, pelecehan dalam kencan, penguntitan dan pemantauan, serta perkataan yang mendorong kebencian.

Oleh karena itu, fokus kita juga harus pada upaya mengatasi norma-norma dan keyakinan gender bermasalah yang sering mendasari jenis-jenis pelecehan ini.

Munculnya deepfake

Asal usul deepfake dapat ditelusuri hingga November 2017 ketika seorang pengguna Reddit bernama “deepfakes” membuat forum dan perangkat lunak pengeditan video yang memungkinkan pengguna melatih komputer mereka untuk menukar wajah aktor porno dengan wajah selebriti.

Sejak saat itu, terdapat perluasan besar-besaran situs web dan thread deepfake khusus, serta aplikasi yang dapat membuat deepfake khusus secara gratis atau berbayar.

Di masa lalu, membuat deepfake yang meyakinkan sering kali memerlukan waktu dan keahlian yang lama, komputer yang canggih, dan akses ke banyak gambar orang yang menjadi target. Saat ini, hampir semua orang dapat membuat deepfake—terkadang hanya dalam hitungan detik.

Bahaya pornografi deepfake

Tidak semua penerapan citra yang dihasilkan AI berbahaya. Anda mungkin pernah melihat deepfake viral yang lucu seperti gambar Paus Fransiskus dalam jaket puffer. Atau jika Anda menonton film terbaru Indiana Jones, Anda akan melihat Harrison Ford “menurunkan usia” hingga 40 tahun berkat AI.

Meskipun demikian, deepfake sering kali dibuat untuk tujuan jahat, termasuk disinformasi, penindasan maya, pelecehan seksual terhadap anak-anak, pemerasan seksual, dan bentuk pelecehan seksual berbasis gambar lainnya.

Sebuah laporan yang diterbitkan oleh startup Home Security Heroes memperkirakan ada 95.820 video deepfake online pada tahun 2023, meningkat 550% sejak tahun 2019.

Terkait pornografi deepfake, perempuan khususnya menjadi sasaran yang tidak proporsional. Menurut DeepTrace, 96% dari semua deepfake online adalah video palsu wanita yang tidak disetujui. Mereka sebagian besar (tetapi tidak eksklusif) adalah aktor dan musisi terkenal.

Hal ini memprihatinkan namun tidak mengejutkan. Penelitian menunjukkan pelecehan online secara tidak proporsional berdampak pada perempuan dan anak perempuan, khususnya perempuan Pribumi, perempuan berlatar belakang migran, serta kelompok lesbian, gay, biseksual, transgender, dan interseks.

Tokoh masyarakat khususnya menghadapi tingkat pelecehan online yang lebih tinggi, terutama perempuan dan orang-orang dengan gender yang beragam. Sebuah penelitian menemukan bahwa selebriti lebih banyak disalahkan dibandingkan non-selebriti atas pelecehan yang mereka terima secara online, dan pelecehan ini sering kali dianggap tidak terlalu serius.

Penelitian menunjukkan pelecehan berbasis gambar dapat mengakibatkan kerugian yang signifikan bagi korbannya, termasuk kecemasan, depresi, keinginan bunuh diri, isolasi sosial, dan kerusakan reputasi. Bagi tokoh masyarakat, deepfake dan bentuk pelecehan online lainnya juga dapat mengakibatkan berkurangnya prospek karier, penarikan diri dari kehidupan publik, dan dampak negatif terhadap kesehatan mental.

Pada tahun 2016, foto aktivis dan aktivis reformasi hukum Australia, Noelle Martin, diambil dari media sosial dan ditumpangkan pada gambar pornografi. Martin melaporkan merasa “sakit secara fisik, jijik, marah, terdegradasi, tidak manusiawi” sebagai akibatnya. Gambar Martin yang diubah secara digital dan palsu terus beredar secara online tanpa persetujuannya.

Menanggapi pornografi deepfake

Siapa pun dapat menjadi sasaran melalui deepfake. Yang diperlukan hanyalah gambar wajah seseorang. Bahkan gambar kerja profesional pun dapat digunakan.

Meskipun reformasi hukum saja tidak akan menyelesaikan permasalahan sosio-hukum ini, hal ini dapat menjadi sinyal bahwa permasalahan ini sedang ditanggapi dengan serius. Kita memerlukan undang-undang yang secara khusus menargetkan pornografi deepfake non-konsensual.

Di Australia, terdapat pelanggaran pelecehan seksual berbasis gambar di setiap negara bagian dan teritori Australia kecuali Tasmania, serta di tingkat federal. Namun, hanya beberapa undang-undang yang secara khusus menyebutkan gambar yang diubah secara digital (termasuk deepfake).

Perusahaan teknologi juga dapat berbuat lebih banyak untuk secara proaktif mendeteksi dan memoderasi pornografi deepfake. Mereka perlu memprioritaskan penerapan pendekatan “safety by design” ke dalam layanan mereka sejak awal. Ini bisa berarti:

  • merancang dan menguji AI dengan mempertimbangkan potensi penyalahgunaan
  • menggunakan tanda air dan indikator lain untuk memberi label pada konten sebagai konten sintetis
  • “mendorong” pengguna untuk menahan diri dari perilaku tertentu (seperti menggunakan pop-up untuk mengingatkan mereka tentang pentingnya izin).

Penelitian menunjukkan adanya kesenjangan dalam pemahaman masyarakat tentang deepfake dan cara mendeteksinya. Hal ini semakin menyoroti perlunya literasi digital dan pendidikan tentang perbedaan antara penggunaan gambar intim secara suka sama suka dan tidak suka, serta bahaya pornografi deepfake yang tidak suka sama sekali.

Yang terakhir, dan mungkin yang paling penting, kita perlu mengatasi kesenjangan sistemik yang berkontribusi terhadap pelecehan yang difasilitasi oleh teknologi terhadap perempuan dan masyarakat dengan keragaman gender. Hal ini termasuk mengenali pornografi deepfake sebagai masalah yang sering kali bersifat gender—baik bagi selebriti maupun non-selebriti.

Disediakan oleh Percakapan

Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.Percakapan

Kutipan: Deepfake Taylor Swift: Teknologi baru telah lama dijadikan senjata untuk melawan perempuan. Solusinya melibatkan semua orang (2024, 1 Februari) diambil 1 Februari 2024 dari https://techxplore.com/news/2024-02-taylor-swift-deepfakes-technologies-weaponized.html

Dokumen ini memiliki hak cipta. Terlepas dari transaksi wajar untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.

______
Diterjemahkan dari techxplore.com

Share This Article