Meta telah menghapus https://sparklifechanges.com/ lebih dari selusin gambar palsu yang mengandung unsur seksual dari aktor dan atlet wanita terkenal setelah investigasi CBS News menemukan tingginya prevalensi gambar deepfake yang dimanipulasi AI pada platform Facebook milik perusahaan tersebut.
Puluhan gambar palsu yang sangat seksual dari aktor Miranda Cosgrove, Jennette McCurdy, Ariana Grande, Scarlett Johansson dan mantan bintang tenis Maria Sharapova telah dibagikan secara luas oleh berbagai akun Facebook, mengumpulkan ratusan ribu suka dan banyak dibagikan ulang di platform tersebut.
“Kami telah menghapus gambar-gambar ini karena melanggar kebijakan kami dan akan terus memantau unggahan lain yang melanggar. Ini adalah tantangan di seluruh industri, dan kami terus berupaya meningkatkan teknologi deteksi dan penegakan hukum kami,” kata juru bicara Meta, Erin Logan, kepada CBS News dalam sebuah pernyataan yang dikirim melalui email pada hari Jumat.
Cara mengenali gambar deepfake secara online
Analisis terhadap lebih dari selusin gambar ini oleh Reality Defender, sebuah platform yang bekerja untuk mendeteksi media yang dihasilkan AI, menunjukkan bahwa banyak foto tersebut merupakan gambar deepfake — dengan tubuh yang mengenakan pakaian dalam yang dihasilkan AI menggantikan tubuh selebritas dalam foto yang sebenarnya nyata. Beberapa gambar kemungkinan dibuat menggunakan alat penjahitan gambar yang tidak melibatkan AI, menurut analisis Reality Defender.
“Hampir semua pornografi deepfake tidak memiliki izin dari subjek yang di-deepfake,” kata Ben Colman, salah satu pendiri dan CEO Reality Defender kepada CBS News pada hari Minggu. “Konten semacam itu tumbuh dengan sangat cepat, terutama karena tindakan yang ada untuk menghentikan konten semacam itu jarang diterapkan.”
CBS News telah meminta komentar dari Miranda Cosgrove, Jennette McCurdy, Ariana Grande, dan Maria Sharapova terkait berita ini. Johansson menolak memberikan komentar apa pun, menurut perwakilan aktor tersebut.
Berdasarkan kebijakan Penindasan dan Pelecehan Meta, perusahaan melarang “photoshop atau gambar yang merendahkan nilai seksual” di platformnya. Perusahaan juga melarang ketelanjangan orang dewasa, aktivitas seksual, dan eksploitasi seksual orang dewasa, dan peraturannya dimaksudkan untuk memblokir pengguna agar tidak membagikan atau mengancam untuk membagikan gambar intim yang tidak konsensual. Meta juga telah meluncurkan penggunaan label “info AI” untuk menandai konten yang dimanipulasi AI dengan jelas.
Namun, masih ada pertanyaan mengenai efektivitas pengawasan perusahaan teknologi terhadap konten tersebut. CBS News menemukan lusinan gambar Cosgrove dan McCurdy yang dibuat dengan AI dan mengandung unsur seksual masih tersedia untuk umum di Facebook, bahkan setelah penyebaran konten tersebut secara luas, yang melanggar ketentuan perusahaan, dilaporkan ke Meta.
Salah satu gambar deepfake Cosgrove yang masih muncul selama akhir pekan telah dibagikan oleh akun yang memiliki 2,8 juta pengikut.
Kedua aktor tersebut — keduanya mantan bintang cilik dalam acara Nickelodeon “iCarly,” yang dimiliki oleh perusahaan induk CBS News, Paramount Global — adalah yang paling banyak menjadi sasaran konten deepfake, berdasarkan gambar tokoh masyarakat yang dianalisis CBS News.
Dewan Pengawas Meta, sebuah badan kuasi-independen yang terdiri dari para ahli di bidang hak asasi manusia dan kebebasan berbicara, dan membuat rekomendasi untuk moderasi konten di platform Meta, mengatakan kepada CBS News dalam sebuah pernyataan melalui email bahwa peraturan perusahaan saat ini seputar konten deepfake seksual tidak memadai.
Dewan Pengawas mengutip rekomendasi yang telah dibuatnya kepada Meta selama setahun terakhir, termasuk mendesak perusahaan untuk membuat aturannya lebih jelas dengan memperbarui larangannya terhadap “photoshop seksual yang merendahkan” untuk secara khusus menyertakan kata “non-konsensual” dan untuk mencakup teknik manipulasi foto lainnya seperti AI .
Dewan tersebut juga telah merekomendasikan agar Meta memasukkan larangannya terhadap “photoshop yang mengandung unsur seksual yang merendahkan” ke dalam peraturan Eksploitasi Seksual Orang Dewasa milik perusahaan, sehingga moderasi terhadap konten tersebut dapat ditegakkan dengan lebih ketat.
Ketika ditanya oleh CBS News pada hari Senin tentang rekomendasi dewan tersebut, Meta menunjuk pada pedoman di situs web transparansinya , yang menunjukkan bahwa perusahaan tersebut sedang menilai kelayakan tiga dari empat rekomendasi dari dewan pengawas dan menerapkan salah satu sarannya, meskipun Meta mencatat dalam pernyataannya di situsnya bahwa saat ini mereka sedang mengesampingkan kemungkinan mengubah bahasa kebijakan “photoshop seksual yang merendahkan” untuk menyertakan frasa “nonkonsensual.” Meta juga mengatakan bahwa saat ini mereka tidak mungkin memindahkan kebijakan “photoshop seksual yang merendahkan” ke dalam peraturan Eksploitasi Seksual Orang Dewasa.
Meta mencatat dalam pernyataannya bahwa mereka masih mempertimbangkan cara untuk memberi sinyal kurangnya persetujuan dalam gambar yang dihasilkan AI. Meta juga mengatakan bahwa mereka sedang mempertimbangkan reformasi terhadap kebijakan Eksploitasi Seksual Orang Dewasa, untuk “menangkap semangat” rekomendasi dewan.
“Dewan Pengawas telah menjelaskan bahwa gambar-gambar intim yang dipalsukan tanpa persetujuan merupakan pelanggaran serius terhadap privasi dan martabat pribadi, yang secara tidak proporsional merugikan perempuan dan anak perempuan. Gambar-gambar ini bukan sekadar penyalahgunaan teknologi — ini adalah bentuk pelecehan yang dapat menimbulkan konsekuensi yang berkepanjangan,” kata Michael McConnell, salah satu ketua Dewan Pengawas, kepada CBS News pada hari Jumat.
“Dewan secara aktif memantau respons Meta dan akan terus mendorong perlindungan yang lebih kuat, penegakan yang lebih cepat, dan akuntabilitas yang lebih besar,” kata McConnell.
Meta bukan satu-satunya perusahaan media sosial yang menghadapi masalah konten deepfake seksual yang tersebar luas.
Tahun lalu, platform X milik Elon Musk memblokir sementara pencarian terkait Taylor Swift setelah gambar pornografi palsu buatan AI yang menyerupai penyanyi itu beredar luas di platform tersebut dan mengumpulkan jutaan tampilan dan tayangan.
“Memposting gambar Ketelanjangan Non-Konsensual (NCN) sangat dilarang di X dan kami memiliki kebijakan tanpa toleransi terhadap konten tersebut,” kata tim keamanan platform tersebut dalam sebuah posting pada saat itu.
Sebuah studi yang diterbitkan awal bulan ini oleh pemerintah Inggris menemukan jumlah gambar deepfake di platform media sosial berkembang pesat, dengan pemerintah memperkirakan bahwa 8 juta deepfake akan dibagikan tahun ini, naik dari 500.000 pada tahun 2023.