Jakarta, -Para pakar memperingatkan bahaya pornografi hasil olahan kecerdasan buatan (AI) atau deepfake bukan cuma mengancam selebritas, tapi juga semua umat. Di sini muncul kegentingan untuk tak mengumbar foto dan video diri.
“Bukan hanya selebritas yang [ditargetkan],” kata Danielle Citron, profesor di Fakultas Hukum Universitas Virginia.
“Itu [mengancam] orang-orang biasa. Mereka (korban) bisa perawat, mahasiswa seni dan hukum, guru, dan jurnalis. Kami telah melihat cerita tentang bagaimana hal ini berdampak pada siswa sekolah menengah dan orang-orang di militer. Ini (deepfake) mempengaruhi semua orang.”
Sebelumnya, gambar Taylor Swift, penyanyi dan penulis lagu, beredar dan viral di Twitter alias X. Penelusuran mengungkap sumbernya dari channel Telegram.
Pembuatannya memakai platform Microsoft Designer.
Kasus sejenis lebih dulu terjadi pada Februari 2023 saat seorang streamer video game pria ternama di platform populer Twitch kedapatan sedang melihat video deepfake dari beberapa rekan streaming Twitch perempuannya.
Streamer Twitch ‘Sweet Anita’ kemudian mengatakan, “amat sangat tidak nyata melihat diri Anda melakukan sesuatu yang belum pernah Anda lakukan.”
Wakil Menteri Komunikasi dan Informatika Nezar Patria juga sempat memperingatkan penargetan kelompok perempuan dalam penyalahgunaan AI.
“Perempuan menjadi target dalam muatan pornografi yang sengaja diciptakan melalui teknologi deepfake,” ujar dia, di kampus Universitas Gadjah Mada, Yogyakarta, Kamis (16/11/2023), dikutip dari siaran pers Kominfo.
Data Home Security Heroes menunjukkan ada 95.820 video deepfake yang tersebar secara global pada 2023.
“Ada peningkatan sebesar 550 persen dari tahun 2019 secara global. Hal yang sangat mengkhawatirkan karena bisa disalahgunakan dan dimanipulasi untuk penipuan, pornografi, dan tujuan jahat lain, yang berujung pada penyebaran disinformasi,” ungkap Nezar.
Survei World Economic Forum (WEF) dalam Global Risk Report 2024 pun mengungkap dampak buruk teknologi AI rutin masuk jajaran 10 besar ancaman global untuk 2024, 2 tahun ke depan, dan 10 tahun ke depan.
Untuk ancaman global 2024, misinformasi dan disinformasi yang dihasilkan AI menduduki posisi kedua. Ancaman global 2 tahun kemudian menempatkan misinformasi dan disinformasi sebagai pemuncak.
Pada jangka panjang, misinformasi dan disinformasi serta dampak buruk AI menempati posisi lima dan enam.
Tren yang sedang berkembang adalah praktik AI yang setara dengan praktik yang dikenal sebagai “revenge porn.” Masalahnya, semakin sulit untuk menentukan apakah foto dan video tersebut asli atau palsu.
Biro Investigasi Federal AS (FBI) pernah memperingkatkan peningkatan kasus konten porno deepfake untuk melakukan pemerasan alias sextortion.
Dalam banyak kasus sextortion, konten yang dikirim ke korban biasanya tidak sungguhan. Para pelaku hanya berpura-pura memiliki akses terhadap konten pribadi untuk menakut-nakuti korban agar membayar tebusan.
Di sisi lain, menurut Ben Decker, analis dari Memetica, sebuah lembaga investigasi digital, perusahaan media sosial “tidak memiliki rencana efektif untuk memantau kontennya.”
Kasus Taylor Swift contohnya. Meski sudah dilaporkan massal, unggahan-unggahan tersebut baru dihapus Twitter 17 jam.
Decker mengatakan apa yang terjadi pada Swift adalah “contoh utama bagaimana AI digunakan untuk banyak alasan jahat tanpa adanya pagar pembatas yang cukup untuk melindungi ranah publik.”
Cara terhindar
Pakar keamanan komputer David Jones, dari perusahaan layanan TI Firewall Technical, menyarankan orang-orang untuk menjaga privasi profil dan hanya berbagi foto dengan orang-orang tepercaya karena “Anda tidak pernah tahu siapa yang dapat melihat profil Anda.”
Meski memang, banyak orang yang terlibat dalam revenge porn secara pribadi mengetahui target mereka. Setidaknya, kata dia, membatasi untuk membagikan profil secara umum adalah cara yang paling aman.
Pasalnya, alat atau aplikasi atau platform yang digunakan untuk membuat gambar eksplisit juga memerlukan banyak data mentah dan gambar yang menampilkan wajah dari berbagai sudut. Alhasil, semakin sedikit bahannya, semakin baik.
Jones tetap memperingatkan, karena sistem AI menjadi lebih efisien, mungkin saja di masa depan hanya diperlukan satu foto untuk membuat versi deepfake dari orang lain.
Terlebih, Peretas juga dapat mengeksploitasi korbannya dengan mendapatkan akses ke foto mereka.
“Jika peretas mau, mereka mungkin mencoba membobol password Anda sehingga mereka dapat mengakses foto dan video yang Anda bagikan di akun Anda,” katanya.
“Jangan pernah menggunakan kata sandi yang mudah ditebak, dan jangan pernah menuliskannya [di tempat lain],” tandas dia