BANDA ACEH – Penanews.co.id – Teknologi kecerdasan buatan (AI) membawa kemajuan besar, namun di sisi gelapnya, deepfake telah menjadi senjata baru dalam kasus pelecehan seksual anak. Deepfake memungkinkan oknum tidak bertanggung jawab untuk memanipulasi foto atau video biasa menjadi konten eksplisit yang tampak sangat nyata.
Unicef melaporkan, Deepfake – gambar, video, atau audio yang dibuat atau dimodifikasi menggunakan AI agar terlihat nyata — semakin sering digunakan untuk menghasilkan konten seksual yang melibatkan anak, termasuk melalui nudification, yaitu penggunaan alat AI untuk menghapus atau mengubah pakaian sehingga menciptakan rekayasa gambar telanjang atau seksual .
Menurut Unicef, bukti terbaru menunjukkan skala ancaman yang berkembang pesat ini: Dalam studi, UNICEF, ECPAT, dan INTERPOL yang dilakukan di 11 negara, sedikitnya 1,2 juta anak melaporkan bahwa foto mereka telah dimanipulasi menjadi konten seksual deepfake dalam satu tahun terakhir. Di beberapa negara, hal ini setara dengan 1 dari 25 anak — sama dengan satu anak dalam satu ruang kelas pada umumnya.
“Anak-anak pun sangat sadar akan risiko ini. Di sejumlah negara yang diteliti, hingga dua pertiga anak mengaku khawatir AI dapat digunakan untuk membuat gambar atau video seksual palsu. Tingkat kekhawatiran bervariasi antar negara danmenegaskan kebutuhan mendesak akan peningkatan kesadaran, pencegahan, dan perlindungan,” kata Unicef dalam keterangan tertulisnya dikutip dari unicef.org, Minggu (08/02/2026)
Unicef mengharapkan, kita harus tegas “Gambar anak yang diseksualisasi — baik dibuat maupun dimodifikasi menggunakan alat AI — merupakan materi pelecehan seksual anak (CSAM),” ungkap Unicef.
“Penyalahgunaan deepfake adalah kekerasan, dan tidak ada yang ‘palsu’ tentang dampak yang ditimbulkannya,” tegas Unicef
Menurut Unicef, Ketika gambar atau identitas seorang anak digunakan, anak tersebut menjadi korban langsung. Bahkan ketika tidak ada korban yang dapat diidentifikasi, materi pelecehan seksual anak yang dihasilkan AI tetap menormalkan eksploitasi seksual anak, meningkatkan permintaan atas konten yang melecehkan, dan menciptakan tantangan besar bagi penegak hukum untuk mengidentifikasi serta melindungi anak-anak yang membutuhkan bantuan.
UNICEF mengapresiasi para pengembang AI yang menerapkan prinsip safetybydesign dan pengamanan kuat untuk mencegah penyalahgunaan sistem mereka. Namun, penerapannya masih belum merata, dan terlalu banyak model AI yang dikembangkan tanpa perlindungan yang memadai. Risiko semakin besar ketika alat AI generatif tertanam langsung dalam platform media sosial, tempat gambar yang dimanipulasi dapat menyebar dengan cepat.
UNICEF mendesak langkah-langkah berikut untuk menghadapi ancaman meningkatnya materi pelecehan seksual anak yang dihasilkan oleh AI:
- Pemerintah memperluas definisi materi kekerasan seksual anak (CSAM) agar mencakup konten yang dihasilkan AI, serta mengkriminalisasi pembuatan, pengadaan, kepemilikan, dan distribusinya.
- Pengembang AI menerapkan pendekatan safety‑by‑design dan pengamanan yang kuat untuk mencegah penyalahgunaan model AI.
- Perusahaan digital mencegah peredaran materi pelecehan seksual anak yang dihasilkan AI — bukan hanya menghapusnya setelah penyalahgunaan terjadi; serta memperkuat moderasi konten melalui investasi dalam teknologi deteksi, sehingga materi tersebut dapat segera dihapus — bukan berhari-hari setelah korban atau perwakilannya melapor.
“Dampak penyalahgunaan deepfake sangat nyata dan mendesak. Anak-anak tidak bisa menunggu sampai hukum mengejar ketertinggalan,” kata Unicef





