Jakarta (25/07/25) – Sebagai bagian dari program Hibah DPPM 2025, tim peneliti Universitas Katolik Indonesia Atma Jaya yang dipimpin oleh Dr. jur. Sih Yuliana Wahyuningtyas, S.H., M.Hum. mengadakan diskusi internal pada 25 Juli 2025. Diskusi ini mengupas hasil dan kemajuan penelitian bertajuk "Perlindungan Data Biometrik dalam Pemrosesan oleh Artificial Intelligence (AI) untuk Teknologi Deepfake". Sesuai dengan hasil paparan, diskusi menyoroti perkembangan regulasi di yurisdiksi lain.
Feliks P.S. Surbakti, S.T., M.T., Ph.D., salah satu peneliti, memaparkan bagaimana perkembangan teknologi kini telah melampaui legislasi yang ada. Ia menyoroti respons berbagai negara menghadapi ancaman deepfake yang semakin meningkat. Denmark, misalnya, sedang merancang undang-undang yang memberikan warga hak cipta atas citra wajah dan suara mereka. Sementara itu, Amerika Serikat mendorong "AI Labeling Act" untuk transparansi, Tiongkok mewajibkan semua konten buatan AI diberi label yang jelas, dan Uni Eropa melalui AI Act menerapkan sanksi denda yang berat bagi pelanggaran terkait deepfake.
Stephen Aprius Sutresno, S.Kom., M.Kom., sebagai pembicara kedua, mengulik dari aspek teknis dan implikasi sosial, tantangan dalam mendeteksi deepfake. Ia menjelaskan bahwa walau teknologi ini dapat digunakan untuk tujuan positif seperti film dan edukasi, deepfake juga marak dipakai untuk menyebar hoaks, melakukan penipuan, dan pornografi non-konsensual.
Selanjutnya, ia memaparkan bahwa teknologi deepfake berkualitas tinggi kini sangat sulit dibedakan dari konten asli. Sebuah studi literatur bahkan menunjukkan bahwa 78% konten deepfake berhasil mengecoh API pengenalan wajah milik Microsoft Azure. Selain itu, kesadaran masyarakat menjadi isu krusial. Mengacu pada survei terhadap 2.000 konsumen di Inggris dan AS oleh iProov, hanya 0,1% responden yang dapat mengidentifikasi semua konten deepfake dengan benar, dan 48% responden tidak tahu cara melaporkan dugaan deepfake.
Menanggapi hasil tersebut, tim peneliti merumuskan beberapa tindak lanjut untuk menyusun kerangka kebijakan di Indonesia. Rencana ke depan mencakup pelaksanaan Focus Group Discussion (FGD) pada Agustus dan September 2025, serta penyusunan white paper yang ditujukan bagi regulator. Penelitian ini juga akan menggali pendekatan regulasi dari yang berbasis risiko menjadi berbasis dampak kerugian (harm-based) untuk memastikan perlindungan data biometrik yang lebih efektif di tengah pesatnya perkembangan AI.