ASK
ME

REGISTER
NOW

Pelindungan Data Pribadi FGD 1


Dari Penipuan Finansial hingga Serangan Reputasi:

Peneliti Atma Jaya Diskusikan Ragam Bahaya Deepfake

 

Jakarta – Bertempat di Mangkuluhur ARTOTEL Suites, pada 16 September 2025, tim peneliti Universitas Katolik Indonesia Atma Jaya yang dipimpin oleh Dr. jur. Sih Yuliana Wahyuningtyas, S.H., M.Hum., mengadakan Focus Group Discussion (FGD) dengan tema “Penyalahgunaan Teknologi Deepfake dengan Pemrosesan Data Biometrik oleh AI dan Dampak Kerugiannya”.

Topik yang diangkat Dr. jur. Sih Yuliana Wahyuningtyas, S.H., M.Hum., menyoroti berbagai modus penyalahgunaan, dampak sosial, serta tantangan regulasi di Indonesia di tengah pesatnya perkembangan Artificial Intelligence (AI). Benang merah dari diskusi ini adalah pemaparan mengenai berbagai bentuk penyalahgunaan deepfake yang dapat dikategorikan ke dalam beberapa modus ancaman, mulai dari manipulasi informasi dan reputasi, pemalsuan bukti dalam konteks hukum, hingga kejahatan finansial.

Dr. Wahyuningtyas menyampaikan bahwa dengan sejumlah risiko hukum yang penyalahgunaan AI, khususnya dengan teknologi deepfake, Indonesia perlu bergegas untuk menyusun kebijakan dan regulasi guna memastikan pelindungan hukum yang memadai khususnya bagi subyek data manakala penyalahgunaan tersebut melibatkan pemrosesan data biometrik. Lebih lanjut, disampaikan pula bahwa tren regulasi di sejumlah yurisdiksi yang diteliti, terdapat pendekatan yang beraneka ragam, antara lain pendekatan regulasi berbasis risiko seperti dalam the EU AI Act, pendekatan pengaturan dengan self-, co-, dan state-regulation, dan pendekatan pengaturan transparansi melalui kewajiban disclosure seperti yang dimuat dalam the Claifornia’s Series of AI Laws, pembaruan regulasi pidana seperti dalam the Criminal Code Amendment (Deepfake Sexual Material) Bill 2024 di Australia, dan bahkan hingga perluasan bidang hukum seperti perluasan cakupan hak cipta atas wajah dan suara seseorang seperti di Denmark.

Diskusi ini menghadirkan para peneliti dan narasumber ahli, yaitu Stephen Aprius Sutresno, S.Kom., M.Kom., Feliks Prasepta S. Surbakti, ST.,MT, Ph.D., Oki Suryowahono dari Pusat Kebijakan Strategis (Pusaka) Komdigi, Wahyudi Djafar, S.H.,M.Sc dari Catalyst Policy-Works, Shevierra Danmadiyah dari Lembaga Kajian dan Advokasi Independensi Peradilan, Prof. Dr. Sinta Dewi Rosadi, S.H., M.H., Parasurama, S.H. dari ELSAM, Eugenius Kau Suni, S.T.,M.T. sebagai perwakilan pengguna, serta Fransiscus Xaverius taro selaku Cyber Security Evangelist.

Para peneliti menyoroti berbagai modus penyalahgunaan deepfake. Stephen Aprius Sutresno, S.Kom., M.Kom., menjelaskan deepfake sebagai teknologi AI yang memanipulasi gambar dan suara menggunakan data biometrik hingga terlihat asli, yang berdampak pada "menurunnya kepercayaan publik." Hal ini diperkuat oleh Feliks P.S. Surbakti, S.T., M.T., Ph.D., yang memaparkan contoh penyalahgunaan untuk menyerang reputasi tokoh publik seperti Presiden Jokowi dan Sri Mulyani, serta untuk kejahatan finansial melalui emergency call scam. Kasus penipuan finansial menggunakan deepfake yang mencatut nama Presiden Prabowo dan Menteri Sri Mulyani pada tahun 2025 juga diangkat sebagai contoh nyata kerugian yang ditimbulkan.

Dari perspektif otoritas publik, Oki Suryowahono dari Pusat Kebijakan Strategis (Pusaka) Komdigi menyoroti pentingnya perlindungan data biometrik yang dipandang lebih krusial dibandingkan data pribadi biasa karena sifatnya yang permanen. Ia menegaskan bahwa semua platform, baik lokal maupun asing, wajib tunduk pada regulasi Indonesia seperti UU ITE dan UU PDP. Menurutnya, pemerintah sedang dalam proses menyusun kebijakan nasional dan regulasi turunan UU PDP untuk mengantisipasi risiko AI dan deepfake.

Wahyudi Djafar dari Catalyst Policy-Works menambahkan bahwa deepfake, sebagai hasil dari teknologi generatif AI, sulit dideteksi karena kualitas visual dan audionya yang semakin menyerupai kenyataan. Ia menyoroti berbagai bentuk penyalahgunaan mulai dari manipulasi identitas, penipuan keuangan, hingga propaganda, yang berdampak pada kerugian finansial, personal, psikologis, dan menurunnya kepercayaan publik. Dari sisi regulasi, menurutnya, UU PDP dapat memitigasi risiko dengan memperkuat perlindungan data pribadi agar tidak digunakan sebagai bahan pembuatan deepfake.

Dari sisi regulasi, Prof. Dr. Sinta Dewi Rosadi, S.H., M.H., menyatakan bahwa regulasi yang ada, termasuk UU PDP, masih terbatas dalam menjawab tantangan deepfake. Ia membandingkan dengan Uni Eropa yang telah menerapkan AI Act, yang "mewajibkan setiap konten hasil AI, termasuk deepfake, diberi label untuk transparansi".

Parasurama, S.H. dari ELSAM memberikan perspektif teoretis, menjelaskan bagaimana deepfake mengaburkan batas antara realitas dan rekayasa melalui konsep simulacra dan simulasi. Ia juga menyoroti aspek hukum terkait "Hak untuk Dihapus" (Right to be Forgotten) yang bisa diterapkan jika pelaku dapat diidentifikasi sebagai pengendali data. Selain itu, ia menyebutkan bahwa RUU Keamanan dan Ketahanan Siber telah mencantumkan ketentuan terkait deepfake, serta menekankan pentingnya berbagai jalur pemulihan hukum bagi korban, baik melalui jalur perdata, administratif, maupun pidana.

Sementara itu, Shevierra Danmadiyah dari Lembaga Kajian dan Advokasi Independensi Peradilan menyoroti dampak sosial dan kerentanan gender. Ia menyatakan bahwa "perempuan lebih sering menjadi target, dengan kasus laporan polisi sering diabaikan karena dianggap ‘itu bukan dirinya’". Beliau menekankan bahwa perlindungan diri harus dilakukan melalui kombinasi pengetahuan, kesadaran digital, serta penguatan regulasi.

Hasil dari diskusi ini akan menjadi landasan bagi tim peneliti untuk merumuskan rekomendasi kebijakan yang lebih adaptif dan komprehensif guna melindungi data biometrik masyarakat di tengah pesatnya perkembangan AI.