Dari
Penipuan Finansial hingga Serangan Reputasi:
Peneliti
Atma Jaya Diskusikan Ragam Bahaya Deepfake
Jakarta – Bertempat di Mangkuluhur
ARTOTEL Suites, pada 16 September 2025, tim peneliti Universitas Katolik
Indonesia Atma Jaya yang dipimpin oleh Dr. jur. Sih Yuliana Wahyuningtyas,
S.H., M.Hum., mengadakan Focus Group
Discussion (FGD) dengan tema “Penyalahgunaan Teknologi Deepfake dengan
Pemrosesan Data Biometrik oleh AI dan Dampak Kerugiannya”.
Topik yang diangkat Dr. jur. Sih
Yuliana Wahyuningtyas, S.H., M.Hum., menyoroti berbagai modus penyalahgunaan,
dampak sosial, serta tantangan regulasi di Indonesia di tengah pesatnya
perkembangan Artificial Intelligence
(AI). Benang merah dari diskusi ini adalah pemaparan mengenai berbagai bentuk
penyalahgunaan deepfake yang dapat dikategorikan ke dalam beberapa modus
ancaman, mulai dari manipulasi informasi dan reputasi, pemalsuan bukti dalam
konteks hukum, hingga kejahatan finansial.
Dr. Wahyuningtyas menyampaikan bahwa
dengan sejumlah risiko hukum yang penyalahgunaan AI, khususnya dengan teknologi
deepfake, Indonesia perlu bergegas untuk menyusun kebijakan dan regulasi
guna memastikan pelindungan hukum yang memadai khususnya bagi subyek data
manakala penyalahgunaan tersebut melibatkan pemrosesan data biometrik. Lebih
lanjut, disampaikan pula bahwa tren regulasi di sejumlah yurisdiksi yang
diteliti, terdapat pendekatan yang beraneka ragam, antara lain pendekatan
regulasi berbasis risiko seperti dalam the EU AI Act, pendekatan
pengaturan dengan self-, co-, dan state-regulation, dan pendekatan
pengaturan transparansi melalui kewajiban disclosure seperti yang dimuat
dalam the Claifornia’s Series of AI Laws, pembaruan regulasi pidana
seperti dalam the Criminal Code Amendment (Deepfake Sexual Material) Bill
2024 di Australia, dan bahkan hingga perluasan bidang hukum seperti
perluasan cakupan hak cipta atas wajah dan suara seseorang seperti di Denmark.
Diskusi ini menghadirkan para
peneliti dan narasumber ahli, yaitu Stephen Aprius Sutresno, S.Kom., M.Kom.,
Feliks Prasepta S. Surbakti, ST.,MT, Ph.D., Oki Suryowahono dari Pusat
Kebijakan Strategis (Pusaka) Komdigi, Wahyudi Djafar, S.H.,M.Sc dari Catalyst
Policy-Works, Shevierra Danmadiyah dari Lembaga Kajian dan Advokasi
Independensi Peradilan, Prof. Dr. Sinta Dewi Rosadi, S.H., M.H., Parasurama,
S.H. dari ELSAM, Eugenius Kau Suni, S.T.,M.T. sebagai perwakilan pengguna,
serta Fransiscus Xaverius taro selaku Cyber
Security Evangelist.
Para peneliti menyoroti berbagai
modus penyalahgunaan deepfake.
Stephen Aprius Sutresno, S.Kom., M.Kom., menjelaskan deepfake sebagai teknologi
AI yang memanipulasi gambar dan suara menggunakan data biometrik hingga
terlihat asli, yang berdampak pada "menurunnya kepercayaan publik."
Hal ini diperkuat oleh Feliks P.S. Surbakti, S.T., M.T., Ph.D., yang memaparkan
contoh penyalahgunaan untuk menyerang reputasi tokoh publik seperti Presiden
Jokowi dan Sri Mulyani, serta untuk kejahatan finansial melalui emergency call
scam. Kasus penipuan finansial menggunakan deepfake yang mencatut nama Presiden
Prabowo dan Menteri Sri Mulyani pada tahun 2025 juga diangkat sebagai contoh
nyata kerugian yang ditimbulkan.
Dari perspektif otoritas publik, Oki
Suryowahono dari Pusat Kebijakan Strategis (Pusaka) Komdigi menyoroti
pentingnya perlindungan data biometrik yang dipandang lebih krusial
dibandingkan data pribadi biasa karena sifatnya yang permanen. Ia menegaskan bahwa
semua platform, baik lokal maupun
asing, wajib tunduk pada regulasi Indonesia seperti UU ITE dan UU PDP.
Menurutnya, pemerintah sedang dalam proses menyusun kebijakan nasional dan
regulasi turunan UU PDP untuk mengantisipasi risiko AI dan deepfake.
Wahyudi Djafar dari Catalyst
Policy-Works menambahkan bahwa deepfake, sebagai hasil dari teknologi generatif
AI, sulit dideteksi karena kualitas visual dan audionya yang semakin menyerupai
kenyataan. Ia menyoroti berbagai bentuk penyalahgunaan mulai dari manipulasi
identitas, penipuan keuangan, hingga propaganda, yang berdampak pada kerugian
finansial, personal, psikologis, dan menurunnya kepercayaan publik. Dari sisi
regulasi, menurutnya, UU PDP dapat memitigasi risiko dengan memperkuat
perlindungan data pribadi agar tidak digunakan sebagai bahan pembuatan
deepfake.
Dari sisi regulasi, Prof. Dr. Sinta
Dewi Rosadi, S.H., M.H., menyatakan bahwa regulasi yang ada, termasuk UU PDP,
masih terbatas dalam menjawab tantangan deepfake.
Ia membandingkan dengan Uni Eropa yang telah menerapkan AI Act, yang "mewajibkan setiap konten hasil AI, termasuk deepfake, diberi label untuk
transparansi".
Parasurama, S.H. dari ELSAM
memberikan perspektif teoretis, menjelaskan bagaimana deepfake mengaburkan batas antara realitas dan rekayasa melalui
konsep simulacra dan simulasi. Ia juga menyoroti aspek hukum terkait "Hak
untuk Dihapus" (Right to be
Forgotten) yang bisa diterapkan jika pelaku dapat diidentifikasi sebagai
pengendali data. Selain itu, ia menyebutkan bahwa RUU Keamanan dan Ketahanan
Siber telah mencantumkan ketentuan terkait deepfake, serta menekankan
pentingnya berbagai jalur pemulihan hukum bagi korban, baik melalui jalur
perdata, administratif, maupun pidana.
Sementara itu, Shevierra Danmadiyah
dari Lembaga Kajian dan Advokasi Independensi Peradilan menyoroti dampak sosial
dan kerentanan gender. Ia menyatakan bahwa "perempuan lebih sering menjadi
target, dengan kasus laporan polisi sering diabaikan karena dianggap ‘itu bukan
dirinya’". Beliau menekankan bahwa perlindungan diri harus dilakukan
melalui kombinasi pengetahuan, kesadaran digital, serta penguatan regulasi.
Hasil dari diskusi ini akan menjadi landasan bagi tim peneliti untuk merumuskan rekomendasi kebijakan yang lebih adaptif dan komprehensif guna melindungi data biometrik masyarakat di tengah pesatnya perkembangan AI.