Tim Peneliti Atma Jaya, Industri, dan Pakar Hukum Bahas Pentingnya Literasi Digital dan Kesadaran Pengguna untuk dalam Penggunaan Deepfake
Jakarta — Rabu, 17 September 2025,
tim peneliti Universitas Katolik Indonesia Atma Jaya di bawah pimpinan Dr. jur.
Sih Yuliana Wahyuningtyas kembali mengadakan Focus Group Discussion (FGD) kedua. Diskusi ini merupakan
kelanjutan dari rangkaian penelitian untuk membahas secara mendalam
“Penyalahgunaan Teknologi Deepfake dengan
Pemrosesan Data Biometrik oleh AI dan Dampak Kerugiannya”, dengan fokus pada
“Implikasi Penggunaan Teknologi Deepfake dan
Kesadaran Pengguna Terhadap Interaksi Sosial.”
Dr. Wahyuningtyas menjelaskan
pentingnya literasi digital dan kesadaran pengguna dalam menggunakan teknologi deepfake.
Hasil penelitian menunjukkan bahwa salah satu simpul – dan yang paling
lemah – dalam persoalan keamanan digital adalah pengguna. Oleh karena itu,
membangun kesadaran pengguna menjadi esensial untuk ekosistem digital yang
aman. Namun demikian, hal ini tidak menafikan peran pemangku kepentingan
lainnya, dan bahkan justru ini menjadi tanggung jawab bersama yang harus
dipikul oleh semua pemangku kepentingan.
Diskusi ini menghadirkan para
narasumber ahli, yaitu Machdi Fauzi (Vice
President, Head of Ecosystem
Regulatory Affairs P.T. Indosat Ooredoo Hutchison), Rifqi Rachman (The
Safer Internet Lab/CSIS), Dr. Kristianto P.H., S.H., M.H. (Pakar Hukum Siber
Unika Atma Jaya), Alia Yofira Karunian (PurpleCode Collective), Fransiscus
Xaverius taro selaku Cyber Security
Evangelist, dan Eugenius Kau Suni, S.T., M.T. (Pengguna).
Eugenius Kau Suni, S.T., M.T.
berbicara dari perspektif pengguna, menyoroti rendahnya kesadaran masyarakat
akan bahaya deepfake yang sering
dianggap sebatas candaan. Ia menjelaskan bahwa penindakan hukum seringkali
terhambat karena banyak pelaku hanya dianggap “iseng”, yang pada akhirnya
mengancam reputasi dan kepercayaan. Selain itu, ia menekankan posisi lemah
masyarakat yang harus menyetujui penggunaan data biometrik untuk dapat
menikmati layanan digital, sehingga harus menaruh kepercayaan penuh pada klaim
keamanan data dari penyedia layanan.
Dari sisi industri, Machdi Fauzi
selaku Vice President, Head of Ecosystem
Regulatory Affairs di P.T. Indosat Ooredoo Hutchison (Tbk), memaparkan
langkah proaktif dalam melindungi pelanggan. Menanggapi posisi Indonesia di
peringkat kedua global untuk kasus spam, Indosat telah meluncurkan sistem
proteksi berbasis AI dan machine learning
pada 7 Agustus 2025. "Hingga 31 Agustus 2025, berhasil
mengidentifikasi 61 juta SMS/telfon spam/scam,"
ungkap Machdi Fauzi. Sistem ini memberikan peringatan dini (alerting) kepada pelanggan dan bekerja
dengan menganalisis pola nomor, bukan dengan membaca atau menyimpan isi pesan,
untuk selaras dengan regulasi UU PDP.
Rifqi Rachman dari The Safer
Internet Lab (SAIL)/Centre for Strategic and International Studies (CSIS)
menyoroti kompleksitas antara inovasi digital dan regulasi. Ia menjelaskan
bahwa online scam yang bersifat
transnasional tidak hanya menimbulkan kerugian finansial tetapi juga trust
deficit atau hilangnya kepercayaan publik. Rifqi juga menekankan bahwa
demokratisasi akses terhadap teknologi AI generatif menjadi tantangan
tersendiri, sehingga diperlukan kolaborasi multi-pihak yang implementatif untuk
membangun ekosistem digital yang aman.
Dr. Kristianto P.H., S.H., M.H.,
Pakar Hukum Siber dari Unika Atma Jaya, mengupas celah regulasi yang ada.
Menurutnya, UU PDP belum mengatur secara spesifik tentang data biometrik, dan
rincian teknisnya masih menunggu Peraturan Pemerintah (PP) atau Peraturan
Menteri (Permen). Ia menegaskan urgensi pembentukan lembaga pengawas khusus.
"Implementasi UU PDP butuh lembaga pengawas khusus. Tanpa lembaga &
kewenangan yang tegas, regulasi tidak akan optimal. Kuncinya: lembaga pengawas
+ kewenangan yang kuat," ujarnya.
Diskusi juga menyimpulkan bahwa teknologi deepfake memiliki kaitan erat dengan Hak Asasi Manusia (HAM), karena eksploitasi data biometrik tidak hanya melanggar hak privasi, tetapi juga berdampak pada hak-hak fundamental lainnya. Alia Yofira Karunian dari PurpleCode Collective menambahkan tentang fenomena “Liar’s Dividend”, di mana pejabat publik dapat menghindari akuntabilitas dengan menyebut konten asli sebagai deepfake. Temuan dari FGD ini akan menjadi dasar bagi tim peneliti untuk merumuskan rekomendasi kebijakan yang lebih komprehensif, dengan mendorong pendekatan multi-pihak yang melibatkan korporasi, masyarakat sipil, dan akademisi.