ASK
ME

REGISTER
NOW

Pelindungan Data Pribadi FGD 2


Tim Peneliti Atma Jaya, Industri, dan Pakar Hukum Bahas Pentingnya Literasi Digital dan Kesadaran Pengguna untuk dalam Penggunaan Deepfake




Jakarta — Rabu, 17 September 2025, tim peneliti Universitas Katolik Indonesia Atma Jaya di bawah pimpinan Dr. jur. Sih Yuliana Wahyuningtyas kembali mengadakan Focus Group Discussion (FGD) kedua. Diskusi ini merupakan kelanjutan dari rangkaian penelitian untuk membahas secara mendalam “Penyalahgunaan Teknologi Deepfake dengan Pemrosesan Data Biometrik oleh AI dan Dampak Kerugiannya”, dengan fokus pada “Implikasi Penggunaan Teknologi Deepfake dan Kesadaran Pengguna Terhadap Interaksi Sosial.”

Dr. Wahyuningtyas menjelaskan pentingnya literasi digital dan kesadaran pengguna dalam menggunakan teknologi deepfake. Hasil penelitian menunjukkan bahwa salah satu simpul – dan yang paling lemah – dalam persoalan keamanan digital adalah pengguna. Oleh karena itu, membangun kesadaran pengguna menjadi esensial untuk ekosistem digital yang aman. Namun demikian, hal ini tidak menafikan peran pemangku kepentingan lainnya, dan bahkan justru ini menjadi tanggung jawab bersama yang harus dipikul oleh semua pemangku kepentingan.

Diskusi ini menghadirkan para narasumber ahli, yaitu Machdi Fauzi (Vice President, Head of Ecosystem Regulatory Affairs P.T. Indosat Ooredoo Hutchison), Rifqi Rachman (The Safer Internet Lab/CSIS), Dr. Kristianto P.H., S.H., M.H. (Pakar Hukum Siber Unika Atma Jaya), Alia Yofira Karunian (PurpleCode Collective), Fransiscus Xaverius taro selaku Cyber Security Evangelist, dan Eugenius Kau Suni, S.T., M.T. (Pengguna).

Eugenius Kau Suni, S.T., M.T. berbicara dari perspektif pengguna, menyoroti rendahnya kesadaran masyarakat akan bahaya deepfake yang sering dianggap sebatas candaan. Ia menjelaskan bahwa penindakan hukum seringkali terhambat karena banyak pelaku hanya dianggap “iseng”, yang pada akhirnya mengancam reputasi dan kepercayaan. Selain itu, ia menekankan posisi lemah masyarakat yang harus menyetujui penggunaan data biometrik untuk dapat menikmati layanan digital, sehingga harus menaruh kepercayaan penuh pada klaim keamanan data dari penyedia layanan.

Dari sisi industri, Machdi Fauzi selaku Vice President, Head of Ecosystem Regulatory Affairs di P.T. Indosat Ooredoo Hutchison (Tbk), memaparkan langkah proaktif dalam melindungi pelanggan. Menanggapi posisi Indonesia di peringkat kedua global untuk kasus spam, Indosat telah meluncurkan sistem proteksi berbasis AI dan machine learning pada 7 Agustus 2025. "Hingga 31 Agustus 2025, berhasil mengidentifikasi 61 juta SMS/telfon spam/scam," ungkap Machdi Fauzi. Sistem ini memberikan peringatan dini (alerting) kepada pelanggan dan bekerja dengan menganalisis pola nomor, bukan dengan membaca atau menyimpan isi pesan, untuk selaras dengan regulasi UU PDP.

Rifqi Rachman dari The Safer Internet Lab (SAIL)/Centre for Strategic and International Studies (CSIS) menyoroti kompleksitas antara inovasi digital dan regulasi. Ia menjelaskan bahwa online scam yang bersifat transnasional tidak hanya menimbulkan kerugian finansial tetapi juga trust deficit atau hilangnya kepercayaan publik. Rifqi juga menekankan bahwa demokratisasi akses terhadap teknologi AI generatif menjadi tantangan tersendiri, sehingga diperlukan kolaborasi multi-pihak yang implementatif untuk membangun ekosistem digital yang aman.

Dr. Kristianto P.H., S.H., M.H., Pakar Hukum Siber dari Unika Atma Jaya, mengupas celah regulasi yang ada. Menurutnya, UU PDP belum mengatur secara spesifik tentang data biometrik, dan rincian teknisnya masih menunggu Peraturan Pemerintah (PP) atau Peraturan Menteri (Permen). Ia menegaskan urgensi pembentukan lembaga pengawas khusus. "Implementasi UU PDP butuh lembaga pengawas khusus. Tanpa lembaga & kewenangan yang tegas, regulasi tidak akan optimal. Kuncinya: lembaga pengawas + kewenangan yang kuat," ujarnya.

Diskusi juga menyimpulkan bahwa teknologi deepfake memiliki kaitan erat dengan Hak Asasi Manusia (HAM), karena eksploitasi data biometrik tidak hanya melanggar hak privasi, tetapi juga berdampak pada hak-hak fundamental lainnya. Alia Yofira Karunian dari PurpleCode Collective menambahkan tentang fenomena “Liar’s Dividend”, di mana pejabat publik dapat menghindari akuntabilitas dengan menyebut konten asli sebagai deepfake. Temuan dari FGD ini akan menjadi dasar bagi tim peneliti untuk merumuskan rekomendasi kebijakan yang lebih komprehensif, dengan mendorong pendekatan multi-pihak yang melibatkan korporasi, masyarakat sipil, dan akademisi.