Kejahatan Siber Deepfake di Era Kecerdasan Buatan

Bagi pengkaji hukum dan etika Adrianne de Ruiter (2021), deepfake adalah sebentuk tindakan yang mencerabut kendali seseorang atas dirinya.
Ilustrasi kejahatan siber. Foto pixabay.com
Ilustrasi kejahatan siber. Foto pixabay.com

“The simulacrum is never that which conceals the truth – it is the truth which conceals that there is none. The simulacrum is true.”

Jean Baudrillard (Simulacra and Simulation)

Hukum dan teknologi sering tidak berjalan beriringan. Teknologi berada di depan, sementara berbagai instrumen legal kewalahan mengikuti derap gegasnya, tidak terkecuali deepfake-citra fiktif yang dibuat oleh kecerdasan buatan (artificial intelligence-AI) yang merupakan ekses dari lahirnya era kecerdasan buatan.

Deepfake adalah praktik mengganti imaji atau suara dari sumber resmi menjadi rekaan. AI generatif seperti ChatGPT membuka jalan bagi munculnya berbagai aplikasi kreasi imaji yang hanya berbasis data latihan (training data), tanpa mengandaikan benda konkretnya.

Deepfake adalah salah satu dampak negatif dari kecerdasan generatif yang masih sangat sulit untuk dikendalikan, karena perangkat legalnya masih belum tersedia. Upaya yurisprudensi atau penafsiran hakim masih menjadi satu-satunya jalan untuk mengatasi kebuntuan juridis semacam ini.

Dalam alegori yang disajikan Plato (The Allegory of the Cave), manusia diandaikan berada di dalam gua dalam keadaan terikat dan terantai. Satu-satunya imaji yang muncul di hadapan matanya adalah bayangan dari realitas yang ada di luar gua (Plato, 2008: 514a – 517a). Hanya manusia yang punya keberanian untuk melepaskan diri dari belenggu dan bergerak ke luar gua yang dapat mengetahui kebenaran sejati.

Dari alegori di atas, kita dapat mengilustrasikan deepfake sebagai bayangan yang paling mirip dengan realitas tanpa ada benda aslinya. Pemikiran Plato ini kemudian dikembangkan lebih lanjut oleh Jean Baudrillard sebagai simulasi dan simulakra.

Bagi Baudrillard, “Simulation is no longer that of a territory, a referential being or a substance. It is the generation by models of a real without origin or reality: a hyperreal” (Simulasi bukan lagi persoalan acuan atau substansi. Simulasi adalah konstruksi sebuah bangun imajerial tanpa asal usul atau realitas: sebuah konstruksi hiper-real) (Baudrillard, 1981).

Dampak deepfake tidak hanya mengganggu pemahaman tentang realitas-dalam arti membuat kita tidak lagi bisa membedakan yang sejati dan yang semu-tetapi hakikat kemanusiaan kita pun dicederai. Bagi pengkaji hukum dan etika Adrianne de Ruiter (2021), deepfake adalah sebentuk tindakan yang mencerabut kendali seseorang atas dirinya.

Dalam bahasa filsafat Modern, deepfake menegasi aspek konsensual dari tindakan apapun, termasuk diri manusia yang otonom. Reproduksi audio-visual nonkonsensual ini (disebut dengan istilah “never-was” dalam istilah Baudrillard) tidak memiliki jangkar referen ke realitas manapun. Di medan hiperrealitas ini, publik melahap apapun yang seolah otentik meskipun pada hakikatnya semu dan konsekuensinya, termasuk konsekuensi legal, sifatnya riil.

Dalam analogi sehari-hari, deepfake dapat dibayangkan seperti gula-gula digital yang tidak mungkin dikonsumsi dan tidak mengandung gula dalam bentuk apapun, tetapi secara nyata menyebabkan diabetes. 

Manusia, Mesin, dan Celah Transnasional

Pengkaji hukum dan ruang-ruang inovasi baru, Daniela Gandorfer (2022) mengingatkan, berbagai jenis tata kelola saat ini sama sekali tidak sejalan dengan kerangka hukum konvensional.

Berada di koridor yang sama dengan blockchain (misalnya, dalam mata uang kripto) dan AI, mengatur deepfake bukan pekerjaan mudah untuk sebuah konstruksi hukum yang berpusat pada negara. Bagi Gandofer, celah-celah transnasional ini tidak bisa diabaikan begitu saja atau dianggap sepi.

Normativitas yang muncul dari situasi yang nonkonvensional bersifat baru, bahkan asing. Hukum akan memasuki fase desentralisasi menjadi sistem jejaring (network system).

Berbagai ragam situasi dan kondisi baru (frontier spaces) akan membuat hukum dipenuhi dengan kenormalan baru. Struktur kekuasaan formal sekarang mulai larut dan mencairkan sistem kepemilikan, jurisdiksi politik, kontrak sosial, dan ruang-ruang pertemuan biner.

Persoalan terbesar dari deepfake adalah tentang kendali. Seiring dengan perkembangan komputasi kuantum, deepfake akan menjadi sangat sulit-atau bahkan mustahil untuk dideteksi, apalagi dikendalikan.

Materi akan menjadi semakin otonom-sejalan dengan pertanyaan mendesak tentang otonomi kecerdasan buatan. Bahasa tidak lagi berupa metafora, bagi Gandorfer, tetapi “materifora” (matterphore-benda-kias).

Lebih lanjut Gandorfer mencatat: “Expression is matterphorical, that is, not a specific form of signification, but rather a material-discursive practice of bringing matter and meaning into being-partially determined and never once and for all” (Ekspresi bersifat matterphorical, yaitu bukan dalam bentuk pemaknaan yang spesifik, melainkan sejenis praktik material-diskursif yang menghadirkan materi dan makna secara bersamaan; sebagian ditentukan, dan tidak pernah bersifat final atau permanen (Gandorfer, 2021:169).

Jauh sebelum deepfake, kejahatan siber bisa bekerja dengan leluasa karena kegagalan kita untuk beradaptasi dengan medan interaksi sosial dalam jaringan. Organisasi Persatuan Bangsa-Bangsa yang berhubungan dengan kejahatan transnasional (United Nations Office on Drugs and Crime-UNODC).

Dalam laporan tahunannya (2024), sindikat kriminal Asia Tenggara bisa menggasak sekitar 40 miliar dolar per tahun dari operasinya. Pakar keamanan siber, Caleb Barlow (2017), bahkan menyatakan secara global, jumlah kerugian akibat kejahatan jenis ini mencapai 445 miliar dolar, yang jauh lebih besar dari pendapat berbagai negara sekelas Irlandia, Finlandia, Denmark, atau Portugal.

Barlow mencatat, organisasi kejahatan semacam ini bekerja dengan mempergunakan deepfake untuk memanipulasi percakapan telepon. Sekitar 90% pembobolan terjadi karena faktor kesalahan manusia (human error); firewall (mekanisme pengamanan internet) manapun tidak akan ada gunanya bila pengguna telah melakukan kesalahan (Hoffmann, 2021).

Kompetisi Pincang Industri Teknologi

Investasi global untuk AI generatif di 2023, naik menjadi 22,4 miliar dolar (Samborska, 2024). Angka ini sekitar 25 kali lipat dari data 2019. Fakta ini, membuat upaya untuk mengatasi deepfake menjadi semakin sulit.

Berbagai model AI berbasis Generative Adversarial Network (GAN) yang dikhususkan untuk gambar dan ilustrasi hiperreal, akan mengalami kemajuan pesat. Sekali lagi, dalam “balapan” antara hukum dan teknologi, pesatnya perkembangan teknologis membuat hukum tertatih-tatih untuk mengejar. Industri tidak akan melambat, apalagi berhenti.

Seniman visual adalah contoh pihak yang kalah dalam pertarungan untuk hak cipta saat berhadapan dengan AI (CNA Insider, 12 April 2025). Teknologi tidak akan pernah melambat. Tugas iuris sekarang adalah untuk berlari lebih cepat.

Uni Eropa adalah salah satu wilayah yang mengambil inisiatif untuk transparansi dan akuntabilitas dari teknologi AI. Undang-undang seperti Artificial Intelligence Act mewajibkan setiap pengguna AI untuk mengungkap bahwa hasil kerjanya dilakukan dengan AI dan mendeskripsikan teknik penggunaannya.

Di dalam prosedur ini, deepfake menjadi sesuatu yang dikategorikan sebagai risiko terbatas (limited risk). Dari 17 Februari 2024, Digital Service Act (DSA) mulai diterapkan untuk menjamin keamanan digital, tidak terkecuali deepfake. DSA mewajibkan platform-platform digital untuk membuka algoritmanya.

Negara tetangga Indonesia, Singapura, memiliki perangkat hukum Protection from Online Falsehoods and Manipulation Act (POFMA) pada 2019, untuk melindungi pengguna internet. Indonesia secara khusus belum memiliki payung hukum untuk berhadapan dengan deepfake atau derivat dari fenomena semacam ini.

Persoalan terbesar dari langkah konstruksi payung hukum adalah kesejajaran (alignment) dengan realitas di dunia maya. Dengan kata lain, hukum selalu selangkah lebih lambat daripada kejadian yang ada di lapangan.

Seperti yang dikatakan Gandorfer, hukum bekerja dengan asumsi dasar manusia-sentris (semua berpusat pada manusia), sementara sejak era AI realitas manusia adalah materi-sentris (semua berpusat pada benda-matter).

Ketidaksejalanan ini, masih menjadi persoalan besar hingga sekarang. Dibutuhkan kerangka normatif yang mampu bergerak seiring dengan dinamika material dan teknologi, bukan hanya meregulasi setelah fakta terjadi. Hukum tidak bisa lagi hanya berfungsi sebagai instrumen reaktif, tetapi harus dirancang sebagai sistem yang ikut tumbuh bersama inovasi.

Kita dapat menyimpulkan bahwa keberadaan deepfake, menuntut kita untuk memikirkan ulang bagaimana hukum, teknologi, dan kemanusiaan berinteraksi dalam lanskap yang terus berubah.

Bukan hanya sebagai isu teknis, deepfake mengungkap celah epistemik, etis, dan yuridis yang menuntut keberanian imajinatif dari para pembuat kebijakan dan akademisi. Jalan ke depan bukanlah mempercepat hukum sekadar untuk mengejar teknologi, tetapi merumuskan ulang kerangka hukum yang mampu berdialog dengan dunia yang tidak lagi manusia-sentris.

Dalam dunia di mana materi dalam wujud algoritma kecerdasan buatan dapat berbicara, bertindak, bahkan membentuk realitas, hukum pun ditantang untuk menjadi lebih adaptif, partisipatif, dan visioner. Hukum perlu untuk melampaui teks menuju praksis yang hidup.

Penulis: Muhammad Afif
Editor: Tim MariNews