Debat Ontologis Status Subjek Hukum Kecerdasan Buatan

Payung hukum yang terlambat untuk perkembangan nonlinear agensi kecerdasan buatan sangat berisiko.
Ilustrasi-penggunaan AI dalam berbagai aspek kehidupan. Foto: Pinterest.com/DMbyhimanshu
Ilustrasi-penggunaan AI dalam berbagai aspek kehidupan. Foto: Pinterest.com/DMbyhimanshu

“[A] legal platform can attach to human beings and nonhuman animals as well as to certain collectivities and artificial intelligences (AIs)”-Visa A.J. Kurki (A Theory of Legal Personhood).

Status subjek hukum (legal personhood) kecerdasan buatan (AI) menghadapi tantangan serius, karena tidak pernah dianggap sebagai sebuah isu penting. Padahal, intrusi dan disrupsi kecerdasan buatan dalam dunia hidup manusia (Lebenswelt) saat ini, tidak dapat ditunda atau dikesampingkan.

Mungkin itu sebabnya, pemikir Finlandia di bidang filsafat hukum yang bernama, Visa A.J. Kurki, menegasi pandangan yang menurutnya keliru, yang biasa disebut dengan “the orthodox view of legal personhood.” Dalam A Theory of Legal Personhood, Kurki mencoba menjelaskan, bahwa teori dan metateori hukum yang berbicara tentang kejelasan status AI kurang relevan dengan perkembangan teknologi dan peradaban di abad ini.

Kurki menjelaskan pandangan ortodoks yang masih cukup kokoh mendasari argumen subjek hukum saat ini, yang salah satunya berasal dari Immanuel Kant (Kurki, 2019:40-42). Kurki mencatat bahwa bagi Kant, hanya manusia (persons) yang dapat menjadi subjek hukum karena rasionalitasnya. Benda (things) tidak memiliki nilai karena bukan makhluk rasional.

Kant seolah mempertegas pernyataan Gottfried Wilhelm Leibniz bahwa manusia adalah “the subject, object, and cause of a right”-subjek, objek, dan sebab dari timbulnya hak (Kurki, 2019:37).

Namun, bila diteliti lebih lanjut, justru menurut Kurki, Leibnitz-lah yang pertama kali membangkitkan kembali gagasan tentang subjek hukum nonmanusia. Leibnitz tidak menafikan kemungkinan agensi nonmanusia untuk menjadi bagian dari subjek hukum. Leibnitz (Kurki, 2019:38.) juga berargumen bahwa baik alam (naturalia) dan benda (artificialia) berpeluang memiliki hak (iura).

Pemikiran Leibnitz tersebut, sejalan dengan pandangan persona ficta dari Abad Pertengahan (Kurki, 2019:34). Persona ficta adalah, sebuah konsep tentang organisasi sebagai subjek hukum yang ditujukan untuk menjamin hak-hak kaum biarawan dan biarawati yang telah mendedikasikan seluruh hidupnya untuk organisasi keagamaannya. Orang-orang ini telah mengalami kematian monastik–dan demikian pula dengan hak-haknya individualnya. Konsep ini kemudian diperluas di bidang politik dan ekonomi dalam bentuk negara dan korporasi.

Pesimisme di Era Pra-AI Generatif

Mark Crimmins (2019), pemikir dari Stanford mengatakan dalam sebuah panel diskusi, bahwa lepas dari peluang memberikan hak pada nonmanusia, ada keterbatasan dalam penggunaan term tersebut.

Bagi Crimmins, berbagai konsep seperti rasionalitas (dan kesadaran) cenderung manusiasentris: hanya dibuat oleh dan dipergunakan untuk manusia. Fungsi parokial ini pada akhirnya akan menyebabkan bias yang tidak dapat dihindari.

Masih dari Standford, di meja panelis yang sama Jerry Kaplan (2019), menjelaskan eksklusivitas konsep rasionalitas manusia dengan mengilustrasikan, serigala adalah sebuah realitas faktual, tetapi serigala jadi-jadian (werewolf) adalah realitas fiktif–sebuah konstruksi imajiner. Menerapkan sifat rasional pada nonmanusia, yang menjadi fondasi dari status subjek hukum, tidak memiliki dasar: sama irasionalnya dengan menganggap penting diskusi tentang serigala jadi-jadian.

Kaplan hendak menegaskan bahwa, semua pembicaraan tentang status subjek hukum dari kecerdasan buatan “terjangkit” bias strawman fallacy (orang-orangan sawah), saat yang disasar untuk diemansipasi, statusnya tidak memiliki cukup alasan untuk mengemban hak legal ini.

Pemikir filsafat hukum kontemporer lainnya dari Universitas Colorado, Harry Surden (2018) dalam sebuah kuliah umum mengatakan, bahwa pada dasarnya AI, yang terdiri dari kecerdasan buatan berbasis aturan dan logika (logic and rule-based) dan kecerdasan buatan berbasis machine learning (mesin yang belajar parameter datanya secara mandiri), adalah alat bantu manusia yang sangat kompleks, dan di ranahnya AI melampaui kemampuan manusia.

Namun seperti Crimmin, Harry Surden menyebut, kelebihan AI sifatnya terbatas pada konteksnya sendiri. Surden tidak menganulir berbagai kemungkinan perkembangan AI di masa depan, namun setidaknya optimisme tentang kapasitas rasional kecerdasan buatan perlu dipertimbangkan lebih lanjut.

Jika kita mundur selangkah lagi ke 2017, Dana Remus dari UNC (University of North Carolina) School of Law dalam kuliah umumnya mengatakan, pada dasarnya AI adalah tidak lebih dari alat, yang sangat berguna untuk membantu proses hukum. Pernyataan Remus ini, sejalan dengan apa yang dikatakan oleh Surden.

Singkatnya, AI adalah sejenis alat bantu yang akan mengubah wajah dunia hukum, tetapi tidak akan mengubah apapun terkait dengan status subjek hukum sang kecerdasan buatan. AI akan mengubah wajah dunia hukum hanya secara instrumental. Hal itu, sejalan dengan penegasan Kant (1999) dalam Metaphysical Elements of Justice tentang manusia sebagai satu-satunya pemilik hak dan kewajiban (Kurki, 2019:41).

Perkembangan Eksponensial Kecerdasan Buatan Generatif

Belakangan, muncul teknologi AI generatif (generative AI). Soal hal itu, Adam Zewe (2023) dari MIT (Massachusetts Institute of Technology) News menjelaskan bahwa “a generative AI system is one that learns to generate more objects that look like the data it was trained on” (AI generatif adalah kecerdasan buatan yang bisa menghasilkan lebih banyak objek daripada data yang dilatihkan kepadanya).

Bahkan, pemikir di bidang manajemen dan teknologi dari MIT, Thomas W. Malone, seperti yang dikutip Sara Brown (2021), mengatakan: “In just the last five or 10 years, machine learning has become a critical way, arguably the most important way” (sekitar 5 hingga 10 tahun yang akan datang, peran mesin yang belajar secara mandiri akan menjadi sangat kritis, dan bahkan sangat penting).

Dengan kata lain, hanya sekitar empat tahun setelah posisi skeptik dari panel-panel diskusi seperti Crimmin dan Kaplan, perubahan teknologi komputasi bergerak sangat cepat.

Direktur Teknologi (Chief Scientist) Meta (perusahaan yang membawahi Facebook, WhatsApp, dan Instagram), Yann LeCun, mengatakan, dalam forum internasional AI Action Summit (6-7 Februari 2025) di Paris, Prancis, bahwa manusia membutuhkan mesin yang sama cerdasnya dengan dirinya (human level AI) sebagai asisten (mitra) yang setara.

Itu berarti, perusahaan teknologi seperti Meta akan mengerahkan potensinya untuk mencapai kecerdasan buatan yang setara dengan manusia. Skeptisisme para pakar seperti Surden dan Remus, dimentahkan oleh perkembangan pesat teknologi dan kurang dari satu dekade.

Laporan resmi dari Open AI di jurnal terbuka arXiv (2024) menegaskan, bahwa GPT-4, sejenis AI generatif, “was evaluated on a variety of exams originally designed for humans. In these evaluations it performs quite well and often outscores the vast majority of human test takers” (dievaluasi berdasarkan berbagai jenis ujian yang awalnya didesain untuk manusia. Dalam evaluasi ini, GPT-4 bekerja dengan baik dan bahkan melampaui mayoritas hasil yang dicapai manusia).

Perkembangan eksponensial dari AI menunjukkan bahwa banyak ahli hukum mengambil posisi miopik yang gagal mengantisipasi perkembangan teknologi; alih-alih, disposisi defensif yang ditunjukkan adalah sebuah keputusan yang perlu diperdebatkan.

Rogue AI dan Siklus Tertutup Kecerdasan Buatan

Siklus (loop) menjadi sangat penting sebagai isu kajian hukum dan AI karena perkembangan terakhir dari IBM-raksasa teknologi-di 2025 ini menunjukkan, bahwa mesin sudah tidak lagi memerlukan manusia dalam siklus belajar parametriknya (“human out of the loop”).

Dengan kata lain, manusia tidak lagi memegang peranan penting dalam perkembangan AI. IBM juga melaporkan bahwa perkembangan selanjutnya bukanlah AI generatif, tetapi AI agentik mandiri yang memiliki elemen korporeal dalam bentuk materi sintetik.

Masalahnya, AI berarti memiliki kemampuan untuk melakukan pencederaan (harm), yang memiliki konsekuensi hukum. Salah satu bentuknya adalah RogueAI. AI yang dapat melakukan tindakan yang melawan hukum. RogueAI dapat dibuat secara disengaja atau tidak disengaja, karena manusia tidak lagi dapat mengendalikan proses belajarnya. Keberadaan RogueAI bukan lagi di fase teoretik, tetapi sudah dibuktikan lewat eksperimen (Buscemi dan Proverbio, 2024).

Payung hukum yang terlambat untuk perkembangan nonlinear agensi kecerdasan buatan sangat berisiko. Seperti berbagai kasus pencemaran lingkungan tersamar yang terlambat ditangani karena celah legalnya (misalnya limbah mikroplastik), perkembangan AI bukan sebuah kondisi coba-coba.

Argumentasi ontologis ini, dapat menjadi pertimbangan tentang urgensi dari penetapan status subjek hukum dari AI. Kurki mengajukan argumen bahwa, status subjek hukum bisa dilakukan secara gradual, dan tidak perlu dimulai dengan menarik penggaris identik dengan hak dan kewajiban manusia (Kurki, 2019).

Argumen-argumen yang mengecualikan kemungkinan risiko gerak eksplosif kecerdasan buatan berasal dari asumsi yang sangat pekat dengan nuansa, namun tidak disertai dengan data yang mencukupi. Inilah kondisi riil yang perlu kita hadapi dan sikapi.

Penulis: Muhammad Afif
Editor: Tim MariNews