Gagas Epistemologis Status Subjek Hukum Kecerdasan Buatan

Perkembangan teknologi AI, tetap menuntut sebuah kerangka kerja yang pelan tetapi pasti memberikan bentuk tentang seberapa jauh lingkup subjek hukum dari kecerdasan buatan, karena dampaknya nyata dalam kehidupan sehari-hari.
Ilustrasi kecerdasan buatan. Foto pixabay.com
Ilustrasi kecerdasan buatan. Foto pixabay.com

“We already have artificial people with legal personality. They are called corporations.”

James Boyle (The Line, AI and the Future of Personhood)

Pakar hukum James Boyle dari Duke Law School mencoba menarik sebuah garis tegas antara yang mirip manusia (anthropomorphic) dan yang dimanusiakan (anthropomorphized).

Dalam The Line, AI and the Future of Personhood, Boyle mencoba mengajukan persoalan empati (dari bahasa Yunani en-pathos) sebagai alat uji disposisi manusia dalam kaitannya dengan kecerdasan buatan (AI).

Dari latar belakang bidang kajiannya yang banyak berkaitan dengan teknologi dan hak atas kekayaan intelektual, pemikiran Boyle cukup memengaruhi gerakan Creative Commons-sebuah wadah terbuka nirbayar yang menaungi pertukaran sumber seni dan pengetahuan.

Aktivisme Boyle dapat memberikan gambaran tentang konsep empati yang diusungnya.
Boyle memulai argumennya tentang sebuah uji robot pelacak dan penjinak ranjau. Di sebuah eksperimen militer di Yuma, Arizona. Di mana, fisikawan Mark Tilden mencoba mesin penjinak ranjaunya yang terdiri dari badan mekanis dan kaki-kaki detektornya. Prinsip yang dipergunakan oleh Tilden sangat sederhana, robot ini akan terus menginjak ranjau hingga tidak bisa bergerak sama sekali (malfungsi).

Selama eksperimen, kaki-kaki robot tersebut meledak satu persatu, hingga mesin ini tidak bisa berjalan lagi. Kolonel yang mengawasi eksperimen ini menghentikan pengujian saat hanya satu kaki yang tersisa. Karena bagi sang kolonel, percobaan ini tidak manusiawi (Boyle, 2024:33).

Kejadian nyata tersebut dipergunakan Boyle untuk menunjukkan bagaimana manusia memiliki kecenderungan antropomorfisasi (memanusiakan entitas di luar dirinya dalam ukuran manusia). Boyle mengingatkan, bahwa tahap ini berjalan beriringan dengan karakter negasi manusia yang disebutnya depersonalisasi, yang berarti menyangkal kemanusiaan dari orang yang dihadapinya-seperti yang terjadi di medan perang. Dalam sebuah kuliah di universitas tempatnya bekerja, Boyle (2024) mengatakan bahwa persoalan empati (empátheia/Einfühlung) dan depersonalisasi  adalah fondasi awal dari konstruksi status manusia sebagai subjek hukum.

Antara Subjek Hukum dan Platform Hukum

Visa A.J. Kurki memberikan catatan penting yang bertalian dengan argumen yang diberikan oleh Boyle (Kurki, 2019:183). Bahasa, menurut Boyle (2024), adalah argumen Aristoteles yang dipergunakan untuk memisahkan antara manusia sebagai makhluk rasional, dengan spesies lainnya. Namun Boyle kembali menegaskan bahwa Tes Turing sudah tidak relevan.

Uji Turing dilakukan untuk melihat sejauh mana mesin dapat terlibat dalam sebuah percakapan verbal tidak terstruktur (Oppy dan Dowe. 2021). Keberadaan AI generatif seperti ChatGPT membuat garis batas yang diberikan oleh Aristoteles tidak lagi dapat dipergunakan.

Untuk menggantikan bahasa, Kurki mengajukan dua indikator lainnya: keterpisahan (separateness) dan ketidakbergantungan (independency), yang masing-masing dikode “S” dan “I”. Pada intinya, Kurki mencoba mencari instrumen epistemologis untuk memeriksa sejauh mana sebuah agensi dapat menyandang status subjek hukum (legal personhood).

Untuk dapat disejajarkan dengan manusia yang memiliki hak dan kewajiban, sebuah agensi mesti memenuhi syarat terpisah total dan tidak bergantung. Ini artinya entitas tersebut mesti “controlled legal platform completely separate and irrevocable” (mengendalikan sepenuhnya platform legal dan tidak dapat dibatalkan dengan alasan apapun) serta “completely independent in exercise of competences” (bebas mempergunakan kompetensi yang dimilikinya).

Kurki beranggapan, posisi terbaik AI ada pada terpisah sebagian dan tidak bergantung; Kecerdasan buatan sekalipun bisa sepenuhnya independen tetapi tidak mungkin utuh mengendalikan platform legalnya (Kurki, 2019:182-184).

Pendekatan Kurki pada dasarnya adalah pendekatan komplementer yang sifatnya gradual: hanya manusia yang memenuhi syarat mutlak (ultimate values) dan menyandang legal personhood utuh dan terikat legal platform. Materi nonmanusia terikat pada perangkat legal (seperti gunung, benda, dan termasuk mesin).

Meskipun demikian, ada perbedaan mencolok antara pemikiran Kurki dan pemikiran Immanuel Kant, misalnya, adalah pada gradasinya. Teori yang ditawarkan Kurki dapat dianalogikan bersifat skalar dan tidak menyentuh titik nol. Artinya, Kurki menawarkan status subjek hukum paket-paket tahapan (bundle-oleh karena itu teori Kurki disebut juga The Bundle Theory of Legal Personhood-atau “Bundle Theory”). Dalam analogi ini, seandainya manusia di skala 10, maka AI ada di skala 9 atau 8, dan seterusnya. Perlakuan ini berbeda dengan pendekatan Kantian yang dapat digambarkan hanya dengan dua nilai: 0 dan 10.

Titik Temu Korporasi dan Kecerdasan Buatan

Berpijak dari pemikiran Kurki, kita dapat melihat bahwa ada keengganan untuk mengakui yang lain sebagai yang setara. Artinya secara hukum perkembangan ini berjalan cukup lambat, bertolak belakang dengan pesatnya percepatan teknologi kecerdasan buatan di perusahaan seperti Open AI, Google, Meta, dan berbagai raksasa teknologi lainnya.

Argumen Boyle dimulai dengan mencoba mencari titik ekstrapolatif dari perkembangan status subjek hukum dari korporasi. Menurut Boyle, setidaknya ada tiga titik penting dalam evolusi status tersebut. Pertama, bahwa perusahaan adalah entitas hukum yang riil; dengan kata lain sebagai institusi sosial yang berkesadaran sebagai dirinya sendiri. Kedua, korporasi sebagai entitas fiktif (persona ficta). Titik inilah yang menjadi fondasi dari berbagai argumen yang sekarang dipergunakan dalam praktik subjektifikasi status legal sebuah perusahaan. Ketiga, bahwa yang sebenarnya memegang kendali adalah pemilik atau orang di balik kinerja operasional korporasi tersebut, sehingga, tidak ada perbedaan antara A sebagai pemilik dan A sebagai pribadi. Pandangan yang ketiga ini sulit untuk diterapkan dalam kenyataan sehari-hari (Boyle, 2024:136-140).

Titik tumpu teoretis yang kedua, personalisasi fiktif dari korporasi, dijelaskan oleh Boyle sebagai berikut: “We know that the corporation is not a person, but we choose officially to pretend that it is, for certain purposes. It is up to society to decide what those purposes are and thus to design its social personhood accordingly” (Kita mengetahui bahwa korporasi bukanlah individu, tetapi secara resmi dianggap seolah-olah sebagai person untuk tujuan tertentu. Masyarakat-lah yang berhak menentukan apa saja tujuan tersebut dan, dengan demikian, merancang status subjek hukum yang paling tepat); Boyle, 2024:137.

Menurut Boyle, sekalipun sangat sulit untuk menyubjek-hukumkan korporasi, tetapi pada kenyataannya pelan tetapi pasti status tersebut menjadi mengerucut ke arah tertentu. Boyle menambahkan: “We have hundreds of years of experience with corporations and still have fundamental disagreements about them” (kita sudah bereksperimen dengan perusahaan selama ratusan tahun, dan masih banyak titik perdebatan yang kita kemukakan); Boyle, 2024:142.

Kerangka Kerja Praksis Persona Ficta

Gagasan tentang empati dan depersonalisasi yang diajukan Boyle menjadi sebuah titik mulai yang tidak bisa dikesampingkan. Dari diskusinya di Duke University (2024), Boyle memulai tulisannya di 2010, saat kecerdasan buatan masih jauh panggang dari api dalam hal aplikasi praktisnya.

Boyle menarik garis yang diberikan Kurki sedikit lebih jauh, meski tetap tidak memberikan keputusan final. Persoalan dari upaya untuk menyubjek-hukumkan kecerdasan buatan ada pada tatanan teoretik, seperti pertanyaan kunci yang diajukan Boyle tentang legal personhood dari korporasi: “Regardless of the theoretical disagreements, how has corporate personality worked in practice, in the actual court decisions about what person hood means and what rights corporations have” (terlepas dari perbedaan teoretis tentang bagaimana korporat sebagai person beroperasi dalam praktik, kita perlu melihat keputusan pengadilan tentang persona legalnya dan hak-hak apa saja yang dimiliki oleh korporasi). 

Dengan demikian, lepas dari olah dan baku argumen yang terjadi dalam filsafat hukum, perkembangan teknologi AI tetap menuntut sebuah kerangka kerja yang pelan tetapi pasti memberikan bentuk tentang seberapa jauh lingkup subjek hukum dari kecerdasan buatan, karena dampaknya nyata dalam kehidupan sehari-hari.

Dalam sebuah program edukasi populer, Glenn Cohen (2021), pemikir hukum dari Universitas Harvard menyatakan, bahwa pada dasarnya, kapasitas dan tuntutan sekunder adalah dua hal yang berbeda. Kapasitas kecerdasan buatan untuk menjalankan tugas sehari-hari melampaui kemampuan manusia adalah sebuah fondasi yang kuat untuk mulai menggagas penyubjek-hukuman AI, lepas dari perdebatan panjang kita tentang seberapa manusiawi karakternya.

Penulis: Muhammad Afif
Editor: Tim MariNews