Kecerdasan buatan (Artificial Intelligence/ AI) tidak lagi hadir sebagai wacana futuristik. Ia telah menjadi bagian dari kehidupan sehari-hari masyarakat modern. Mulai dari sistem rekomendasi di media sosial, verifikasi wajah di bandara, seleksi penerima bantuan sosial, hingga perangkat lunak pendukung keputusan di sektor kesehatan dan hukum. AI menjanjikan efisiensi, kecepatan, dan objektivitas. Namun, di balik janji tersebut, tersembunyi satu persoalan mendasar yang kini semakin sering diperdebatkan: siapa yang bertanggung jawab ketika AI melakukan kesalahan?
Pertanyaan ini menjadi relevan ketika keputusan yang dihasilkan AI berdampak langsung pada hak dan kepentingan manusia. Salah identifikasi wajah dapat berujung pada kriminalisasi orang yang tidak bersalah. Algoritma penilaian kredit dapat menutup akses pembiayaan secara diskriminatif. Sistem otomatisasi dapat menghasilkan rekomendasi medis atau hukum yang keliru. Dalam kondisi seperti itu, hukum dituntut hadir untuk memberikan perlindungan dan kepastian.
AI dan Kekosongan Subjek Hukum
Dalam kerangka hukum klasik, pertanggungjawaban selalu dilekatkan pada subjek hukum, yaitu manusia dan badan hukum. AI, secerdas apa pun, bukanlah subjek hukum. Ia tidak memiliki kehendak, kesadaran, maupun niat jahat (mens rea). Namun, AI dapat “bertindak” dan menghasilkan keputusan yang konsekuensinya nyata. Masalah menjadi semakin kompleks ketika AI modern berbasis machine learning. Sistem ini tidak hanya menjalankan perintah, tetapi belajar dari data dan mengembangkan pola keputusan sendiri. Bahkan pengembangnya sering kali tidak sepenuhnya memahami bagaimana sebuah output dihasilkan fenomena yang dikenal sebagai black box problem. Kondisi ini menyulitkan pembuktian kesalahan, baik dalam hukum perdata maupun pidana.
Menempatkan Tanggung Jawab: Manusia di Balik Mesin
Karena AI tidak dapat dimintai pertanggungjawaban secara langsung, maka hukum harus menoleh kepada manusia dan institusi di baliknya. Dalam literatur hukum, setidaknya terdapat tiga pihak yang berpotensi dimintai tanggung jawab.
Pertama, pengembang atau perancang sistem AI. Jika kesalahan AI bersumber dari cacat desain, bias data, atau kelalaian dalam proses pengujian, maka pengembang dapat dimintai pertanggungjawaban berdasarkan prinsip product liability. AI, dalam konteks ini, diperlakukan sebagai produk teknologi yang harus memenuhi standar keamanan dan kelayakan.
Kedua, pemilik atau penyedia sistem AI, seperti perusahaan teknologi atau instansi pemerintah. Pihak ini memiliki kewajiban untuk memastikan bahwa AI yang digunakan tidak melanggar hukum, tidak diskriminatif, serta memiliki mekanisme pengawasan manusia (human oversight). Kelalaian dalam pengawasan dapat membuka ruang tuntutan perdata, bahkan sanksi administratif.
Ketiga, operator atau pengguna sistem AI. Jika AI digunakan di luar peruntukannya, tanpa prosedur pengamanan yang memadai, atau secara sengaja untuk tujuan melawan hukum, maka tanggung jawab dapat dibebankan kepada pengguna tersebut.
Tantangan Pertanggungjawaban Pidana
Dalam hukum pidana, tantangannya lebih tajam. Prinsip dasar hukum pidana mensyaratkan adanya kesalahan yang bersifat personal. AI tidak dapat dipidana karena tidak memiliki niat atau kesadaran. Namun, bukan berarti tidak ada pertanggungjawaban pidana sama sekali. Pendekatan yang berkembang adalah pertanggungjawaban pidana tidak langsung, yaitu dengan menjerat manusia yang secara sengaja merancang AI untuk tujuan melawan hukum, atau dengan lalai membiarkan sistem AI berisiko tinggi beroperasi tanpa pengendalian yang memadai. Pendekatan ini menegaskan bahwa AI adalah alat, dan tanggung jawab pidana tetap melekat pada manusia sebagai pengendali dan pengambil keputusan akhir.
Posisi Hukum Indonesia Saat Ini
Hingga saat ini, Indonesia belum memiliki regulasi khusus yang secara komprehensif mengatur AI. Namun, beberapa instrumen hukum yang ada dapat menjadi dasar awal. Undang-undang (UU) Nomor 1 Tahun 2024 tentang Perubahan Kedua atas Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik mengatur perbuatan di ruang digital, meskipun belum dirancang khusus untuk menghadapi kompleksitas AI. Sementara itu, Undang-Undang Nomor 27 Tahun 2022 tentang Perlindungan Data Pribadi (UU PDP) menjadi sangat relevan karena hampir seluruh sistem AI bergantung pada pengolahan data pribadi. Pelanggaran prinsip perlindungan data, transparansi, dan keadilan dapat berujung pada sanksi hukum. Di ranah akademik dan kebijakan, mulai muncul dorongan agar Indonesia menyusun kerangka hukum AI yang berbasis pada prinsip akuntabilitas, transparansi, kehati-hatian, dan perlindungan hak asasi manusia. Tanpa kerangka tersebut, risiko kesalahan AI justru akan semakin membebani masyarakat, sementara mekanisme pertanggungjawaban menjadi kabur.
Belajar dari Praktik Global
Di tengah perdebatan mengenai pertanggungjawaban hukum Artificial Intelligence, Uni Eropa mengambil langkah progresif melalui AI Act, regulasi komprehensif yang mengatur penggunaan AI berdasarkan tingkat risikonya. Regulasi ini diinisiasi dan diawasi dalam kerangka kelembagaan Uni Eropa melalui European Commission, dengan dukungan pengawasan teknis oleh European AI Office (Kantor AI Uni Eropa) yang dibentuk khusus untuk memastikan implementasi aturan berjalan efektif di seluruh negara anggota. Pendekatan yang digunakan bersifat risk-based approach atau berbasis tingkat risiko. Artinya, tidak semua sistem AI diperlakukan sama. Semakin tinggi potensi dampaknya terhadap hak asasi manusia dan kepentingan publik, semakin ketat pula kewajiban hukumnya.
AI Act membagi sistem AI ke dalam beberapa kategori risiko.
- Pada tingkat paling tinggi, terdapat kategori unacceptable risk atau risiko yang tidak dapat diterima. Contohnya adalah praktik social scoring oleh pemerintah, yakni pemberian penilaian sosial terhadap warga untuk menentukan akses terhadap layanan publik. Praktik ini dilarang karena berpotensi melanggar prinsip kesetaraan dan martabat manusia. Selain itu, penggunaan pengenalan wajah secara real-time di ruang publik oleh aparat penegak hukum juga dibatasi secara ketat dan hanya diperbolehkan dalam kondisi darurat tertentu dengan pengawasan hukum yang ketat.
- Untuk kategori high-risk AI, kewajibannya lebih rinci dan teknis. Sistem AI yang digunakan dalam sektor kesehatan, pendidikan, ketenagakerjaan, penegakan hukum, infrastruktur penting, dan layanan publik wajib memenuhi sejumlah persyaratan. Misalnya, perusahaan yang menggunakan AI untuk menyaring pelamar kerja harus memastikan algoritma tersebut tidak diskriminatif berdasarkan gender, ras, atau latar belakang tertentu. Sistem tersebut juga wajib memiliki dokumentasi teknis yang dapat diaudit serta mekanisme pengawasan manusia (human oversight) yang memungkinkan intervensi jika terjadi kesalahan.
Contoh lain adalah penggunaan AI dalam bidang kesehatan, seperti perangkat lunak pendukung diagnosis medis. Sistem ini harus melalui proses conformity assessment sebelum dipasarkan, memastikan bahwa risiko terhadap pasien telah dianalisis dan diminimalkan. Keputusan akhir tetap harus berada di tangan tenaga medis, bukan sepenuhnya diserahkan kepada mesin. AI Act juga mewajibkan transparansi bagi sistem AI interaktif. Misalnya, pengguna harus diberi tahu ketika mereka sedang berinteraksi dengan chatbot, bukan manusia. Konten berbasis deepfake pun harus diberi label yang jelas agar tidak menyesatkan publik. Prinsip ini penting untuk menjaga kepercayaan masyarakat terhadap ruang digital.
Dari sisi penegakan, regulasi ini tidak hanya normatif. Pelanggaran terhadap ketentuan AI Act dapat dikenakan sanksi administratif yang sangat besar, bahkan mencapai persentase signifikan dari omzet global perusahaan. Dengan demikian, regulasi ini memiliki daya paksa yang nyata. Pengawasan implementasi dilakukan melalui koordinasi antara European AI Office dan otoritas pengawas di masing-masing negara anggota Uni Eropa. Struktur ini memastikan bahwa regulasi tidak berhenti pada tataran teks, tetapi benar-benar diterapkan dan diawasi secara sistematis.
Pendekatan Uni Eropa ini menunjukkan arah global yang semakin jelas, inovasi teknologi tidak boleh dilepaskan dari prinsip akuntabilitas hukum. AI boleh berkembang, tetapi harus berada dalam koridor perlindungan hak asasi manusia, transparansi, dan pengawasan publik. Bagi Indonesia, praktik ini memberikan pelajaran penting. Regulasi AI tidak harus dimulai dengan pelarangan menyeluruh, melainkan dengan klasifikasi risiko dan penetapan kewajiban yang proporsional. Dengan demikian, kemajuan teknologi dapat tetap didorong, tanpa mengorbankan kepastian hukum dan perlindungan masyarakat.
Hukum sebagai Penjaga Etika Teknologi
AI akan terus berkembang dan semakin menentukan arah kehidupan manusia. Tantangannya bukan pada kecerdasan mesin, melainkan pada kecerdasan hukum dalam mengaturnya. Hukum tidak boleh tertinggal, tetapi juga tidak boleh reaktif secara berlebihan. Bagi Indonesia, kebutuhan mendesak bukan hanya membentuk regulasi AI, melainkan memastikan bahwa setiap kerugian yang ditimbulkan oleh teknologi memiliki jalur pertanggungjawaban yang jelas. Dengan demikian, kemajuan teknologi dapat berjalan seiring dengan keadilan, kepastian hukum, dan perlindungan terhadap Hak Asasi Manusia.
Referensi:
- Undang-undang (UU) Nomor 1 Tahun 2024 tentang Perubahan Kedua atas Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik.
- Undang-Undang Nomor 27 Tahun 2022 tentang Perlindungan Data Pribadi.
- Mark Buiten, The Law and Economics of AI Liability, Computer Law & Security Review, 2023.
- European Parliament & Council of the European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.
- Hacker, P. (2023). Regulating high-risk AI systems in Europe: Transparency, accountability and fundamental rights. European Journal of Risk Regulation
- Makarim, E. Tanggung jawab hukum penyelenggara sistem elektronik dalam pemanfaatan artificial intelligence. Jurnal Hukum & Pembangunan, Fakultas Hukum Universitas Indonesia, 2020.
- Pradnyana, I. M. S. Artificial intelligence dan tantangan pertanggungjawaban hukum di Indonesia. Jurnal Hukum Magnum Opus, Fakultas Hukum Universitas Mahasaraswati Denpasar, 2023.
- Isnaeni, M., dkk. Pertanggungjawaban pidana atas kesalahan artificial intelligence dalam perspektif hukum pidana Indonesia. Jurnal Hukum Doctrinal, Fakultas Hukum Universitas Airlangga, 2022
- Badan Pembinaan Hukum Nasional. 2021. Legal personality of artificial intelligence dalam perspektif hukum Indonesia. Jurnal RechtsVinding, Badan Pembinaan Hukum Nasional, 2021




