Opini: Regulasi AI Dinilai Mendesak untuk Penggunaan dalam Advokasi Hukum Perusahaan

Opini: Regulasi AI Dinilai Mendesak untuk Penggunaan dalam Advokasi Hukum Perusahaan

Rendy Ardiansyah, mahasiswa Program Doktor Ilmu Manajemen Universitas Negeri Jakarta, menilai kepastian hukum menjadi kebutuhan utama dunia usaha, terutama ketika kecerdasan buatan (artificial intelligence/AI) mulai dimanfaatkan sebagai alat bantu dalam proses advokasi hukum perusahaan. Menurutnya, kepastian hukum membantu perusahaan mengambil keputusan strategis dan investasi dengan lebih percaya diri, sekaligus memperkuat posisi saat menghadapi sengketa atau perubahan regulasi.

Dalam pandangannya, penggunaan AI di ranah advokasi berpotensi meningkatkan efisiensi kerja tim legal internal perusahaan maupun firma hukum eksternal. AI dapat mempercepat pengumpulan dan analisis data, membantu riset regulasi, menyiapkan kontrak, hingga menyusun dokumen hukum. Efisiensi ini dinilai dapat menghemat waktu dan biaya, faktor yang kerap krusial dalam aktivitas bisnis.

Namun, ia juga menyoroti risiko ketika AI digunakan tanpa kerangka aturan yang jelas. Ketergantungan pada sistem yang belum diatur sepenuhnya dapat memunculkan kesalahan atau bias analisis yang berdampak pada keputusan perusahaan. Jika rekomendasi hukum yang dihasilkan tidak akurat atau tidak relevan, perusahaan berisiko mengambil langkah keliru yang berujung pada kerugian atau sengketa lanjutan.

Rendy mengangkat contoh kasus di Amerika Serikat, ketika penggunaan ChatGPT oleh advokat menghasilkan dokumen dengan rujukan yang tidak valid, sebagai gambaran risiko penggunaan AI tanpa pengawasan dan standar yang memadai. Ia menilai ketidakjelasan mengenai siapa yang bertanggung jawab saat terjadi malfungsi AI menjadi tantangan dalam praktik sehari-hari.

Ia menguraikan sejumlah konsekuensi yang dapat timbul akibat malfungsi AI dalam konteks advokasi, mulai dari ketidaktepatan informasi hukum dan preseden kasus, kesalahan penafsiran pada perkara kompleks, hingga persoalan tanggung jawab dan etika—apakah kesalahan ditanggung pengacara sebagai pengguna atau penyedia teknologi.

Dalam kerangka kebutuhan regulasi, Rendy menekankan tiga prinsip yang menurutnya perlu menjadi dasar pengaturan AI di bidang advokasi, yakni keadilan, kemanfaatan, dan kepastian hukum. Prinsip keadilan dipahami sebagai perlindungan agar klien tidak dirugikan oleh kesalahan sistem. Prinsip kemanfaatan menempatkan AI sebagai teknologi yang seharusnya memberi nilai tambah, bukan menambah risiko. Sementara prinsip kepastian hukum menuntut adanya aturan tegas mengenai tanggung jawab jika AI mengalami malfungsi.

Ia menilai Indonesia memerlukan regulasi khusus untuk mengatur penggunaan AI dalam profesi hukum. Ruang lingkup yang diusulkan mencakup standar minimum pengujian dan audit teknologi AI yang digunakan dalam praktik hukum, pengaturan tanggung jawab hukum ketika AI keliru dalam menyusun dokumen atau analisis, serta pedoman etik bagi advokat yang memanfaatkan AI.

Dari sisi hubungan advokat dan klien, Rendy menekankan pentingnya mekanisme verifikasi atas setiap keluaran AI. Menurutnya, tanpa pemeriksaan menyeluruh, dokumen dan informasi yang dihasilkan AI berisiko memuat rujukan yang salah atau kesimpulan yang bias. Verifikasi juga disebut perlu mencakup pengecekan sumber informasi dan legalitas data yang digunakan dalam analisis.

Ia juga menyoroti aspek transparansi. Advokat dinilai perlu memberi tahu klien jika AI digunakan dalam proses kerja, serta menjelaskan bagaimana hasil AI akan diolah dan tetap berada dalam pengawasan profesional manusia. Transparansi ini dipandang penting untuk menjaga kepercayaan klien dan memastikan layanan tidak dipersepsikan sepenuhnya otomatis tanpa pertanggungjawaban.

Selain itu, perlindungan data menjadi perhatian. Rendy menyebut klien perlu jaminan bahwa data pribadi dan informasi hukum sensitif tidak disalahgunakan, mengingat AI kerap memanfaatkan data dalam jumlah besar. Ia mengaitkan kebutuhan ini dengan kepatuhan terhadap Undang-Undang Perlindungan Data Pribadi (UU PDP).

Untuk memperkuat kepastian bagi klien, ia mengusulkan adanya kesepakatan atau kontrak khusus terkait penggunaan AI dalam layanan hukum. Kontrak tersebut dapat memuat tanggung jawab firma hukum atas malfungsi AI, komitmen verifikasi manual, serta jaminan keamanan data, sehingga klien memiliki dasar yang lebih kuat jika terjadi kerugian.

Rendy menilai saat ini terdapat kekosongan aturan di Indonesia terkait tanggung jawab atas malfungsi AI dalam konteks profesi hukum. Ia menyebut regulasi yang relevan seperti Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) dan UU PDP lebih menitikberatkan pada privasi, transaksi elektronik, dan keamanan data, namun belum mengatur secara spesifik kesalahan atau bias AI dalam praktik profesional.

Ia juga menyinggung Surat Edaran Kementerian Komunikasi dan Informatika No. 9 Tahun 2023 tentang Etika Kecerdasan Artifisial, yang menurutnya bersifat panduan dan tidak mengikat secara hukum. Kondisi ini dinilai menunjukkan kesenjangan antara laju pemanfaatan teknologi dan kesiapan regulasi.

Karena itu, ia mendorong penyusunan undang-undang atau peraturan khusus yang mengatur penggunaan AI dalam profesi hukum maupun proses advokasi perusahaan. Pengaturan tersebut, menurutnya, dapat mencakup standar verifikasi, kewajiban perlindungan data, serta penetapan tanggung jawab atas kesalahan atau bias akibat malfungsi. Ia menilai langkah ini diperlukan untuk mengurangi ketidakpastian hukum, melindungi klien, dan menjaga kepercayaan publik terhadap profesi hukum.

Artikel ini merupakan opini penulis dari sudut pandang pengguna jasa advokasi hukum sekaligus mahasiswa Program Doktor Ilmu Manajemen Universitas Negeri Jakarta.