Pemanfaatan kecerdasan buatan (artificial intelligence/AI) dinilai ibarat pedang bermata dua: dapat menghadirkan manfaat, namun juga berpotensi disalahgunakan hingga masuk ranah pidana. Di tengah meluasnya penggunaan AI di berbagai sektor, muncul pertanyaan apakah Indonesia masih memerlukan aturan baru yang lebih rinci agar implementasinya benar-benar bermanfaat bagi seluruh masyarakat.
Indonesia sejatinya telah memiliki Surat Edaran Menteri Komunikasi dan Informatika Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial yang diterbitkan pada 21 Desember 2023, sebelum Kominfo bertransformasi menjadi Kementerian Komunikasi dan Digital (Komdigi). Surat edaran tersebut menjadi respons atas pesatnya pemanfaatan AI yang mengubah cara manusia berinteraksi dengan teknologi, termasuk melalui kemampuan analisis data, pemrosesan bahasa alami, dan pembelajaran mesin.
Surat edaran itu ditujukan kepada pelaku usaha, baik di pemerintahan maupun swasta, termasuk aktivitas pemrograman serta penyelenggara sistem elektronik (PSE) di lingkup publik dan privat.
Namun, pakar keamanan siber Dr. Pratama Persadha menilai surat edaran tersebut masih sebatas imbauan. Menurutnya, tidak ada sanksi hukum bagi pelaku usaha yang mengabaikannya dan tetap mengambil keputusan perusahaan terkait pemanfaatan AI. Karena tidak bersifat mengikat secara hukum, surat edaran itu diposisikan sebagai pedoman, sementara pelaksanaan AI tetap harus tunduk pada peraturan perundang-undangan yang sudah ada.
Peraturan yang dimaksud antara lain Undang-Undang Nomor 1 Tahun 2024 tentang Perubahan Kedua atas Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik (UU ITE) serta Undang-Undang Nomor 27 Tahun 2022 tentang Pelindungan Data Pribadi (UU PDP). Pratama menyebut pengabaian surat edaran tidak menimbulkan dampak hukum langsung, tetapi dapat berpengaruh pada reputasi dan kredibilitas pelaku usaha bila publik mengetahui adanya praktik pemanfaatan AI yang dinilai tidak baik atau tidak sesuai pedoman.
Pratama, yang juga Chairman Lembaga Riset Keamanan Siber CISSReC, memandang regulasi yang optimal untuk mendukung ekosistem AI perlu menyeimbangkan dorongan inovasi dengan perlindungan kepentingan publik. Ia menilai regulasi efektif setidaknya mencakup kerangka hukum yang jelas dan konsisten untuk pengembangan, pengujian, serta implementasi AI, disertai pedoman terperinci.
Selain itu, diperlukan pedoman etika yang kuat agar penggunaan AI bersifat etis dan tidak merugikan masyarakat atau individu, termasuk prinsip keadilan, transparansi, akuntabilitas, dan perlindungan privasi. Aspek perlindungan data pribadi dan keamanan informasi juga dinilai penting untuk meminimalkan risiko penyalahgunaan data dan pelanggaran keamanan.
Menurut Pratama, regulasi juga perlu memperhatikan kolaborasi aktif antara pemerintah, perusahaan teknologi, dan pemangku kepentingan lain untuk merancang serta memperbarui aturan sesuai perkembangan AI. Ia juga menekankan pentingnya sertifikasi dan standar untuk menilai kualitas, keamanan, dan etika produk maupun layanan AI, agar pengguna memiliki kepercayaan bahwa teknologi yang dipakai memenuhi standar tertentu.
Di sisi pengawasan, Pratama menyebut perlunya mekanisme pengawasan yang efektif untuk memastikan kepatuhan, termasuk penegakan hukum yang tegas terhadap pelanggaran disertai sanksi yang sesuai. Dosen Sekolah Tinggi Ilmu Kepolisian (STIK) PTIK itu juga menilai regulasi harus dinamis dan mampu beradaptasi terhadap perkembangan AI yang cepat melalui evaluasi dan penyesuaian berkelanjutan.
Ia mengidentifikasi sejumlah isu dan tantangan dalam pemanfaatan AI, seperti kesalahan atau misinformasi, privasi atau kerahasiaan, toxicity atau ancaman berbasis siber, perlindungan hak cipta, bias implementasi AI, serta pemahaman nilai kemanusiaan. Namun, Pratama menilai isu-isu tersebut tidak selalu memerlukan regulasi baru karena sudah diatur dalam sejumlah instrumen, seperti UU ITE untuk misinformasi dan toxicity, UU PDP untuk privasi dan kerahasiaan, serta UU Hak Cipta untuk perlindungan hak cipta.
Terkait hak cipta, disebutkan sejumlah ahli hukum di Indonesia maupun luar negeri menyatakan karya yang dihasilkan AI tidak memiliki hak cipta. Salah satu alasannya karena karya AI dinilai tidak memenuhi konsep orisinalitas, mengingat tidak dibuat oleh manusia dan merupakan kombinasi karya-karya terdahulu yang dimodifikasi oleh mesin, sehingga tidak mencerminkan ciri khas pribadi pencipta.
Pratama juga menilai pedoman etika AI seharusnya dapat dibagi ke dalam empat area utama dalam siklus hidup pengembangan sistem AI, yakni desain aman melalui pemahaman risiko, pemodelan ancaman, serta pertimbangan khusus dalam desain sistem dan model; pengembangan aman yang memperhatikan keamanan rantai pasokan, dokumentasi, manajemen aset, serta utang teknis; penyebaran aman dengan melindungi infrastruktur dan model dari kompromi, ancaman, atau kehilangan, termasuk manajemen insiden dan pelepasan yang bertanggung jawab; serta operasi dan pemeliharaan aman, misalnya melalui logging dan monitoring, manajemen pembaruan, dan berbagi informasi.
Ia menambahkan, panduan yang dirancang pemerintah sebaiknya mengikuti pendekatan secure by default seperti pada panduan National Cyber Security Centre (NCSC) dan Institut Standar dan Teknologi Nasional (NIST), serta prinsip secure by design yang juga dirujuk oleh sejumlah lembaga dan agensi siber internasional. Prioritasnya meliputi kepemilikan hasil keamanan untuk pelanggan, transparansi, akuntabilitas, serta pembangunan struktur organisasi dan kepemimpinan agar secure by design menjadi prioritas bisnis.
Pratama menilai panduan AI tidak hanya ditujukan bagi pelaku usaha, tetapi juga perlu memuat poin-poin bagi masyarakat luas, mengingat teknologi berbasis AI kian akrab digunakan oleh berbagai lapisan. Tanpa pemahaman yang memadai, menurutnya, dampak negatif seperti disinformasi dan risiko terhadap keamanan data pribadi dapat meningkat.
Secara umum, pedoman kebijakan juga dinilai perlu mencakup dokumen sasaran pencapaian bagi penyedia sistem AI agar sistem berfungsi sesuai tujuan, tersedia saat dibutuhkan, dan mampu menjaga data sensitif dari pihak tidak berwenang. Panduan juga perlu mengatur sasaran pengguna, terutama bagi penyedia sistem AI yang menggunakan model yang di-hosting oleh organisasi atau melalui Application Programming Interface (API) eksternal.
Selain itu, Pratama menekankan perlunya aturan yang memastikan AI dikembangkan, dikerahkan, dan dioperasikan secara aman serta bertanggung jawab, mengingat sistem AI memiliki kerentanan keamanan yang unik. Ia juga menilai dukungan pemerintah untuk meningkatkan kapasitas sumber daya manusia (SDM) melalui pendidikan dan pelatihan khusus di bidang AI menjadi penting untuk mengurangi kesenjangan keahlian.
Dalam konteks global, disebutkan bahwa Amerika Serikat belum memiliki peraturan federal khusus terkait AI, tetapi memiliki berbagai undang-undang yang membatasi penggunaan AI dalam kaitannya dengan privasi, perlindungan data, dan diskriminasi, serta rencana meluncurkan Undang-Undang Hak AI. Uni Eropa disebut telah mengesahkan UU AI No. 1689 Tahun 2024 sebagai undang-undang AI komprehensif pertama di dunia.
Sementara itu, untuk Indonesia, Pratama menilai jika mengacu pada peraturan yang sudah ada seperti UU ITE dan UU PDP, instrumen hukum tersebut dinilai sudah mencukupi. Tantangan berikutnya, menurutnya, terletak pada penerapan penegakan hukum yang tegas dan berkeadilan tanpa pandang bulu.

