Pertanggungjawaban Hukum Robot AI Pelaku Tindak Pidana
Kolom

Pertanggungjawaban Hukum Robot AI Pelaku Tindak Pidana

Penerapan strict liability untuk kasus-kasus di masa depan yang mungkin berkaitan dengan robot sosial bisa dipertimbangkan.

Bacaan 4 Menit
Timothée Kencono Malye. Foto: Istimewa
Timothée Kencono Malye. Foto: Istimewa

Tulisan ini membahas tentang robot sosial tanpa operator menggunakan artificial intelligence/AI (kecerdasan buatan) yang secara fisik dapat bertindak secara mandiri. Misalnya robot sosial seperti Ameca yang telah mampu melakukan percakapan dan gerakan fisik. Mereka dapat membahayakan manusia (natuurlijk persoon). Anggap saja sang robot bisa menyebabkan cedera pada seseorang yang kebetulan lewat saat ia menggoyangkan tangannya.

Selain itu, tidak menutup kemungkinan bagi mereka untuk mengatakan sesuatu yang dinilai ujaran kebencian dari sudut pandang manusia. Oleh karena itu, beban tanggung jawab hukum—baik perdata maupun pidana—harusnya diberikan setiap kali robot ini melanggar hukum. Sebagian kalangan berpendapat bahwa robot itu sendiri yang harus bertanggung jawab apabila terjadi peristiwa hukum pidana maupun perdata.

Ada beberapa macam alur penalaran yang mengarah pada kesimpulan tadi. Salah satunya dari perspektif antropologi bahwa manusia dapat memproyeksikan persepsi sosialnya ke robot. Persepsi tersebut meliputi antara lain jenis kelamin, kelas sosial, atau ras. Selain itu, robot sosial adalah artefak yang dapat menimbulkan dinamika psikososial tertentu dengan manusia. Itulah sebabnya sebagian kalangan menilai robot sosial berbasis AI sampai batas tertentu dapat diperlakukan sebagai manusia. Termasuk pula mereka bisa dibebankan tanggung jawab atas peristiwa hukum. Di sisi lain, beberapa orang seperti Danaher menyebut gagasan ini adalah gagasan yang aneh.

Baca juga:

Penulis berada di posisi yang serupa dengan orang-orang seperti Danaher. Perlu diingat bahwa kesadaran—sebagai efek samping dari entropi—tidak dapat dibuat menggunakan bahan nonbiologis. Meski robot sosial mampu mengucapkan untaian kata yang menyerupai ekspresi hati manusia, sebenarnya tidak lebih dari sebuah produk yang sangat interaktif.

Tujuan mendasar dari hukum adalah memulihkan jika terjadi gangguan terhadap harmoni dalam masyarakat. Contoh gangguan tersebut adalah tindakan kekerasan, seperti seseorang yang meninju wajah orang lain. Robot sosial juga dapat melakukan tindakan seperti meninju. Masalahnya mereka hanyalah produk kebendaan tanpa kesadaran untuk mampu merasakan sakit. Hal ini membuat penegakan hukum terhadap produk tersebut menjadi tidak relevan.

Perlu diingat, hukum dapat digunakan sebagai alat untuk keadilan retributif dan restoratif. Dari perspektif keadilan retributif, membebankan pertanggungjawaban pidana atau perdata kepada robot sosial menjadi tidak efektif. Alasannya karena robot sosial ini tidak dapat merasakan sakit baik secara fisik maupun psikis. Artinya, tidak ada perubahan perilaku yang bisa diharapkan sebagai dampak hukuman kepada robot sosial.

Di sisi lain dari perspektif keadilan restoratif, dialog tidak dapat dilakukan dengan robot karena mereka hanya sebuah produk kebendaan tanpa otak biologis yang menghasilkan “kesadaran”. Tidak ada bahan-bahan kimia dalam kandungan otak biologis yang menghasilkan keinginan dan emosi. Inilah yang membedakan seorang manusia dengan robot.

Saat tidak ada keinginan atau emosi, maka tidak ada yang perlu dikoreksi dengan dialog. Selain itu, hingga saat ini robot AI tidak dapat memiliki rekening bank independen. Jadi, tidak dapat pula dimintai pertanggungjawaban dalam bentuk ganti rugi atas perkara hukum.

Tanggung Jawab Produsen

Setelah pertimbangan-pertimbangan tersebut di atas, penulis mengusulkan untuk menerapkan strict liability untuk kasus-kasus di masa depan yang mungkin berkaitan dengan robot sosial. Perusahaan dan pihak-pihak dalam value chain of production robot sosial adalah yang harus bertanggung jawab apabila kasus hukum terjadi. Setidaknya ada dua cara untuk menerapkan hal ini.

Pertama, menegakkan prinsip transparansi di sektor swasta dalam kaitannya dengan mekanisme internal robot sosial. Ini akan mengarah pada audit/investigasi yang lebih baik terhadap perilaku robot berdasarkan pemrograman internalnya. Jadi, setiap kali sesuatu terjadi, penyelidikan dapat dilakukan secara menyeluruh ke dalam algoritma AI. Selanjutnya tanggung jawab dapat diberikan kepada entitas yang bertanggung jawab khusus di dalam value chain of production tersebut di atas.

Masalahnya adalah hal ini dapat menyebabkan penyelidikan/penyidikan perkara yang terlalu rinci. Kecenderungannya adalah penekanan berlebihan pada pemberian tanggung jawab kepada manusia. Beberapa pimpinan perusahaan mungkin sengaja membuat Standard Operating Procedure (SOP) yang sangat rinci dan mendelegasikan Key Performance Index (KPI) penting ke pegawai terendah. Tentu saja tujuannya untuk menghindari tanggung jawab apabila masalah hukum terjadi.

Selain itu, programmer di dalam perusahaan mungkin menjadi paranoid karena mereka membantu produksi robot sosial. Mereka akan terlibat sebagai orang yang ikut bertanggung jawab apabila ada kasus hukum yang dilakukan robot sosial.

Cara kedua mungkin lebih mudah, yaitu membuat Special Purpose Entity untuk memberikan ganti rugi apabila ada perkara hukum terkait dengan robot sosial. Perusahaan-perusahaan di dalam value chain of production robot sosial dapat bekerja sama untuk membangun entitas semacam ini. Gunanya adalah menangani tuntutan hukum serta kewajiban pemberian ganti rugi. Perlu dicatat, bahkan dalam kasus pidana tidak semuanya harus diselesaikan dengan menghukum natuurlijk persoon. Hal ini terutama berlaku untuk kasus pidana yang berkaitan dengan korporasi.

Dua usulan solusi di atas dapat disesuaikan dengan konteks budaya dan preferensi masyarakat setempat. Tentu saja tujuan akhirnya untuk mengoptimalkan upaya penegakan hukum.

*)Timothée Kencono Malye, S.H., LL.M., Hakim Pengadilan Negeri Teluk Kuantan.

Artikel Kolom ini adalah tulisan pribadi Penulis, isinya tidak mewakili pandangan Redaksi Hukumonline.

Tags:

Berita Terkait