Can machines prioritize ethics and human values? A critical examination of AI's impact on society and individual rights.
///

Penerapan teori normatif dan prinsip-prinsip hak asasi manusia pada AI

Dapatkah mesin memprioritaskan etika dan nilai-nilai kemanusiaan? Sebuah telaah kritis atas dampak kecerdasan buatan terhadap masyarakat dan hak-hak individu.

Bagaimana AI dapat diprogram untuk membuat keputusan yang etis, feminis, dan berbasis hak asasi manusia? Mungkinkah AI bersedia mengorbankan satu nyawa untuk menyelamatkan seratus nyawa? Ini adalah beberapa pertanyaan yang sering muncul di benak orang awam. Dilema etis secara alami akan terjadi ketika mesin AI dipaksa untuk memilih di antara dua hal yang buruk. Gagasan normatif dari para filsuf terkemuka mungkin memiliki jawaban atas dilema etika robot AI. Pandangan normatif bersifat sederhana dan percaya bahwa logika saja dapat menentukan mana yang benar dan mana yang salah tanpa memerlukan pengetahuan yang luas tentang filsafat atau agama untuk mencapai kesimpulan yang logis.

Teori konsekuensialis

Filosofi utilitarianisme paling baik dirangkum oleh pernyataan terkenal Bentham, "Kebahagiaan terbesar untuk sejumlah besar orang". Teori ini lebih bersifat konsekuensialis karena berfokus pada implikasi dari suatu tindakan tertentu untuk populasi yang lebih besar. John Stuart Mill berpendapat bahwa tindakan itu benar jika tindakan tersebut menciptakan kegunaan maksimal bagi semua pihak yang terkena dampaknya. Robot AI dapat menggunakan utilitarianisme untuk memaksimalkan kebahagiaan bagi kebanyakan orang. Kendaraan AI yang diprogram dengan utilitarianisme akan memprioritaskan penyelamatan nyawa manusia dalam jumlah terbesar ketika dihadapkan pada pilihan di antara dua hal buruk.

Para pengkritik mungkin berargumen, bagaimana jika seseorang yang tidak bersalah yang hanya berjalan sendirian di trotoar dan dengan tekun mematuhi semua aturan tiba-tiba mendapati dirinya berada di hadapan mobil yang diprogram dengan prinsip utilitarianisme yang mengangkut banyak penumpang dan akhirnya tertabrak? Ini akan menjadi pelanggaran hak asasi manusia seseorang. Namun, tidak ada yang tidak setuju bahwa mobil tersebut setidaknya mengikuti prinsip etika utilitarianisme yang sudah mapan dengan memilih alternatif terbaik untuk meminimalkan hilangnya nyawa manusia. Seorang manusia bisa saja melakukan hal yang sama.

Teori konsekuensialis kedua yang penting adalah teori egoisme oleh Henry Sidgwick. Teori ini menyatakan bahwa perilaku manusia harus didasarkan secara eksklusif pada kepentingan diri sendiri dan melakukan hal yang baik dengan berbuat baik. Mengingat bahwa mesin berhubungan dengan pemiliknya, maka dapat dipahami bahwa kepentingan pribadi mengacu pada kepentingan pemilik dan pelanggan. Sebagai makhluk egois yang tercerahkan, mesin AI dapat diprogram untuk berbuat baik demi kepentingan pemiliknya. Mesin AI yang diprogram dengan prinsip egoisme tidak akan melakukan perbuatan baik semata-mata demi menjadi baik, melainkan karena pada akhirnya akan melayani kepentingan terbaik pemiliknya.

Teori-teori normatif dari para filsuf terkemuka dapat memberikan wawasan untuk memecahkan dilema etika mesin AI. Prinsip-prinsip moral yang beragam dapat digunakan sebagai strategi pemasaran, dan manusia dapat diberikan pilihan untuk memilih standar moral untuk mesin AI mereka.

Sanghamitra Choudhury

Teori non-konsekuensialis

Jika kaum konsekuensialis memprioritaskan kesejahteraan mayoritas, kaum non-konsekuensialis memprioritaskan hak-hak individu. Kaum non-konsekuensialis mendasarkan keputusan pada nilai-nilai etika universal seperti kejujuran, hak, kebenaran, keadilan, dan komitmen. Etika non-konsekuensialis didasarkan pada kewajiban dan penghormatan terhadap hak-hak individu. Absolutisme Moral, Nihilisme Moral, Imperatif Kategoris Immanuel Kant (CI), dan teori keadilan John Rawl adalah gagasan-gagasan non-konsekuensialis yang terkenal. Untuk memprogram mesin AI dengan kode etik, sangat mungkin untuk menyederhanakan dan mengadaptasi prinsip-prinsip hebat dari non-konsekuensialisme normatif ini agar lebih mudah kompatibel dengan mesin.

The Prinsip imperatif kategoris dari Immanuel Kant adalah persyaratan moral yang berasal dari akal sehat, dan seseorang harus memenuhinya. Prinsip universalisasi diperkenalkan dalam rumusan pertama. "Bertindaklah secara eksklusif sesuai dengan maksim yang ingin Anda wujudkan menjadi hukum universal..." Rumusan kedua sering dikenal sebagai "rumusan kemanusiaan". Rumusan ini berfokus pada bagaimana manusia harus diperlakukan. Manusia tidak boleh digunakan sebagai alat untuk mencapai tujuan, tetapi dihargai sebagai tujuan itu sendiri karena mereka memiliki akal dan kesadaran diri. Sebagai contoh, seseorang yang menggunakan mobil untuk perjalanan sehari-hari akan berhenti menggunakannya jika mobil tersebut menimbulkan masalah.

Namun, seseorang dapat menggunakan objek seperti mobil hanya sebagai sarana, tetapi tidak dengan manusia, karena manusia adalah makhluk yang berakal dan memiliki tujuan. Akan salah jika sistem AI memperlakukan manusia sebagai "sarana belaka", karena manusia adalah makhluk bernalar dan memiliki tujuan dalam dirinya sendiri. Rumusan ketiga Kant menyatakan bahwa makhluk rasional harus melihat diri mereka sendiri sebagai pembuat hukum secara universal. Kant berpendapat bahwa hak-hak individu tidak dapat dilanggar, bahkan demi kepentingan mayoritas. Akibatnya, sistem AI yang didasarkan pada prinsip Kant akan lebih memilih hak individu daripada hak kelompok jika bertentangan.

Can machines prioritize ethics and human values? A critical examination of the impact of artificial intelligence on society and individual rights.
Kredit. Midjourney

Keadilan, menurut John Rawl

Sekarang mari kita beralih ke John Rawl. Keadilan, menurut John Rawl, adalah pemerataan yang adil berdasarkan prosedur yang adil, bukan berdasarkan hukum alam atau logika. Kecerdasan buatan dapat berkontribusi pada ekspresi teori Rawls dan konsep keadilan yang adil. John Rawl mengajukan sebuah pertanyaan hipotetis pada tahun 1971: "Apa yang akan terjadi jika perwakilan masyarakat yang bertanggung jawab untuk menyusun hukum yang mengatur masyarakat tidak menyadari posisi mereka dalam masyarakat?" Rawls menyebut hal ini sebagai "posisi awal", di mana para pembuat undang-undang akan dibutakan oleh selubung ketidaktahuan. Mereka akan memiliki pemahaman yang lengkap tentang realitas fundamental dan tak terbantahkan tentang ilmu pengetahuan dan masyarakat, namun tetap sama sekali tidak menyadari posisi mereka dalam masyarakat.

Menurut Rawls, dalam keadaan seperti itu, hukum yang dibuat oleh legislator akan masuk akal dan adil karena mereka akan menghindari bias. Mereka akan berusaha untuk membuat peraturan yang etis, adil, dan merata untuk semua orang dan tidak menguntungkan atau merugikan kelompok tertentu secara tidak adil. AI memiliki potensi untuk mewujudkan konsep posisi awal Rawls. Mesin AI memiliki potensi yang sangat besar untuk merepresentasikan gagasan keadilan Rawls yang luar biasa. Mesin tanpa sifat buruk manusia akan membuat hukum yang adil bagi semua orang.

Etika kepedulian feminis dan kecerdasan buatan

Teori-teori normatif tradisional dan filosofi moral dituduh bias gender dan mengabaikan masalah moral perempuan oleh para pendukung etika feminis seperti Carol Gilligan dan Nel Nodding. The Etika kepedulian menghargai hubungan dan menganggap moralitas sebagai sarana untuk membina ikatan yang kuat. Pria, di sisi lain, melihat etika sebagai seperangkat hukum abstrak yang harus diikuti dan diterapkan secara konsisten. Karena ikatan mereka dengan ibu mereka, wanita dikatakan memiliki prevalensi moralitas berbasis kepedulian yang lebih tinggi. Robot AI dapat memberikan pelayanan yang sangat baik bagi manusia dalam berbagai peran, seperti perawat, dokter, atau pembantu dalam pekerjaan rumah tangga dan tugas-tugas.

Hak asasi manusia dan kecerdasan buatan

Resolusi PBB pada tahun 2019 mendesak penggunaan hukum hak asasi manusia untuk mengatur AI dan teknologi digital yang sedang berkembang. Selain itu, mereka juga menyuarakan keprihatinan dan mengeluarkan peringatan keras terkait kemungkinan konsekuensi hak asasi manusia yang dapat timbul dari teknologi ini. AI telah menciptakan jenis despotisme baru yang merugikan masyarakat miskin dan rentan. Otomatisasi dapat memperdalam kesenjangan ekonomi global. AI memungkinkan kelompok-kelompok kecil untuk menghasilkan keuntungan yang tinggi dengan jumlah staf yang sedikit. "Pertumbuhan tidak dapat dihindari namun berbahaya secara sosial," tulis Stephen Hawking. Kemunculan AI merupakan ancaman nyata bagi keamanan pekerjaan. Para peneliti sedang mempelajari cara mempertahankan standar hidup dalam lingkungan pekerjaan yang tidak dapat diprediksi. Pendapatan dasar universal adalah salah satu contohnya.

Algoritma yang sudah lama telah digunakan untuk membuat peringkat kredit dan penyaringan laporan pinjaman. Sistem pembelajaran mesin menganalisis data non-keuangan, seperti tempat tinggal, perilaku online, dan pembelian, untuk menilai kelayakan kredit. Skor elektronik dihasilkan dari sistem ini. Skor ini berpotensi menimbulkan diskriminasi finansial yang menargetkan komunitas yang rentan. Teknologi AI seperti pengenalan wajah juga dapat membuat kesalahan jika pengguna memiliki kulit gelap. Hal ini bertentangan dengan prinsip-prinsip persamaan hak dan kesempatan.

Persepsi dalam sistem peradilan pidana

AI memperkuat berbagai prasangka dalam sistem peradilan pidana, yang dapat mengancam proses tersebut. AI dapat membantu "penilaian risiko" dan "pemolisian prediktif." "Pemolisian prediktif" menggunakan banyak kumpulan data untuk mengantisipasi kejahatan, sementara "penilaian risiko" menentukan apakah seorang terdakwa akan melakukan pelanggaran kembali. Namun, para ahli telah menyuarakan kekhawatiran mengenai potensi rekomendasi sistem AI, karena dapat memperburuk masalah melalui pengenalan penggantian yang bias. Pemolisian prediktif dan pengawasan pergerakan dapat menggunakan drone, GPS, sidik jari, wajah, dan teknologi identifikasi retina. Teknologi-teknologi ini dapat melacak dan mengawasi orang. Bahkan jika digunakan untuk alasan keamanan publik, hal ini dapat melanggar hak atas kebebasan bergerak.

Penggunaan AI untuk pemeriksaan kesehatan dan pemeriksaan reproduksi dapat menyebabkan ketidaksuburan dan berdampak pada pilihan pernikahan. Pengujian DNA dan genetik yang didukung AI dapat memastikan bahwa hanya kualitas yang diinginkan yang diwariskan kepada generasi mendatang. Hal ini melanggar Pasal 23 ICCPR, yang melindungi pernikahan, anak-anak, dan keluarga. Ada kekhawatiran serius bahwa mengintegrasikan pelacakan dan prediksi kinerja siswa berbasis AI berpotensi membatasi kesempatan pendidikan dan melanggar hak siswa untuk mendapatkan pendidikan.

Pendekatan ini akan merendahkan siswa yang mengatasi hambatan untuk berhasil di sekolah dan dunia kerja dan memperburuk ketidakseimbangan. Hal ini akan melanggar Pasal 13 ICCPR, yang mencakup pendidikan universal. Ada juga kekhawatiran bahwa AI dapat mengkriminalisasi budaya tertentu. Dengan mengidentifikasi dan mencegah beberapa kelompok untuk memberikan suara, pengawasan bertenaga AI dapat membatasi dan mencegah partisipasi politik. 

Kesimpulan

Panduan etika untuk mesin AI yang diambil dari para filsuf terkemuka menggarisbawahi pentingnya menavigasi dilema etika yang kompleks. Daripada mencoba pendekatan satu ukuran untuk semua, pelajaran yang bisa dipetik menyoroti perlunya etika yang mudah beradaptasi dan sadar konteks dalam sistem AI. Inti dari etika robot AI terletak pada prinsip meminimalkan bahaya bagi manusia. Selain itu, mengakui nilai keragaman dalam prinsip-prinsip moral dapat menjadi pendekatan strategis, yang memungkinkan individu untuk menyesuaikan kode moral untuk mesin mereka. Pembelajaran utama ini menggarisbawahi pentingnya pertimbangan etis dalam pengembangan dan penyebaran teknologi AI, yang pada akhirnya mendorong sistem AI yang bertanggung jawab dan sesuai dengan nilai-nilai.

πŸ”¬πŸ§«πŸ§ͺπŸ”πŸ€“πŸ‘©β€πŸ”¬πŸ¦ πŸ”­πŸ“š

Referensi jurnal

Kumar, S., & Choudhury, S. (2023). Normative ethics, human rights, and artificial intelligence. AI and Ethics3(2), 441-450. https://doi.org/10.1080/14488388.2023.2199600

Shailendra Kumar adalah Asisten Profesor di Departemen Manajemen di Universitas Sikkim, Gangtok, India. Etika bisnis, tanggung jawab sosial perusahaan, dan kecerdasan buatan adalah beberapa bidang penelitian dan spesialisasinya. Dia telah banyak menulis tentang topik Kecerdasan Buatan dan etika.

Sanghamitra Choudhury adalah seorang Profesor di Departemen Ilmu Politik di Universitas Bodoland (sebuah universitas negeri) di Assam, India. Beliau pernah menjadi Dosen Senior Pasca Doktoral di Universitas Oxford, Dosen Charles Wallace di Universitas Queen's, Belfast, Dosen Hukum Internasional PBB di Akademi Hukum Internasional Den Haag, Belanda, dan Konsultan di UNIFEM, India.