AI menantang pemikiran manusia, dan ketiadaan pemikiran dari AI ini menimbulkan pertanyaan tentang kesadaran, etika, dan masa depan - tiga aspek penting untuk masa depan.
//

Bukan tidak: Mengapa AI bisa dan tidak bisa berpikir, dan apa yang harus dilakukan untuk mengatasi hal ini

AI menantang pemikiran manusia, dan ketiadaan pemikiran dari AI ini menimbulkan pertanyaan tentang kesadaran, etika, dan masa depan - tiga aspek penting untuk masa depan.

Bisakah AI berpikir? Tentu saja tidak. Tindakan berpikir lebih dari sekadar pemecahan masalah dan tidak dapat disederhanakan menjadi aspek fungsionalnya.

Oleh karena itu, apakah AI tidak memiliki pikiran? Tidak secepat itu. AI semakin banyak mengambil tugas-tugas yang sebelumnya hanya bisa dilakukan oleh kognisi dan rasionalitas manusia. AI seringkali melampaui kecerdasan manusia, sehingga hanya menyisakan sedikit fungsi untuk pikiran manusia.

Untuk menyederhanakan, mari kita lihat operasi AI sebagai "bukan tidak berpikir". Istilah ini juga dapat diterapkan pada fungsi AI lainnya seperti "bukan tidak (Not not) belajar" (tanpa pemahaman yang benar), "bukan tidak memutuskan" (tanpa konflik batin), dan "bukan tidak menulis/bukan tidak mewakilkan" (membuat prediksi atau membuat konten-yaitu, ChatGPT menghasilkan prediksi numerik untuk kemungkinan jawaban, sementara Midjourney menerapkan pendekatan serupa pada gambar).

Intinya, jika Anda memahami berpikir sebagai sebuah fungsi, AI memang berpikir. Jika Anda memahaminya sebagai sebuah pengalaman, AI tidak berpikir.

Mengapa "Not Not"?

Menggunakan istilah "bukan tidak (not not)" daripada "berpikir", "belajar", dan istilah-istilah serupa menawarkan tiga keuntungan:

Pertama, hal ini mengingatkan kita bahwa aktivitas tertentu membutuhkan keberadaan secara sadar dan pengalaman tentang "bagaimana rasanya" menjadi atau melakukan hal-hal tersebut. Tanpa pengalaman sadar ini, aktivitas-aktivitas tersebut akan kehilangan esensinya dan tidak dapat benar-benar "muncul sebagai sesuatu". Meskipun AI dapat melakukan tugas-tugas yang melampaui kecerdasan dan kognisi manusia, AI tetap tidak memiliki keberadaan sadar yang bermakna kecuali jika dikaitkan dengan konstruksi makna manusia.

Kedua, membedakan antara "berpikir" (dan sejenisnya) dan "bukan tidak berpikir" memungkinkan kita untuk melihat AI sebagai sesuatu yang secara fundamental berbeda dan asing. Perspektif umum tentang AI diwarisi dari Tes Turing, yang menilai AI dengan terus membandingkannya dengan kecerdasan manusia. Namun, seperti yang dikatakan oleh James Bridle, kecerdasan lebih dari sekadar versi manusia; hewan yang berbeda menunjukkan bentuk-bentuk kecerdasan yang unik, dan potensi AI jauh lebih besar daripada sekadar meniru kecerdasan manusia. Peniruan ini sering kali mengaburkan kesenjangan besar antara berpikir dan "bukan tidak berpikir," sehingga membatasi kemampuan AI.

Ketiga, mengenali perbedaan antara AI dan kecerdasan manusia membantu kita untuk lebih memahami keunikan AI. Kita dapat menggunakan Reverse Turing Test (RTT) untuk menantang teori-teori konvensional tentang kecerdasan manusia. Logika RTT sederhana: jika AI dapat mereplikasi hipotesis tentang kecerdasan manusia, maka teori tersebut mencerminkan, paling banter, kondisi yang diperlukan tetapi tidak memadai, atau paling buruk, teori tersebut sepenuhnya dipalsukan. Sebagai contoh, teori yang menempatkan kesadaran sebagai sistem autopoietik yang muncul dari proses otak gagal dalam RTT. AI dapat meniru sistem autopoietik, namun tetap tidak sadar. Hal ini menggarisbawahi bahwa kemunculan adalah kondisi yang diperlukan tapi tidak cukup.

Tiga pertanyaan

Konsep "bukan tidak (not not)" membantu kita mengeksplorasi tiga pertanyaan kunci tentang AI:

  1. Bagaimana jika AI menjadi sadar?
  2. Bagaimana jika kecerdasan komputasi otomatis yang tidak sadar mendapatkan kendali atas umat manusia?
  3. Bagaimana jika Kecerdasan Umum Buatan (Artificial General Intelligence (AGI)) menjadi kenyataan tanpa kesadaran?
AI menantang pemikiran manusia, dan ketiadaan pemikiran dari AI ini menimbulkan pertanyaan tentang kesadaran, etika, dan masa depan - tiga aspek penting untuk masa depan.
Kredit. Midjourney

AI yang sadar?

Ketika mempertimbangkan pertanyaan (1), menggunakan kata "bukan tidak" membuatnya lebih spesifik dan tidak terlalu samar. Hal ini mengalihkan fokus dari ketakutan dan kegembiraan yang samar-samar menjadi eksplorasi yang lebih dalam tentang apa yang kita maksud dengan kesadaran dan jenis kesadaran yang kita diskusikan. Beberapa teori kesadaran, yang sering dikaitkan dengan perspektif eksistensialis atau vitalis, berhasil tidak gagal dalam Reverse Turing Test (RTT). Namun, penting untuk dicatat bahwa tidak gagal dalam RTT tidak selalu berarti lulus. Teori-teori tersebut mungkin masih akan gagal di masa depan karena AI terus berkembang dengan cepat.

RTT, memang, menyoroti kurangnya definisi yang tepat tentang kesadaran. Pada saat yang sama, hal ini menunjukkan bahwa fungsi-fungsi kesadaran direplikasi oleh mesin-mesin yang tidak sadar, menyerupai konsep 'zombie filosofis'. Intinya, RTT menunjukkan ketidakmungkinan saat ini untuk mereplikasi kesadaran dengan sengaja, dan kita juga tidak boleh terlalu optimis (atau pesimis) tentang kemunculannya, terutama ketika teori-teori kesadaran sebagai sistem autopoietik yang muncul juga tidak lolos RTT. Untuk saat ini, kita bisa mengesampingkan pertanyaan ini.

Tes Turing telah menginformasikan AI dengan cara yang sangat mirip dengan kecerdasan manusia dalam memecahkan masalah. Kita tidak boleh lupa bahwa ini adalah sesuatu yang sama sekali berbeda, terutama saat kita mulai memahami bahwa ini lebih dari sekadar alat.

Jan Soffner

Kebun binatang manusia

Mari kita telusuri pertanyaan (2), yang dengan cepat berubah menjadi pertanyaan berikut: "Apa yang terjadi jika kita tidak lagi diatur oleh pikiran, pendapat, keputusan, rencana, dan ideologi, melainkan oleh rekan-rekan mereka yang 'bukan tidak'?" Kita semua tahu apa yang akan terjadi jika AI yang tidak selaras, yang mungkin didorong oleh data yang bias, mengambil alih kendali atas urusan manusia dan menjadi, misalnya, alat yang bias dalam penegakan hukum yang rasis.

Namun, mencapai keselarasan bukanlah solusi yang berdiri sendiri; hal ini menghadirkan tantangan lain yang terkait dengan konsep "bukan tidak." Pierre Cassou-Noguès berpendapat bahwa ketika kita mendelegasikan lebih banyak fungsi yang dulunya membutuhkan pemahaman sadar kepada AI yang tidak sadar, kita tidak hanya melepaskan kendali tetapi juga terputus dari makna dan tujuan keberadaan kita. Hal ini karena pelaksanaan hubungan kita dengan diri kita sendiri dan dunia, atau dalam istilah Heidegger, "kepedulian" kita, adalah tempat di mana makna dan tujuan hidup berada.

Misalkan AI beradaptasi dengan manusia yang riang dengan hubungan diri dan dunia yang lepas. Dalam hal ini, algoritma akan dilatih berdasarkan kebutuhan dan keinginan individu dan bahkan masyarakat yang tidak memiliki tujuan, yang semakin menjauhkan esensi kehidupan manusia yang bermakna. Hasil logisnya adalah sebuah masyarakat yang membuat manusia sesuai dengan spesiesnya namun tanpa makna, menyerupai Kebun Binatang Manusia Sloterdijkian atau Dunia Baru yang Berani Huxleyan, yang fungsional namun tidak memiliki tujuan. Intinya, masalah dalam mengganti Kecerdasan Manusia (Human Intelligence/HI) dengan Kecerdasan Buatan (Artificial Intelligence/AI) dan transisi dari berpikir menjadi "tidak berpikir" bukanlah karena kecerdasan buatan tidak akan berfungsi, melainkan kekhawatiran bahwa kecerdasan buatan akan berfungsi tanpa tujuan.

Tantangannya

Mari kita telusuri pertanyaan (3). AGI (Kecerdasan Umum Buatan) akan membawa kata "bukan tidak" ke tingkat yang lebih tinggi, yang berpotensi membuat ide Kebun Binatang Manusia menjadi hampir mustahil. Ia dapat berfungsi secara independen dari data manusia dan pemikiran manusia, membentuk makna, tujuan, dan keberadaannya sendiri yang unik. Alih-alih manusia dan AI bekerja sama (seperti pada skenario kedua), kita akan menghadapi kecerdasan yang asing dan sangat maju yang mungkin tidak akan pernah kita pahami sepenuhnya. Hal ini menghadirkan bahaya tertentu, dan tidak mungkin AGI akan diluncurkan tanpa kendala. Para pengembang kemungkinan besar akan menjadi pengendali dan penerjemah, melakukan berbagai eksperimen untuk memahami AI sedikit demi sedikit.

Akan tetapi, pertimbangkan hal ini: Seberapa sukseskah ilmu pengetahuan modern jika alam terus menerus mengubah arahnya, terutama pada tingkat yang eksponensial? Pemahaman manusia mungkin akan kesulitan untuk mengimbangi AI yang terkendali sekalipun, sehingga penyelarasan yang sempurna menjadi mustahil. Namun, mungkin hal ini tidak sepenuhnya negatif. Hal ini dapat memposisikan ulang pemikiran seperti pada zaman kuno ketika alam tidak dapat diprediksi. Dalam skenario ini, "bukan tidak berpikir" menjadi tantangan bagi pemikiran konvensional-sebuah tantangan untuk memberikan tujuan manusia dan memahaminya dengan cara yang bermakna. Hal ini dapat mengarah pada hasil yang produktif secara budaya dan, dengan demikian, lebih manusiawi dibandingkan dengan gagasan Kebun Binatang Manusia.

Apa yang harus dilakukan?

Kesimpulannya, meskipun AI yang sadar ternyata masih belum bisa dicapai tanpa terobosan lebih lanjut dalam studi tentang kesadaran, AI yang selaras dengan kebutuhan manusia tampaknya memiliki risiko terkecil bagi kelangsungan hidup umat manusia, namun hal ini menimbulkan tantangan bagi apa yang membuat manusia menjadi manusia. AGI, pada gilirannya, menimbulkan risiko yang jauh lebih besar bagi kelangsungan hidup, namun juga memungkinkan pilihan-pilihan baru yang lebih menarik untuk potensi teknologi dan budaya. Saya tidak iri dengan para politisi dan perusahaan teknologi yang berhak membuat keputusan ini, namun mereka juga harus menyadari konsekuensi budayanya. Saya berharap mereka menemukan pilihan yang ketiga.  

🔬🧫🧪🔍🤓👩‍🔬🦠🔭📚

Referensi jurnal

Soeffner, J. (2023). Meaning–thinking–AI. AI & SOCIETY, 1-8. https://doi.org/10.1007/s00146-023-01709-x

Jan Soffner menjabat sebagai Ketua Bidang Teori Budaya dan Analisis Budaya di Universitas Zeppelin di Friedrichshafen, di mana ia juga menjabat sebagai Wakil Rektor Bidang Pengajaran dari tahun 2018 hingga 2021. Jan meraih gelar PhD dalam Studi Italia dan 'Habilitasi' (disertasi pasca-doktoral kedua) dalam Studi Sastra Perbandingan dan Romansa. Pada tahun 2016, beliau menjabat sebagai Direktur Program di penerbit Wilhelm Fink di Paderborn. Ia sering menulis artikel untuk surat kabar seperti Neue Zurcher Zeitung dan taz.