Bagaimana cara menggabungkan Explainable AI (XAI) dengan teknologi semantik dapat meningkatkan sistem pendeteksian peristiwa yang berpusat pada manusia dan dapat dipercaya?
//

Explainable AI dapat merevolusi sistem deteksi peristiwa

Bagaimana cara menggabungkan Explainable AI (XAI) dengan teknologi semantik dapat meningkatkan sistem pendeteksian peristiwa yang berpusat pada manusia dan dapat dipercaya?

Peristiwa adalah kejadian penting yang terjadi di lokasi dan waktu tertentu. Deteksi peristiwa adalah pendekatan komputasi yang memungkinkan peristiwa yang terjadi pada waktu tertentu di tempat tertentu untuk dideteksi berdasarkan informasi di media sosial (misalnya, X (Twitter), Facebook, Instagram, dll.). Saat ini, dengan kecerdasan buatan (AI), deteksi peristiwa di media sosial memungkinkan kita untuk mengidentifikasi peristiwa waktu nyata seperti berita terkini, perundungan online, pelecehan online, berita buruk, berita palsu, keadaan darurat, peringatan kejahatan, dan kegiatan teroris, serta memprediksi peristiwa di masa depan dengan akurat.

Namun, “tidak peduli seberapa bagus dan efisiennya model AI, pengguna atau praktisi akan sulit mempercayainya jika mereka tidak dapat memahami perilakunya”. Oleh karena itu, sistem pendeteksi peristiwa harus menggabungkan kemampuan menjelaskan untuk mendapatkan kepercayaan manusia. Peristiwa yang dapat dijelaskan dapat dimengerti oleh manusia karena memiliki enam dimensi yaitu, apa, siapa, di mana, kapan, mengapa, dan bagaimana (5W1H). Saat ini, sistem AI yang digunakan untuk mendeteksi kejadian jarang menjelaskan mengapa dan bagaimana.

Oleh karena itu, pertanyaannya adalah, “Dapatkah sistem AI yang digunakan untuk deteksi kejadian menjadi lebih dapat dipercaya?” Dalam penelitian tersebut, para penulis menjelaskan bahwa dengan menggabungkan dimensi 5W1H dalam deskripsi peristiwa yang terdeteksi akan memungkinkan tingkat penjelasan yang diperlukan dan berpusat pada manusia yang akan meningkatkan kepercayaan deteksi peristiwa. Para peneliti menyarankan untuk menggabungkan Explainable AI (XAI), sebuah metode untuk menjelaskan hasil dari sistem AI, dengan teknologi semantik (seperti ontologi, grafik pengetahuan, dan data terbuka), yang akan meningkatkan keterpusatan pada manusia dan membuat visi deteksi peristiwa yang dapat dijelaskan menjadi kenyataan.

Memberikan penjelasan dengan manusia di dalam lingkarannya

AI adalah alat yang ampuh, tetapi memahami cara kerjanya bisa menjadi tantangan. AI yang dapat dijelaskan (Explainable AI, XAI) membantu kita mempercayai dan meningkatkan penggunaan AI, memastikan keadilan dan etika. Namun, AI seringkali diuji di laboratorium, sehingga menimbulkan potensi masalah dalam situasi dunia nyata. Agar AI lebih berpusat pada manusia, AI harus menjelaskan dirinya sendiri kepada kita dengan cara yang dapat kita pahami, sehingga memungkinkan penggunaan AI yang lebih efektif dan aman. Gambar 1 menyajikan berbagai cara untuk memberikan penjelasan tentang AI.

Gambar 1. Ikhtisar pendekatan AI yang dapat dijelaskan
Kredit. Tinjauan Kecerdasan Buatan

Bagaimana teknologi semantik dapat digunakan untuk mencapai kemampuan penjelasan yang berpusat pada manusia dalam sistem pendeteksi peristiwa? Untuk mencapai kemampuan penjelasan yang berpusat pada manusia dalam sistem deteksi kejadian, penjelasan harus didasarkan pada pengetahuan faktual dan kontekstual yang relevan seperti ontologi atau grafik pengetahuan atau hirarki berbasis pengetahuan agar masuk akal.

Taiwo Kolajo

Deteksi peristiwa yang dapat dijelaskan

Media sosial adalah bagian besar dari cara orang berbicara satu sama lain saat ini. Terkadang, kita ingin tahu apa yang terjadi melalui percakapan online ini. Di situlah AI berperan. AI adalah cara bagi komputer untuk belajar dari data dan membuat keputusan. Namun, beberapa metode pembelajaran mesin (machine learning/ML) rumit dan sulit dipahami. Mereka seperti kotak hitam yang memberi kita jawaban tanpa memberi tahu kita bagaimana mereka mendapatkannya. Masalah ini terjadi karena kita ingin mempercayai dan belajar dari jawaban-jawaban tersebut. Itulah mengapa kita membutuhkan AI yang dapat dijelaskan (explainable AI atau XAI).

XAI adalah cara untuk membuat kotak hitam ML menjadi lebih transparan dan dapat dimengerti. Sebagai contoh, untuk mengetahui kejadian apa yang sedang terjadi di media sosial, kita harus mengajukan pertanyaan 5W1H: Siapa, Apa, Kapan, Di mana, Mengapa, dan Bagaimana. Pertanyaan-pertanyaan ini membantu kita memahami peristiwa tersebut dengan lebih baik. Namun, media sosial tidak selalu dapat diandalkan atau jelas. Terkadang, pesan-pesannya terlalu pendek atau disingkat, memiliki kesalahan ejaan, menggunakan bahasa yang berbeda, atau tidak jelas dan membingungkan.

Hal ini menyulitkan kita untuk mendapatkan gambaran lengkap tentang peristiwa yang sedang berlangsung. Jadi, kita perlu menggunakan informasi tambahan dari sumber lain, seperti web atau basis data, untuk mengisi kekosongan tersebut. Hal ini disebut pengetahuan domain, dan ini membantu kita memahami data media sosial.

Meningkatkan kemampuan menjelaskan dengan teknologi semantik

Kami tidak dapat mencapai deteksi peristiwa yang dapat dijelaskan hanya dengan menggunakan XAI. Penjelasan harus didasarkan pada pengetahuan faktual dan kontekstual yang relevan agar masuk akal. Di sinilah informasi yang kaya secara semantik (seperti yang ditemukan dalam ontologi, grafik pengetahuan, atau hirarki berbasis pengetahuan lainnya, misalnya, Wikipedia) akan menjadi sangat penting. Struktur grafis ini merepresentasikan pengetahuan dalam bentuk konsep dan hubungan dengan cara yang dapat dimengerti oleh manusia.

Sebagai contoh, sebuah ontologi dapat mendefinisikan apa itu kucing dan bagaimana hubungannya dengan hewan lain. Dengan menggunakan ontologi, kita dapat memetakan output AI ke konsep yang sudah kita ketahui. Kita dapat menggunakan penalaran logis untuk membenarkan hasil keluaran (output) AI berdasarkan ontologi dan pengamatan. Dengan cara ini, kita dapat melihat bagaimana AI menggunakan pengetahuan kontekstual untuk membuat keputusan yang lebih dapat diandalkan (Gambar 2).

Gambar 2. Peran Grafik Pengetahuan dalam AI yang Dapat Dijelaskan (Explainable AI)
Kredit. Lecue

Tantangan dalam deteksi peristiwa yang dapat dijelaskan dan langkah ke depan

Meskipun dimensi 5W1H dapat meningkatkan AI yang berpusat pada manusia dengan menjawab pertanyaan siapa, apa, kapan, di mana, mengapa, dan bagaimana tentang peristiwa yang terdeteksi, namun masih ada beberapa tantangan. Kolaborasi dengan para ahli akan diperlukan untuk membuat AI transparan, dapat dipercaya, dan dapat dimengerti.

Kita perlu memahami apa yang sedang terjadi di dunia dan menjelaskannya dengan jelas dan sederhana untuk membuat keputusan yang lebih baik dan belajar dari kesalahan. Beberapa peneliti telah menyarankan cara untuk melakukan hal ini. Mereka mengatakan bahwa kita perlu menjelaskan keseluruhan proses, mulai dari bagaimana kita mengumpulkan dan menggunakan data hingga bagaimana kita membangun dan membandingkan model serta berkomunikasi dan bekerja sama dengan mesin dan orang lain. Mereka juga mengatakan bahwa kita harus mempertimbangkan risiko dan manfaat dari penjelasan, seperti bagaimana hal itu mempengaruhi privasi, keamanan, kepercayaan, dan tujuan kita.

Implikasi dari deteksi peristiwa yang berpusat pada manusia dan berbasis semantik yang dapat dijelaskan

Berbagai peristiwa terjadi di dunia, seperti kebakaran atau perampokan. Menggunakan grafik pengetahuan dan ontologi dapat membantu AI memberikan penjelasan yang lebih ramah manusia. Memasukkan kemampuan menjelaskan yang berpusat pada manusia dalam sistem deteksi kejadian sangat penting untuk membangun proses pengambilan keputusan yang lebih dapat dipercaya dan berkelanjutan. Deteksi kejadian yang berpusat pada manusia dan berbasis semantik yang dapat dijelaskan akan meningkatkan kepercayaan, kemampuan menjelaskan, dan keandalan. Sebagai contoh, sistem pendeteksi berita palsu atau berita terkini akan lebih faktual dan dapat dipercaya jika penjelasan yang dapat memberikan jawaban atas pertanyaan dimensi 5W1H dimasukkan ke dalam sistem tersebut.

🔬🧫🧪🔍🤓👩‍🔬🦠🔭📚

Referensi jurnal

Kolajo, T., & Daramola, O. (2023). Human-centric and semantics-based explainable event detection: a survey. Tinjauan Kecerdasan Buatan56(Suppl 1), 119-158. https://doi.org/10.1007/s10462-023-10525-0

Taiwo Kolajo adalah Dosen Senior di Universitas Federal Lokoja di Departemen Ilmu Komputer dan saat ini menjadi Anggota Pasca Doktoral di Universitas Pretoria, Afrika Selatan. Dia telah menerbitkan lebih dari 30 makalah konferensi, jurnal, dan bab buku yang telah diulas oleh rekan sejawat. Minat penelitiannya meliputi pemrosesan bahasa alami, analisis data besar, kecerdasan buatan, pembelajaran mesin, dan penggalian data. Dia telah menjadi sukarelawan dan pengulas untuk berbagai konferensi seperti Women in Machine Learning, Black in AI, dan Chapter of the Association for Computational Linguistics - International Joint Conference on Natural Language Processing. Kolajo adalah anggota Masyarakat Komputer Nigeria dan Dewan Pendaftaran Guru Nigeria.

Olawande Daramola adalah anggota profesional IEEE dan saat ini menjabat sebagai profesor riset di Departemen Informatika di Universitas Pretoria, Afrika Selatan. Dia adalah penulis lebih dari 100 jurnal, bab buku, dan makalah konferensi yang telah ditinjau oleh rekan sejawat di bidang Kecerdasan Buatan (AI) dan Rekayasa Perangkat Lunak. Minat penelitiannya meliputi pembelajaran mesin, sistem berbasis pengetahuan, ontologi, analisis data besar, dan rekayasa kebutuhan. Dia menjabat sebagai komite program dari beberapa konferensi internasional di bidang komputasi dan bertindak sebagai peninjau untuk berbagai jurnal komputasi terkemuka yang diterbitkan oleh IEEE, Springer, dan Elsevier.