Dalam artikel terakhir saya, kami menetapkan kebenaran mendasar: agar pengguna dapat mengadopsi dan mengandalkan AI, mereka harus memercayainya. Kita berbicara tentang kepercayaan sebagai konstruksi multifaset, yang dibangun berdasarkan persepsi Kemampuan, Kebajikan, Integritas, dan Prediktabilitas AI. Namun apa yang terjadi ketika AI, dalam kebijaksanaan algoritmiknya yang diam, membuat keputusan yang membuat pengguna bingung, frustrasi, atau bahkan terluka? Permohonan hipotek ditolak, lagu favorit tiba-tiba hilang dari playlist, dan resume yang memenuhi syarat ditolak sebelum manusia melihatnya. Pada saat-saat seperti ini, kemampuan dan prediktabilitas hancur, dan kebajikan terasa sangat jauh. Pembicaraan kita sekarang harus berkembang dari alasan kepercayaan menjadi alasan transparansi. Bidang AI yang Dapat Dijelaskan (XAI), yang berfokus pada pengembangan metode agar keluaran AI dapat dipahami oleh manusia, muncul untuk mengatasi hal ini, namun hal ini sering kali dianggap sebagai tantangan teknis semata bagi para ilmuwan data. Saya berpendapat ini merupakan tantangan desain yang penting bagi produk yang mengandalkan AI. Tugas kami sebagai profesional UX adalah menjembatani kesenjangan antara pengambilan keputusan algoritmik dan pemahaman manusia. Artikel ini memberikan panduan praktis dan dapat ditindaklanjuti tentang cara meneliti dan merancang agar dapat dijelaskan. Kami akan melampaui kata kunci dan beralih ke maket, menerjemahkan konsep XAI yang kompleks ke dalam pola desain konkret yang dapat Anda mulai gunakan hari ini. Menghilangkan Misteri XAI: Konsep Inti Untuk Praktisi UX XAI adalah tentang menjawab pertanyaan pengguna: “Mengapa?” Mengapa saya diperlihatkan iklan ini? Mengapa film ini direkomendasikan kepada saya? Mengapa permintaan saya ditolak? Anggap saja AI menunjukkan pekerjaannya pada soal matematika. Tanpanya, Anda hanya punya jawaban, dan Anda terpaksa menerimanya dengan keyakinan. Dengan menunjukkan langkah-langkahnya, Anda membangun pemahaman dan kepercayaan. Anda juga mengizinkan pekerjaan Anda diperiksa ulang dan diverifikasi oleh orang-orang yang terkena dampaknya. Pentingnya Fitur Dan Kontrafaktual Ada sejumlah teknik yang bisa kita gunakan untuk memperjelas atau menjelaskan apa yang terjadi dengan AI. Meskipun metodenya berkisar dari menyediakan seluruh logika pohon keputusan hingga menghasilkan ringkasan keluaran dalam bahasa alami, dua jenis informasi paling praktis dan berdampak yang dapat diperkenalkan oleh praktisi UX ke dalam pengalaman adalah kepentingan fitur (Gambar 1) dan kontrafaktual. Ini sering kali merupakan cara yang paling mudah dipahami oleh pengguna dan paling dapat ditindaklanjuti oleh desainer untuk diterapkan.

Pentingnya Fitur Metode penjelasan ini menjawab, “Faktor terpenting apa yang dipertimbangkan AI?” Ini tentang mengidentifikasi 2-3 variabel teratas yang memiliki dampak terbesar terhadap hasil. Itu adalah judulnya, bukan keseluruhan cerita. Contoh: Bayangkan sebuah AI yang memprediksi apakah pelanggan akan churn (membatalkan layanannya). Pentingnya fitur mungkin mengungkapkan bahwa “jumlah panggilan dukungan dalam sebulan terakhir” dan “kenaikan harga terkini” adalah dua faktor paling penting dalam menentukan apakah pelanggan kemungkinan akan berhenti berlangganan.

Kontrafaktual Metode ampuh ini menjawab, “Apa yang perlu saya ubah untuk mendapatkan hasil yang berbeda?” Hal ini penting karena memberikan rasa keagenan kepada pengguna. Hal ini mengubah kata “tidak” yang membuat frustrasi menjadi “belum” yang dapat ditindaklanjuti. Contoh: Bayangkan sistem pengajuan pinjaman yang menggunakan AI. Seorang pengguna ditolak pinjamannya. Daripada hanya melihat “Permohonan Ditolak,” penjelasan kontrafaktual juga akan berbunyi, “Jika skor kredit Anda 50 poin lebih tinggi, atau jika rasio hutang terhadap pendapatan Anda 10% lebih rendah, pinjaman Anda akan disetujui.” Hal ini memberikan Sarah langkah-langkah yang jelas dan dapat ditindaklanjuti yang dapat dia ambil untuk mendapatkan pinjaman di masa depan.

Menggunakan Data Model Untuk Meningkatkan Penjelasan Meskipun spesifikasi teknis sering kali ditangani oleh ilmuwan data, akan sangat membantu bagi praktisi UX untuk mengetahui bahwa alat seperti LIME (Local Interpretable Model-agnostic Explanations) yang menjelaskan prediksi individu dengan memperkirakan model secara lokal, dan SHAP (SHapley Additive exPlanations) yang menggunakan pendekatan teori permainan untuk menjelaskan keluaran model pembelajaran mesin apa pun biasanya digunakan untuk mengekstrak wawasan “mengapa” ini dari model yang kompleks. Pustaka ini pada dasarnya membantu memecah keputusan AI untuk menunjukkan masukan mana yang paling berpengaruh terhadap hasil tertentu. Jika dilakukan dengan benar, data yang mendasari keputusan alat AI dapat digunakan untuk menyampaikan cerita yang bermanfaat. Mari kita telusuri pentingnya fitur dan kontrafaktual serta menunjukkan bagaimana ilmu data di balik keputusan tersebut dapat dimanfaatkan untuk meningkatkan pengalaman pengguna. Sekarang mari kitamencakup pentingnya fitur dengan bantuan data Penjelasan Lokal (misalnya, LIME): Pendekatan ini menjawab, “Mengapa AI membuat rekomendasi khusus ini untuk saya saat ini?” Alih-alih memberikan penjelasan umum tentang cara kerja model, model ini memberikan alasan terfokus untuk satu contoh spesifik. Ini bersifat pribadi dan kontekstual. Contoh: Bayangkan sistem rekomendasi musik yang didukung AI seperti Spotify. Penjelasan lokal akan menjawab, “Mengapa sistem merekomendasikan lagu khusus Adele ini kepada Anda saat ini?” Penjelasannya mungkin: “Karena Anda baru-baru ini mendengarkan beberapa lagu ballad dan lagu emosional lainnya dari vokalis wanita.”

Terakhir, mari kita bahas penyertaan Penjelasan Berbasis Nilai (misalnya data Shapley Additive Explanations (SHAP) ke dalam penjelasan suatu keputusan: Ini adalah versi penting fitur yang lebih bernuansa yang menjawab, “Bagaimana setiap faktor mendorong keputusan dalam satu atau lain cara?” Ini membantu memvisualisasikan apa yang penting, dan apakah pengaruhnya positif atau negatif. Contoh: Bayangkan sebuah bank menggunakan model AI untuk memutuskan apakah akan menyetujui permohonan pinjaman.

Pentingnya Fitur: Keluaran model mungkin menunjukkan bahwa skor kredit, pendapatan, dan rasio utang terhadap pendapatan pemohon adalah faktor terpenting dalam keputusannya. Ini menjawab apa yang penting. Pentingnya Fitur dengan Penjelasan Berbasis Nilai (SHAP): Nilai SHAP akan semakin mementingkan fitur berdasarkan elemen model.

Untuk pinjaman yang disetujui, SHAP mungkin menunjukkan bahwa skor kredit yang tinggi secara signifikan mendorong keputusan menuju persetujuan (pengaruh positif), sementara rasio utang terhadap pendapatan yang sedikit lebih tinggi dari rata-rata sedikit menjauhkan keputusan tersebut (pengaruh negatif), namun tidak cukup untuk menolak pinjaman. Untuk pinjaman yang ditolak, SHAP dapat mengungkapkan bahwa pendapatan yang rendah dan tingginya jumlah permintaan kredit baru-baru ini sangat mendorong keputusan tersebut ke arah penolakan, bahkan jika skor kreditnya layak.

Hal ini membantu petugas pinjaman menjelaskan kepada pemohon di luar apa yang telah dipertimbangkan, hingga bagaimana setiap faktor berkontribusi terhadap keputusan akhir “ya” atau “tidak”. Penting untuk menyadari bahwa kemampuan untuk memberikan penjelasan yang baik sering kali dimulai jauh lebih awal dalam siklus pengembangan. Ilmuwan dan insinyur data memainkan peran penting dengan secara sengaja menyusun model dan saluran data dengan cara yang secara inheren mendukung kemampuan menjelaskan, daripada mencoba hanya sekedar memikirkannya saja. Tim peneliti dan desain dapat mengembangkan hal ini dengan memulai percakapan awal dengan ilmuwan dan insinyur data tentang kebutuhan pemahaman pengguna, berkontribusi pada pengembangan metrik kemampuan menjelaskan, dan secara kolaboratif membuat prototipe penjelasan untuk memastikan penjelasan tersebut akurat dan mudah digunakan. XAI Dan AI Etis: Membongkar Bias Dan Tanggung Jawab Selain membangun kepercayaan, XAI memainkan peran penting dalam mengatasi implikasi etika yang mendalam dari AI*, khususnya terkait bias algoritmik. Teknik penjelasan, seperti analisis nilai SHAP, dapat mengungkap apakah keputusan suatu model dipengaruhi secara tidak proporsional oleh atribut sensitif seperti ras, gender, atau status sosial ekonomi, meskipun faktor-faktor ini tidak secara eksplisit digunakan sebagai masukan langsung. Misalnya, jika model persetujuan pinjaman secara konsisten memberikan nilai SHAP negatif kepada pemohon dari demografi tertentu, hal ini menandakan potensi bias yang perlu diselidiki, sehingga memberdayakan tim untuk memunculkan dan memitigasi hasil yang tidak adil tersebut. Kekuatan XAI juga hadir dengan potensi “pencucian yang dapat dijelaskan”. Sama seperti “greenwashing” yang menyesatkan konsumen tentang praktik lingkungan, penjelasan yang dapat dijelaskan dapat terjadi ketika penjelasan dirancang untuk mengaburkan, bukan menjelaskan, perilaku algoritmik yang bermasalah atau bias yang melekat. Hal ini dapat terwujud dalam bentuk penjelasan yang terlalu sederhana dan mengabaikan faktor-faktor penting yang mempengaruhi, atau penjelasan yang secara strategis membingkai hasil agar terlihat lebih netral atau adil daripada yang sebenarnya. Hal ini menggarisbawahi tanggung jawab etis praktisi UX untuk merancang penjelasan yang benar-benar transparan dan dapat diverifikasi. Profesional UX, bekerja sama dengan ilmuwan data dan ahli etika, memiliki tanggung jawab penting dalam mengomunikasikan alasan suatu keputusan, serta keterbatasan dan potensi bias dari model AI yang mendasarinya. Hal ini melibatkan penetapan ekspektasi pengguna yang realistis mengenai keakuratan AI, mengidentifikasi bagian mana yang mungkin kurang dapat diandalkan dalam model, dan menyediakan saluran yang jelas untuk meminta bantuan atau masukan ketika pengguna merasakan hasil yang tidak adil atau salah. Mengatasi hal ini secara proaktifdimensi etika akan memungkinkan kita membangun sistem AI yang benar-benar adil dan dapat dipercaya. Dari Metode Hingga Maket: Pola Desain XAI Praktis Mengetahui konsepnya adalah satu hal; mendesainnya adalah hal lain. Inilah cara kami menerjemahkan metode XAI ini ke dalam pola desain yang intuitif. Pola 1: Pernyataan "Karena" (untuk Pentingnya Fitur) Ini adalah pola yang paling sederhana dan sering kali paling efektif. Ini adalah pernyataan langsung dan sederhana yang mengungkapkan alasan utama tindakan AI.

Heuristik: Bersikap langsung dan ringkas. Pimpin dengan satu alasan yang paling berdampak. Hindari jargon dengan cara apa pun.

Contoh: Bayangkan sebuah layanan streaming musik. Daripada hanya menyajikan playlist “Discover Weekly”, Anda menambahkan sebaris kecil mikrokopi. Rekomendasi Lagu: “Velvet Morning” Karena Anda mendengarkan “The Fuzz” dan psychedelic rock lainnya.

Pola 2: Interaktif "Bagaimana-Jika" (untuk Kontrafaktual) Kontrafaktual pada dasarnya adalah tentang pemberdayaan. Cara terbaik untuk mewakilinya adalah dengan memberikan alat interaktif kepada pengguna untuk mengeksplorasi sendiri berbagai kemungkinan. Ini sempurna untuk aplikasi keuangan, kesehatan, atau aplikasi berorientasi tujuan lainnya.

Heuristik: Membuat penjelasan menjadi interaktif dan memberdayakan. Biarkan pengguna melihat sebab dan akibat dari pilihan mereka.

Contoh: Antarmuka aplikasi pinjaman. Setelah penolakan, alih-alih menemui jalan buntu, pengguna mendapatkan alat untuk menentukan bagaimana berbagai skenario (bagaimana-jika) mungkin terjadi (Lihat Gambar 1).

Pola 3: Reel Sorotan (Untuk Penjelasan Lokal) Saat AI melakukan tindakan pada konten pengguna (seperti meringkas dokumen atau mengidentifikasi wajah di foto), penjelasannya harus ditautkan secara visual ke sumbernya.

Heuristik: Gunakan isyarat visual seperti penyorotan, kerangka, atau anotasi untuk menghubungkan penjelasan langsung ke elemen antarmuka yang dijelaskannya.

Contoh: Alat AI yang merangkum artikel-artikel panjang. Poin Ringkasan yang Dihasilkan AI: Penelitian awal menunjukkan kesenjangan pasar untuk produk-produk berkelanjutan. Sumber dalam Dokumen: “...Analisis tren pasar Q2 kami secara meyakinkan menunjukkan bahwa tidak ada pesaing utama yang secara efektif melayani konsumen yang sadar lingkungan, sehingga mengungkapkan kesenjangan pasar yang signifikan untuk produk-produk berkelanjutan...”

Pola 4: Visual Dorong-Tarik (untuk Penjelasan Berbasis Nilai) Untuk pengambilan keputusan yang lebih kompleks, pengguna mungkin perlu memahami faktor-faktor yang saling mempengaruhi. Visualisasi data sederhana dapat memperjelas hal ini tanpa berlebihan.

Heuristik: Gunakan visualisasi data sederhana dengan kode warna (seperti diagram batang) untuk menunjukkan faktor-faktor yang memengaruhi keputusan secara positif dan negatif.

Contoh: AI menyaring profil kandidat untuk suatu pekerjaan. Mengapa kandidat ini 75% cocok:Faktor yang mendorong peningkatan skor:5+ Tahun Pengalaman Penelitian UXMahir dalam PythonFaktor yang mendorong skor turun:Tidak ada pengalaman dengan SaaS B2B

Mempelajari dan menggunakan pola desain ini di UX produk AI Anda akan membantu meningkatkan kemampuan menjelaskan. Anda juga dapat menggunakan teknik tambahan yang tidak saya bahas secara mendalam di sini. Ini termasuk yang berikut:

Penjelasan bahasa alami: Menerjemahkan keluaran teknis AI ke dalam bahasa percakapan manusia yang sederhana yang mudah dipahami oleh non-ahli. Penjelasan kontekstual: Memberikan alasan atas keluaran AI pada momen dan lokasi tertentu, yang paling relevan dengan tugas pengguna. Visualisasi yang relevan: Menggunakan bagan, grafik, atau peta panas untuk mewakili proses pengambilan keputusan AI secara visual, menjadikan data kompleks menjadi intuitif dan lebih mudah dipahami pengguna.

Catatan Untuk Bagian Depan: Menerjemahkan keluaran yang dapat dijelaskan ini ke dalam pengalaman pengguna yang lancar juga menghadirkan serangkaian pertimbangan teknisnya sendiri. Pengembang front-end sering kali bergulat dengan desain API untuk mengambil data penjelasan secara efisien, dan implikasi kinerja (seperti pembuatan penjelasan real-time untuk setiap interaksi pengguna) memerlukan perencanaan yang cermat untuk menghindari latensi. Beberapa Contoh Dunia Nyata Pertahanan Pengiriman UPS Capital UPS menggunakan AI untuk menetapkan “skor kepercayaan pengiriman” ke alamat guna memprediksi kemungkinan paket dicuri. Perangkat lunak DeliveryDefense mereka menganalisis data historis tentang lokasi, frekuensi kehilangan, dan faktor lainnya. Jika suatu alamat memiliki skor rendah, sistem dapat secara proaktif merutekan ulang paket ke Titik Akses UPS yang aman, dengan memberikan penjelasan atas keputusan tersebut (misalnya, “Paket dialihkan ke lokasi aman karena riwayat pencurian”). Sistem ini menunjukkan bagaimana XAI dapat digunakan untuk mitigasi risiko dan membangun kepercayaan pelanggantransparansi. Kendaraan Otonom Kendaraan masa depan ini perlu menggunakan XAI secara efektif untuk membantu kendaraan mereka mengambil keputusan yang aman dan dapat dijelaskan. Ketika mobil self-driving mengerem secara tiba-tiba, sistem dapat memberikan penjelasan real-time atas tindakannya, misalnya dengan mengidentifikasi pejalan kaki yang memasuki jalan. Hal ini tidak hanya penting untuk kenyamanan dan kepercayaan penumpang tetapi juga merupakan persyaratan peraturan untuk membuktikan keselamatan dan akuntabilitas sistem AI. IBM Watson Health (dan tantangannya) Meskipun sering disebut sebagai contoh umum AI dalam layanan kesehatan, hal ini juga merupakan studi kasus yang berharga tentang pentingnya XAI. Kegagalan proyek Watson untuk Onkologi menyoroti apa yang salah jika penjelasannya tidak jelas, atau ketika data yang mendasarinya bias atau tidak terlokalisasi. Rekomendasi sistem terkadang tidak konsisten dengan praktik klinis setempat karena didasarkan pada pedoman yang berpusat pada AS. Hal ini menjadi peringatan akan perlunya penjelasan yang kuat dan sadar konteks. Peran Peneliti UX: Menentukan dan Memvalidasi Penjelasan Solusi desain kami hanya efektif jika menjawab pertanyaan pengguna yang tepat pada waktu yang tepat. Penjelasan yang menjawab pertanyaan yang tidak dimiliki pengguna hanyalah kebisingan. Di sinilah penelitian UX menjadi jaringan penghubung penting dalam strategi XAI, memastikan bahwa kami menjelaskan apa dan bagaimana hal tersebut benar-benar penting bagi pengguna kami. Peran peneliti ada dua: pertama, memberikan informasi kepada strategi dengan mengidentifikasi di mana penjelasan diperlukan, dan kedua, memvalidasi desain yang memberikan penjelasan tersebut. Menginformasikan Strategi XAI (Apa yang Harus Dijelaskan) Sebelum kita dapat merancang penjelasan tunggal, kita harus memahami model mental pengguna sistem AI. Menurut mereka, apa yang dilakukannya? Di manakah kesenjangan antara pemahaman mereka dan realitas sistem? Ini adalah pekerjaan dasar seorang peneliti UX. Wawancara Model Mental: Membongkar Persepsi Pengguna Terhadap Sistem AI Melalui wawancara semi-terstruktur yang mendalam, praktisi UX dapat memperoleh wawasan berharga tentang bagaimana pengguna memandang dan memahami sistem AI. Sesi ini dirancang untuk mendorong pengguna menggambarkan atau mendeskripsikan “model mental” internal mereka tentang cara kerja AI. Hal ini sering kali melibatkan pengajuan pertanyaan terbuka yang mendorong pengguna untuk menjelaskan logika sistem, masukan, dan keluarannya, serta hubungan antara elemen-elemen ini. Wawancara ini sangat bermanfaat karena sering kali mengungkapkan kesalahpahaman dan asumsi mendalam yang dimiliki pengguna tentang AI. Misalnya, pengguna yang berinteraksi dengan mesin rekomendasi mungkin dengan yakin menyatakan bahwa sistem tersebut murni didasarkan pada riwayat penayangan mereka sebelumnya. Mereka mungkin tidak menyadari bahwa algoritma tersebut juga menggabungkan banyak faktor lain, seperti waktu mereka menjelajah, item yang sedang tren saat ini di seluruh platform, atau bahkan kebiasaan menonton pengguna serupa. Mengungkap kesenjangan antara model mental pengguna dan logika AI sebenarnya sangatlah penting. Ini memberi tahu kita dengan tepat informasi spesifik apa yang perlu kita komunikasikan kepada pengguna untuk membantu mereka membangun model mental sistem yang lebih akurat dan kuat. Hal ini, pada gilirannya, merupakan langkah mendasar dalam menumbuhkan kepercayaan. Ketika pengguna memahami, bahkan pada tingkat tinggi, bagaimana AI sampai pada kesimpulan atau rekomendasinya, mereka akan lebih cenderung memercayai keluarannya dan mengandalkan fungsinya. Pemetaan Perjalanan AI: Mendalami Kepercayaan dan Penjelasan Pengguna Dengan memetakan perjalanan pengguna secara cermat menggunakan fitur yang didukung AI, kami memperoleh wawasan berharga tentang momen-momen tepat ketika kebingungan, frustrasi, atau bahkan ketidakpercayaan yang mendalam muncul. Hal ini mengungkap titik kritis di mana model mental pengguna tentang cara AI beroperasi berbenturan dengan perilaku sebenarnya. Pertimbangkan layanan streaming musik: Apakah kepercayaan pengguna menurun ketika rekomendasi playlist terasa “acak”, dan tidak memiliki hubungan yang jelas dengan kebiasaan mendengarkan atau preferensi yang mereka nyatakan di masa lalu? Persepsi keacakan ini merupakan tantangan langsung terhadap ekspektasi pengguna akan kurasi cerdas dan pelanggaran terhadap janji tersirat bahwa AI memahami selera mereka. Demikian pula, dalam aplikasi pengelolaan foto, apakah pengguna mengalami frustrasi yang signifikan ketika fitur penandaan foto AI terus-menerus salah mengidentifikasi anggota keluarga yang disayangi? Kesalahan ini lebih dari sekedar kesalahan teknis; itu menyentuh inti akurasi, personalisasi, dan bahkanhubungan emosional. Poin-poin penting ini merupakan sinyal jelas yang menunjukkan secara tepat di mana penjelasan yang tepat, jelas, dan ringkas diperlukan. Penjelasan tersebut berfungsi sebagai mekanisme perbaikan yang penting, memperbaiki pelanggaran kepercayaan yang, jika tidak ditangani, dapat menyebabkan pengabaian pengguna. Kekuatan pemetaan perjalanan AI terletak pada kemampuannya untuk menggerakkan kita lebih dari sekadar menjelaskan hasil akhir sistem AI. Meskipun memahami apa yang dihasilkan AI itu penting, hal itu sering kali tidak cukup. Sebaliknya, proses ini memaksa kita untuk fokus menjelaskan proses tersebut pada saat-saat kritis. Ini berarti menangani:

Mengapa keluaran tertentu dihasilkan: Apakah karena data masukan tertentu? Arsitektur model tertentu? Faktor-faktor apa yang memengaruhi keputusan AI: Apakah fitur-fitur tertentu diberi bobot yang lebih besar? Bagaimana AI sampai pada kesimpulannya: Bisakah kita memberikan penjelasan analog dan sederhana tentang cara kerja internalnya? Asumsi apa yang dibuat oleh AI: Apakah ada pemahaman implisit tentang maksud atau data pengguna yang perlu diungkapkan? Apa saja keterbatasan AI: Mengkomunikasikan dengan jelas apa yang tidak dapat dilakukan AI, atau jika akurasinya mungkin goyah, akan membangun ekspektasi yang realistis.

Pemetaan perjalanan AI mengubah konsep abstrak XAI menjadi kerangka kerja yang praktis dan dapat ditindaklanjuti bagi para praktisi UX. Hal ini memungkinkan kami untuk beralih dari sekedar diskusi teoretis tentang kemampuan menjelaskan dan menunjukkan dengan tepat saat-saat di mana kepercayaan pengguna dipertaruhkan, sehingga memberikan wawasan yang diperlukan untuk membangun pengalaman AI yang kuat, transparan, mudah dipahami, dan dapat dipercaya. Pada akhirnya, penelitian adalah cara kita mengungkap hal-hal yang belum diketahui. Tim Anda mungkin berdebat tentang cara menjelaskan mengapa pinjaman ditolak, namun penelitian mungkin mengungkapkan bahwa pengguna jauh lebih peduli untuk memahami bagaimana data mereka digunakan. Tanpa riset, kami hanya menebak-nebak apa yang ditanyakan pengguna kami. Berkolaborasi Dalam Desain (Cara Menjelaskan AI Anda) Setelah penelitian mengidentifikasi apa yang harus dijelaskan, siklus kolaboratif dengan desain dimulai. Desainer dapat membuat prototipe pola yang telah kita diskusikan sebelumnya—pernyataan “Karena”, penggeser interaktif—dan peneliti dapat menampilkan desain tersebut kepada pengguna untuk melihat apakah desain tersebut dapat bertahan. Pengujian Kegunaan & Pemahaman yang Ditargetkan: Kami dapat merancang studi penelitian yang secara khusus menguji komponen XAI. Kami tidak hanya bertanya, “Apakah ini mudah digunakan?” Kami bertanya, “Setelah melihat ini, dapatkah Anda memberi tahu saya dengan kata-kata Anda sendiri mengapa sistem merekomendasikan produk ini?” atau “Tunjukkan pada saya apa yang akan Anda lakukan untuk melihat apakah Anda bisa mendapatkan hasil yang berbeda.” Tujuannya di sini adalah untuk mengukur pemahaman dan kemampuan tindakan, serta kegunaan. Mengukur Kepercayaan Itu Sendiri: Kita dapat menggunakan survei sederhana dan skala penilaian sebelum dan sesudah penjelasan ditampilkan. Misalnya, kita dapat bertanya kepada pengguna dengan skala 5 poin, “Seberapa besar Anda mempercayai rekomendasi ini?” sebelum mereka melihat pernyataan “Karena”, dan kemudian bertanya lagi setelahnya. Hal ini memberikan data kuantitatif mengenai apakah penjelasan kami benar-benar berdampak pada kepercayaan. Proses ini menciptakan perulangan yang kuat dan berulang. Temuan penelitian menginformasikan desain awal. Desain tersebut kemudian diuji, dan temuan baru diumpankan kembali ke tim desain untuk disempurnakan. Mungkin pernyataan “Karena” terlalu jargoni, atau penggeser “Bagaimana-Jika” lebih membingungkan daripada memberdayakan. Melalui validasi kolaboratif ini, kami memastikan bahwa penjelasan akhir akurat secara teknis, benar-benar dapat dipahami, berguna, dan membangun kepercayaan bagi orang-orang yang menggunakan produk. Penjelasan Zona Goldilocks Peringatan penting: ada kemungkinan untuk menjelaskan secara berlebihan. Seperti dalam dongeng, di mana Goldilocks mencari bubur yang 'tepat', tujuan dari penjelasan yang baik adalah memberikan jumlah detail yang tepat—tidak terlalu banyak dan tidak terlalu sedikit. Membombardir pengguna dengan setiap variabel dalam model akan menyebabkan kelebihan kognitif dan sebenarnya dapat menurunkan kepercayaan. Tujuannya bukan untuk menjadikan pengguna sebagai data scientist. Salah satu solusinya adalah pengungkapan progresif.

Mulailah dengan yang sederhana. Pimpin dengan pernyataan “Karena” yang singkat. Bagi sebagian besar pengguna, ini sudah cukup. Tawarkan jalan menuju detail. Berikan tautan yang jelas dan tidak menimbulkan gesekan seperti “Pelajari Lebih Lanjut” atau “Lihat bagaimana hal ini ditentukan.” Ungkapkan kerumitannya. Di balik tautan itu, Anda dapat menawarkan bilah geser interaktif, visualisasi, atau daftar faktor pendukung yang lebih rinci.

Pendekatan berlapis ini menghormati perhatian dan keahlian pengguna, serta memberikan jumlah yang tepatinformasi untuk kebutuhan mereka. Bayangkan Anda menggunakan perangkat rumah pintar yang merekomendasikan pemanasan optimal berdasarkan berbagai faktor. Mulailah dengan yang sederhana: “Rumah Anda saat ini bersuhu 72 derajat, yang merupakan suhu optimal untuk penghematan energi dan kenyamanan.” Tawarkan jalur menuju detail: Di bawahnya, tautan atau tombol kecil: “Mengapa 72 derajat optimal?" Ungkapkan kerumitannya: Mengklik tautan itu dapat membuka layar baru yang menampilkan:

Penggeser interaktif untuk suhu luar, kelembapan, dan tingkat kenyamanan pilihan Anda, menunjukkan cara penyesuaian suhu yang disarankan. Visualisasi konsumsi energi pada suhu yang berbeda. Daftar faktor yang berkontribusi seperti “Waktu”, “Suhu luar saat ini”, “Riwayat penggunaan energi”, dan “Sensor hunian”.

Menggabungkan beberapa metode XAI dan pola Zona Penjelasan Goldilocks ini, yang mendukung pengungkapan progresif, secara implisit mendorong hal ini adalah hal yang efektif. Anda dapat memulai dengan pernyataan sederhana “Karena” (Pola 1) untuk pemahaman langsung, dan kemudian menawarkan tautan “Pelajari Lebih Lanjut” yang mengungkapkan Interaktif “Bagaimana-Jika” (Pola 2) atau “Visual Dorong-Tarik” (Pola 4) untuk eksplorasi lebih dalam. Misalnya, sistem permohonan pinjaman pada awalnya dapat menyatakan alasan utama penolakan (fitur penting), kemudian memungkinkan pengguna untuk berinteraksi dengan alat “Bagaimana-Jika” untuk melihat bagaimana perubahan pada pendapatan atau utang mereka akan mengubah hasil (kontrafaktual), dan terakhir, memberikan bagan “Push-and-Pull” yang terperinci (penjelasan berbasis nilai) untuk menggambarkan kontribusi positif dan negatif dari semua faktor. Pendekatan berlapis ini memungkinkan pengguna untuk mengakses tingkat detail yang mereka perlukan, saat mereka membutuhkannya, mencegah kelebihan kognitif sambil tetap memberikan transparansi yang komprehensif. Menentukan alat dan metode XAI mana yang akan digunakan pada dasarnya merupakan fungsi dari penelitian UX yang menyeluruh. Wawancara model mental dan pemetaan perjalanan AI sangat penting untuk menunjukkan dengan tepat kebutuhan pengguna dan permasalahan terkait pemahaman dan kepercayaan AI. Wawancara model mental membantu mengungkap kesalahpahaman pengguna tentang cara kerja AI, dan menunjukkan area yang memerlukan penjelasan mendasar (seperti pentingnya fitur atau penjelasan lokal). Di sisi lain, pemetaan perjalanan AI mengidentifikasi momen-momen kritis kebingungan atau ketidakpercayaan dalam interaksi pengguna dengan AI, menandakan penjelasan yang lebih terperinci atau interaktif (seperti penjelasan kontrafaktual atau berbasis nilai) akan sangat bermanfaat untuk membangun kembali kepercayaan dan memberikan keagenan.

Pada akhirnya, cara terbaik untuk memilih suatu teknik adalah dengan membiarkan riset pengguna memandu keputusan Anda, memastikan bahwa penjelasan yang Anda rancang secara langsung menjawab pertanyaan dan kekhawatiran pengguna yang sebenarnya, bukan sekadar menawarkan detail teknis demi kepentingan mereka sendiri. XAI untuk Agen Penalaran Mendalam Beberapa sistem AI terbaru, yang dikenal sebagai agen penalaran mendalam, menghasilkan “rantai pemikiran” eksplisit untuk setiap tugas kompleks. Mereka tidak hanya mengutip sumber; mereka menunjukkan jalur logis langkah demi langkah yang mereka ambil untuk sampai pada suatu kesimpulan. Meskipun transparansi ini memberikan konteks yang berharga, permainan demi permainan yang mencakup beberapa paragraf dapat terasa membebani pengguna yang hanya mencoba menyelesaikan suatu tugas. Prinsip-prinsip XAI, khususnya Zona Penjelasan Goldilocks, berlaku langsung di sini. Kita dapat mengatur perjalanannya, menggunakan pengungkapan progresif untuk hanya menunjukkan kesimpulan akhir dan langkah paling penting dalam proses berpikir terlebih dahulu. Pengguna kemudian dapat ikut serta untuk melihat alasan multi-langkah yang lengkap, terperinci, dan terperinci ketika mereka perlu memeriksa ulang logika atau menemukan fakta spesifik. Pendekatan ini menghormati perhatian pengguna sekaligus menjaga transparansi penuh agen. Langkah Selanjutnya: Memberdayakan Perjalanan XAI Anda Penjelasan adalah pilar mendasar untuk membangun produk AI yang tepercaya dan efektif. Bagi praktisi tingkat lanjut yang ingin mendorong perubahan ini dalam organisasinya, perjalanannya melampaui pola desain hingga advokasi dan pembelajaran berkelanjutan. Untuk memperdalam pemahaman dan penerapan praktis Anda, pertimbangkan untuk menjelajahi sumber daya seperti perangkat AI Penjelasan 360 (AIX360) dari IBM Research atau Alat What-If Google, yang menawarkan cara interaktif untuk mengeksplorasi perilaku dan penjelasan model. Terlibat dengan komunitas seperti Responsible AI Forum atau kelompok penelitian khusus yang berfokus pada AI yang berpusat pada manusia dapat memberikan wawasan dan peluang kolaborasi yang sangat berharga. Terakhir, jadilah pendukung XAI dalam organisasi Anda sendiri.Bingkai penjelasan sebagai investasi strategis. Pertimbangkan presentasi singkat kepada kepemimpinan atau tim lintas fungsi Anda: “Dengan berinvestasi di XAI, kami akan melakukan lebih dari sekadar membangun kepercayaan; kami akan mempercepat adopsi pengguna, mengurangi biaya dukungan dengan memberdayakan pengguna dengan pemahaman, dan memitigasi risiko etika dan peraturan yang signifikan dengan mengungkap potensi bias. Ini adalah desain yang bagus dan bisnis yang cerdas.”

Suara Anda, yang didasarkan pada pemahaman praktis, sangat penting dalam membawa AI keluar dari kotak hitam dan menjalin kemitraan kolaboratif dengan pengguna.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free