Dalam bahagian terakhir saya, kami mewujudkan kebenaran asas: untuk pengguna menerima pakai dan bergantung pada AI, mereka mesti mempercayainya. Kami bercakap tentang kepercayaan sebagai binaan pelbagai rupa, dibina berdasarkan persepsi Keupayaan, Kebaikan, Integriti dan Kebolehramalan AI. Tetapi apa yang berlaku apabila AI, dalam kebijaksanaan algoritmiknya yang senyap, membuat keputusan yang menyebabkan pengguna keliru, kecewa, atau sakit hati? Permohonan gadai janji ditolak, lagu kegemaran tiba-tiba tiada dalam senarai main, dan resume yang layak ditolak sebelum manusia melihatnya. Pada saat-saat ini, keupayaan dan kebolehramalan hancur, dan kebajikan terasa jauh sekali. Perbualan kita sekarang mesti berkembang daripada sebab kepercayaan kepada bagaimana ketelusan. Bidang AI Boleh Dijelaskan (XAI), yang memfokuskan pada membangunkan kaedah untuk menjadikan output AI boleh difahami oleh manusia, telah muncul untuk menangani perkara ini, tetapi ia sering dirangka sebagai cabaran teknikal semata-mata untuk saintis data. Saya berpendapat ia adalah cabaran reka bentuk yang kritikal untuk produk yang bergantung pada AI. Tugas kami sebagai profesional UX untuk merapatkan jurang antara pembuatan keputusan algoritma dan pemahaman manusia. Artikel ini menyediakan panduan praktikal dan boleh diambil tindakan tentang cara menyelidik dan mereka bentuk untuk kebolehjelasan. Kami akan bergerak melangkaui kata kunci dan ke mockup, menterjemah konsep XAI yang kompleks kepada corak reka bentuk konkrit yang boleh anda mula gunakan hari ini. Nyahkan XAI: Konsep Teras Untuk Pengamal UX XAI adalah mengenai menjawab soalan pengguna: "Mengapa?" Mengapa saya ditunjukkan iklan ini? Mengapa filem ini disyorkan kepada saya? Mengapa permintaan saya ditolak? Anggap ia sebagai AI yang menunjukkan kerjanya pada masalah matematik. Tanpa itu, anda hanya mempunyai jawapan, dan anda terpaksa menerimanya dengan iman. Dalam menunjukkan langkah-langkah, anda membina pemahaman dan kepercayaan. Anda juga membenarkan kerja anda disemak semula dan disahkan oleh manusia yang ditimbulkannya. Kepentingan Ciri Dan Kontrafaktual Terdapat beberapa teknik yang boleh kami gunakan untuk menjelaskan atau menerangkan perkara yang berlaku dengan AI. Walaupun kaedah terdiri daripada menyediakan keseluruhan logik pepohon keputusan kepada menjana ringkasan bahasa semula jadi bagi sesuatu output, dua daripada jenis maklumat yang paling praktikal dan berkesan yang boleh diperkenalkan oleh pengamal UX ke dalam pengalaman ialah kepentingan ciri (Rajah 1) dan kontrafaktual. Ini selalunya yang paling mudah untuk difahami oleh pengguna dan paling boleh diambil tindakan untuk pereka bentuk melaksanakan.

Kepentingan Ciri Kaedah kebolehjelasan ini menjawab, "Apakah faktor terpenting yang dipertimbangkan oleh AI?" Ini mengenai mengenal pasti 2-3 pembolehubah teratas yang mempunyai kesan terbesar pada hasilnya. Ia adalah tajuk utama, bukan keseluruhan cerita. Contoh: Bayangkan AI yang meramalkan sama ada pelanggan akan berpusing (membatalkan perkhidmatan mereka). Kepentingan ciri mungkin mendedahkan bahawa "bilangan panggilan sokongan pada bulan lalu" dan "kenaikan harga baru-baru ini" ialah dua faktor paling penting dalam menentukan sama ada pelanggan berkemungkinan besar.

Kontrafaktual Kaedah berkuasa ini menjawab, "Apakah yang perlu saya ubah untuk mendapatkan hasil yang berbeza?" Ini penting kerana ia memberikan pengguna rasa agensi. Ia mengubah "tidak" yang mengecewakan menjadi "belum lagi" yang boleh diambil tindakan. Contoh: Bayangkan sistem permohonan pinjaman yang menggunakan AI. Seorang pengguna dinafikan pinjaman. Daripada hanya melihat "Permohonan Ditolak," penjelasan balas fakta juga akan berkongsi, "Jika skor kredit anda 50 mata lebih tinggi, atau jika nisbah hutang kepada pendapatan anda 10% lebih rendah, pinjaman anda akan diluluskan." Ini memberikan Sarah langkah yang jelas dan boleh diambil tindakan yang boleh diambilnya untuk berpotensi mendapatkan pinjaman pada masa hadapan.

Menggunakan Data Model Untuk Meningkatkan Penjelasan Walaupun spesifikasi teknikal sering dikendalikan oleh saintis data, pengamal UX amat membantu untuk mengetahui bahawa alat seperti LIME (Penjelasan Model-agnostik yang Boleh Ditafsirkan Tempatan) yang menerangkan ramalan individu dengan menganggarkan model secara setempat dan SHAP (SHapley Additive exPlanations) yang menggunakan pendekatan teori permainan untuk menerangkan output mana-mana model pembelajaran mesin yang kompleks ini ialah "yang biasa digunakan model pembelajaran mesin". Perpustakaan ini pada asasnya membantu memecahkan keputusan AI untuk menunjukkan input yang paling berpengaruh untuk hasil tertentu. Apabila dilakukan dengan betul, data yang mendasari keputusan alat AI boleh digunakan untuk menceritakan kisah yang hebat. Mari kita lihat kepentingan ciri dan kontrafaktual dan tunjukkan cara sains data di sebalik keputusan itu boleh digunakan untuk meningkatkan pengalaman pengguna. Sekarang marimeliputi kepentingan ciri dengan bantuan data Penjelasan Tempatan (cth., LIME): Pendekatan ini menjawab, "Mengapa AI membuat pengesyoran khusus ini untuk saya, sekarang?" Daripada penjelasan umum tentang cara model berfungsi, ia memberikan sebab terfokus untuk satu contoh khusus. Ia bersifat peribadi dan kontekstual. Contoh: Bayangkan sistem pengesyoran muzik berkuasa AI seperti Spotify. Penjelasan tempatan akan menjawab, "Mengapa sistem mengesyorkan lagu khusus Adele ini kepada anda sekarang?" Penjelasannya mungkin: "Kerana anda baru-baru ini mendengar beberapa balada dan lagu emosi lain oleh vokalis wanita."

Akhir sekali, mari kita merangkumi kemasukan Penjelasan Berasaskan Nilai (cth. data Penjelasan Tambahan Shapley (SHAP) kepada penjelasan keputusan: Ini ialah versi kepentingan ciri yang lebih bernuansa yang menjawab, "Bagaimanakah setiap faktor mendorong keputusan itu satu cara atau yang lain?" Ini membantu menggambarkan perkara yang penting, dan sama ada pengaruhnya positif atau negatif. Contoh: Bayangkan bank menggunakan model AI untuk memutuskan sama ada untuk meluluskan permohonan pinjaman.

Kepentingan Ciri: Output model mungkin menunjukkan bahawa skor kredit, pendapatan dan nisbah hutang kepada pendapatan pemohon adalah faktor terpenting dalam keputusannya. Ini menjawab apa yang penting. Kepentingan Ciri dengan Penjelasan Berasaskan Nilai (SHAP): Nilai SHAP akan mengambil kepentingan ciri lebih lanjut berdasarkan elemen model.

Untuk pinjaman yang diluluskan, SHAP mungkin menunjukkan bahawa skor kredit yang tinggi secara signifikan mendorong keputusan ke arah kelulusan (pengaruh positif), manakala nisbah hutang kepada pendapatan yang lebih tinggi sedikit daripada purata menariknya sedikit (pengaruh negatif), tetapi tidak mencukupi untuk menafikan pinjaman. Untuk pinjaman yang dinafikan, SHAP boleh mendedahkan bahawa pendapatan yang rendah dan bilangan pertanyaan kredit yang tinggi baru-baru ini telah mendorong keputusan itu ke arah penafian, walaupun jika skor kredit adalah baik.

Ini membantu pegawai pinjaman menjelaskan kepada pemohon melebihi apa yang dipertimbangkan, bagaimana setiap faktor menyumbang kepada keputusan akhir "ya" atau "tidak". Adalah penting untuk menyedari bahawa keupayaan untuk memberikan penjelasan yang baik selalunya bermula lebih awal dalam kitaran pembangunan. Saintis dan jurutera data memainkan peranan penting dengan sengaja menstrukturkan model dan saluran paip data dengan cara yang sememangnya menyokong kebolehjelasan, dan bukannya cuba untuk menjadikannya sebagai satu pertimbangan. Pasukan penyelidikan dan reka bentuk boleh memupuk ini dengan memulakan perbualan awal dengan saintis data dan jurutera tentang keperluan pengguna untuk memahami, menyumbang kepada pembangunan metrik kebolehjelasan, dan secara kolaboratif membuat prototaip penjelasan untuk memastikan kedua-duanya tepat dan mesra pengguna. XAI Dan AI Beretika: Membongkar Bias Dan Tanggungjawab Di luar membina kepercayaan, XAI memainkan peranan penting dalam menangani implikasi etika AI* yang mendalam, terutamanya berkenaan kecenderungan algoritma. Teknik kebolehjelasan, seperti menganalisis nilai SHAP, boleh mendedahkan jika keputusan model dipengaruhi secara tidak seimbang oleh atribut sensitif seperti bangsa, jantina atau status sosioekonomi, walaupun faktor ini tidak digunakan secara eksplisit sebagai input langsung. Sebagai contoh, jika model kelulusan pinjaman secara konsisten memberikan nilai SHAP negatif kepada pemohon daripada demografi tertentu, ia menandakan kemungkinan berat sebelah yang memerlukan penyiasatan, memperkasakan pasukan untuk muncul dan mengurangkan hasil yang tidak adil tersebut. Kuasa XAI juga datang dengan potensi untuk "pencucian yang boleh dijelaskan." Sama seperti "pencucian hijau" mengelirukan pengguna tentang amalan alam sekitar, pencucian kebolehjelasan boleh berlaku apabila penerangan direka bentuk untuk mengaburkan, dan bukannya menerangi, tingkah laku algoritma yang bermasalah atau berat sebelah yang wujud. Ini boleh nyata sebagai penjelasan yang terlalu ringkas yang mengetepikan faktor yang mempengaruhi kritikal, atau penjelasan yang secara strategik merangka keputusan untuk kelihatan lebih neutral atau adil daripada yang sebenarnya. Ia menggariskan tanggungjawab etika pengamal UX untuk mereka bentuk penjelasan yang benar-benar telus dan boleh disahkan. Profesional UX, dengan kerjasama saintis data dan ahli etika, memegang tanggungjawab penting dalam menyampaikan sebab sesuatu keputusan, dan juga batasan dan potensi bias model AI yang mendasari. Ini melibatkan penetapan jangkaan pengguna yang realistik tentang ketepatan AI, mengenal pasti di mana model mungkin kurang dipercayai, dan menyediakan saluran yang jelas untuk tindakan atau maklum balas apabila pengguna merasakan hasil yang tidak adil atau tidak betul. Secara proaktif menangani perkara inidimensi etika akan membolehkan kami membina sistem AI yang benar-benar adil dan boleh dipercayai. Daripada Kaedah Kepada Mockup: Corak Reka Bentuk XAI Praktikal Mengetahui konsep adalah satu perkara; mereka bentuk mereka adalah satu lagi. Begini cara kami boleh menterjemah kaedah XAI ini ke dalam corak reka bentuk intuitif. Corak 1: Pernyataan "Kerana" (untuk Kepentingan Ciri) Ini adalah corak yang paling mudah dan selalunya paling berkesan. Ia adalah pernyataan bahasa yang langsung dan jelas yang memaparkan sebab utama tindakan AI.

Heuristik: Bersikap langsung dan ringkas. Pimpin dengan alasan yang paling berkesan. Elakkan jargon pada semua kos.

Contoh: Bayangkan perkhidmatan penstriman muzik. Daripada hanya mempersembahkan senarai main "Discover Weekly", anda menambah barisan kecil mikrokopi. Syor Lagu: "Velvet Morning"Oleh kerana anda mendengar "The Fuzz" dan rock psychedelic lain.

Corak 2: Interaktif "Bagaimana-Jika" (untuk Counterfactuals) Kontrafaktual sememangnya mengenai pemerkasaan. Cara terbaik untuk mewakili mereka adalah dengan memberi pengguna alat interaktif untuk meneroka kemungkinan sendiri. Ini sesuai untuk kewangan, kesihatan atau aplikasi berorientasikan matlamat lain.

Heuristik: Jadikan penjelasan interaktif dan memperkasakan. Biarkan pengguna melihat sebab dan kesan pilihan mereka.

Contoh: Antara muka permohonan pinjaman. Selepas penafian, bukannya jalan buntu, pengguna mendapat alat untuk menentukan bagaimana pelbagai senario (bagaimana jika) mungkin berlaku (Lihat Rajah 1).

Corak 3: Kekili Sorotan (Untuk Penjelasan Tempatan) Apabila AI melakukan tindakan pada kandungan pengguna (seperti meringkaskan dokumen atau mengenal pasti wajah dalam foto), penjelasan harus dipautkan secara visual kepada sumber.

Heuristik: Gunakan isyarat visual seperti penyerlahan, garis besar atau anotasi untuk menyambung penerangan secara terus kepada elemen antara muka yang dijelaskannya.

Contoh: Alat AI yang meringkaskan artikel panjang.Maksud Ringkasan Dijana AI:Penyelidikan awal menunjukkan jurang pasaran untuk produk mampan.Sumber dalam Dokumen:“...Analisis aliran pasaran S2 kami secara konklusif menunjukkan bahawa tiada pesaing utama yang memberi perkhidmatan yang berkesan kepada pengguna yang mementingkan alam sekitar, mendedahkan jurang pasaran yang ketara untuk produk mampan...”

Corak 4: Visual Tolak dan Tarik (untuk Penjelasan Berasaskan Nilai) Untuk keputusan yang lebih kompleks, pengguna mungkin perlu memahami interaksi faktor. Visualisasi data mudah boleh menjelaskan perkara ini tanpa membebankan.

Heuristik: Gunakan visualisasi data berkod warna yang ringkas (seperti carta bar) untuk menunjukkan faktor yang mempengaruhi keputusan secara positif dan negatif.

Contoh: AI menyaring profil calon untuk pekerjaan. Mengapa calon ini padanan 75%:Faktor yang menaikkan markah:5+ Tahun Pengalaman Penyelidikan UXMahir dalam PythonFaktor yang menurunkan skor:Tiada pengalaman dengan B2B SaaS

Mempelajari dan menggunakan corak reka bentuk ini dalam UX produk AI anda akan membantu meningkatkan kebolehjelasan. Anda juga boleh menggunakan teknik tambahan yang tidak saya bincangkan secara mendalam di sini. Ini termasuk yang berikut:

Penjelasan bahasa semula jadi: Menterjemah keluaran teknikal AI ke dalam bahasa manusia yang ringkas dan boleh dibincangkan yang boleh difahami dengan mudah oleh bukan pakar. Penjelasan kontekstual: Menyediakan rasional untuk output AI pada masa dan lokasi tertentu, ia paling berkaitan dengan tugas pengguna. Penggambaran yang berkaitan: Menggunakan carta, graf atau peta haba untuk mewakili secara visual proses membuat keputusan AI, menjadikan data yang kompleks intuitif dan lebih mudah untuk difahami oleh pengguna.

Nota Untuk Bahagian Hadapan: Menterjemahkan output kebolehjelasan ini kepada pengalaman pengguna yang lancar juga memberikan set pertimbangan teknikalnya sendiri. Pembangun bahagian hadapan sering bergelut dengan reka bentuk API untuk mendapatkan semula data penjelasan dengan cekap, dan implikasi prestasi (seperti penjanaan penjelasan masa nyata untuk setiap interaksi pengguna) memerlukan perancangan yang teliti untuk mengelakkan kependaman. Beberapa Contoh Dunia Nyata UPS Capital's DeliveryDefense UPS menggunakan AI untuk menetapkan "skor keyakinan penghantaran" kepada alamat untuk meramalkan kemungkinan pakej dicuri. Perisian DeliveryDefense mereka menganalisis data sejarah tentang lokasi, kekerapan kehilangan dan faktor lain. Jika alamat mempunyai markah yang rendah, sistem boleh secara proaktif mengubah hala pakej ke Pusat Akses UPS yang selamat, memberikan penjelasan untuk keputusan tersebut (cth., "Pakej dihalakan semula ke lokasi selamat kerana sejarah kecurian"). Sistem ini menunjukkan cara XAI boleh digunakan untuk mengurangkan risiko dan membina kepercayaan pelanggan melaluiketelusan. Kenderaan Autonomi Kenderaan masa hadapan ini perlu menggunakan XAI dengan berkesan untuk membantu kenderaan mereka membuat keputusan yang selamat dan boleh dijelaskan. Apabila kereta pandu sendiri brek secara tiba-tiba, sistem boleh memberikan penjelasan masa nyata untuk tindakannya, contohnya, dengan mengenal pasti pejalan kaki yang melangkah ke jalan raya. Ini bukan sahaja penting untuk keselesaan dan kepercayaan penumpang tetapi merupakan keperluan kawal selia untuk membuktikan keselamatan dan akauntabiliti sistem AI. IBM Watson Health (dan cabarannya) Walaupun sering disebut sebagai contoh umum AI dalam penjagaan kesihatan, ia juga merupakan kajian kes yang berharga untuk kepentingan XAI. Kegagalan projek Watson for Oncologynya menyerlahkan perkara yang boleh berlaku apabila penjelasan tidak jelas, atau apabila data asas berat sebelah atau tidak disetempatkan. Pengesyoran sistem kadangkala tidak konsisten dengan amalan klinikal tempatan kerana ia berdasarkan garis panduan berpusatkan A.S.. Ini berfungsi sebagai kisah amaran tentang keperluan untuk kebolehjelasan yang mantap dan sedar konteks. Peranan Penyelidik UX: Menentukan Dan Mengesahkan Penjelasan Penyelesaian reka bentuk kami hanya berkesan jika ia menjawab soalan pengguna yang betul pada masa yang tepat. Penjelasan yang menjawab soalan yang tidak ada pada pengguna hanyalah bunyi bising. Di sinilah penyelidikan UX menjadi tisu penghubung kritikal dalam strategi XAI, memastikan kami menerangkan perkara dan bagaimana perkara itu sebenarnya penting kepada pengguna kami. Peranan penyelidik adalah dua kali ganda: pertama, untuk memaklumkan strategi dengan mengenal pasti di mana penjelasan diperlukan, dan kedua, untuk mengesahkan reka bentuk yang menyampaikan penjelasan tersebut. Memaklumkan Strategi XAI (Apa yang Perlu Diterangkan) Sebelum kita boleh mereka bentuk penjelasan tunggal, kita mesti memahami model mental pengguna sistem AI. Apa yang mereka percaya ia lakukan? Di manakah jurang antara pemahaman mereka dan realiti sistem? Ini adalah kerja asas penyelidik UX. Temu bual Model Mental: Membongkar Persepsi Pengguna Terhadap Sistem AI Melalui temu bual separa berstruktur yang mendalam, pengamal UX boleh memperoleh pandangan yang tidak ternilai tentang cara pengguna melihat dan memahami sistem AI. Sesi ini direka bentuk untuk menggalakkan pengguna melukis atau menerangkan "model mental" dalaman mereka secara literal tentang cara mereka percaya AI berfungsi. Ini selalunya melibatkan bertanya soalan terbuka yang menggesa pengguna untuk menerangkan logik sistem, input dan outputnya, serta perhubungan antara elemen ini. Temu bual ini berkesan kerana ia sering mendedahkan salah tanggapan dan andaian yang mendalam yang dipegang oleh pengguna tentang AI. Sebagai contoh, pengguna yang berinteraksi dengan enjin pengesyoran mungkin dengan yakin menegaskan bahawa sistem itu hanya berdasarkan sejarah tontonan masa lalu mereka. Mereka mungkin tidak menyedari bahawa algoritma itu juga menggabungkan pelbagai faktor lain, seperti masa hari mereka menyemak imbas, item arah aliran semasa merentas platform, atau malah tabiat tontonan pengguna yang serupa. Mendedahkan jurang ini antara model mental pengguna dan logik AI sebenar adalah sangat penting. Ia memberitahu kami dengan tepat maklumat khusus yang kami perlukan untuk sampaikan kepada pengguna untuk membantu mereka membina model mental sistem yang lebih tepat dan mantap. Ini, seterusnya, adalah langkah asas dalam memupuk kepercayaan. Apabila pengguna memahami, walaupun pada tahap yang tinggi, cara AI mencapai kesimpulan atau cadangannya, mereka lebih cenderung untuk mempercayai outputnya dan bergantung pada fungsinya. Pemetaan Pengembaraan AI: Penyelidikan Mendalam Ke Kepercayaan Dan Kebolehjelasan Pengguna Dengan memetakan dengan teliti perjalanan pengguna dengan ciri dikuasakan AI, kami memperoleh cerapan yang tidak ternilai tentang detik-detik tepat di mana kekeliruan, kekecewaan, atau ketidakpercayaan yang mendalam timbul. Ini mendedahkan persimpangan kritikal di mana model mental pengguna tentang cara AI beroperasi bertembung dengan gelagat sebenarnya. Pertimbangkan perkhidmatan penstriman muzik: Adakah kepercayaan pengguna merosot apabila cadangan senarai main terasa "rawak", tidak mempunyai sebarang sambungan yang boleh dilihat dengan tabiat mendengar masa lalu mereka atau pilihan yang dinyatakan? Kerawak yang dirasakan ini merupakan cabaran langsung kepada jangkaan pengguna tentang penyusunan pintar dan pelanggaran janji tersirat bahawa AI memahami citarasa mereka. Begitu juga, dalam aplikasi pengurusan foto, adakah pengguna mengalami kekecewaan yang ketara apabila ciri penanda foto AI secara konsisten tersilap mengenal pasti ahli keluarga yang disayangi? Ralat ini lebih daripada masalah teknikal; ia memberi tumpuan kepada ketepatan, pemperibadian dan jugasambungan emosi. Titik kesakitan ini adalah isyarat jelas yang menunjukkan dengan tepat di mana penjelasan yang diletakkan dengan baik, jelas dan ringkas diperlukan. Penjelasan sedemikian berfungsi sebagai mekanisme pembaikan yang penting, memperbaiki pecah amanah yang, jika tidak ditangani, boleh menyebabkan pengabaian pengguna. Kuasa pemetaan perjalanan AI terletak pada keupayaannya untuk menggerakkan kita lebih daripada sekadar menerangkan output akhir sistem AI. Walaupun memahami perkara yang dihasilkan AI adalah penting, ia selalunya tidak mencukupi. Sebaliknya, proses ini memaksa kami untuk menumpukan pada menerangkan proses pada saat kritikal. Ini bermakna menangani:

Mengapa output tertentu dijana: Adakah ia disebabkan oleh data input tertentu? Seni bina model tertentu? Apakah faktor yang mempengaruhi keputusan AI: Adakah ciri tertentu ditimbang lebih berat? Bagaimana AI mencapai kesimpulannya: Bolehkah kami menawarkan penjelasan yang mudah dan serupa tentang kerja dalamannya? Apakah andaian yang dibuat oleh AI: Adakah terdapat pemahaman tersirat tentang niat atau data pengguna yang perlu dipaparkan? Apakah batasan AI: Menyampaikan dengan jelas perkara yang tidak boleh dilakukan oleh AI, atau di mana ketepatannya mungkin goyah, membina jangkaan yang realistik.

Pemetaan perjalanan AI mengubah konsep abstrak XAI menjadi rangka kerja yang praktikal dan boleh diambil tindakan untuk pengamal UX. Ia membolehkan kami bergerak melangkaui perbincangan teori tentang kebolehjelasan dan sebaliknya menentukan detik tepat di mana kepercayaan pengguna dipertaruhkan, memberikan cerapan yang diperlukan untuk membina pengalaman AI yang berkuasa, telus, mudah difahami dan boleh dipercayai. Akhirnya, penyelidikan ialah bagaimana kita mendedahkan perkara yang tidak diketahui. Pasukan anda mungkin sedang membahaskan cara menjelaskan sebab pinjaman ditolak, tetapi penyelidikan mungkin mendedahkan bahawa pengguna jauh lebih prihatin dengan memahami cara data mereka digunakan pada mulanya. Tanpa penyelidikan, kami hanya meneka apa yang pengguna kami tertanya-tanya. Bekerjasama Dalam Reka Bentuk (Cara Menjelaskan AI Anda) Setelah penyelidikan telah mengenal pasti perkara yang perlu dijelaskan, gelung kolaboratif dengan reka bentuk bermula. Pereka bentuk boleh membuat prototaip corak yang kami bincangkan sebelum ini—pernyataan "Kerana", peluncur interaktif—dan penyelidik boleh meletakkan reka bentuk tersebut di hadapan pengguna untuk melihat sama ada ia tahan. Ujian Kebolehgunaan & Pemahaman Bersasaran: Kami boleh mereka bentuk kajian penyelidikan yang menguji komponen XAI secara khusus. Kami tidak hanya bertanya, "Adakah ini mudah digunakan?" Kami bertanya, "Selepas melihat ini, bolehkah anda memberitahu saya dengan perkataan anda sendiri mengapa sistem mengesyorkan produk ini?" atau "Tunjukkan kepada saya perkara yang anda akan lakukan untuk melihat jika anda boleh mendapatkan hasil yang berbeza." Matlamat di sini adalah untuk mengukur kefahaman dan kebolehtindakan, di samping kebolehgunaan. Mengukur Kepercayaan Sendiri: Kita boleh menggunakan tinjauan mudah dan skala penilaian sebelum dan selepas penjelasan ditunjukkan. Sebagai contoh, kami boleh bertanya kepada pengguna pada skala 5 mata, "Sejauh manakah anda mempercayai pengesyoran ini?" sebelum mereka melihat pernyataan "Kerana", dan kemudian tanya mereka sekali lagi selepas itu. Ini memberikan data kuantitatif sama ada penjelasan kami sebenarnya menggerakkan jarum atas kepercayaan. Proses ini mencipta gelung berulang yang kuat. Penemuan penyelidikan memaklumkan reka bentuk awal. Reka bentuk itu kemudiannya diuji, dan penemuan baharu disampaikan semula kepada pasukan reka bentuk untuk diperhalusi. Mungkin pernyataan "Kerana" terlalu jargony, atau peluncur "Bagaimana-Jika" lebih mengelirukan daripada memperkasakan. Melalui pengesahan kerjasama ini, kami memastikan bahawa penjelasan akhir adalah tepat dari segi teknikal, benar-benar boleh difahami, berguna dan membina kepercayaan untuk orang yang menggunakan produk tersebut. Penjelasan Zon Goldilocks Kata berhati-hati yang kritikal: adalah mungkin untuk menjelaskan secara berlebihan. Seperti dalam kisah dongeng, di mana Goldilocks mencari bubur yang 'tepat', matlamat penjelasan yang baik adalah untuk memberikan jumlah perincian yang betul-tidak terlalu banyak dan tidak terlalu sedikit. Mengebom pengguna dengan setiap pembolehubah dalam model akan membawa kepada beban kognitif dan sebenarnya boleh mengurangkan kepercayaan. Matlamatnya bukan untuk menjadikan pengguna sebagai saintis data. Satu penyelesaian ialah pendedahan progresif.

Mulakan dengan yang mudah. Pimpin dengan pernyataan "Kerana" ringkas. Bagi kebanyakan pengguna, ini sudah memadai. Tawarkan laluan ke perincian. Sediakan pautan yang jelas dan rendah geseran seperti "Ketahui Lebih Lanjut" atau "Lihat cara ini ditentukan." Mendedahkan kerumitan. Di sebalik pautan itu, anda boleh menawarkan peluncur interaktif, visualisasi atau senarai faktor penyumbang yang lebih terperinci.

Pendekatan berlapis ini menghormati perhatian dan kepakaran pengguna, memberikan jumlah yang tepatmaklumat untuk keperluan mereka. Bayangkan anda menggunakan peranti rumah pintar yang mengesyorkan pemanasan optimum berdasarkan pelbagai faktor. Mulakan dengan yang mudah: "Rumah anda pada masa ini dipanaskan hingga 72 darjah, yang merupakan suhu optimum untuk penjimatan tenaga dan keselesaan." Tawarkan laluan ke butiran: Di bawah itu, pautan atau butang kecil: "Mengapa 72 darjah optimum?" Dedahkan kerumitan: Mengklik pautan itu boleh membuka skrin baharu yang menunjukkan:

Peluncur interaktif untuk suhu luar, kelembapan dan tahap keselesaan pilihan anda, menunjukkan cara ini melaraskan suhu yang disyorkan. Visualisasi penggunaan tenaga pada suhu yang berbeza. Senarai faktor penyumbang seperti "Masa dalam sehari", "Suhu luar semasa", "Penggunaan tenaga bersejarah" dan "Penderia penghunian".

Ia berkesan untuk menggabungkan berbilang kaedah XAI dan corak Penjelasan Zon Goldilocks ini, yang menyokong pendedahan progresif, secara tersirat menggalakkan perkara ini. Anda mungkin bermula dengan pernyataan "Kerana" yang ringkas (Pola 1) untuk pemahaman segera, dan kemudian tawarkan pautan "Ketahui Lebih Lanjut" yang mendedahkan Interaktif "Bagaimana Jika" (Pola 2) atau "Visual Tolak-dan-Tarik" (Pola 4) untuk penerokaan yang lebih mendalam. Sebagai contoh, sistem permohonan pinjaman pada mulanya boleh menyatakan sebab utama penolakan (kepentingan ciri), kemudian membenarkan pengguna berinteraksi dengan alat "Bagaimana-Jika" untuk melihat bagaimana perubahan pada pendapatan atau hutang mereka akan mengubah hasil (kontrafaktual), dan akhirnya, menyediakan carta "Tolak-dan-Tarik" terperinci (penjelasan berasaskan nilai) untuk menggambarkan sumbangan positif dan negatif semua faktor. Pendekatan berlapis ini membolehkan pengguna mengakses tahap perincian yang mereka perlukan, apabila mereka memerlukannya, menghalang beban kognitif sambil masih memberikan ketelusan yang komprehensif. Menentukan alat dan kaedah XAI untuk digunakan adalah terutamanya fungsi penyelidikan UX yang menyeluruh. Temu bual model mental dan pemetaan perjalanan AI adalah penting untuk menentukan keperluan pengguna dan titik kesakitan yang berkaitan dengan pemahaman dan kepercayaan AI. Temu bual model mental membantu mendedahkan salah tanggapan pengguna tentang cara AI berfungsi, menunjukkan kawasan di mana penjelasan asas (seperti kepentingan ciri atau penjelasan setempat) diperlukan. Pemetaan perjalanan AI, sebaliknya, mengenal pasti detik-detik kekeliruan atau ketidakpercayaan yang kritikal dalam interaksi pengguna dengan AI, menandakan penjelasan yang lebih terperinci atau interaktif (seperti penjelasan kontrafaktual atau berasaskan nilai) akan paling bermanfaat untuk membina semula kepercayaan dan menyediakan agensi.

Akhirnya, cara terbaik untuk memilih teknik adalah dengan membenarkan penyelidikan pengguna membimbing keputusan anda, memastikan penjelasan yang anda reka secara langsung menangani soalan dan kebimbangan pengguna sebenar, dan bukannya hanya menawarkan butiran teknikal untuk kepentingan mereka sendiri. XAI untuk Ejen Penaakulan Dalam Beberapa sistem AI terbaharu, dikenali sebagai agen penaakulan mendalam, menghasilkan "rantaian pemikiran" yang jelas untuk setiap tugas yang kompleks. Mereka tidak hanya memetik sumber; mereka menunjukkan laluan logik, langkah demi langkah yang mereka ambil untuk mencapai kesimpulan. Walaupun ketelusan ini menyediakan konteks yang berharga, permainan demi permainan yang merangkumi beberapa perenggan boleh terasa memberangsangkan kepada pengguna hanya cuba menyelesaikan tugasan. Prinsip XAI, terutamanya Penjelasan Zon Goldilocks, terpakai terus di sini. Kita boleh mengatur perjalanan, menggunakan pendedahan progresif untuk menunjukkan hanya kesimpulan akhir dan langkah paling penting dalam proses pemikiran terlebih dahulu. Pengguna kemudiannya boleh ikut serta untuk melihat penaakulan penuh, terperinci dan pelbagai langkah apabila mereka perlu menyemak semula logik atau mencari fakta tertentu. Pendekatan ini menghormati perhatian pengguna sambil mengekalkan ketelusan penuh ejen. Langkah Seterusnya: Memperkasakan Perjalanan XAI Anda Kebolehjelasan ialah tonggak asas untuk membina produk AI yang boleh dipercayai dan berkesan. Bagi pengamal lanjutan yang ingin memacu perubahan ini dalam organisasi mereka, perjalanan itu melangkaui corak reka bentuk ke dalam advokasi dan pembelajaran berterusan. Untuk memperdalam pemahaman dan aplikasi praktikal anda, pertimbangkan untuk meneroka sumber seperti kit alat AI Explainability 360 (AIX360) daripada IBM Research atau Google's What-If Tool, yang menawarkan cara interaktif untuk meneroka gelagat dan penjelasan model. Melibatkan diri dengan komuniti seperti Forum AI Bertanggungjawab atau kumpulan penyelidikan khusus yang memfokuskan pada AI berpusatkan manusia boleh memberikan pandangan yang tidak ternilai dan peluang kerjasama. Akhir sekali, jadilah penyokong XAI dalam organisasi anda sendiri.Kebolehjelasan bingkai sebagai pelaburan strategik. Pertimbangkan pandangan ringkas kepada kepimpinan atau pasukan silang fungsi anda: "Dengan melabur dalam XAI, kami akan melampaui membina kepercayaan; kami akan mempercepatkan penggunaan pengguna, mengurangkan kos sokongan dengan memperkasakan pengguna dengan pemahaman, dan mengurangkan risiko etika dan kawal selia yang ketara dengan mendedahkan potensi berat sebelah. Ini adalah reka bentuk yang baik dan perniagaan pintar."

Suara anda, berdasarkan pemahaman praktikal, adalah penting dalam membawa AI keluar dari kotak hitam dan menjadi perkongsian kolaboratif dengan pengguna.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free