Manā pēdējā daļā mēs noskaidrojām pamata patiesību: lai lietotāji varētu pieņemt un paļauties uz AI, viņiem tai ir jāuzticas. Mēs runājām par to, ka uzticēšanās ir daudzšķautņaina konstrukcija, kas balstīta uz priekšstatiem par AI spējām, labvēlību, integritāti un paredzamību. Bet kas notiek, ja mākslīgais intelekts savā klusajā, algoritmiskajā gudrībā pieņem lēmumu, kas lietotājam rada apjukumu, neapmierinātību vai pat ievainojumu? Hipotēkas pieteikums tiek noraidīts, iecienītākās dziesmas pēkšņi nav atskaņošanas sarakstā, un kvalificēts CV tiek noraidīts, pirms cilvēks to redz. Šajos brīžos spējas un paredzamība ir sagrautas, un labestība jūtas tālu no pasaules. Mūsu sarunai tagad ir jāattīstās no uzticamības iemesliem līdz pārskatāmības principam. Izskaidrojamās AI (XAI) joma, kas koncentrējas uz metožu izstrādi, lai AI izvadi būtu saprotami cilvēkiem, ir radušies, lai to risinātu, taču tas bieži tiek veidots kā tīri tehnisks izaicinājums datu zinātniekiem. Es uzskatu, ka tas ir kritisks dizaina izaicinājums produktiem, kuru pamatā ir AI. Mūsu kā UX profesionāļu uzdevums ir pārvarēt plaisu starp algoritmisku lēmumu pieņemšanu un cilvēka izpratni. Šajā rakstā ir sniegti praktiski, praktiski izmantojami norādījumi par to, kā izpētīt un izstrādāt skaidrojamību. Mēs pāriesim tālāk par modes vārdiem un pievēršamies maketiem, pārvēršot sarežģītas XAI koncepcijas konkrētos dizaina modeļos, kurus varat sākt izmantot jau šodien. Atbrīvojieties no XAI: pamatjēdzieni UX praktiķiem XAI mērķis ir atbildēt uz lietotāja jautājumu: "Kāpēc?" Kāpēc man tika rādīta šī reklāma? Kāpēc šī filma ir ieteicama man? Kāpēc mans pieprasījums tika noraidīts? Uztveriet to kā AI, kas parāda savu darbu pie matemātikas problēmas. Bez tās jums vienkārši ir atbilde, un jūs esat spiesti pieņemt to ticībā. Rādot soļus, jūs veidojat izpratni un uzticēšanos. Jūs arī ļaujat cilvēkiem, kurus tas ietekmē, vēlreiz pārbaudīt un verificēt jūsu darbu. Funkcijas nozīme un kontrafaktuāli Ir vairākas metodes, ko varam izmantot, lai precizētu vai izskaidrotu, kas notiek ar AI. Lai gan metodes svārstās no visas lēmumu koka loģikas nodrošināšanas līdz izvades kopsavilkumu ģenerēšanai dabiskajā valodā, divi no praktiskākajiem un ietekmīgākajiem informācijas veidiem, ko UX praktiķi var ieviest pieredzē, ir iezīmes nozīme (1. attēls) un kontrafaktuāli. Tie bieži vien ir lietotājiem saprotamākie, bet dizaineriem tie ir visvieglāk īstenojami.
Funkcijas nozīme Šī izskaidrojamības metode atbild: "Kādi bija vissvarīgākie faktori, ko AI ņēma vērā?" Tas ir par 2–3 galveno mainīgo noteikšanu, kuriem bija vislielākā ietekme uz rezultātu. Tas ir virsraksts, nevis viss stāsts. Piemērs: iedomājieties AI, kas paredz, vai klients atteiksies no pakalpojuma (atcels savu pakalpojumu). Funkciju nozīmīgums varētu atklāt, ka “atbalsta zvanu skaits pēdējā mēneša laikā” un “nesenie cenu pieaugumi” bija divi vissvarīgākie faktori, lai noteiktu, vai klients varētu atteikties.
Kontrafaktuāli Šī spēcīgā metode atbild: "Kas man būtu jāmaina, lai iegūtu citu rezultātu?" Tas ir ļoti svarīgi, jo tas lietotājiem rada aģentūras sajūtu. Tas pārvērš nomākto “nē” par apstrīdamu “vēl nav”. Piemērs: iedomājieties aizdevuma pieteikumu sistēmu, kas izmanto AI. Lietotājam tiek atteikts aizdevums. Tā vietā, lai redzētu tikai “Pieteikums noraidīts”, būtu arī hipotētisks skaidrojums: “Ja jūsu kredītreitings būtu par 50 punktiem augstāks vai ja jūsu parāda attiecība pret ienākumiem būtu par 10% zemāka, jūsu aizdevums būtu apstiprināts.” Tas sniedz Sārai skaidrus, praktiskus pasākumus, ko viņa var veikt, lai nākotnē varētu saņemt aizdevumu.
Modeļa datu izmantošana, lai uzlabotu skaidrojumu Lai gan tehniskās specifikas bieži nodarbojas ar datu zinātniekiem, UX praktiķiem ir noderīgi zināt, ka tādi rīki kā LIME (vietējie interpretējamo modeļu agnostiskie skaidrojumi), kas izskaidro individuālās prognozes, lokāli tuvinot modeli, un SHAP (SHapley Additive ExPlanations), kas izmanto spēļu teorijas pieeju, lai izskaidrotu šo bieži lietoto mašīnmācīšanās modeļu iznākumu no šiem sarežģītiem modeļiem. Šīs bibliotēkas būtībā palīdz nojaukt AI lēmumu, lai parādītu, kuras ievades bija visietekmīgākās konkrētajam rezultātam. Ja tas tiek izdarīts pareizi, datus, kas ir AI rīka lēmuma pamatā, var izmantot, lai pastāstītu spēcīgu stāstu. Apskatīsim funkciju nozīmi un hipotēzes un parādīsim, kā datu zinātni, kas ir pamatā lēmumam, var izmantot, lai uzlabotu lietotāja pieredzi. Tagad pieņemsimaptveriet funkciju nozīmi, izmantojot vietējo skaidrojumu (piem., LIME) datus: šī pieeja atbild: "Kāpēc AI tieši tagad man sniedza šo konkrēto ieteikumu?" Tā vietā, lai vispārīgi izskaidrotu, kā modelis darbojas, tas sniedz mērķtiecīgu iemeslu vienam konkrētam gadījumam. Tas ir personisks un kontekstuāls. Piemērs: iedomājieties ar AI darbinātu mūzikas ieteikumu sistēmu, piemēram, Spotify. Vietējais skaidrojums atbildētu: "Kāpēc sistēma jums tieši tagad ieteica šo konkrēto Adeles dziesmu?" Izskaidrojums varētu būt šāds: "Jo nesen klausījāties vairākas citas emocionālas balādes un sieviešu vokālistu dziesmas."
Visbeidzot, apskatīsim uz vērtībām balstītu skaidrojumu (piemēram, Shapley Additive Explanations (SHAP) datu iekļaušanu lēmuma skaidrojumā: šī ir niansētāka iezīmes svarīguma versija, kas atbild: “Kā katrs faktors ietekmēja lēmumu vienā vai otrā veidā?” Tas palīdz iztēloties, kas bija svarīgs un vai tā ietekme bija pozitīva vai negatīva. Piemērs. Iedomājieties, ka banka izmanto AI modeli, lai izlemtu, vai apstiprināt aizdevuma pieteikumu.
Iezīmes nozīme: modeļa izvade varētu parādīt, ka pieteikuma iesniedzēja kredītreitings, ienākumi un parāda attiecība pret ienākumiem bija vissvarīgākie faktori tā lēmumā. Tas atbild uz to, kas bija svarīgi. Iezīmju nozīme ar vērtībām balstītiem skaidrojumiem (SHAP): SHAP vērtībām, pamatojoties uz modeļa elementiem, būtu vēl lielāka nozīme.
Apstiprināta aizdevuma gadījumā SHAP varētu parādīt, ka augsts kredītreitings būtiski pamudināja lēmumu pieņemt apstiprinājumu (pozitīva ietekme), savukārt nedaudz augstāka nekā vidējā parāda attiecība pret ienākumiem to nedaudz atvilka (negatīva ietekme), taču nepietiekami, lai atteiktu aizdevumu. Attiecībā uz atteiktu aizdevumu SHAP varētu atklāt, ka zemie ienākumi un lielais nesen veikto kredīta pieprasījumu skaits spēcīgi pamudināja lēmumu atteikt, pat ja kredītreitings bija pienācīgs.
Tas palīdz aizdevuma amatpersonai izskaidrot pieteikuma iesniedzējam papildus tam, kas tika apsvērts, kā katrs faktors veicināja galīgo “jā” vai “nē” lēmumu. Ir ļoti svarīgi apzināties, ka spēja sniegt labus skaidrojumus bieži vien sākas daudz agrāk izstrādes ciklā. Datu zinātniekiem un inženieriem ir galvenā loma, apzināti strukturējot modeļus un datu cauruļvadus tā, lai tie pēc būtības atbalstītu izskaidrojamību, nevis mēģinātu to izmantot kā pēcpārdomu. Pētniecības un projektēšanas komandas to var veicināt, uzsākot agrīnas sarunas ar datu zinātniekiem un inženieriem par lietotāju vajadzībām pēc izpratnes, sniedzot ieguldījumu izskaidrojamības metrikas izstrādē un kopīgi veidojot paskaidrojumus, lai nodrošinātu, ka tie ir gan precīzi, gan lietotājam draudzīgi. XAI un ētiskais AI: neobjektivitātes un atbildības izpakošana Papildus uzticības veidošanai XAI spēlē būtisku lomu AI* dziļo ētisko seku risināšanā, jo īpaši attiecībā uz algoritmu neobjektivitāti. Izskaidrojamības metodes, piemēram, SHAP vērtību analīze, var atklāt, vai modeļa lēmumus nesamērīgi ietekmē sensitīvi atribūti, piemēram, rase, dzimums vai sociālekonomiskais statuss, pat ja šie faktori nav tieši izmantoti kā tiešs ievads. Piemēram, ja aizdevuma apstiprināšanas modelis konsekventi piešķir negatīvas SHAP vērtības pieteikuma iesniedzējiem no noteiktas demogrāfiskas grupas, tas norāda uz iespējamu novirzi, kas ir jāizpēta, dodot komandām iespēju atklāt un mazināt šādus negodīgus rezultātus. XAI jauda ir saistīta arī ar "izskaidrojamās mazgāšanas" potenciālu. Tāpat kā “zaļā mazgāšana” maldina patērētājus par vides praksi, izskaidrojamības mazgāšana var notikt, ja skaidrojumi ir paredzēti, lai slēptu, nevis izgaismotu problemātisku algoritmisko uzvedību vai raksturīgās novirzes. Tas varētu izpausties kā pārāk vienkāršoti skaidrojumi, kuros nav iekļauti būtiski ietekmējošie faktori, vai skaidrojumi, kas stratēģiski nosaka rezultātus, lai tie izskatītos neitrālāki vai taisnīgāki, nekā tie patiesībā ir. Tas uzsver UX praktiķu ētisko atbildību izstrādāt patiesi pārredzamus un pārbaudāmus skaidrojumus. UX profesionāļiem sadarbībā ar datu zinātniekiem un ētikas speciālistiem ir izšķiroša atbildība, paziņojot par lēmuma iemeslu, kā arī par pamatā esošā AI modeļa ierobežojumiem un iespējamām novirzēm. Tas ietver reālistisku lietotāju cerības par AI precizitāti, identificēšanu, kur modelis varētu būt mazāk uzticams, un skaidru kanālu nodrošināšanu atsauksmēm vai atsauksmēm, ja lietotāji uztver negodīgus vai nepareizus rezultātus. Proaktīvi to risināšanaētiskās dimensijas ļaus mums izveidot patiesi taisnīgas un uzticamas AI sistēmas. No metodēm līdz maketiem: praktiski XAI dizaina modeļi Zināt jēdzienus ir viena lieta; to projektēšana ir cita lieta. Lūk, kā mēs varam pārvērst šīs XAI metodes intuitīvos dizaina modeļos. 1. paraugs: paziņojums “Tāpēc” (līdzekļa nozīmīgumam) Šis ir vienkāršākais un bieži vien visefektīvākais modelis. Tas ir tiešs, vienkāršā valodā izteikts paziņojums, kas atklāj AI darbības galveno iemeslu.
Heiristika: esiet tiešs un kodolīgs. Vadiet ar vienu visietekmīgāko iemeslu. Izvairieties no žargona par katru cenu.
Piemērs: iedomājieties mūzikas straumēšanas pakalpojumu. Tā vietā, lai vienkārši prezentētu atskaņošanas sarakstu “Discover Weekly”, jūs pievienojat nelielu mikrokopijas rindiņu. Dziesmas ieteikums: “Velvet Morning”, jo klausāties “The Fuzz” un citu psihedēlisko roku.
2. paraugs: interaktīvais pasākums “Kas būtu, ja būtu” (pretfaktuāliem) Kontrafaktuāli pēc būtības ir saistīti ar iespēju palielināšanu. Labākais veids, kā tos pārstāvēt, ir nodrošināt lietotājiem interaktīvus rīkus, lai viņi paši varētu izpētīt iespējas. Tas ir lieliski piemērots finanšu, veselības vai citiem mērķtiecīgiem lietojumiem.
Heiristika: padariet skaidrojumus interaktīvus un sniedzošus spēkus. Ļaujiet lietotājiem redzēt savas izvēles iemeslus un sekas.
Piemērs: aizdevuma pieteikuma saskarne. Pēc noliegšanas, nevis strupceļa vietā, lietotājs iegūst rīku, lai noteiktu, kā varētu izpausties dažādi scenāriji (kā būtu, ja) (sk. 1. attēlu).
3. raksts: izcelšanas spole (vietējiem skaidrojumiem) Kad mākslīgais intelekts veic darbību ar lietotāja saturu (piemēram, apkopo dokumentu vai identificē sejas fotoattēlos), paskaidrojumam jābūt vizuāli saistītam ar avotu.
Heiristiskais: izmantojiet vizuālas norādes, piemēram, izcelšanu, kontūras vai anotācijas, lai skaidrojumu tieši savienotu ar interfeisa elementu, ko tas izskaidro.
Piemērs: mākslīgā intelekta rīks, kas apkopo garus rakstus. AI ģenerēts kopsavilkums: Sākotnējais pētījums parādīja tirgus plaisu ilgtspējīgiem produktiem. Avots dokumentā: “...Mūsu 2. ceturkšņa tirgus tendenču analīze pārliecinoši parādīja, ka neviens nozīmīgs konkurents efektīvi neapkalpo videi draudzīgu patērētāju, atklājot ievērojamu tirgus plaisu ilgtspējīgiem produktiem...”
4. paraugs: stumšanas un vilkšanas vizuālais attēls (uz vērtību balstītiem skaidrojumiem) Lai pieņemtu sarežģītākus lēmumus, lietotājiem, iespējams, būs jāsaprot faktoru mijiedarbība. Vienkāršas datu vizualizācijas var to skaidri parādīt, nepārvarot.
Heiristiskais: izmantojiet vienkāršas, ar krāsu kodētu datu vizualizācijas (piemēram, joslu diagrammas), lai parādītu faktorus, kas pozitīvi un negatīvi ietekmēja lēmumu.
Piemērs: mākslīgais intelekts pārbauda kandidāta profilu darbam.Kāpēc šis kandidāts atbilst 75%:Faktori, kas palielina rezultātu:5+ gadi UX pētniecības pieredze, kas prasmīgi lieto PythonFactors, samazina rezultātu:nav pieredzes ar B2B SaaS
Šo dizaina modeļu apgūšana un izmantošana jūsu AI produkta UX palīdzēs palielināt izskaidrojamību. Varat arī izmantot papildu paņēmienus, par kuriem es šeit nerunāju padziļināti. Tas ietver:
Dabiskās valodas skaidrojumi: AI tehnisko rezultātu tulkošana vienkāršā, sarunvalodas cilvēku valodā, ko nespeciālisti var viegli saprast. Kontekstuālie skaidrojumi: sniedzot pamatojumu AI izvadei konkrētajā brīdī un vietā, tas visvairāk atbilst lietotāja uzdevumam. Attiecīgās vizualizācijas: izmantojiet diagrammas, diagrammas vai siltuma kartes, lai vizuāli attēlotu AI lēmumu pieņemšanas procesu, padarot sarežģītus datus intuitīvus un lietotājiem vieglāk uztveramus.
Piezīme priekšgalam: šo izskaidrojamības rezultātu pārvēršana vienlaidus lietotāja pieredzē ir arī savs tehnisku apsvērumu kopums. Priekšgala izstrādātāji bieži cīnās ar API dizainu, lai efektīvi izgūtu skaidrojuma datus, un veiktspējas ietekmei (piemēram, katras lietotāja mijiedarbības skaidrojumu ģenerēšanai reāllaikā) ir rūpīgi jāplāno, lai izvairītos no latentuma. Daži reālās pasaules piemēri UPS Capital's DeliveryDefense UPS izmanto AI, lai adresēm piešķirtu “piegādes ticamības rādītāju”, lai prognozētu pakas nozagšanas iespējamību. Viņu programmatūra DeliveryDefense analizē vēsturiskos datus par atrašanās vietu, zaudējumu biežumu un citiem faktoriem. Ja adresei ir zems vērtējums, sistēma var proaktīvi pāradresēt pakotni uz drošu UPS piekļuves punktu, sniedzot lēmuma skaidrojumu (piem., “Paka pāradresēta uz drošu vietu zādzības vēstures dēļ”). Šī sistēma parāda, kā XAI var izmantot riska mazināšanai un klientu uzticības veidošanaicaurspīdīgums. Autonomie transportlīdzekļi Šiem nākotnes transportlīdzekļiem būs efektīvi jāizmanto XAI, lai palīdzētu saviem transportlīdzekļiem pieņemt drošus, saprotamus lēmumus. Kad pašbraucoša automašīna pēkšņi bremzē, sistēma var sniegt reāllaika skaidrojumu savai darbībai, piemēram, identificējot gājēju, kas uzkāpj uz ceļa. Tas ir svarīgi ne tikai pasažieru komfortam un uzticībai, bet arī normatīva prasība, lai pierādītu AI sistēmas drošību un atbildību. IBM Watson Health (un tās izaicinājumi) Lai gan tas bieži tiek minēts kā vispārējs AI piemērs veselības aprūpē, tas ir arī vērtīgs gadījuma pētījums par XAI nozīmi. Tā Watson for Oncology projekta neveiksme parāda, kas var noiet greizi, ja paskaidrojumi nav skaidri vai ja pamatā esošie dati ir neobjektīvi vai nav lokalizēti. Sistēmas ieteikumi dažkārt bija pretrunā ar vietējo klīnisko praksi, jo tie bija balstīti uz ASV orientētām vadlīnijām. Tas kalpo kā brīdinājuma stāsts par nepieciešamību pēc spēcīgas, kontekstu apzinošas izskaidrojamības. UX pētnieka loma: skaidrojumu noteikšana un apstiprināšana Mūsu dizaina risinājumi ir efektīvi tikai tad, ja tie īstajā laikā risina pareizos lietotāju jautājumus. Paskaidrojums, kas atbild uz jautājumu, kas lietotājam nav, ir tikai troksnis. Šeit UX izpēte kļūst par kritisko saistaudu XAI stratēģijā, nodrošinot, ka mēs lietotājiem izskaidrojam, kas un kā tas patiesībā ir svarīgi. Pētnieka loma ir divējāda: pirmkārt, informēt stratēģiju, nosakot, kur ir nepieciešami paskaidrojumi, un, otrkārt, apstiprināt dizainus, kas sniedz šos skaidrojumus. Informācija par XAI stratēģiju (ko izskaidrot) Pirms mēs varam izstrādāt vienu skaidrojumu, mums ir jāsaprot lietotāja AI sistēmas garīgais modelis. Ko viņi tic, ka tas dara? Kur ir plaisas starp viņu izpratni un sistēmas realitāti? Tas ir UX pētnieka pamatdarbs. Garīgās modeļu intervijas: AI sistēmu lietotāju uztveres izpakošana Izmantojot dziļas, daļēji strukturētas intervijas, UX praktiķi var gūt nenovērtējamu ieskatu par to, kā lietotāji uztver un izprot AI sistēmas. Šīs sesijas ir paredzētas, lai mudinātu lietotājus burtiski uzzīmēt vai aprakstīt savu iekšējo “garīgo modeli”, kā viņi uzskata, ka AI darbojas. Tas bieži ietver atvērtu jautājumu uzdošanu, kas mudina lietotājus izskaidrot sistēmas loģiku, tās ievades un izvades, kā arī attiecības starp šiem elementiem. Šīs intervijas ir spēcīgas, jo tās bieži atklāj dziļus nepareizus priekšstatus un pieņēmumus, kas lietotājiem ir par AI. Piemēram, lietotājs, kas mijiedarbojas ar ieteikumu programmu, var droši apgalvot, ka sistēma ir balstīta tikai uz viņa iepriekšējo skatīšanās vēsturi. Viņi, iespējams, neapzinās, ka algoritms ietver arī daudzus citus faktorus, piemēram, diennakts laiku, kurā viņi pārlūko, pašreizējās tendences platformā vai pat līdzīgu lietotāju skatīšanās paradumus. Ir ļoti svarīgi atklāt šo plaisu starp lietotāja garīgo modeli un faktisko pamatā esošo AI loģiku. Tas mums precīzi norāda, kāda konkrēta informācija mums ir jāpaziņo lietotājiem, lai palīdzētu viņiem izveidot precīzāku un stabilāku sistēmas garīgo modeli. Tas savukārt ir būtisks solis uzticības veicināšanā. Ja lietotāji pat augstā līmenī saprot, kā AI nonāk pie saviem secinājumiem vai ieteikumiem, viņi, visticamāk, uzticēsies tā rezultātiem un paļausies uz tā funkcionalitāti. AI ceļojuma kartēšana: dziļa iedziļināšanās lietotāju uzticībā un izskaidrojamībā Rūpīgi kartējot lietotāja ceļojumu ar AI darbinātu funkciju, mēs gūstam nenovērtējamu ieskatu precīzos brīžos, kuros rodas apjukums, vilšanās vai pat dziļa neuzticēšanās. Tas atklāj kritiskus posmus, kad lietotāja garīgais AI darbības modelis ir pretrunā ar tā faktisko uzvedību. Apsveriet iespēju izmantot mūzikas straumēšanas pakalpojumu: vai lietotāja uzticība krītas, ja atskaņošanas saraksta ieteikums šķiet “nejaušs”, un tam trūkst saskatāmas saistības ar viņu iepriekšējiem klausīšanās paradumiem vai norādītajām vēlmēm? Šī uztvertā nejaušība ir tiešs izaicinājums lietotāja cerībām uz saprātīgu pārvaldību un netiešā solījuma, ka AI saprot viņu gaumi, pārkāpums. Līdzīgi, vai fotoattēlu pārvaldības lietojumprogrammā lietotāji izjūt ievērojamu neapmierinātību, ja AI fotoattēlu marķēšanas funkcija pastāvīgi nepareizi identificē lolotu ģimenes locekli? Šī kļūda ir vairāk nekā tehniska kļūme; tas pārsteidz precizitātes, personalizācijas un vienmērības centrāemocionālā saikne. Šie sāpju punkti ir spilgti signāli, kas precīzi norāda, kur ir nepieciešams labi izvietots, skaidrs un kodolīgs skaidrojums. Šādi skaidrojumi kalpo kā būtiski labošanas mehānismi, kas novērš uzticības pārkāpumu, kas, ja to nerisina, var novest pie lietotāja pamešanas. AI ceļojumu kartēšanas spēks slēpjas tās spējā palīdzēt mums ne tikai izskaidrot AI sistēmas gala rezultātu. Lai gan ir svarīgi saprast, ko radījis AI, ar to bieži vien nepietiek. Tā vietā šis process liek mums koncentrēties uz procesa izskaidrošanu kritiskos brīžos. Tas nozīmē adresēt:
Kāpēc tika ģenerēta konkrēta izvade: vai tas bija saistīts ar konkrētiem ievades datiem? Konkrēta modeļa arhitektūra? Kādi faktori ietekmēja AI lēmumu: vai noteiktas funkcijas tika svērtas vairāk? Kā AI nonāca pie secinājuma: vai mēs varam piedāvāt vienkāršotu, analoģisku tā iekšējās darbības skaidrojumu? Kādus pieņēmumus veica AI: vai bija netieša izpratne par lietotāja nodomu vai datiem, kas ir jāatklāj? Kādi ir mākslīgā intelekta ierobežojumi: Skaidra paziņošana par to, ko AI nevar paveikt vai kur tā precizitāte var svārstīties, rada reālas cerības.
AI ceļojumu kartēšana pārveido abstrakto XAI koncepciju par praktisku, praktiski izmantojamu sistēmu UX praktiķiem. Tas ļauj mums pāriet no teorētiskām diskusijām par izskaidrojamību un tā vietā precīzi noteikt brīžus, kad uz spēles ir likta lietotāju uzticēšanās, sniedzot nepieciešamos ieskatus, lai veidotu jaudīgu, caurspīdīgu, saprotamu un uzticamu AI pieredzi. Galu galā pētniecība ir veids, kā mēs atklājam nezināmo. Iespējams, jūsu komanda apspriež, kā izskaidrot, kāpēc aizdevums tika atteikts, taču pētījumi var atklāt, ka lietotājiem daudz vairāk rūp izpratne par to, kā viņu dati tika izmantoti. Bez izpētes mēs vienkārši uzminējam, par ko interesējas mūsu lietotāji. Sadarbība dizaina jomā (kā izskaidrot savu AI) Kad pētījumi ir noskaidrojuši, ko izskaidrot, sākas sadarbības cilpa ar dizainu. Dizaineri var prototipēt modeļus, par kuriem mēs runājām iepriekš, — paziņojumu “Tāpēc”, interaktīvos slīdņus —, un pētnieki var nodot šos dizainus lietotājiem, lai redzētu, vai tie iztur. Mērķtiecīga lietojamības un izpratnes pārbaude: mēs varam izstrādāt pētījumus, kas īpaši pārbauda XAI komponentus. Mēs ne tikai jautājam: "Vai tas ir viegli lietojams?" Mēs jautājam: "Vai varat man saviem vārdiem pastāstīt, kāpēc sistēma ieteica šo produktu?" vai "Parādiet man, ko jūs darītu, lai redzētu, vai varētu iegūt citu rezultātu." Mērķis šeit ir novērtēt izpratni un darbību, kā arī lietojamību. Pašas uzticības mērīšana: mēs varam izmantot vienkāršas aptaujas un vērtēšanas skalas pirms un pēc paskaidrojuma parādīšanas. Piemēram, mēs varam jautāt lietotājam 5 baļļu skalā: “Cik ļoti jūs uzticaties šim ieteikumam?” pirms viņi redz paziņojumu “Tāpēc”, un pēc tam jautājiet viņiem vēlreiz. Tas sniedz kvantitatīvus datus par to, vai mūsu skaidrojumi patiešām liek uzticēties. Šis process rada spēcīgu, iteratīvu cilpu. Pētījuma rezultāti norāda uz sākotnējo dizainu. Pēc tam šis dizains tiek pārbaudīts, un jaunie atklājumi tiek nodoti dizaina komandai pilnveidošanai. Varbūt apgalvojums “Tāpēc”, ka bija pārāk žargonisks, vai slīdnis “Kas būtu, ja” bija vairāk mulsinošs, nevis pilnvarojošs. Izmantojot šo kopīgu validāciju, mēs nodrošinām, ka galīgie skaidrojumi ir tehniski precīzi, patiesi saprotami, noderīgi un vairo uzticību cilvēkiem, kuri izmanto produktu. Zeltiņziežu skaidrojuma zona Kritisks piesardzības vārds: ir iespējams pārmērīgi izskaidrot. Tāpat kā pasakā, kur Zeltītis meklēja “īsto” putru, laba skaidrojuma mērķis ir sniegt pareizo detaļu daudzumu — ne pārāk daudz un ne pārāk maz. Lietotāja bombardēšana ar katru modeļa mainīgo novedīs pie kognitīvās pārslodzes un faktiski var samazināt uzticēšanos. Mērķis nav padarīt lietotāju par datu zinātnieku. Viens no risinājumiem ir pakāpeniska atklāšana.
Sāciet ar vienkāršu. Ievadiet īsu paziņojumu “Tāpēc, ka”. Lielākajai daļai lietotāju ar to pietiks. Piedāvājiet ceļu uz detaļām. Norādiet skaidru, zemas berzes saiti, piemēram, “Uzziniet vairāk” vai “Skatiet, kā tas tika noteikts”. Atklājiet sarežģītību. Aiz šīs saites varat piedāvāt interaktīvos slīdņus, vizualizācijas vai detalizētāku veicinošo faktoru sarakstu.
Šī daudzslāņu pieeja respektē lietotāja uzmanību un zināšanas, nodrošinot tieši vajadzīgo daudzumuinformāciju savām vajadzībām. Pieņemsim, ka izmantojat viedās mājas ierīci, kas iesaka optimālu apkuri, pamatojoties uz dažādiem faktoriem. Sāciet ar vienkāršu: “Jūsu mājoklis pašlaik ir apsildīts līdz 72 grādiem, kas ir optimālā temperatūra enerģijas taupīšanai un komfortam.” Piedāvājiet ceļu uz detaļām: zem tās ir neliela saite vai poga: "Kāpēc 72 grādi ir optimāli?" Atklājiet sarežģītību: noklikšķinot uz šīs saites, var tikt atvērts jauns ekrāns, kurā parādīts:
Interaktīvie slīdņi āra temperatūrai, mitrumam un vēlamajam komforta līmenim, parādot, kā tie pielāgo ieteicamo temperatūru. Enerģijas patēriņa vizualizācija dažādās temperatūrās. Veicinošo faktoru saraksts, piemēram, “Dienas laiks”, “Pašreizējā āra temperatūra”, “Vēsturiskais enerģijas patēriņš” un “Aizvienojuma sensori”.
Ir efektīvi apvienot vairākas XAI metodes, un šis Goldilocks skaidrojuma zonas modelis, kas atbalsta pakāpenisku izpaušanu, to netieši veicina. Varat sākt ar vienkāršu apgalvojumu “Tāpēc” (1. modelis), lai iegūtu tūlītēju izpratni, un pēc tam piedāvāt saiti “Uzzināt vairāk”, kas atklāj interaktīvu “Kas būtu, ja” (2. modelis) vai “Push-and-Pull Visual” (4. modelis) dziļākai izpētei. Piemēram, aizdevuma pieteikuma sistēma sākotnēji varētu norādīt galveno atteikuma iemeslu (funkcijas svarīgums), pēc tam ļaut lietotājam mijiedarboties ar rīku “Kas būtu, ja būtu”, lai redzētu, kā viņa ienākumu vai parādu izmaiņas mainītu iznākumu (kontrafaktu), un visbeidzot sniegt detalizētu “Push-and-Pull” diagrammu (paskaidrojums, kas balstīts uz vērtībām), lai ilustrētu visu faktoru pozitīvo un negatīvo ieguldījumu. Šī daudzslāņu pieeja ļauj lietotājiem piekļūt vajadzīgajam detalizācijas līmenim, kad tas ir nepieciešams, novēršot kognitīvo pārslodzi, vienlaikus nodrošinot visaptverošu pārredzamību. Izmantojamo XAI rīku un metožu noteikšana galvenokārt ir rūpīga UX izpētes funkcija. Garīgās modeļu intervijas un AI ceļojumu kartēšana ir ļoti svarīgas, lai precīzi noteiktu lietotāju vajadzības un problēmas, kas saistītas ar AI izpratni un uzticēšanos. Garīgās modeļu intervijas palīdz atklāt lietotāju nepareizus priekšstatus par AI darbību, norādot jomas, kurās ir nepieciešami būtiski skaidrojumi (piemēram, funkciju nozīmīgums vai vietējie skaidrojumi). No otras puses, mākslīgā intelekta ceļojumu kartēšana identificē kritiskos apjukuma vai neuzticēšanās brīžus lietotāja mijiedarbībā ar AI, norādot, kur sīkāki vai interaktīvāki skaidrojumi (piemēram, hipotētiski vai uz vērtībām balstīti skaidrojumi) būtu visizdevīgākie, lai atjaunotu uzticību un nodrošinātu aģentu.
Galu galā labākais veids, kā izvēlēties paņēmienu, ir ļaut lietotāju pētījumiem vadīt jūsu lēmumus, nodrošinot, ka jūsu izstrādātie paskaidrojumi ir tieši saistīti ar faktiskiem lietotāju jautājumiem un bažām, nevis vienkārši piedāvājot tehniskas detaļas viņu pašu labā. XAI dziļās spriešanas aģentiem Dažas no jaunākajām AI sistēmām, kas pazīstamas kā dziļās spriešanas aģenti, katram sarežģītam uzdevumam rada skaidru “domu ķēdi”. Viņi ne tikai atsaucas uz avotiem; tie parāda loģisko, soli pa solim ceļu, ko viņi veica, lai nonāktu pie secinājuma. Lai gan šī pārskatāmība nodrošina vērtīgu kontekstu, vairākas rindkopas aptveroša atskaņošana var šķist nepārvarama lietotājam, kurš vienkārši mēģina izpildīt uzdevumu. Šeit tiek piemēroti XAI principi, jo īpaši Goldilocks skaidrojuma zona. Mēs varam vadīt ceļojumu, izmantojot progresīvu izpaušanu, lai vispirms parādītu tikai galīgo secinājumu un vissvarīgāko soli domāšanas procesā. Pēc tam lietotāji var izvēlēties skatīt pilnu, detalizētu, daudzpakāpju pamatojumu, kad viņiem ir vēlreiz jāpārbauda loģika vai jāatrod konkrēts fakts. Šī pieeja respektē lietotāja uzmanību, vienlaikus saglabājot aģenta pilnīgu pārredzamību. Nākamās darbības: uzlabojiet savu XAI ceļojumu Izskaidrojamība ir būtisks pīlārs uzticamu un efektīvu AI produktu izveidei. Pieredzējušiem speciālistiem, kas vēlas ieviest šīs izmaiņas savā organizācijā, ceļojums sniedzas ne tikai dizaina modeļiem, bet arī aizstāvībai un pastāvīgai mācīšanās procesam. Lai padziļinātu izpratni un praktisko pielietojumu, apsveriet iespēju izpētīt resursus, piemēram, AI Explainability 360 (AIX360) rīkkopu no IBM Research vai Google rīku What-If, kas piedāvā interaktīvus veidus, kā izpētīt modeļu darbību un skaidrojumus. Sadarbošanās ar kopienām, piemēram, Atbildīgā AI forumā vai īpašām pētniecības grupām, kas koncentrējas uz cilvēku orientētu AI, var sniegt nenovērtējamu ieskatu un sadarbības iespējas. Visbeidzot, esiet XAI aizstāvis savā organizācijā.Rāmja izskaidrojamība kā stratēģisks ieguldījums. Apsveriet īsu prezentāciju savai vadībai vai starpfunkcionālajām komandām: "Ieguldot XAI, mēs ne tikai veicināsim uzticības veidošanu; mēs paātrināsim lietotāju pieņemšanu, samazināsim atbalsta izmaksas, sniedzot lietotājiem izpratni, un mazināsim nozīmīgus ētiskos un regulējošos riskus, atklājot iespējamos aizspriedumus. Tas ir labs dizains un gudrs bizness."
Jūsu balss, kuras pamatā ir praktiska izpratne, ir ļoti svarīga, lai mākslīgais intelekts izkļūtu no melnās kastes un izveidotu sadarbības partnerību ar lietotājiem.