U mom posljednjem članku utvrdili smo temeljnu istinu: da bi korisnici usvojili i oslonili se na AI, moraju joj vjerovati. Razgovarali smo o tome da je povjerenje višestruka konstrukcija, izgrađena na percepciji AI sposobnosti, dobrohotnosti, integriteta i predvidljivosti. Ali šta se dešava kada AI, u svojoj tihoj, algoritamskoj mudrosti, donese odluku koja korisnika ostavlja zbunjenim, frustriranim ili čak povređenim? Zahtjev za hipoteku je odbijen, omiljena pjesma je iznenada odsutna sa liste za reprodukciju, a kvalificirani životopis je odbijen prije nego što je čovjek ikad vidi. U ovim trenucima, sposobnost i predvidljivost su razbijeni, a dobronamjernost se osjeća kao svijet daleko. Naš razgovor sada mora evoluirati od zašto povjerenja do toga kako transparentnosti. Polje Objašnjive AI (XAI), koje se fokusira na razvoj metoda kako bi rezultati AI učinili razumljivim ljudima, pojavilo se kako bi se pozabavilo ovim, ali se često postavlja kao čisto tehnički izazov za naučnike podataka. Tvrdim da je to kritičan izazov dizajna za proizvode koji se oslanjaju na AI. Naš je posao kao UX profesionalaca da premostimo jaz između algoritamskog donošenja odluka i ljudskog razumijevanja. Ovaj članak pruža praktične, djelotvorne smjernice o tome kako istraživati ​​i dizajnirati za objašnjenje. Preći ćemo dalje od popularnih riječi i preći na makete, prevodeći složene XAI koncepte u konkretne obrasce dizajna koje možete početi koristiti već danas. De-mistificiranje XAI: Osnovni koncepti za UX praktičare XAI se odnosi na odgovor na pitanje korisnika: "Zašto?" Zašto mi je prikazan ovaj oglas? Zašto mi se preporučuje ovaj film? Zašto je moj zahtjev odbijen? Zamislite to kao AI koji pokazuje svoj rad na matematičkom problemu. Bez toga, samo imate odgovor i prisiljeni ste da ga prihvatite na vjeru. Pokazivanjem koraka gradite razumijevanje i povjerenje. Također dozvoljavate da vaš rad bude dvostruko provjeren i potvrđen od strane samih ljudi na koje utiče. Značaj i kontračinjenice Postoji niz tehnika koje možemo koristiti da razjasnimo ili objasnimo šta se dešava sa AI. Dok se metode kreću od pružanja cjelokupne logike stabla odlučivanja do generiranja sažetaka rezultata na prirodnom jeziku, dvije od najpraktičnijih i najutjecajnijih vrsta informacija koje UX praktičari mogu uvesti u iskustvo su značaj karakteristika (slika 1) i kontračinjenice. Oni su često najjednostavniji za razumijevanje za korisnike i najdjelotvorniji za dizajnere za implementaciju.

Značaj funkcije Ova metoda objašnjivosti daje odgovor: „Koji su bili najvažniji faktori koje je AI uzeo u obzir?“ Radi se o identificiranju prve 2-3 varijable koje su imale najveći utjecaj na ishod. To je naslov, a ne cela priča. Primjer: Zamislite AI koji predviđa da li će kupac odustati (otkazati svoju uslugu). Važnost karakteristika može otkriti da su „broj poziva za podršku u prošlom mjesecu“ i „skorašnja povećanja cijena“ dva najvažnija faktora u određivanju da li će klijent vjerovatno odustati.

Counterfactuals Ova moćna metoda odgovara: "Šta bih trebao promijeniti da bih dobio drugačiji ishod?" Ovo je ključno jer korisnicima daje osjećaj agencije. Preobražava frustrirajuće "ne" u djelotvorno "ne još". Primjer: Zamislite sistem zahtjeva za kredit koji koristi AI. Korisniku je odbijen kredit. Umjesto da se samo vidi "Aplikacija odbijena", protučinjenično objašnjenje bi također podijelilo: "Da je vaš kreditni rezultat bio 50 bodova veći, ili da je vaš omjer duga i prihoda bio 10% manji, vaš bi zajam bio odobren." Ovo daje Sari jasne korake koje može preduzeti kako bi potencijalno dobila zajam u budućnosti.

Korištenje podataka modela za poboljšanje objašnjenja Iako se tehničkim specifičnostima često bave naučnici podataka, za UX praktičare je korisno da znaju da su alati poput LIME (lokalno interpretabilna model-agnostička objašnjenja) koji objašnjava pojedinačna predviđanja aproksimacijom modela lokalno, i SHAP (Shapley Additive ExPlanations) koji koristi teoriju igara bilo koji pristup mašinskom učenju za objašnjenje ovih uobičajenih metoda za izvlačenje iz modela koji se koristi kao rezultat "izlaznih podataka" složeni modeli. Ove biblioteke u suštini pomažu razbiti odluku AI da pokaže koji su inputi bili najutjecajniji za dati ishod. Kada se urade ispravno, podaci koji su u osnovi odluke AI alata mogu se koristiti za ispričanje moćne priče. Prođimo kroz važnost karakteristika i kontračinjenice i pokažimo kako se znanost o podacima koja stoji iza odluke može iskoristiti za poboljšanje korisničkog iskustva. Sada hajdepokriti važnost karakteristika uz pomoć podataka Lokalnih objašnjenja (npr. LIME): Ovaj pristup odgovara: „Zašto je AI dala ovu konkretnu preporuku za mene, upravo sada?“ Umjesto općeg objašnjenja kako model funkcionira, on daje fokusirani razlog za jednu, specifičnu instancu. To je lično i kontekstualno. Primjer: Zamislite sistem muzičkih preporuka sa AI-om kao što je Spotify. Lokalno objašnjenje bi odgovorilo: "Zašto vam je sistem upravo sada preporučio ovu specifičnu pjesmu Adele?" Objašnjenje bi moglo biti: “Zato što ste nedavno slušali nekoliko drugih emotivnih balada i pjesama ženskih vokala.”

Na kraju, hajde da pokrijemo uključivanje objašnjenja zasnovanih na vrijednosti (npr. Shapley Additive Explanations (SHAP) podataka u objašnjenje odluke: Ovo je nijansiranija verzija važnosti karakteristika koja odgovara: „Kako je svaki faktor potaknuo odluku na ovaj ili onaj način?“ Pomaže vizualizirati ono što je važno i da li je njegov utjecaj bio pozitivan ili negativan. Primjer: Zamislite da banka koristi AI model da odluči hoće li odobriti zahtjev za kredit.

Značaj karakteristike: Izlaz modela može pokazati da su aplikantov kreditni rezultat, prihod i omjer duga i prihoda bili najvažniji faktori u njegovoj odluci. Ovo daje odgovor na ono što je važno. Važnost karakteristika sa objašnjenjima zasnovanim na vrednosti (SHAP): SHAP vrednosti bi dodatno preuzele važnost karakteristika na osnovu elemenata modela.

Za odobreni kredit, SHAP bi mogao pokazati da je visok kreditni rezultat značajno pogurao odluku prema odobrenju (pozitivan utjecaj), dok je nešto veći od prosjeka omjer duga i prihoda malo povukao (negativan utjecaj), ali ne dovoljno da odbije kredit. Za odbijeni kredit, SHAP bi mogao otkriti da su nizak prihod i veliki broj nedavnih kreditnih upita snažno gurnuli odluku ka odbijanju, čak i ako je kreditni rezultat bio pristojan.

Ovo pomaže kreditnom službeniku da objasni podnosiocu zahtjeva osim onoga što je razmatrano, kako je svaki faktor doprinio konačnoj odluci „da“ ili „ne“. Ključno je prepoznati da sposobnost pružanja dobrih objašnjenja često počinje mnogo ranije u razvojnom ciklusu. Naučnici i inženjeri podataka igraju ključnu ulogu tako što namjerno strukturiraju modele i cevovode podataka na načine koji inherentno podržavaju objašnjivost, umjesto da pokušavaju da to pričvrste kao naknadnu misao. Istraživački i dizajnerski timovi to mogu potaknuti pokretanjem ranih razgovora sa naučnicima za podatke i inženjerima o potrebama korisnika za razumijevanjem, doprinoseći razvoju metrike objašnjivosti i kolaborativnom izradi prototipova objašnjenja kako bi se osiguralo da su tačna i laka za korištenje. XAI i etička umjetna inteligencija: raspakivanje pristranosti i odgovornosti Osim izgradnje povjerenja, XAI igra ključnu ulogu u rješavanju dubokih etičkih implikacija AI*, posebno u pogledu algoritamske pristranosti. Tehnike objašnjivosti, kao što je analiza SHAP vrijednosti, mogu otkriti da li su na odluke modela nesrazmjerno pod utjecajem osjetljivih atributa kao što su rasa, spol ili socioekonomski status, čak i ako ti faktori nisu eksplicitno korišteni kao direktni inputi. Na primjer, ako model odobravanja kredita konzistentno dodjeljuje negativne SHAP vrijednosti podnosiocima zahtjeva iz određene demografske kategorije, to signalizira potencijalnu pristrasnost koju treba istražiti, osnažujući timove da isplivaju na površinu i ublaže takve nepravedne ishode. Snaga XAI također dolazi s potencijalom za „ispiranje objašnjivosti“. Baš kao što „greenwashing“ dovodi potrošače u zabludu o ekološkim praksama, pranje objašnjivosti može se desiti kada su objašnjenja osmišljena da prikriju, a ne da osvetle, problematično algoritamsko ponašanje ili inherentne predrasude. Ovo bi se moglo manifestirati kao previše pojednostavljena objašnjenja koja izostavljaju kritične faktore utjecaja, ili objašnjenja koja strateški uokviruju rezultate tako da izgledaju neutralnije ili pravednije nego što zaista jesu. To naglašava etičku odgovornost UX praktičara da osmisle objašnjenja koja su istinski transparentna i provjerljiva. UX profesionalci, u saradnji sa naučnicima podataka i etičarima, imaju ključnu odgovornost u prenošenju razloga za odluku, kao i ograničenja i potencijalne pristranosti osnovnog AI modela. Ovo uključuje postavljanje realističnih očekivanja korisnika o preciznosti umjetne inteligencije, utvrđivanje gdje bi model mogao biti manje pouzdan i pružanje jasnih kanala za pribjegavanje ili povratnu informaciju kada korisnici uoče nepravedne ili netačne rezultate. Proaktivno rješavanje ovih pitanjaetičke dimenzije će nam omogućiti da izgradimo AI sisteme koji su zaista pravedni i pouzdani. Od metoda do modela: praktični obrasci dizajna XAI Poznavanje koncepata je jedna stvar; njihovo dizajniranje je drugo. Evo kako možemo prevesti ove XAI metode u intuitivne obrasce dizajna. Obrazac 1: Izjava "Because" (za važnost značajke) Ovo je najjednostavniji i često najefikasniji obrazac. To je direktna izjava na jednostavnom jeziku koja pokazuje primarni razlog za akciju AI.

Heuristički: Budite direktni i koncizni. Vodite s jednim jedinim najutjecajnijim razlogom. Izbjegavajte žargon po svaku cijenu.

Primjer: Zamislite uslugu striminga muzike. Umesto samo predstavljanja liste pesama „Discover Weekly“, dodajete mali red mikrokopije. Preporuka za pesmu: „Velvet Morning“ Zato što slušate „The Fuzz“ i drugi psihodelični rok.

Obrazac 2: Interaktivnost "šta-ako" (za kontračinjenice) Kontračinjenice su inherentno vezane za osnaživanje. Najbolji način da ih predstavite je dajući korisnicima interaktivne alate da sami istražuju mogućnosti. Ovo je savršeno za finansijske, zdravstvene ili druge ciljane aplikacije.

Heuristički: Neka objašnjenja budu interaktivna i osnažujuća. Neka korisnici vide uzrok i posljedice svojih izbora.

Primjer: Interfejs aplikacije za kredit. Nakon odbijanja, umjesto ćorsokaka, korisnik dobiva alat za određivanje kako se različiti scenariji (šta ako) mogu odigrati (vidi sliku 1).

Obrazac 3: Highlight Reel (za lokalna objašnjenja) Kada AI izvrši radnju na sadržaju korisnika (kao što je sumiranje dokumenta ili prepoznavanje lica na fotografijama), objašnjenje bi trebalo biti vizualno povezano s izvorom.

Heuristički: Koristite vizualne znakove kao što su isticanje, obrisi ili napomene da biste direktno povezali objašnjenje s elementom sučelja koji objašnjava.

Primjer: AI alat koji sumira dugačke članke. Tačka sažetka generisana AI: Početno istraživanje je pokazalo tržišni jaz za održive proizvode. Izvor u dokumentu: „...Naša Q2 analiza tržišnih trendova je konačno pokazala da nijedan veliki konkurent nije efikasno služio ekološki osviještenom potrošaču, otkrivajući značajan jaz na tržištu...”

Obrazac 4: Gura i povuci vizual (za objašnjenja zasnovana na vrijednosti) Za složenije odluke, korisnici će možda morati razumjeti međudjelovanje faktora. Jednostavne vizualizacije podataka mogu ovo razjasniti, a da pritom ne budu pretjerane.

Heuristički: Koristite jednostavne vizualizacije podataka označene bojama (poput trakastih dijagrama) da pokažete faktore koji su pozitivno i negativno utjecali na odluku.

Primjer: AI provjerava profil kandidata za posao. Zašto se ovaj kandidat podudara sa 75%: Faktori koji povećavaju rezultat: 5+ godina iskustva u istraživanju UX-a Stručni u Python faktorima koji smanjuju rezultat: Nema iskustva s B2B SaaS-om

Učenje i korištenje ovih obrazaca dizajna u korisničkom doživljaju vašeg AI proizvoda pomoći će u povećanju objašnjivosti. Također možete koristiti dodatne tehnike koje ovdje ne obrađujem detaljno. Ovo uključuje sljedeće:

Objašnjenja prirodnog jezika: Prevođenje tehničkog rezultata AI u jednostavan, razgovorni ljudski jezik koji nestručnjaci mogu lako razumjeti. Kontekstualna objašnjenja: dajući obrazloženje za izlaz AI u određenom trenutku i na određenoj lokaciji, ono je najrelevantnije za zadatak korisnika. Relevantne vizualizacije: korištenje grafikona, grafikona ili toplotnih mapa za vizualno predstavljanje procesa donošenja odluka AI, čineći složene podatke intuitivnim i lakšim za korisnike.

Napomena za prednji kraj: Prevođenje ovih izlaza objašnjenja u besprijekorno korisničko iskustvo također predstavlja vlastiti skup tehničkih razmatranja. Front-end programeri se često bore sa API dizajnom kako bi efikasno dohvatili podatke objašnjenja, a implikacije na performanse (kao što je generisanje objašnjenja u realnom vremenu za svaku interakciju korisnika) potrebno je pažljivo planiranje kako bi se izbeglo kašnjenje. Neki primjeri iz stvarnog svijeta UPS Capital's DeliveryDefence UPS koristi AI da dodijeli „ocenu pouzdanosti isporuke“ adresama kako bi predvidio vjerovatnoću krađe paketa. Njihov DeliveryDefense softver analizira istorijske podatke o lokaciji, učestalosti gubitaka i drugim faktorima. Ako adresa ima nizak rezultat, sistem može proaktivno preusmjeriti paket na sigurnu UPS pristupnu tačku, dajući objašnjenje za odluku (npr. „Paket je preusmjeren na bezbednu lokaciju zbog istorije krađe“). Ovaj sistem pokazuje kako se XAI može koristiti za smanjenje rizika i izgradnju povjerenja kupacatransparentnost. Autonomna vozila Ova vozila budućnosti će morati da efikasno koriste XAI kako bi pomogli svojim vozilima da donesu sigurne, objašnjive odluke. Kada samovozeći automobil iznenada zakoči, sistem može pružiti objašnjenje za svoje djelovanje u realnom vremenu, na primjer, identifikacijom pješaka koji stupa na cestu. Ovo nije samo ključno za udobnost i povjerenje putnika, već je i regulatorni zahtjev za dokazivanje sigurnosti i odgovornosti AI sistema. IBM Watson Health (i njegovi izazovi) Iako se često navodi kao opći primjer AI u zdravstvu, to je također vrijedna studija slučaja o važnosti XAI. Neuspjeh projekta Watson for Oncology naglašava šta može poći po zlu kada objašnjenja nisu jasna, ili kada su osnovni podaci pristrani ili nisu lokalizirani. Preporuke sistema ponekad nisu bile u skladu s lokalnom kliničkom praksom jer su bile zasnovane na smjernicama usmjerenim na SAD. Ovo služi kao opomena o potrebi za robusnom, kontekstualno svjesnom objašnjivosti. Uloga UX istraživača: Određivanje i potvrđivanje objašnjenja Naša dizajnerska rješenja su efikasna samo ako se bave pravim korisničkim pitanjima u pravo vrijeme. Objašnjenje koje odgovara na pitanje koje korisnik nema je samo buka. Ovdje UX istraživanje postaje kritično vezivno tkivo u XAI strategiji, osiguravajući da našim korisnicima objasnimo šta i kako je to zapravo važno. Uloga istraživača je dvojaka: prvo, da informiše strategiju identifikujući gde su potrebna objašnjenja, i drugo, da potvrdi dizajn koji daje ta objašnjenja. Informiranje o XAI strategiji (šta objasniti) Prije nego što možemo osmisliti jedno objašnjenje, moramo razumjeti korisnikov mentalni model AI sistema. Šta oni vjeruju da to radi? Gdje su jaz između njihovog razumijevanja i stvarnosti sistema? Ovo je temeljni rad UX istraživača. Intervjui mentalnog modela: raspakivanje korisničkih percepcija sistema veštačke inteligencije Kroz duboke, polustrukturirane intervjue, UX praktičari mogu steći neprocjenjiv uvid u to kako korisnici percipiraju i razumiju AI sisteme. Ove sesije su osmišljene da ohrabre korisnike da doslovno nacrtaju ili opišu svoj interni „mentalni model“ kako vjeruju da AI funkcionira. Ovo često uključuje postavljanje otvorenih pitanja koja podstiču korisnike da objasne logiku sistema, njegove ulaze i izlaze, kao i odnose između ovih elemenata. Ovi intervjui su moćni jer često otkrivaju duboke zablude i pretpostavke koje korisnici imaju o AI. Na primjer, korisnik koji stupa u interakciju sa mašinom za preporuke može sa sigurnošću tvrditi da je sistem zasnovan isključivo na njihovoj prošloj historiji gledanja. Oni možda neće shvatiti da algoritam također uključuje mnoštvo drugih faktora, kao što su doba dana u koje pregledavaju, trenutni trendovi na platformi, ili čak navike gledanja sličnih korisnika. Otkrivanje ovog jaza između korisničkog mentalnog modela i stvarne osnovne logike AI je od kritične važnosti. Ona nam precizno govori koje specifične informacije trebamo da saopštimo korisnicima kako bismo im pomogli da izgrade precizniji i robusniji mentalni model sistema. Ovo je, pak, temeljni korak u negovanju povjerenja. Kada korisnici razumiju, čak i na visokom nivou, kako AI dolazi do svojih zaključaka ili preporuka, vjerojatnije je da će vjerovati njegovim rezultatima i oslanjati se na njegovu funkcionalnost. AI mapiranje putovanja: Duboko uronjenje u povjerenje korisnika i objašnjivost Pažljivim mapiranjem korisničkog putovanja pomoću funkcije AI-a, stičemo neprocjenjiv uvid u precizne trenutke u kojima se pojavljuju zbunjenost, frustracija ili čak duboko nepovjerenje. Ovo otkriva kritične tačke u kojima se mentalni model korisnika o tome kako AI radi sukobljava s njegovim stvarnim ponašanjem. Razmislite o servisu za striming muzike: Da li povjerenje korisnika naglo pada kada se preporuka za plejlistu učini „nasumičnom“, bez ikakve vidljive veze s njihovim prethodnim navikama slušanja ili navedenim preferencijama? Ova percipirana slučajnost je direktan izazov korisnikovim očekivanjima inteligentnog kuriranja i kršenje implicitnog obećanja da AI razumije njihov ukus. Slično, u aplikaciji za upravljanje fotografijama, da li korisnici doživljavaju značajnu frustraciju kada AI funkcija za označavanje fotografija stalno pogrešno identifikuje dragog člana porodice? Ova greška je više od tehničke greške; pogađa u srce tačnosti, personalizacije, pa čakemocionalnu vezu. Ove bolne tačke su živopisni signali koji precizno ukazuju na to gdje je potrebno dobro postavljeno, jasno i sažeto objašnjenje. Takva objašnjenja služe kao ključni mehanizmi za popravku, popravljajući kršenje povjerenja koje, ako se ne riješi, može dovesti do napuštanja korisnika. Moć AI mapiranja putovanja leži u njegovoj sposobnosti da nas pomakne dalje od jednostavnog objašnjavanja konačnog rezultata AI sistema. Iako je razumijevanje onoga što je umjetna inteligencija proizvela važno, često je nedovoljno. Umjesto toga, ovaj proces nas tjera da se fokusiramo na objašnjavanje procesa u kritičnim trenucima. To znači adresiranje:

Zašto je generisan određeni izlaz: da li je to zbog specifičnih ulaznih podataka? Arhitektura određenog modela? Koji faktori su utjecali na odluku AI-a: Jesu li određene karakteristike imale veći značaj? Kako je AI došla do svog zaključka: Možemo li ponuditi pojednostavljeno, analogno objašnjenje njegovog unutrašnjeg rada? Koje je pretpostavke AI napravio: da li je postojalo implicitno razumijevanje namjere korisnika ili podataka koje je trebalo otkriti? Koja su ograničenja AI: Jasno saopštavanje onoga što AI ne može učiniti ili gdje bi njena preciznost mogla pokolebati, gradi realna očekivanja.

AI mapiranje putovanja transformiše apstraktni koncept XAI-a u praktičan, izvodljiv okvir za UX praktičare. Omogućava nam da odemo dalje od teoretskih rasprava o objašnjivosti i umjesto toga odredimo tačne trenutke u kojima je povjerenje korisnika u pitanju, pružajući neophodne uvide za izgradnju AI iskustava koja su moćna, transparentna, razumljiva i pouzdana. Na kraju krajeva, istraživanje je način na koji otkrivamo nepoznanice. Vaš tim možda raspravlja o tome kako objasniti zašto je zajam odbijen, ali istraživanje bi moglo otkriti da su korisnici daleko više zabrinuti za razumijevanje kako su njihovi podaci uopće korišteni. Bez istraživanja, mi jednostavno nagađamo šta se naši korisnici pitaju. Saradnja na dizajnu (kako objasniti svoju umjetnu inteligenciju) Kada se istraživanjem utvrdi šta treba objasniti, počinje kolaborativni krug sa dizajnom. Dizajneri mogu prototipizirati obrasce o kojima smo ranije razgovarali – izjavu “Because”, interaktivne klizače – a istraživači mogu staviti te dizajne pred korisnike da vide da li se izdržavaju. Ciljano testiranje upotrebljivosti i razumijevanja: Možemo dizajnirati istraživačke studije koje posebno testiraju XAI komponente. Ne pitamo se samo: "Je li ovo lako za korištenje?" Pitamo: “Nakon što ste ovo vidjeli, možete li mi reći svojim riječima zašto je sistem preporučio ovaj proizvod?” ili „Pokaži mi šta bi uradio da vidim da li bi mogao da dobiješ drugačiji rezultat.“ Ovdje je cilj izmjeriti razumijevanje i djelotvornost, uz upotrebljivost. Mjerenje samopouzdanja: Možemo koristiti jednostavne ankete i skale ocjenjivanja prije i nakon što se prikaže objašnjenje. Na primjer, možemo pitati korisnika na skali od 5 tačaka: "Koliko vjerujete ovoj preporuci?" prije nego što vide izjavu „Zato što“, a zatim ih ponovo pitajte nakon toga. Ovo pruža kvantitativne podatke o tome da li naša objašnjenja zapravo pokreću iglu povjerenja. Ovaj proces stvara moćnu, iterativnu petlju. Rezultati istraživanja daju informaciju o prvobitnom dizajnu. Taj dizajn se zatim testira, a novi nalazi se vraćaju dizajnerskom timu na doradu. Možda je izjava “Zato što” bila previše žargonična, ili je klizač “Šta-ako” više zbunjivao nego osnaživao. Kroz ovu zajedničku validaciju osiguravamo da su konačna objašnjenja tehnički tačna, istinski razumljiva, korisna i da izgrade povjerenje za ljude koji koriste proizvod. Zlatokosa zona objašnjenja Kritička riječ opreza: moguće je pretjerano objasniti. Kao u bajci, u kojoj je Zlatokosa tražila kašu koja je „baš kako treba“, cilj dobrog objašnjenja je pružiti pravu količinu detalja – ni previše ni premalo. Bombardiranje korisnika sa svakom varijablom u modelu će dovesti do kognitivnog preopterećenja i zapravo može smanjiti povjerenje. Cilj nije da se od korisnika napravi naučnik podataka. Jedno rješenje je progresivno otkrivanje.

Počnite s jednostavnim. Vodite sa sažetom izjavom „Zato što“. Za većinu korisnika ovo će biti dovoljno. Ponudite put do detalja. Navedite jasnu vezu s niskim trenjem, kao što je "Saznajte više" ili "Pogledajte kako je ovo utvrđeno". Otkrijte složenost. Iza te veze možete ponuditi interaktivne klizače, vizualizacije ili detaljniju listu faktora koji doprinose.

Ovaj slojeviti pristup poštuje pažnju i stručnost korisnika, pružajući upravo pravu količinuinformacija za njihove potrebe. Zamislimo da koristite pametni kućni uređaj koji preporučuje optimalno grijanje na osnovu različitih faktora. Počnite s jednostavnim: „Vaš dom je trenutno zagrijan na 72 stepena, što je optimalna temperatura za uštedu energije i udobnost.” Ponudite put do detalja: Ispod toga, mali link ili dugme: "Zašto je 72 stepena optimalno?" Otkrijte složenost: Klikom na tu vezu može se otvoriti novi ekran koji prikazuje:

Interaktivni klizači za vanjsku temperaturu, vlažnost i željeni nivo udobnosti, pokazujući kako oni prilagođavaju preporučenu temperaturu. Vizualizacija potrošnje energije na različitim temperaturama. Lista faktora koji doprinose kao što su "Doba dana", "Trenutna vanjska temperatura", "Dosadašnja potrošnja energije" i "Senzori zauzetosti".

Efikasno je kombinovati više metoda XAI, a ovaj obrazac Zlatokose zone objašnjenja, koji se zalaže za progresivno otkrivanje, implicitno to potiče. Možete početi s jednostavnom izjavom "Zato što" (Obrazac 1) za neposredno razumijevanje, a zatim ponuditi vezu "Saznaj više" koja otkriva interaktivnost "Šta-Ako" (Obrazac 2) ili "Push-and-Pull Visual" (Obrazac 4) za dublje istraživanje. Na primjer, sistem zahtjeva za kredit bi u početku mogao navesti primarni razlog odbijanja (važnost karakteristika), zatim omogućiti korisniku interakciju s alatom „Šta ako“ da vidi kako bi promjene u njihovom prihodu ili dugu promijenile ishod (protivčinjenične činjenice), i na kraju, pruži detaljni grafikon „Push-and-Pull“ („Push-and-Pull“) (pritisni i povuci) dijagram svih pozitivnih faktora zasnovanih na negativnim faktorima i negativnim faktorima zasnovanim na negativnim faktorima. Ovaj slojeviti pristup omogućava korisnicima da pristupe nivou detalja koji im je potreban, kada im je to potrebno, sprečavajući kognitivno preopterećenje, a istovremeno pruža sveobuhvatnu transparentnost. Određivanje koje XAI alate i metode koristiti prvenstveno je funkcija temeljnog UX istraživanja. Intervjui sa mentalnim modelom i mapiranje putovanja umjetnom inteligencijom ključni su za određivanje potreba korisnika i bolnih točaka povezanih s razumijevanjem i povjerenjem AI. Intervjui mentalnog modela pomažu u otkrivanju pogrešnih predodžbi korisnika o tome kako AI radi, ukazujući na područja u kojima su potrebna temeljna objašnjenja (poput važnosti karakteristika ili lokalnih objašnjenja). Mapiranje AI putovanja, s druge strane, identificira kritične trenutke konfuzije ili nepovjerenja u interakciji korisnika s AI-om, signalizirajući gdje bi detaljnija ili interaktivna objašnjenja (kao što su protučinjenice ili objašnjenja zasnovana na vrijednosti) bila najkorisnija za obnovu povjerenja i pružanje agencije.

Konačno, najbolji način da odaberete tehniku ​​je da dopustite korisničkom istraživanju da vodi vaše odluke, osiguravajući da objašnjenja koja dizajnirate direktno adresiraju stvarna korisnička pitanja i brige, umjesto da jednostavno nude tehničke detalje radi njih samih. XAI za agente dubokog rasuđivanja Neki od najnovijih AI sistema, poznati kao agenti dubokog rasuđivanja, proizvode eksplicitni „lanac misli“ za svaki složeni zadatak. Oni ne citiraju samo izvore; oni pokazuju logičan, korak po korak put kojim su išli da bi došli do zaključka. Iako ova transparentnost pruža vrijedan kontekst, igra po igri koja se proteže na nekoliko pasusa može se osjećati neodoljivo za korisnika koji jednostavno pokušava da dovrši zadatak. Principi XAI-a, posebno Zona objašnjenja Zlatokose, se ovdje primjenjuju direktno. Možemo kurirati putovanje, koristeći progresivno otkrivanje kako bismo prvo pokazali samo konačni zaključak i najistaknutiji korak u misaonom procesu. Korisnici se tada mogu odlučiti da vide potpuno, detaljno obrazloženje u više koraka kada trebaju još jednom provjeriti logiku ili pronaći određenu činjenicu. Ovaj pristup poštuje pažnju korisnika uz očuvanje potpune transparentnosti agenta. Sljedeći koraci: Osnaživanje vašeg XAI putovanja Objašnjivost je osnovni stub za izgradnju pouzdanih i efikasnih AI proizvoda. Za napredne praktičare koji žele pokrenuti ovu promjenu u svojoj organizaciji, putovanje se proteže dalje od šablona dizajna do zagovaranja i kontinuiranog učenja. Da biste produbili svoje razumijevanje i praktičnu primjenu, razmislite o istraživanju resursa poput AI Explainability 360 (AIX360) alata iz IBM Research-a ili Google-ovog What-If alata, koji nude interaktivne načine za istraživanje ponašanja modela i objašnjenja. Angažovanje sa zajednicama kao što je Responsible AI Forum ili specifične istraživačke grupe fokusirane na AI usredsređenu na čoveka može pružiti neprocenjive uvide i prilike za saradnju. Konačno, budite zagovornik XAI unutar svoje organizacije.Objašnjivost okvira kao strateška investicija. Razmotrite kratku prezentaciju svom vodstvu ili međufunkcionalnim timovima: "Ulaganjem u XAI, prevazići ćemo izgradnju povjerenja; ubrzat ćemo usvajanje korisnika, smanjiti troškove podrške osnaživanjem korisnika za razumijevanje i ublažiti značajne etičke i regulatorne rizike otkrivanjem potencijalnih predrasuda. Ovo je dobar dizajn i pametno poslovanje."

Vaš glas, utemeljen na praktičnom razumijevanju, ključan je u izvlačenju AI iz crne kutije iu zajedničkom partnerstvu s korisnicima.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free