V mojem zadnjem prispevku smo postavili temeljno resnico: če želijo uporabniki sprejeti in se zanašati na AI, ji morajo zaupati. Govorili smo o tem, da je zaupanje večplasten konstrukt, ki temelji na dojemanju sposobnosti, dobrohotnosti, integritete in predvidljivosti umetne inteligence. Toda kaj se zgodi, ko umetna inteligenca v svoji tihi algoritmični modrosti sprejme odločitev, ki uporabnika zmede, razočara ali celo prizadene? Vloga za hipoteko je zavrnjena, priljubljena pesem nenadoma ni na seznamu predvajanja in kvalificiran življenjepis je zavrnjen, še preden ga človek sploh vidi. V teh trenutkih se zmožnost in predvidljivost razblinita, dobrohotnost pa se zdi daleč stran. Naš pogovor se mora sedaj razviti od zakaj zaupanja do kako preglednosti. Za obravnavo tega se je pojavilo področje razložljive umetne inteligence (XAI), ki se osredotoča na razvoj metod, s katerimi bodo rezultati umetne inteligence razumljivi ljudem, vendar je pogosto uokvirjeno kot čisto tehnični izziv za podatkovne znanstvenike. Trdim, da je to kritičen oblikovalski izziv za izdelke, ki temeljijo na AI. Naša naloga kot strokovnjakov za UX je, da premostimo vrzel med algoritmičnim odločanjem in človeškim razumevanjem. Ta članek nudi praktične in uporabne smernice o tem, kako raziskati in oblikovati razložljivost. Presegli bomo modne besede in se bomo lotili modelov ter prevedli zapletene koncepte XAI v konkretne oblikovalske vzorce, ki jih lahko začnete uporabljati že danes. De-mistifikacija XAI: temeljni koncepti za strokovnjake UX XAI je odgovor na vprašanje uporabnika: "Zakaj?" Zakaj mi je bil prikazan ta oglas? Zakaj mi ta film priporočajo? Zakaj je bila moja zahteva zavrnjena? Predstavljajte si to kot umetno inteligenco, ki prikazuje svoje delo pri matematičnem problemu. Brez tega imate le odgovor in prisiljeni ste ga vzeti na vero. S prikazovanjem korakov gradite razumevanje in zaupanje. Prav tako dovolite, da vaše delo dvakrat preverijo in preverijo ljudje, na katere vpliva. Pomen značilnosti in protidejstva Obstaja več tehnik, s katerimi lahko razjasnimo ali razložimo, kaj se dogaja z AI. Medtem ko se metode gibljejo od zagotavljanja celotne logike odločitvenega drevesa do generiranja povzetkov rezultatov v naravnem jeziku, sta dve izmed najbolj praktičnih in vplivnih vrst informacij, ki jih strokovnjaki UX lahko uvedejo v izkušnjo, pomembnost značilnosti (slika 1) in nasprotna dejstva. Ti so pogosto najpreprostejši za uporabnike, da jih razumejo, in za oblikovalce najučinkovitejši za implementacijo.

Pomen lastnosti Ta metoda razložljivosti odgovarja: "Kateri so bili najpomembnejši dejavniki, ki jih je umetna inteligenca upoštevala?" Gre za prepoznavanje prvih 2-3 spremenljivk, ki so imele največji vpliv na izid. To je naslov, ne celotna zgodba. Primer: Predstavljajte si AI, ki napove, ali bo stranka odpadla (odpovedala svojo storitev). Pomembnost funkcije lahko razkrije, da sta bila "število klicev podpore v zadnjem mesecu" in "nedavna zvišanja cen" dva najpomembnejša dejavnika pri določanju, ali bo stranka verjetno odpadla.

Protidejstva Ta močna metoda odgovarja: "Kaj bi moral spremeniti, da bi dosegel drugačen rezultat?" To je ključnega pomena, ker uporabnikom daje občutek zastopanja. Preoblikuje frustrirajoči »ne« v »še ne«, ki ga je mogoče storiti. Primer: Predstavljajte si sistem za vlogo za posojilo, ki uporablja AI. Uporabniku je posojilo zavrnjeno. Namesto da bi videli le »Vloga zavrnjena«, bi nasprotna razlaga delila tudi: »Če bi bila vaša kreditna ocena 50 točk višja ali če bi bilo razmerje med vašim dolgom in dohodkom 10 % nižje, bi bilo vaše posojilo odobreno.« To daje Sarah jasne in izvedljive korake, ki jih lahko sprejme, da bi v prihodnosti morda dobila posojilo.

Uporaba podatkov modela za izboljšanje razlage Čeprav se s tehničnimi posebnostmi pogosto ukvarjajo podatkovni znanstveniki, je za praktike UX koristno vedeti, da se orodja, kot je LIME (Local Interpretable Model-agnostic Explanations), ki pojasnjuje posamezne napovedi z lokalnim približevanjem modela, in SHAP (SHapley Additive ExPlanations), ki uporablja pristop teorije iger za razlago rezultatov katerega koli modela strojnega učenja, običajno uporabljajo za pridobivanje teh »zakaj« vpogledov iz kompleksnih modeli. Te knjižnice v bistvu pomagajo razčleniti odločitev AI, da pokaže, kateri vložki so bili najbolj vplivni za dani rezultat. Ko je pravilno izvedeno, se lahko podatki, na katerih temelji odločitev orodja AI, uporabijo za pripovedovanje močne zgodbe. Sprehodimo se skozi pomembnost funkcij in nasprotne dejstva ter pokažimo, kako je mogoče podatkovno znanost, ki stoji za odločitvijo, uporabiti za izboljšanje uporabniške izkušnje. Zdaj pa dajmopokriti pomembnost funkcij s pomočjo podatkov lokalnih razlag (npr. LIME): Ta pristop odgovarja na vprašanje: "Zakaj je AI dal to posebno priporočilo zame prav zdaj?" Namesto splošne razlage, kako model deluje, ponuja osredotočen razlog za en sam, specifičen primer. Je osebno in kontekstualno. Primer: Predstavljajte si sistem za priporočanje glasbe, ki ga poganja AI, kot je Spotify. Lokalna razlaga bi odgovorila: "Zakaj vam je sistem prav zdaj priporočil to posebno pesem Adele?" Razlaga bi lahko bila: "Ker ste pred kratkim poslušali več drugih čustvenih balad in pesmi pevk."

Nazadnje poglejmo vključitev razlag, ki temeljijo na vrednostih (npr. podatki Shapley Additive Explanations (SHAP) k razlagi odločitve: to je bolj niansirana različica pomembnosti funkcije, ki odgovarja: »Kako je vsak dejavnik spodbudil odločitev tako ali drugače?« Pomaga vizualizirati, kaj je bilo pomembno in ali je bil njegov vpliv pozitiven ali negativen. Primer: Predstavljajte si, da banka uporablja model AI, da se odloči, ali bo odobrila vlogo za posojilo.

Pomembnost funkcije: izhod modela lahko pokaže, da so bili vlagateljeva kreditna ocena, dohodek in razmerje med dolgom in dohodkom najpomembnejši dejavniki pri njegovi odločitvi. To odgovarja, kaj je bilo pomembno. Pomembnost lastnosti z razlagami na podlagi vrednosti (SHAP): Vrednosti SHAP bi pomembnost značilnosti še bolj upoštevale na podlagi elementov modela.

Za odobreno posojilo bi lahko SHAP pokazal, da je visoka bonitetna ocena bistveno spodbudila odločitev k odobritvi (pozitiven vpliv), medtem ko jo je nekoliko višje od povprečnega razmerja med dolgom in dohodkom nekoliko oddaljilo (negativen vpliv), vendar ne dovolj, da bi posojilo zavrnili. Za zavrnjeno posojilo bi lahko SHAP razkril, da sta nizek dohodek in veliko število nedavnih kreditnih poizvedb močno spodbudila odločitev k zavrnitvi, tudi če je bila kreditna ocena spodobna.

To posojilnemu uradniku pomaga razložiti prosilcu poleg tega, kar je upoštevano, kako je vsak dejavnik prispeval h končni odločitvi "da" ali "ne". Ključno je vedeti, da se sposobnost zagotavljanja dobrih razlag pogosto začne veliko prej v razvojnem ciklu. Podatkovni znanstveniki in inženirji igrajo ključno vlogo tako, da namenoma strukturirajo modele in podatkovne kanale na načine, ki sami po sebi podpirajo razložljivost, namesto da bi to poskušali priviti kot naknadno. Raziskovalne in oblikovalske skupine lahko to spodbujajo tako, da začnejo zgodnje pogovore s podatkovnimi znanstveniki in inženirji o potrebah uporabnikov po razumevanju, prispevajo k razvoju metrik razložljivosti in s sodelovanjem izdelajo prototipe razlag, da zagotovijo, da so točne in uporabniku prijazne. XAI in etična umetna inteligenca: razpakiranje pristranskosti in odgovornosti Poleg gradnje zaupanja igra XAI ključno vlogo pri obravnavanju globokih etičnih posledic umetne inteligence*, zlasti glede algoritemske pristranskosti. Tehnike razložljivosti, kot je analiza vrednosti SHAP, lahko razkrijejo, ali na odločitve modela nesorazmerno vplivajo občutljivi atributi, kot so rasa, spol ali socialno-ekonomski status, tudi če ti dejavniki niso bili izrecno uporabljeni kot neposredni vložki. Na primer, če model odobritve posojila dosledno dodeljuje negativne vrednosti SHAP prosilcem iz določene demografske kategorije, to signalizira morebitno pristranskost, ki jo je treba raziskati, kar ekipam omogoča, da odkrijejo in ublažijo takšne nepoštene rezultate. Moč XAI prihaja tudi s potencialom za "pranje razložljivosti". Tako kot »greenwashing« zavaja potrošnike glede okoljskih praks, lahko pride do pranja razložljivosti, ko so razlage zasnovane tako, da zakrijejo, namesto da osvetlijo, problematično algoritemsko vedenje ali inherentne pristranskosti. To se lahko kaže kot preveč poenostavljene razlage, ki izpustijo kritične dejavnike vpliva, ali razlage, ki strateško oblikujejo rezultate tako, da so videti bolj nevtralni ali pravični, kot so v resnici. Poudarja etično odgovornost izvajalcev UX za oblikovanje razlag, ki so resnično pregledne in preverljive. Strokovnjaki za UX v sodelovanju s podatkovnimi znanstveniki in etiki nosijo ključno odgovornost pri sporočanju razlogov za odločitev ter tudi o omejitvah in morebitnih pristranskostih osnovnega modela AI. To vključuje nastavitev realističnih pričakovanj uporabnikov glede natančnosti umetne inteligence, prepoznavanje, kje bi lahko bil model manj zanesljiv, in zagotavljanje jasnih kanalov za pomoč ali povratne informacije, ko uporabniki zaznajo nepoštene ali nepravilne rezultate. Proaktivno obravnavanje tehetične razsežnosti nam bodo omogočile zgraditi sisteme AI, ki so resnično pravični in vredni zaupanja. Od metod do modelov: praktični vzorci oblikovanja XAI Poznavanje konceptov je ena stvar; njihovo oblikovanje je nekaj drugega. Evo, kako lahko te metode XAI prevedemo v intuitivne vzorce oblikovanja. Vzorec 1: Izjava "Ker" (za pomembnost funkcije) To je najpreprostejši in pogosto najučinkovitejši vzorec. To je neposredna izjava v preprostem jeziku, ki razkrije primarni razlog za delovanje umetne inteligence.

Hevristika: Bodite neposredni in jedrnati. Vodite z edinim najbolj vplivnim razlogom. Za vsako ceno se izogibajte žargonu.

Primer: Predstavljajte si storitev pretakanja glasbe. Namesto da samo predstavite seznam predvajanja »Discover Weekly«, dodate majhno vrstico mikrokopije. Priporočilo za pesem: »Velvet Morning«, ker poslušate »The Fuzz« in drug psihedelični rock.

Vzorec 2: Interaktivni "kaj-če" (za protidejstva) Nasprotne dejstva so sama po sebi povezana z opolnomočenjem. Najboljši način, da jih predstavite, je, da uporabnikom ponudite interaktivna orodja, da sami raziskujejo možnosti. To je popolno za finančne, zdravstvene ali druge ciljno usmerjene aplikacije.

Hevristika: naj bodo razlage interaktivne in opolnomočne. Naj uporabniki vidijo vzrok in posledico svojih odločitev.

Primer: vmesnik za vlogo za posojilo. Po zavrnitvi namesto slepe ulice uporabnik dobi orodje za ugotavljanje, kako bi se lahko razpletli različni scenariji (kaj-če bi) (glej sliko 1).

Vzorec 3: The Highlight Reel (Za lokalne razlage) Ko umetna inteligenca izvede dejanje na uporabnikovi vsebini (na primer povzemanje dokumenta ali prepoznavanje obrazov na fotografijah), mora biti razlaga vizualno povezana z virom.

Hevristika: uporabite vizualne znake, kot so poudarjanje, obrisi ali opombe, da razlago povežete neposredno z elementom vmesnika, ki ga razlaga.

Primer: orodje AI, ki povzema dolge članke. Povzetek, ustvarjen z AI: Začetne raziskave so pokazale tržno vrzel za trajnostne izdelke. Vir v dokumentu: »...Naša analiza tržnih trendov v drugem četrtletju je dokončno pokazala, da noben večji konkurent ni učinkovito služil ekološko ozaveščenemu potrošniku, kar je razkrilo precejšnjo tržno vrzel za trajnostne izdelke ...«

Vzorec 4: Vizual potiskanja in vlečenja (za razlage na podlagi vrednosti) Za bolj zapletene odločitve bodo uporabniki morda morali razumeti medsebojno delovanje dejavnikov. Preproste vizualizacije podatkov lahko to pojasnijo, ne da bi bile preobremenjene.

Hevristika: uporabite preproste, barvno kodirane vizualizacije podatkov (kot so stolpčni grafikoni), da prikažete dejavnike, ki so pozitivno in negativno vplivali na odločitev.

Primer: umetna inteligenca pregleduje kandidatov profil za zaposlitev. Zakaj se ta kandidat 75-odstotno ujema: Dejavniki, ki dvigujejo rezultat: 5+ let izkušenj z raziskavami UX Obvlada Python. Dejavniki, ki znižujejo rezultat: Ni izkušenj z B2B SaaS

Učenje in uporaba teh oblikovalskih vzorcev v UX vašega izdelka z umetno inteligenco bo pomagala povečati razložljivost. Uporabite lahko tudi dodatne tehnike, ki jih tukaj ne obravnavam poglobljeno. To vključuje naslednje:

Razlage v naravnem jeziku: prevajanje tehničnega rezultata umetne inteligence v preprost pogovorni človeški jezik, ki ga nestrokovnjaki zlahka razumejo. Kontekstualne razlage: Zagotavlja utemeljitev za izhod umetne inteligence v določenem trenutku in na določeni lokaciji, kar je najbolj pomembno za nalogo uporabnika. Ustrezne vizualizacije: uporaba grafikonov, grafov ali toplotnih zemljevidov za vizualno predstavitev procesa odločanja umetne inteligence, zaradi česar so kompleksni podatki intuitivni in uporabnikom lažji za razumevanje.

Opomba za sprednji del: Prevajanje teh razložljivih izhodov v brezhibne uporabniške izkušnje predstavlja tudi svoj nabor tehničnih premislekov. Front-end razvijalci se pogosto spopadajo z zasnovo API-ja za učinkovito pridobivanje razlagalnih podatkov, posledice delovanja (kot je generiranje razlag v realnem času za vsako uporabniško interakcijo) pa potrebujejo skrbno načrtovanje, da se izognejo zamudam. Nekaj primerov iz resničnega sveta UPS Capital's DeliveryDefense UPS uporablja AI za dodelitev "ocene zaupanja pri dostavi" naslovom, da napove verjetnost, da bo paket ukraden. Njihova programska oprema DeliveryDefense analizira zgodovinske podatke o lokaciji, pogostosti izgub in drugih dejavnikih. Če ima naslov nizko oceno, lahko sistem proaktivno preusmeri paket na varno dostopno točko UPS in poda razlago za odločitev (npr. »Paket preusmerjen na varno lokacijo zaradi zgodovine kraje«). Ta sistem prikazuje, kako je mogoče XAI uporabiti za zmanjševanje tveganja in ustvarjanje zaupanja strankpreglednost. Avtonomna vozila Ta vozila prihodnosti bodo morala učinkovito uporabljati XAI, da bodo svojim vozilom pomagala sprejemati varne in razložljive odločitve. Ko samovozeči avtomobil nenadoma zavira, lahko sistem zagotovi razlago za svoje dejanje v realnem času, na primer tako, da prepozna pešca, ki stopi na cesto. To ni ključnega pomena samo za udobje in zaupanje potnikov, ampak je regulativna zahteva za dokazovanje varnosti in odgovornosti sistema umetne inteligence. IBM Watson Health (in njegovi izzivi) Čeprav se pogosto navaja kot splošen primer umetne inteligence v zdravstvu, je tudi dragocena študija primera o pomenu XAI. Neuspeh projekta Watson for Oncology poudarja, kaj lahko gre narobe, če razlage niso jasne ali ko so osnovni podatki pristranski ali niso lokalizirani. Priporočila sistema včasih niso bila v skladu z lokalnimi kliničnimi praksami, ker so temeljila na smernicah, osredotočenih na ZDA. To služi kot opozorilo o potrebi po robustni razložljivosti, ki se zaveda konteksta. Vloga raziskovalca UX: določanje in potrjevanje razlag Naše oblikovalske rešitve so učinkovite le, če naslavljajo prava vprašanja uporabnikov ob pravem času. Razlaga, ki odgovarja na vprašanje, ki ga uporabnik nima, je le šum. Tukaj raziskave UX postanejo kritično vezivno tkivo v strategiji XAI, ki zagotavlja, da razložimo, kaj in kako je dejansko pomembno za naše uporabnike. Vloga raziskovalca je dvojna: prvič, informirati strategijo tako, da ugotovi, kje so potrebna pojasnila, in drugič, potrditi načrte, ki zagotavljajo ta pojasnila. Obveščanje o strategiji XAI (kaj pojasniti) Preden lahko oblikujemo eno samo razlago, moramo razumeti uporabnikov miselni model sistema AI. What do they believe it’s doing? Kje so vrzeli med njihovim razumevanjem in realnostjo sistema? To je temeljno delo raziskovalca UX. Intervjuji z miselnim modelom: Razpakiranje uporabniškega dojemanja sistemov umetne inteligence S pomočjo globokih, polstrukturiranih intervjujev lahko strokovnjaki UX pridobijo neprecenljiv vpogled v to, kako uporabniki dojemajo in razumejo sisteme AI. Te seje so zasnovane tako, da spodbujajo uporabnike, da dobesedno narišejo ali opišejo svoj notranji "mentalni model" tega, kako verjamejo, da AI deluje. To pogosto vključuje postavljanje odprtih vprašanj, ki uporabnike spodbudijo, da pojasnijo logiko sistema, njegove vhode in izhode ter razmerja med temi elementi. Ti intervjuji so močni, ker pogosto razkrivajo globoke napačne predstave in predpostavke, ki jih imajo uporabniki o AI. Na primer, uporabnik, ki komunicira z mehanizmom za priporočila, lahko samozavestno trdi, da sistem temelji izključno na njegovi pretekli zgodovini ogledov. Morda se ne zavedajo, da algoritem vključuje tudi množico drugih dejavnikov, kot je čas dneva, ko brskajo, trenutni priljubljeni elementi na platformi ali celo gledalske navade podobnih uporabnikov. Odkritje te vrzeli med mentalnim modelom uporabnika in dejansko osnovno logiko AI je ključnega pomena. Natančno nam pove, katere posebne informacije moramo sporočiti uporabnikom, da jim pomagamo zgraditi natančnejši in robustnejši miselni model sistema. To pa je temeljni korak pri krepitvi zaupanja. Ko uporabniki razumejo, tudi na visoki ravni, kako AI pride do svojih zaključkov ali priporočil, je večja verjetnost, da bodo zaupali njegovim rezultatom in se zanašali na njegovo funkcionalnost. Kartiranje poti z umetno inteligenco: Poglobitev v zaupanje uporabnikov in razložljivost Z natančnim preslikavanjem uporabnikove poti s funkcijo, ki jo poganja umetna inteligenca, pridobimo neprecenljiv vpogled v natančne trenutke, ko se pojavijo zmeda, frustracije ali celo globoko nezaupanje. To odkrije kritične točke, kjer je uporabnikov miselni model delovanja umetne inteligence v nasprotju z njegovim dejanskim vedenjem. Razmislite o storitvi pretakanja glasbe: Ali uporabnikovo zaupanje strmo pade, ko se zdi, da je priporočilo seznama predvajanja "naključno", brez kakršne koli opazne povezave z njihovimi preteklimi poslušalskimi navadami ali izraženimi preferencami? Ta zaznana naključnost je neposreden izziv za uporabnikova pričakovanja inteligentnega kuriranja in kršitev implicitne obljube, da AI razume njihov okus. Ali uporabniki v aplikaciji za upravljanje fotografij podobno občutijo veliko razočaranje, ko funkcija za označevanje fotografij z umetno inteligenco nenehno napačno identificira cenjenega družinskega člana? Ta napaka je več kot tehnična napaka; udari v srce natančnosti, personalizacije in celočustvena povezanost. Te bolečine so živi signali, ki natančno kažejo, kje je potrebna dobro postavljena, jasna in jedrnata razlaga. Takšna pojasnila služijo kot ključni mehanizmi za popravilo, ki popravljajo zlorabo zaupanja, ki lahko, če je ne obravnavamo, povzroči zapustitev uporabnika. Moč načrtovanja poti z umetno inteligenco je v njegovi zmožnosti, da nas premakne dlje od preproste razlage končnega rezultata sistema umetne inteligence. Čeprav je razumevanje, kaj je umetna inteligenca ustvarila, pomembno, je pogosto nezadostno. Namesto tega nas ta proces prisili, da se osredotočimo na razlago procesa v kritičnih trenutkih. To pomeni naslavljanje:

Zakaj je bil ustvarjen določen izhod: ali je bil to posledica posebnih vhodnih podatkov? Posebna arhitektura modela? Kateri dejavniki so vplivali na odločitev umetne inteligence: ali so bile nekatere funkcije težje ovrednotene? Kako je AI prišel do zaključka: Ali lahko ponudimo poenostavljeno, analogno razlago njegovega notranjega delovanja? Kakšne predpostavke je naredila umetna inteligenca: Ali je bilo implicitno razumevanje uporabnikovega namena ali podatkov, ki jih je treba razkriti? Kakšne so omejitve umetne inteligence: Jasno sporočanje, česa umetna inteligenca ne zmore ali kje bi njena natančnost lahko nihala, gradi realistična pričakovanja.

Kartiranje poti z umetno inteligenco spremeni abstraktni koncept XAI v praktičen in izvedljiv okvir za strokovnjake UX. Omogoča nam, da presežemo teoretične razprave o razložljivosti in namesto tega natančno določimo natančne trenutke, ko je ogroženo zaupanje uporabnikov, ter zagotavlja potrebne vpoglede za izgradnjo izkušenj AI, ki so zmogljive, pregledne, razumljive in vredne zaupanja. Navsezadnje je raziskovanje način, kako odkrivamo neznanke. Vaša ekipa morda razpravlja o tem, kako razložiti, zakaj je bilo posojilo zavrnjeno, vendar bi raziskave morda pokazale, da uporabnike veliko bolj skrbi razumevanje, kako so bili njihovi podatki sploh uporabljeni. Brez raziskav preprosto ugibamo, kaj se sprašujejo naši uporabniki. Sodelovanje pri oblikovanju (kako razložiti svojo umetno inteligenco) Ko raziskava odkrije, kaj pojasniti, se začne zanka sodelovanja z oblikovanjem. Oblikovalci lahko naredijo prototip vzorcev, o katerih smo razpravljali prej – izjava »Ker«, interaktivni drsniki – in raziskovalci lahko te modele postavijo pred uporabnike, da vidijo, ali zdržijo. Ciljno usmerjeno testiranje uporabnosti in razumevanja: lahko oblikujemo raziskovalne študije, ki posebej testirajo komponente XAI. Ne sprašujemo se samo: "Je to enostavno za uporabo?" Vprašamo: "Ali mi lahko po tem, ko to vidite, s svojimi besedami poveste, zakaj je sistem priporočil ta izdelek?" ali "Pokaži mi, kaj bi naredil, da bi videl, ali bi lahko dosegel drugačen rezultat." Cilj tukaj je poleg uporabnosti izmeriti razumevanje in sposobnost ukrepanja. Samo merjenje zaupanja: pred in po prikazu razlage lahko uporabimo preproste ankete in ocenjevalne lestvice. Uporabnika lahko na primer vprašamo na 5-stopenjski lestvici: "Koliko zaupate temu priporočilu?" preden vidijo izjavo »Ker«, in jih potem znova vprašajte. To zagotavlja kvantitativne podatke o tem, ali naše razlage dejansko premikajo iglo zaupanja. Ta proces ustvari močno, ponavljajočo se zanko. Izsledki raziskave prispevajo k začetni zasnovi. Ta zasnova se nato preizkusi, nove ugotovitve pa se vrnejo oblikovalski ekipi v izboljšanje. Morda je bila izjava »Ker« preveč žargonska ali pa je bil drsnik »Kaj-če« bolj zmeden kot opolnomočen. S tem sodelovalnim preverjanjem zagotavljamo, da so končne razlage tehnično točne, resnično razumljive, uporabne in gradijo zaupanje ljudi, ki uporabljajo izdelek. Zlatorogovo območje razlage Kritično opozorilo: možno je preveč razlagati. Tako kot v pravljici, kjer je Zlatolaska iskala kašo, ki je 'ravno prava', je cilj dobre razlage zagotoviti pravo količino podrobnosti - ne preveč in ne premalo. Bombardiranje uporabnika z vsako spremenljivko v modelu bo povzročilo kognitivno preobremenitev in lahko dejansko zmanjša zaupanje. Cilj ni narediti uporabnika podatkovnega znanstvenika. Ena od rešitev je postopno razkritje.

Začnite s preprostim. Vodite z jedrnato izjavo »Ker«. Za večino uporabnikov bo to dovolj. Ponudite pot do podrobnosti. Navedite jasno povezavo z nizkim trenjem, na primer »Več o tem« ali »Oglejte si, kako je bilo to ugotovljeno«. Razkrijte kompleksnost. Za to povezavo lahko ponudite interaktivne drsnike, vizualizacije ali podrobnejši seznam dejavnikov, ki prispevajo.

Ta večplastni pristop upošteva pozornost in strokovnost uporabnika ter zagotavlja ravno pravo količinoinformacij za njihove potrebe. Predstavljajmo si, da uporabljate napravo za pametni dom, ki na podlagi različnih dejavnikov priporoča optimalno ogrevanje. Začnite s preprostim: "Vaš dom je trenutno ogret na 72 stopinj, kar je optimalna temperatura za varčevanje z energijo in udobje." Ponudite pot do podrobnosti: pod tem majhna povezava ali gumb: "Zakaj je 72 stopinj optimalno?" Razkrijte zapletenost: s klikom na to povezavo se lahko odpre nov zaslon, ki prikazuje:

Interaktivni drsniki za zunanjo temperaturo, vlažnost in želeno raven udobja, ki prikazujejo, kako prilagodijo priporočeno temperaturo. Vizualizacija porabe energije pri različnih temperaturah. Seznam prispevajočih dejavnikov, kot so »Ura dneva«, »Trenutna zunanja temperatura«, »Pretekla poraba energije« in »Senzorji zasedenosti«.

Učinkovito je kombinirati več metod XAI in ta vzorec Goldolacks Zone of Explanation, ki zagovarja postopno razkritje, to implicitno spodbuja. Lahko začnete s preprosto izjavo »Ker« (vzorec 1) za takojšnje razumevanje in nato ponudite povezavo »Več o tem«, ki razkrije interaktivno »Kaj če« (vzorec 2) ali »vizualno sliko potisni in povleci« (vzorec 4) za globlje raziskovanje. Na primer, sistem za vlogo za posojilo bi lahko na začetku navedel glavni razlog za zavrnitev (pomembnost funkcije), nato pa uporabniku omogočil interakcijo z orodjem »Kaj če«, da bi videl, kako bi spremembe njegovega dohodka ali dolga spremenile izid (nasprotne dejstva), in končno zagotovil podrobno tabelo »Push-and-Pull« (razlaga na podlagi vrednosti), ki ponazarja pozitivne in negativne prispevke vseh dejavnikov. Ta večplastni pristop uporabnikom omogoča dostop do ravni podrobnosti, ki jo potrebujejo, ko jo potrebujejo, s čimer preprečuje kognitivno preobremenitev, hkrati pa zagotavlja celovito preglednost. Določanje, katera orodja in metode XAI uporabiti, je predvsem funkcija temeljite raziskave UX. Intervjuji z mentalnim modelom in načrtovanje poti umetne inteligence so ključnega pomena za natančno določanje potreb uporabnikov in bolečinskih točk, povezanih z razumevanjem in zaupanjem umetne inteligence. Intervjuji z miselnim modelom pomagajo odkriti napačne predstave uporabnikov o tem, kako deluje umetna inteligenca, in nakazujejo področja, kjer so potrebne temeljne razlage (kot je pomembnost lastnosti ali lokalne razlage). Kartiranje potovanja z umetno inteligenco po drugi strani identificira kritične trenutke zmede ali nezaupanja v interakciji uporabnika z umetno inteligenco in signalizira, kje bi bile bolj podrobne ali interaktivne razlage (kot so nasprotne dejstva ali razlage na podlagi vrednosti) najbolj koristne za ponovno vzpostavitev zaupanja in zagotavljanje delovanja.

Navsezadnje je najboljši način, da izberete tehniko, da dovolite raziskavam uporabnikov, da vodijo vaše odločitve, s čimer zagotovite, da razlage, ki jih oblikujete, neposredno obravnavajo dejanska vprašanja in pomisleke uporabnikov, namesto da zgolj ponujajo tehnične podrobnosti zaradi njih samih. XAI za Deep Reasoning Agents Nekateri najnovejši sistemi umetne inteligence, znani kot agenti globokega razmišljanja, ustvarijo eksplicitno "verigo misli" za vsako kompleksno nalogo. Ne navajajo le virov; prikazujejo logično pot, po kateri so korak za korakom prišli do zaključka. Medtem ko ta preglednost zagotavlja dragocen kontekst, se lahko predvajanje za igro, ki obsega več odstavkov, zdi izjemno za uporabnika, ki preprosto poskuša dokončati nalogo. Načela XAI, še posebej Goldolacks Zone Explanation, veljajo neposredno tukaj. Potovanje lahko pripravimo tako, da uporabimo postopno razkritje, da najprej pokažemo samo končni zaključek in najpomembnejši korak v miselnem procesu. Uporabniki se lahko nato odločijo za ogled celotnega, podrobnega sklepanja v več korakih, ko morajo dvakrat preveriti logiko ali najti določeno dejstvo. Ta pristop spoštuje pozornost uporabnika, hkrati pa ohranja popolno preglednost agenta. Naslednji koraki: Okrepite svojo pot XAI Razložljivost je temeljni steber za ustvarjanje zaupanja vrednih in učinkovitih izdelkov AI. Za napredne izvajalce, ki želijo spodbuditi to spremembo v svoji organizaciji, pot presega načrtovalske vzorce v zagovorništvo in nenehno učenje. Če želite poglobiti svoje razumevanje in praktično uporabo, razmislite o raziskovanju virov, kot je komplet orodij AI Explainability 360 (AIX360) podjetja IBM Research ali Googlovo orodje What-If, ki ponujata interaktivne načine za raziskovanje vedenja in razlag modela. Sodelovanje s skupnostmi, kot je Forum za odgovorno umetno inteligenco ali posebnimi raziskovalnimi skupinami, osredotočenimi na umetno inteligenco, osredotočeno na človeka, lahko zagotovi neprecenljive vpoglede in priložnosti za sodelovanje. Končno bodite zagovornik XAI v svoji organizaciji.Razložljivost okvirja kot strateško naložbo. Razmislite o kratki predstavitvi svojemu vodstvu ali medfunkcionalnim ekipam: "Z vlaganjem v XAI bomo presegli gradnjo zaupanja; pospešili bomo sprejemanje uporabnikov, zmanjšali stroške podpore z opolnomočenjem uporabnikov z razumevanjem in ublažili pomembna etična in regulativna tveganja z razkrivanjem morebitnih pristranskosti. To je dober dizajn in pametno poslovanje."

Vaš glas, ki temelji na praktičnem razumevanju, je ključnega pomena pri prenosu umetne inteligence iz črne skrinjice v sodelovalno partnerstvo z uporabniki.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free