U mom posljednjem članku utvrdili smo temeljnu istinu: da bi korisnici usvojili AI i oslonili se na njega, moraju mu vjerovati. Govorili smo o tome da je povjerenje višestruki konstrukt, izgrađen na percepcijama sposobnosti, dobronamjernosti, integriteta i predvidljivosti umjetne inteligencije. Ali što se događa kada umjetna inteligencija, u svojoj tihoj, algoritamskoj mudrosti, donese odluku koja korisnika ostavi zbunjenim, frustriranim ili čak povrijeđenim? Zahtjev za hipoteku je odbijen, omiljena pjesma iznenada je odsutna s popisa pjesama, a kvalificirani životopis odbijen je prije nego što ga itko vidi. U tim trenucima, sposobnost i predvidljivost su razbijene, a dobronamjernost se čini kao svijet daleko. Naš razgovor sada mora evoluirati od pitanja zašto povjerenja do pitanja transparentnosti. Područje Explainable AI (XAI), koje se usredotočuje na razvoj metoda kako bi se rezultati umjetne inteligencije učinili razumljivima ljudima, pojavilo se kako bi se to pozabavilo, ali se često postavlja kao čisto tehnički izazov za podatkovne znanstvenike. Tvrdim da je to kritičan dizajnerski izazov za proizvode koji se oslanjaju na AI. Naš je posao kao UX profesionalaca premostiti jaz između algoritamskog odlučivanja i ljudskog razumijevanja. Ovaj članak pruža praktične, djelotvorne smjernice o tome kako istražiti i dizajnirati za objašnjivost. Krenut ćemo dalje od popularnih riječi i ući u modele, prevodeći složene XAI koncepte u konkretne obrasce dizajna koje možete početi koristiti već danas. Demistificiranje XAI-ja: temeljni koncepti za praktičare korisničkog iskustva XAI odgovara na pitanje korisnika: "Zašto?" Zašto mi je prikazan ovaj oglas? Zašto mi ovaj film preporučuju? Zašto je moj zahtjev odbijen? Zamislite to kao umjetnu inteligenciju koja pokazuje svoj rad na matematičkom problemu. Bez toga imate samo odgovor i prisiljeni ste ga prihvatiti na vjeru. Pokazivanjem koraka gradite razumijevanje i povjerenje. Također dopuštate da vaš rad bude dvostruko provjeren i verificiran od strane samih ljudi na koje on utječe. Značajka Važnost i kontračinjenice Postoji niz tehnika koje možemo upotrijebiti kako bismo razjasnili ili objasnili što se događa s umjetnom inteligencijom. Iako se metode kreću od pružanja cjelokupne logike stabla odlučivanja do generiranja sažetaka izlaza na prirodnom jeziku, dvije najpraktičnije i najutjecajnije vrste informacija koje praktičari UX-a mogu unijeti u iskustvo su značajka značajke (Slika 1) i kontračinjenice. Oni su često najjednostavniji za razumijevanje korisnika i najučinkovitiji za implementaciju dizajnera.

Značajka Važnost Ova metoda objašnjivosti odgovara na pitanje: "Koji su bili najvažniji čimbenici koje je umjetna inteligencija uzela u obzir?" Radi se o identificiranju 2-3 glavne varijable koje su imale najveći utjecaj na ishod. To je naslov, a ne cijela priča. Primjer: Zamislite umjetnu inteligenciju koja predviđa hoće li kupac napustiti (otkazati svoju uslugu). Važnost značajke mogla bi otkriti da su "broj poziva za podršku u prošlom mjesecu" i "nedavna povećanja cijena" dva najvažnija čimbenika u određivanju hoće li klijent vjerojatno napustiti uslugu.

Protučinjenice Ova moćna metoda odgovara na pitanje: "Što bih trebao promijeniti da bih dobio drugačiji ishod?" To je presudno jer korisnicima daje osjećaj slobode djelovanja. Pretvara frustrirajuće "ne" u djelotvorno "ne još". Primjer: Zamislite sustav za podnošenje zahtjeva za kredit koji koristi AI. Korisniku je odbijen kredit. Umjesto da samo vidite "Zahtjev je odbijen", protučinjenično objašnjenje bi također dijelilo: "Da je vaš kreditni rezultat bio 50 bodova viši ili da je vaš omjer duga i prihoda bio 10% niži, vaš bi zajam bio odobren." To Sarah daje jasne, djelotvorne korake koje može poduzeti kako bi potencijalno dobila zajam u budućnosti.

Korištenje podataka modela za poboljšanje objašnjenja Iako se tehničkim detaljima često bave podatkovni znanstvenici, korisno je za UX praktičare znati da se alati poput LIME (Local Interpretable Model-agnostic Explanations) koji objašnjava pojedinačna predviđanja aproksimacijom modela lokalno, i SHAP (SHapley Additive ExPlanations) koji koristi pristup teorije igara za objašnjenje izlaza bilo kojeg modela strojnog učenja obično koriste za izdvajanje ovih "zašto" uvida iz složenih modeli. Ove biblioteke u biti pomažu razbiti odluku umjetne inteligencije da pokaže koji su inputi bili najutjecajniji za određeni ishod. Kada se pravilno izvede, podaci na kojima se temelji odluka AI alata mogu se koristiti za ispričavanje snažne priče. Prođimo kroz važnost značajki i protučinjenične činjenice i pokažimo kako se znanost o podacima koja stoji iza odluke može iskoristiti za poboljšanje korisničkog iskustva. Hajde sadapokriti važnost značajki uz pomoć podataka Lokalnih objašnjenja (npr. LIME): Ovaj pristup odgovara na pitanje: "Zašto mi je AI dao ovu konkretnu preporuku, upravo sada?" Umjesto općeg objašnjenja kako model funkcionira, on pruža fokusirani razlog za jednu, specifičnu instancu. To je osobno i kontekstualno. Primjer: Zamislite sustav za preporuku glazbe koji pokreće AI kao što je Spotify. Lokalno bi objašnjenje odgovorilo: "Zašto vam je sustav baš sada preporučio ovu određenu pjesmu od Adele?" Objašnjenje bi moglo biti: "Zato što ste nedavno slušali nekoliko drugih emotivnih balada i pjesama ženskih pjevačica."

Na kraju, pokrijmo uključivanje objašnjenja temeljenih na vrijednosti (npr. podataka Shapley Additive Explanations (SHAP) za objašnjenje odluke: ovo je nijansiranija verzija značajke značajke koja odgovara: "Kako je svaki čimbenik pogurao odluku na ovaj ili onaj način?" Pomaže vizualizirati što je važno i je li njegov utjecaj bio pozitivan ili negativan. Primjer: Zamislite da banka koristi AI model kako bi odlučila hoće li odobriti zahtjev za kredit.

Važnost značajke: Izlaz modela mogao bi pokazati da su kreditna sposobnost podnositelja zahtjeva, prihod i omjer duga i prihoda bili najvažniji čimbenici u odluci. Ovo odgovara na ono što je bitno. Važnost značajke s objašnjenjima temeljenim na vrijednostima (SHAP): SHAP vrijednosti bi dodatno povećale važnost značajke na temelju elemenata modela.

Za odobreni zajam, SHAP bi mogao pokazati da je visoka kreditna ocjena značajno pogurala odluku prema odobrenju (pozitivan utjecaj), dok ju je omjer duga i prihoda nešto viši od prosjeka malo povukao (negativan utjecaj), ali nedovoljno da se zajam odbije. Za odbijeni zajam, SHAP bi mogao otkriti da su nizak prihod i veliki broj nedavnih kreditnih upita snažno potaknuli odluku prema odbijanju, čak i ako je kreditna ocjena bila pristojna.

To pomaže kreditnom službeniku objasniti podnositelju zahtjeva osim onoga što je razmatrano, kako je svaki čimbenik pridonio konačnoj odluci "da" ili "ne". Ključno je prepoznati da sposobnost davanja dobrih objašnjenja često počinje puno ranije u razvojnom ciklusu. Znanstvenici i inženjeri podataka igraju ključnu ulogu tako što namjerno strukturiraju modele i podatkovne kanale na načine koji inherentno podržavaju objašnjivost, umjesto da to pokušavaju pričvrstiti kao naknadnu misao. Istraživački i dizajnerski timovi to mogu potaknuti pokretanjem ranih razgovora sa znanstvenicima i inženjerima podataka o potrebama korisnika za razumijevanjem, doprinoseći razvoju metrike objašnjivosti i zajedničkom izradom prototipa objašnjenja kako bi se osiguralo da su točna i prilagođena korisniku. XAI i etička umjetna inteligencija: raspakiranje pristranosti i odgovornosti Osim izgradnje povjerenja, XAI igra ključnu ulogu u rješavanju dubokih etičkih implikacija umjetne inteligencije*, posebno u vezi s algoritamskom pristranošću. Tehnike objašnjivosti, kao što je analiza SHAP vrijednosti, mogu otkriti jesu li na odluke modela neproporcionalno utjecali osjetljivi atributi poput rase, spola ili socioekonomskog statusa, čak i ako ti čimbenici nisu eksplicitno korišteni kao izravni inputi. Na primjer, ako model odobravanja zajma dosljedno dodjeljuje negativne SHAP vrijednosti podnositeljima zahtjeva iz određene demografske skupine, to signalizira potencijalnu pristranost koju treba istražiti, osnažujući timove da isplivaju na površinu i ublaže takve nepravedne ishode. Snaga XAI-ja također dolazi s potencijalom za "pranje objašnjivosti". Baš kao što "greenwashing" dovodi potrošače u zabludu o ekološkim praksama, pranje objašnjivosti može se pojaviti kada su objašnjenja osmišljena da zamagljuju, a ne rasvjetljuju, problematično algoritamsko ponašanje ili inherentne pristranosti. To bi se moglo očitovati kao pretjerano pojednostavljena objašnjenja koja izostavljaju kritične čimbenike utjecaja ili objašnjenja koja strateški oblikuju rezultate tako da izgledaju neutralnije ili poštenije nego što uistinu jesu. Ističe etičku odgovornost praktičara UX-a da osmisle objašnjenja koja su istinski transparentna i provjerljiva. Stručnjaci za UX, u suradnji sa znanstvenicima za podatke i etičarima, imaju ključnu odgovornost u komuniciranju razloga odluke, kao i ograničenja i potencijalnih pristranosti temeljnog modela umjetne inteligencije. To uključuje postavljanje realnih korisničkih očekivanja o točnosti umjetne inteligencije, prepoznavanje gdje bi model mogao biti manje pouzdan i pružanje jasnih kanala za pribjegavanje ili povratne informacije kada korisnici percipiraju nepravedne ili netočne rezultate. Proaktivno rješavanje ovih problemaetičke dimenzije omogućit će nam da izgradimo sustave umjetne inteligencije koji su uistinu pravedni i pouzdani. Od metoda do modela: Praktični uzorci dizajna XAI Poznavanje pojmova je jedna stvar; njihovo dizajniranje je drugo. Evo kako ove XAI metode možemo prevesti u intuitivne obrasce dizajna. Uzorak 1: Izjava "zato" (za značaj značajke) Ovo je najjednostavniji i često najučinkovitiji obrazac. To je izravna izjava jasnim jezikom koja otkriva primarni razlog za djelovanje umjetne inteligencije.

Heuristika: Budite izravni i sažeti. Vodite s jednim najutjecajnijim razlogom. Izbjegavajte žargon pod svaku cijenu.

Primjer: Zamislite uslugu strujanja glazbe. Umjesto da samo predstavite popis za reprodukciju “Discover Weekly”, dodajete mali redak mikrokopije. Preporuka za pjesmu: “Velvet Morning” Jer slušate “The Fuzz” i drugi psihodelični rock.

Uzorak 2: Interaktivni "Što-ako" (za kontračinjenice) Protučinjenice su inherentno o osnaživanju. Najbolji način da ih predstavite je davanje interaktivnih alata korisnicima da sami istražuju mogućnosti. Ovo je savršeno za financijske, zdravstvene ili druge aplikacije usmjerene ka cilju.

Heuristika: Učinite objašnjenja interaktivnim i osnažujućim. Neka korisnici vide uzrok i posljedicu svojih izbora.

Primjer: sučelje zahtjeva za kredit. Nakon odbijanja, umjesto slijepe ulice, korisnik dobiva alat za određivanje kako bi se različiti scenariji (što-ako) mogli odvijati (vidi sliku 1).

Uzorak 3: Kolut s istaknutim točkama (za lokalna objašnjenja) Kada umjetna inteligencija izvodi radnju na korisnikovom sadržaju (kao što je sažimanje dokumenta ili prepoznavanje lica na fotografijama), objašnjenje bi trebalo biti vizualno povezano s izvorom.

Heuristika: Koristite vizualne znakove kao što su isticanje, obrisi ili bilješke kako biste izravno povezali objašnjenje s elementom sučelja koji objašnjava.

Primjer: Alat umjetne inteligencije koji sažima dugačke članke. Sažetak generiran umjetnom inteligencijom: Početno istraživanje pokazalo je tržišni jaz za održive proizvode. Izvor u dokumentu: „...Naša analiza tržišnih trendova u drugom kvartalu uvjerljivo je pokazala da niti jedan veliki konkurent nije učinkovito služio ekološki osviještenom potrošaču, otkrivajući značajan tržišni jaz za održive proizvode...”

Uzorak 4: Gurni i povuci vizual (za objašnjenja temeljena na vrijednosti) Za složenije odluke korisnici će možda morati razumjeti međudjelovanje čimbenika. Jednostavne vizualizacije podataka mogu to razjasniti, a da ne budu preopterećujuće.

Heuristika: upotrijebite jednostavne vizualizacije podataka označene bojama (poput trakastih dijagrama) kako biste prikazali čimbenike koji su pozitivno i negativno utjecali na odluku.

Primjer: AI provjerava profil kandidata za posao. Zašto se ovaj kandidat podudara sa 75%: Čimbenici koji povećavaju rezultat: 5+ godina iskustva u istraživanju UX-a Stručnjak za Python Čimbenici koji smanjuju rezultat: Nema iskustva s B2B SaaS

Učenje i korištenje ovih dizajn obrazaca u korisničkom doživljaju vašeg AI proizvoda pomoći će povećati objašnjivost. Također možete koristiti dodatne tehnike koje ovdje ne pokrivam detaljno. To uključuje sljedeće:

Objašnjenja prirodnim jezikom: Prevođenje tehničkog rezultata umjetne inteligencije u jednostavan, razgovorni ljudski jezik koji nestručnjaci mogu lako razumjeti. Kontekstualna objašnjenja: pružajući obrazloženje za izlaz umjetne inteligencije u određenom trenutku i na određenom mjestu, ono je najrelevantnije za zadatak korisnika. Relevantne vizualizacije: Korištenje dijagrama, grafikona ili toplinskih karti za vizualno predstavljanje procesa donošenja odluka AI-ja, čineći složene podatke intuitivnim i lakšim za shvaćanje korisnicima.

Napomena za prednji dio: Prevođenje ovih objašnjivih izlaza u besprijekorna korisnička iskustva također predstavlja vlastiti niz tehničkih razmatranja. Front-end programeri često se bore s dizajnom API-ja kako bi učinkovito dohvatili podatke objašnjenja, a implikacije izvedbe (kao što je generiranje objašnjenja u stvarnom vremenu za svaku korisničku interakciju) zahtijevaju pažljivo planiranje kako bi se izbjeglo kašnjenje. Neki primjeri iz stvarnog svijeta UPS Capital's DeliveryDefense UPS koristi AI za dodjelu "ocjene pouzdanosti isporuke" adresama kako bi predvidio vjerojatnost da paket bude ukraden. Njihov softver DeliveryDefense analizira povijesne podatke o lokaciji, učestalosti gubitaka i drugim čimbenicima. Ako adresa ima nisku ocjenu, sustav može proaktivno preusmjeriti paket na sigurnu UPS pristupnu točku, pružajući objašnjenje odluke (npr. "Paket preusmjeren na sigurnu lokaciju zbog povijesti krađe"). Ovaj sustav pokazuje kako se XAI može koristiti za smanjenje rizika i izgradnju povjerenja kupacaprozirnost. Autonomna vozila Ova vozila budućnosti morat će učinkovito koristiti XAI kako bi pomogla svojim vozilima da donose sigurne, objašnjive odluke. Kada samovozeći automobil iznenada zakoči, sustav može pružiti objašnjenje svoje radnje u stvarnom vremenu, na primjer, identificiranjem pješaka koji izlazi na cestu. To nije ključno samo za udobnost i povjerenje putnika, već je regulatorni zahtjev za dokazivanje sigurnosti i odgovornosti sustava umjetne inteligencije. IBM Watson Health (i njegovi izazovi) Iako se često navodi kao opći primjer umjetne inteligencije u zdravstvu, također je vrijedna studija slučaja za važnost XAI-ja. Neuspjeh projekta Watson for Oncology naglašava što može poći po zlu kada objašnjenja nisu jasna ili kada su temeljni podaci pristrani ili nisu lokalizirani. Preporuke sustava ponekad nisu bile u skladu s lokalnom kliničkom praksom jer su se temeljile na smjernicama usmjerenim na SAD. Ovo služi kao upozoravajuća priča o potrebi za snažnom objašnjivošću koja je svjesna konteksta. Uloga istraživača korisničkog doživljaja: utvrđivanje i provjera valjanosti objašnjenja Naša dizajnerska rješenja učinkovita su samo ako odgovaraju na prava pitanja korisnika u pravo vrijeme. Objašnjenje koje odgovara na pitanje koje korisnik nema je samo buka. Ovo je mjesto gdje UX istraživanje postaje kritično vezivno tkivo u XAI strategiji, osiguravajući da objasnimo što i kako je to zapravo važno našim korisnicima. Uloga istraživača je dvostruka: prvo, informirati strategiju identificirajući gdje su potrebna objašnjenja, i drugo, potvrditi dizajne koji donose ta objašnjenja. Informiranje o strategiji XAI (što objasniti) Prije nego što možemo osmisliti jedno objašnjenje, moramo razumjeti korisnikov mentalni model AI sustava. Što oni vjeruju da radi? Gdje su praznine između njihovog razumijevanja i stvarnosti sustava? Ovo je temeljni rad istraživača UX-a. Intervjui s mentalnim modelom: raspakiranje korisničkih percepcija sustava umjetne inteligencije Kroz duboke, polustrukturirane intervjue, UX praktičari mogu dobiti neprocjenjive uvide u to kako korisnici percipiraju i razumiju AI sustave. Ove su sesije osmišljene kako bi potaknule korisnike da doslovno nacrtaju ili opišu svoj interni "mentalni model" kako vjeruju da umjetna inteligencija radi. To često uključuje postavljanje otvorenih pitanja koja potiču korisnike da objasne logiku sustava, njegove ulaze i izlaze, kao i odnose između tih elemenata. Ovi intervjui su snažni jer često otkrivaju duboke zablude i pretpostavke koje korisnici imaju o umjetnoj inteligenciji. Na primjer, korisnik koji komunicira s mehanizmom za preporuke može pouzdano tvrditi da se sustav temelji isključivo na njihovoj prošloj povijesti gledanja. Možda ne shvaćaju da algoritam također uključuje mnoštvo drugih čimbenika, kao što je doba dana u koje pregledavaju, trenutni trendovi na platformi ili čak navike gledanja sličnih korisnika. Otkrivanje ovog jaza između korisnikova mentalnog modela i stvarne temeljne logike umjetne inteligencije od ključne je važnosti. Točno nam govori koje specifične informacije trebamo priopćiti korisnicima kako bismo im pomogli izgraditi točniji i robusniji mentalni model sustava. To je pak temeljni korak u njegovanju povjerenja. Kada korisnici razumiju, čak i na visokoj razini, kako AI dolazi do svojih zaključaka ili preporuka, veća je vjerojatnost da će vjerovati njegovim rezultatima i oslanjati se na njegovu funkcionalnost. AI Journey Mapping: Duboko poniranje u povjerenje korisnika i objašnjivost Pedantnim mapiranjem korisnikovog putovanja pomoću značajke koju pokreće AI, dobivamo neprocjenjiv uvid u točne trenutke u kojima se pojavljuju zbunjenost, frustracija ili čak duboko nepovjerenje. Ovo otkriva kritične točke u kojima se mentalni model korisnika o tome kako AI radi sukobljava s njegovim stvarnim ponašanjem. Razmislite o servisu za strujanje glazbe: Pada li povjerenje korisnika kada se preporuka popisa za reprodukciju čini "nasumičnom", bez ikakve vidljive veze s njihovim prošlim navikama slušanja ili iskazanim preferencijama? Ova percipirana nasumičnost izravan je izazov korisnikovim očekivanjima inteligentnog upravljanja i kršenje implicitnog obećanja da umjetna inteligencija razumije njihov ukus. Slično tome, u aplikaciji za upravljanje fotografijama, doživljavaju li korisnici značajnu frustraciju kada značajka AI označavanja fotografija konstantno pogrešno identificira dragog člana obitelji? Ova greška je više od tehničke greške; pogađa u srce točnosti, personalizacije, pa čak iemocionalna povezanost. Ove bolne točke su živi signali koji točno pokazuju gdje je potrebno dobro postavljeno, jasno i sažeto objašnjenje. Takva objašnjenja služe kao ključni mehanizmi popravka, popravljajući povredu povjerenja koja, ako se ne riješi, može dovesti do napuštanja korisnika. Snaga AI mapiranja putovanja leži u njegovoj sposobnosti da nas pomakne dalje od jednostavnog objašnjavanja konačnog rezultata AI sustava. Iako je važno razumjeti što je AI proizvela, često je nedovoljno. Umjesto toga, ovaj nas proces tjera da se u kritičnim trenucima usredotočimo na objašnjavanje procesa. To znači adresiranje:

Zašto je generiran određeni izlaz: Je li to bilo zbog specifičnih ulaznih podataka? Određena arhitektura modela? Koji su čimbenici utjecali na odluku umjetne inteligencije: Jesu li određene značajke imale veću težinu? Kako je umjetna inteligencija došla do svog zaključka: Možemo li ponuditi pojednostavljeno, analogno objašnjenje njezinog unutarnjeg funkcioniranja? Koje je pretpostavke napravila umjetna inteligencija: je li bilo implicitnih razumijevanja korisnikove namjere ili podataka koje je trebalo otkriti? Koja su ograničenja umjetne inteligencije: Jasno priopćavanje onoga što umjetna inteligencija ne može učiniti ili gdje bi njena točnost mogla pokolebati, gradi realna očekivanja.

Mapiranje putovanja pomoću umjetne inteligencije pretvara apstraktni koncept XAI-ja u praktičan, djelotvoran okvir za praktičare UX-a. Omogućuje nam da prijeđemo dalje od teoretskih rasprava o objašnjivosti i umjesto toga odredimo točne trenutke u kojima je povjerenje korisnika u pitanju, pružajući potrebne uvide za izgradnju AI iskustava koja su snažna, transparentna, razumljiva i vrijedna povjerenja. U konačnici, istraživanje je način na koji otkrivamo nepoznanice. Vaš tim možda raspravlja o tome kako objasniti zašto je zajam odbijen, ali istraživanje bi moglo otkriti da su korisnici daleko više zabrinuti za razumijevanje kako su njihovi podaci uopće korišteni. Bez istraživanja, jednostavno nagađamo što se naši korisnici pitaju. Suradnja na dizajnu (kako objasniti svoju umjetnu inteligenciju) Nakon što je istraživanje identificiralo što treba objasniti, počinje suradnička petlja s dizajnom. Dizajneri mogu izraditi prototip uzoraka o kojima smo ranije govorili - izjava "Jer", interaktivni klizači - a istraživači mogu staviti te dizajne pred korisnike da vide hoće li izdržati. Ciljano testiranje upotrebljivosti i razumijevanja: Možemo dizajnirati istraživačke studije koje posebno testiraju XAI komponente. Ne pitamo samo: "Je li ovo jednostavno za korištenje?" Pitamo: "Nakon što ovo vidite, možete li mi svojim riječima reći zašto je sustav preporučio ovaj proizvod?" ili "Pokažite mi što biste učinili da vidite možete li dobiti drugačiji rezultat." Ovdje je cilj izmjeriti razumijevanje i sposobnost djelovanja, uz upotrebljivost. Samo mjerenje povjerenja: Možemo koristiti jednostavne ankete i ljestvice ocjenjivanja prije i nakon što se prikaže objašnjenje. Na primjer, možemo pitati korisnika na ljestvici od 5 stupnjeva: "Koliko vjerujete ovoj preporuci?" prije nego što vide izjavu "Zato", a zatim ih ponovno pitajte nakon toga. To daje kvantitativne podatke o tome pomiču li naša objašnjenja zapravo iglu povjerenja. Ovaj proces stvara moćnu, iterativnu petlju. Rezultati istraživanja utječu na početni dizajn. Taj se dizajn zatim testira, a novi se nalazi šalju natrag dizajnerskom timu na doradu. Možda je izjava "Jer" bila previše žargonska ili je klizač "Što-ako" više zbunjivao nego osnaživao. Kroz ovu suradničku provjeru valjanosti, osiguravamo da su konačna objašnjenja tehnički točna, istinski razumljiva, korisna i da grade povjerenje za ljude koji koriste proizvod. Zlatokosa zona objašnjenja Kritična riječ upozorenja: moguće je pretjerano objašnjavati. Kao u bajci, u kojoj je Zlatokosa tražila kašu koja je "taman", cilj dobrog objašnjenja je pružiti pravu količinu detalja - ni previše ni premalo. Bombardiranje korisnika svakom varijablom u modelu dovest će do kognitivnog preopterećenja i zapravo može smanjiti povjerenje. Cilj nije učiniti korisnika podatkovnim znanstvenikom. Jedno od rješenja je progresivno otkrivanje.

Počnite s jednostavnim. Vodite jezgrovitom izjavom "Jer". Za većinu korisnika to će biti dovoljno. Ponudite put do detalja. Navedite jasnu vezu s niskim trenjem poput "Saznajte više" ili "Pogledajte kako je to utvrđeno". Otkrijte složenost. Iza te veze možete ponuditi interaktivne klizače, vizualizacije ili detaljniji popis faktora koji doprinose.

Ovaj slojeviti pristup poštuje pozornost i stručnost korisnika, pružajući upravo pravu količinuinformacija za svoje potrebe. Zamislimo da koristite pametni kućni uređaj koji preporučuje optimalno grijanje na temelju različitih čimbenika. Započnite s jednostavnim: "Vaš dom je trenutno zagrijan na 72 stupnja, što je optimalna temperatura za uštedu energije i udobnost." Ponudite put do detalja: Ispod toga, mala poveznica ili gumb: "Zašto je 72 stupnja optimalno?" Otkrijte složenost: klikom na tu poveznicu mogao bi se otvoriti novi zaslon koji prikazuje:

Interaktivni klizači za vanjsku temperaturu, vlažnost i željenu razinu udobnosti, pokazujući kako oni prilagođavaju preporučenu temperaturu. Vizualizacija potrošnje energije pri različitim temperaturama. Popis čimbenika koji doprinose kao što su "Doba dana", "Trenutačna vanjska temperatura", "Povijesna potrošnja energije" i "Senzori zauzetosti".

Učinkovito je kombinirati više XAI metoda, a ovaj obrazac Zlatokose Zone objašnjenja, koji zagovara progresivno otkrivanje, to implicitno potiče. Možete započeti s jednostavnom izjavom "Jer" (uzorak 1) za trenutačno razumijevanje, a zatim ponuditi vezu "saznaj više" koja otkriva interaktivni "Što-ako" (uzorak 2) ili "pritisni i povuci vizual" (uzorak 4) za dublje istraživanje. Na primjer, sustav podnošenja zahtjeva za zajam mogao bi u početku navesti primarni razlog za odbijanje (važnost značajke), zatim dopustiti korisniku interakciju s alatom "Što ako" da vidi kako bi promjene u njegovom prihodu ili dugu promijenile ishod (kontračinjenice), i na kraju pružiti detaljan grafikon "Push-and-Pull" (objašnjenje temeljeno na vrijednosti) za ilustraciju pozitivnih i negativnih doprinosa svih čimbenika. Ovaj slojeviti pristup omogućuje korisnicima pristup razini detalja koja im je potrebna, kada im je potrebna, sprječavajući kognitivno preopterećenje, a istovremeno pružajući sveobuhvatnu transparentnost. Određivanje koje XAI alate i metode koristiti primarno je funkcija temeljitog istraživanja UX-a. Intervjui s mentalnim modelom i mapiranje putovanja umjetne inteligencije ključni su za precizno određivanje potreba korisnika i bolnih točaka povezanih s razumijevanjem i povjerenjem umjetne inteligencije. Intervjui s mentalnim modelom pomažu u otkrivanju pogrešnih predodžbi korisnika o tome kako umjetna inteligencija funkcionira, ukazujući na područja u kojima su potrebna temeljna objašnjenja (poput važnosti značajki ili lokalnih objašnjenja). Mapiranje putovanja umjetne inteligencije, s druge strane, identificira kritične trenutke zbunjenosti ili nepovjerenja u interakciji korisnika s umjetnom inteligencijom, signalizirajući gdje bi preciznija ili interaktivnija objašnjenja (poput kontračinjeničnih ili objašnjenja temeljena na vrijednosti) bila najkorisnija za ponovnu izgradnju povjerenja i pružanje djelovanja.

U konačnici, najbolji način da odaberete tehniku ​​je dopustiti istraživanju korisnika da vodi vaše odluke, osiguravajući da se objašnjenja koja dizajnirate izravno odnose na stvarna pitanja i nedoumice korisnika, umjesto da jednostavno nude tehničke detalje radi njih samih. XAI za agente dubokog rasuđivanja Neki od najnovijih sustava umjetne inteligencije, poznati kao agenti dubokog rasuđivanja, proizvode eksplicitan "lanac misli" za svaki složen zadatak. Oni ne citiraju samo izvore; pokazuju logičan, korak po korak put kojim su došli do zaključka. Iako ova transparentnost pruža vrijedan kontekst, play-by-play koji se proteže kroz nekoliko odlomaka može se činiti neodoljivim korisniku koji jednostavno pokušava izvršiti zadatak. Načela XAI-ja, posebno Zone objašnjenja Zlatokose, primjenjuju se izravno ovdje. Možemo organizirati putovanje koristeći progresivno otkrivanje kako bismo prvo prikazali samo konačni zaključak i najistaknutiji korak u misaonom procesu. Korisnici se tada mogu uključiti da vide potpuno, detaljno obrazloženje u više koraka kada trebaju još jednom provjeriti logiku ili pronaći određenu činjenicu. Ovaj pristup uvažava pozornost korisnika dok čuva potpunu transparentnost agenta. Sljedeći koraci: osnaživanje vašeg XAI putovanja Objašnjivost je temeljni stup za izgradnju pouzdanih i učinkovitih AI proizvoda. Za naprednog praktičara koji želi pokrenuti ovu promjenu unutar svoje organizacije, putovanje se proteže izvan obrazaca dizajna u zagovaranje i kontinuirano učenje. Kako biste produbili svoje razumijevanje i praktičnu primjenu, razmislite o istraživanju resursa poput alata AI Explainability 360 (AIX360) tvrtke IBM Research ili Googleovog What-If Toola, koji nudi interaktivne načine za istraživanje ponašanja modela i objašnjenja. Sudjelovanje sa zajednicama poput Foruma za odgovornu umjetnu inteligenciju ili specifičnih istraživačkih grupa usmjerenih na AI usmjerenu na čovjeka može pružiti neprocjenjive uvide i prilike za suradnju. Konačno, budite zagovornik XAI-a unutar vlastite organizacije.Objašnjivost okvira kao strateška investicija. Razmotrite kratku prezentaciju svom vodstvu ili međufunkcionalnim timovima: "Ulaganjem u XAI ići ćemo dalje od izgradnje povjerenja; ubrzat ćemo prihvaćanje korisnika, smanjiti troškove podrške osnaživanjem korisnika razumijevanjem i ublažiti značajne etičke i regulatorne rizike izlaganjem potencijalnih pristranosti. Ovo je dobar dizajn i pametno poslovanje."

Vaš glas, utemeljen na praktičnom razumijevanju, ključan je za izvlačenje umjetne inteligencije iz crne kutije u partnerstvo s korisnicima.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free