Minu viimases kirjatükis kehtestasime alustõe: selleks, et kasutajad saaksid AI-d omaks võtta ja sellele tugineda, peavad nad seda usaldama. Rääkisime sellest, et usaldus on mitmetahuline konstruktsioon, mis põhineb arusaamadel tehisintellekti võimetest, heatahtlikkusest, terviklikkusest ja prognoositavusest. Mis saab aga siis, kui tehisintellekt oma vaikses algoritmilises tarkuses teeb otsuse, mis jätab kasutaja segadusse, frustratsiooni või isegi haiget? Hüpoteegitaotlus lükatakse tagasi, lemmiklugu puudub ootamatult esitusloendist ja kvalifitseeritud CV lükatakse tagasi enne, kui inimene seda üldse näeb. Nendel hetkedel purunevad võimed ja etteaimatavus ning heatahtlikkus tundub maailma eemal. Meie vestlus peab nüüd arenema usalduse põhjusest kuni läbipaistvuseni. Selle probleemi lahendamiseks on esile kerkinud seletatava tehisintellekti (XAI) valdkond, mis keskendub tehisintellekti väljundite inimestele arusaadavaks muutmise meetodite väljatöötamisele, kuid sageli on see andmeteadlaste jaoks puhttehniline väljakutse. Ma väidan, et see on tehisintellektile tuginevate toodete jaoks kriitiline disainiväljakutse. Meie kui UX-i professionaalide ülesanne on ületada lõhe algoritmiliste otsuste tegemise ja inimeste arusaamise vahel. See artikkel annab praktilisi ja rakendatavaid juhiseid selle kohta, kuidas uurida ja kujundada selgitatavust. Liigume moesõnadest kaugemale makettide juurde, muutes keerulised XAI kontseptsioonid konkreetseteks disainimustriteks, mida saate juba täna kasutama hakata. XAI müstifitseerimine: UX praktikute põhikontseptsioonid XAI eesmärk on vastata kasutaja küsimusele: "Miks?" Miks mulle seda reklaami näidati? Miks seda filmi mulle soovitatakse? Miks mu taotlus tagasi lükati? Mõelge sellele kui AI-le, mis näitab oma tööd matemaatikaprobleemi kallal. Ilma selleta on teil lihtsalt vastus ja olete sunnitud seda uskuma. Sammude näitamisel arendate arusaamist ja usaldust. Samuti lubate oma tööd kahekordselt kontrollida ja kinnitada just inimestel, keda see mõjutab. Funktsiooni tähtsus ja kontrafaktuaalid AI-ga toimuva selgitamiseks või selgitamiseks saame kasutada mitmeid tehnikaid. Kuigi meetodid ulatuvad kogu otsustuspuu loogika pakkumisest kuni väljundi loomuliku keele kokkuvõtete loomiseni, on kaks kõige praktilisemat ja mõjuvõimsamat tüüpi teavet, mida UX-i praktikud saavad kogemusse lisada, on funktsioonide tähtsus (joonis 1) ja kontrafaktuaalid. Need on kasutajatele sageli kõige lihtsamini mõistetavad ja disainerite jaoks kõige tõhusamad.

Funktsiooni tähtsus See seletatavusmeetod vastab küsimusele: "Millised olid AI kõige olulisemad tegurid?" Selle eesmärk on tuvastada 2–3 suurimat muutujat, millel oli tulemust kõige rohkem mõjutanud. See on pealkiri, mitte kogu lugu. Näide. Kujutage ette tehisintellekti, mis ennustab, kas klient loobub (tühistab oma teenuse). Funktsiooni tähtsus võib paljastada, et „toekõnede arv viimase kuu jooksul” ja „hiljutised hinnatõusud” olid kaks kõige olulisemat tegurit, mis määrasid kindlaks, kas klient tõenäoliselt loobub.

Kontrafaktuaalid See võimas meetod vastab: "Mida ma peaksin muutma, et saada teistsugune tulemus?" See on ülioluline, sest see annab kasutajatele agentuuritunde. See muudab masendava "ei" vaidlustatavaks "veel mitte". Näide: kujutage ette laenutaotlussüsteemi, mis kasutab tehisintellekti. Kasutajale keeldutakse laenu andmast. Selle asemel, et näha lihtsalt „Taotlus tagasi lükatud”, jagaks ka vastupidine selgitus: „Kui teie krediidiskoor oleks 50 punkti kõrgem või kui teie võla ja sissetulekute suhe oleks 10% madalam, oleks teie laen heaks kiidetud.” See annab Saarale selged ja teostatavad sammud, mida ta saab tulevikus laenu saamiseks võtta.

Mudeliandmete kasutamine seletuse täiustamiseks Kuigi tehniliste eripäradega tegelevad sageli andmeteadlased, on UX-i praktikutel kasulik teada, et sellised tööriistad nagu LIME (kohalikud tõlgendatavad mudeliagnostilised seletused), mis selgitavad individuaalseid ennustusi mudeli lokaalse lähendamise kaudu, ja SHAP (SHapley Additive ExPlanations), mis kasutab mänguteooria lähenemisviisi, et selgitada nende keerukate mudelite väljundit kõige sagedamini kasutatavatest masinõppemudelitest. Need raamatukogud aitavad sisuliselt murda AI otsust näidata, millised sisendid olid antud tulemuse jaoks kõige mõjukamad. Kui see on õigesti tehtud, saab tehisintellekti tööriista otsuse aluseks olevaid andmeid kasutada võimsa loo jutustamiseks. Tutvustame funktsioonide tähtsust ja vastupidiseid fakte ning näitame, kuidas saab otsuse taga olevat andmeteadust kasutada kasutajakogemuse parandamiseks. nüüd teemekatta funktsioonide tähtsus kohalike selgituste (nt LIME) andmete abil: see lähenemisviis vastab küsimusele: „Miks tegi tehisintellekt mulle just praegu selle konkreetse soovituse?” Mudeli toimimise üldise selgituse asemel annab see ühe konkreetse juhtumi jaoks keskendunud põhjuse. See on isiklik ja kontekstuaalne. Näide. Kujutage ette AI-toega muusikasoovitussüsteemi nagu Spotify. Kohalik selgitus vastaks: "Miks süsteem teile seda konkreetset Adele'i laulu just praegu soovitas?" Seletus võib olla järgmine: "Kuna kuulasite hiljuti mitmeid teisi emotsionaalseid ballaade ja laule naisvokalistidelt."

Lõpuks käsitleme väärtuspõhiste selgituste (nt Shapley Additive Explanations (SHAP)) andmete lisamist otsuse selgitusse: see on funktsiooni olulisuse nüansirikkam versioon, mis vastab küsimusele: „Kuidas iga faktor otsust ühel või teisel viisil mõjutas?” See aitab visualiseerida, mis oli oluline ja kas selle mõju oli positiivne või negatiivne. Näide. Kujutage ette, et pank kasutab tehisintellekti mudelit, et otsustada, kas laenutaotlus rahuldada.

Funktsiooni tähtsus: mudeli väljund võib näidata, et taotleja krediidiskoor, sissetulek ning võla ja sissetulekute suhe olid tema otsuse tegemisel kõige olulisemad tegurid. See vastab olulisele. Funktsiooni tähtsus koos väärtuspõhiste selgitustega (SHAP): SHAP-i väärtused võtaksid mudeli elementide põhjal funktsioonide tähtsust veelgi.

Heakskiidetud laenu puhul võib SHAP näidata, et kõrge krediidiskoor lükkas otsuse märkimisväärselt heakskiitmise poole (positiivne mõju), samas kui keskmisest veidi kõrgem võla ja sissetulekute suhe tõmbas selle veidi eemale (negatiivne mõju), kuid mitte piisavalt, et laenu andmisest keelduda. Keeldumata laenu puhul võib SHAP paljastada, et madal sissetulek ja hiljutiste krediidipäringute arv lükkasid otsuse tugevalt keeldumise suunas, isegi kui krediidiskoor oli korralik.

See aitab laenuhalduril lisaks sellele, mida kaaluti, taotlejale selgitada, kuidas iga tegur aitas kaasa lõplikule jah- või ei-otsusele. Oluline on mõista, et oskus anda häid selgitusi algab sageli arendustsüklis palju varem. Andmeteadlastel ja -inseneridel on keskne roll, kuna nad struktureerivad tahtlikult mudeleid ja andmetorusid viisil, mis iseenesest toetab seletatavust, mitte ei püüa seda tagantjärele kinnitada. Uurimis- ja disainimeeskonnad saavad seda soodustada, alustades varakult vestlusi andmeteadlaste ja inseneridega kasutajate vajaduste üle mõistmiseks, aidates kaasa seletatavusmõõdikute väljatöötamisele ja koostades ühiselt selgitusi, et tagada nende täpsus ja kasutajasõbralikkus. XAI ja eetiline tehisintellekt: eelarvamuste ja vastutuse lahtipakkimine Lisaks usalduse loomisele mängib XAI olulist rolli tehisintellekti* sügavate eetiliste tagajärgede käsitlemisel, eriti seoses algoritmilise eelarvamusega. Seletusmeetodid, nagu SHAP väärtuste analüüs, võivad paljastada, kas mudeli otsuseid mõjutavad ebaproportsionaalselt tundlikud atribuudid, nagu rass, sugu või sotsiaalmajanduslik staatus, isegi kui neid tegureid ei kasutatud otseselt otsesisendina. Näiteks kui laenu heakskiitmise mudel määrab teatud demograafilise piirkonna taotlejatele järjekindlalt negatiivsed SHAP-väärtused, annab see märku võimalikust eelarvamusest, mis vajab uurimist, andes meeskondadele võimaluse selliseid ebaõiglasi tulemusi esile tuua ja leevendada. XAI võimsusega kaasneb ka "seletatava pesemise" potentsiaal. Nii nagu "rohepesu" eksitab tarbijaid keskkonnatavade osas, võib seletatav pesemine toimuda siis, kui selgitused on mõeldud probleemse algoritmilise käitumise või loomupäraste eelarvamuste varjamiseks, mitte valgustamiseks. See võib ilmneda liiga lihtsustatud selgitustena, mis jätavad välja kriitilised mõjutegurid, või selgitustena, mis strateegiliselt kujundavad tulemused neutraalsemaks või õiglasemaks, kui need tegelikult on. See rõhutab UX-i praktikute eetilist vastutust kujundada selgitused, mis on tõeliselt läbipaistvad ja kontrollitavad. UX-professionaalidel on koostöös andmeteadlaste ja eetikutega otsustav vastutus otsuse põhjuste ning ka aluseks oleva AI mudeli piirangute ja võimalike eelarvamuste edastamisel. See hõlmab kasutajate realistlike ootuste seadmist tehisintellekti täpsuse osas, tuvastades, kus mudel võib olla vähem usaldusväärne, ja pakkudes selgeid kanaleid pöördumiseks või tagasisideks, kui kasutajad tajuvad ebaõiglasi või ebaõigeid tulemusi. Nendega tegelemine ennetavalteetilised mõõtmed võimaldavad meil ehitada tehisintellektisüsteeme, mis on tõeliselt õiglased ja usaldusväärsed. Meetoditest makettideni: praktilised XAI disainimustrid Mõistete tundmine on üks asi; nende kujundamine on teine. Siin on, kuidas saame need XAI meetodid intuitiivseteks disainimustriteks tõlkida. Muster 1: avaldus "Sest" (funktsiooni tähtsuse kohta) See on kõige lihtsam ja sageli kõige tõhusam muster. See on otsene ja arusaadav avaldus, mis toob esile tehisintellekti tegevuse peamise põhjuse.

Heuristiline: olge otsekohene ja sisutihe. Juhtige kõige mõjukama põhjusega. Vältige iga hinna eest žargooni.

Näide. Kujutage ette muusika voogedastusteenust. Selle asemel, et esitada lihtsalt esitusloendit „Discover Weekly”, lisate väikese rea mikrokoopiat. Laulusoovitus: „Velvet Morning”, kuna kuulate „The Fuzzi” ja muud psühhedeelset rokki.

Muster 2: "Mis-kui-kui-interaktiivne" (vastaste faktide jaoks) Kontrafaktuaalid on oma olemuselt seotud mõjuvõimu suurendamisega. Parim viis nende esindamiseks on anda kasutajatele interaktiivseid tööriistu, et nad saaksid ise võimalusi uurida. See sobib suurepäraselt finants-, tervise- või muude eesmärkidele suunatud rakenduste jaoks.

Heuristiline: muutke selgitused interaktiivseks ja mõjustavaks. Laske kasutajatel näha oma valikute põhjuseid ja tagajärgi.

Näide: laenutaotluse liides. Pärast keeldumist saab kasutaja tupiktee asemel tööriista, mille abil saab määrata, kuidas erinevad stsenaariumid (mis-kui-juhul) võivad toimida (vt joonis 1).

Muster 3: esiletõstmise rull (kohalike selgituste jaoks) Kui tehisintellekt teeb kasutaja sisuga toimingu (nt teeb dokumendist kokkuvõtte või tuvastab fotodel nägusid), peaks selgitus olema visuaalselt seotud allikaga.

Heuristiline: kasutage visuaalseid vihjeid, nagu esiletõstmine, piirjooned või märkused, et ühendada seletus otse selle liidese elemendiga, mida see selgitab.

Näide: tehisintellekti tööriist, mis teeb kokkuvõtteid pikkadest artiklitest.AI-loodud kokkuvõte: Esialgsed uuringud näitasid jätkusuutlike toodete turu puudujääki. Allikas dokumendis: „...Meie teise kvartali turusuundumuste analüüs näitas veenvalt, et ükski suur konkurent ei teenindanud tõhusalt keskkonnateadlikku tarbijat, mis paljastas jätkusuutlike toodete turul olulise lõhe...”

Muster 4: lükake ja tõmba visuaal (väärtuspõhiste selgituste jaoks) Keerulisemate otsuste tegemiseks peavad kasutajad mõistma tegurite koosmõju. Lihtsad andmete visualiseerimised võivad selle selgeks teha, ilma et see oleks üle jõu käiv.

Heuristiline: kasutage lihtsaid, värvikoodiga andmete visualiseerimisi (nt tulpdiagramme), et näidata tegureid, mis otsust positiivselt ja negatiivselt mõjutasid.

Näide: tehisintellekt kontrollib kandidaadi profiili töö jaoks.Miks see kandidaat vastab 75% ulatuses:Skoori suurendavad tegurid:5+ aastat UX-i uurimiskogemust PythonFactors'i alal valdav kogemus, mis lükkab skoori alla: puudub kogemus B2B SaaS-iga

Nende disainimustrite õppimine ja kasutamine oma tehisintellekti toote kasutuskogemuses aitab suurendada seletatavust. Võite kasutada ka täiendavaid tehnikaid, mida ma siin põhjalikult ei käsitle. See hõlmab järgmist.

Loomuliku keele seletused: tehisintellekti tehnilise väljundi tõlkimine lihtsasse vestluskeelde, millest mitteeksperdid kergesti aru saavad. Kontekstuaalsed selgitused: tehisintellekti väljundi põhjendus konkreetsel hetkel ja kohas on see kasutaja ülesande jaoks kõige asjakohasem. Asjakohased visualiseeringud: diagrammide, graafikute või soojuskaartide kasutamine tehisintellekti otsustusprotsessi visuaalseks esitamiseks, muutes keerukad andmed intuitiivseks ja kasutajatele hõlpsamini haaratavaks.

Märkus esiotsa jaoks: nende selgitatavuse väljundite sujuvaks kasutajakogemuseks tõlkimine toob kaasa ka oma tehniliste kaalutluste komplekti. Esiotsa arendajad maadlevad sageli API disainiga, et seletusandmeid tõhusalt hankida, ja jõudluse tagajärjed (nagu iga kasutaja interaktsiooni selgituste loomine reaalajas) vajavad latentsuse vältimiseks hoolikat planeerimist. Mõned näited reaalsest maailmast UPS Capitali DeliveryDefense UPS kasutab AI-d, et määrata aadressidele kohaletoimetamise usaldusskoor, et ennustada paki varastamise tõenäosust. Nende DeliveryDefense'i tarkvara analüüsib ajaloolisi andmeid asukoha, kadude sageduse ja muude tegurite kohta. Kui aadress on madala punktisummaga, saab süsteem paketi ennetavalt ümber suunata turvalisse UPS-i pääsupunkti, pakkudes otsusele selgitust (nt „Pakett suunati varguse tõttu ümber turvalisse asukohta”). See süsteem näitab, kuidas XAI-d saab kasutada riskide maandamiseks ja klientide usalduse suurendamiseksläbipaistvus. Autonoomsed sõidukid Need tulevikusõidukid peavad tõhusalt kasutama XAI-d, et aidata nende sõidukitel teha ohutuid ja seletatavaid otsuseid. Kui isejuhtiv auto järsult pidurdab, võib süsteem anda oma tegevusele reaalajas selgituse, näiteks tuvastades teele astuva jalakäija. See ei ole oluline mitte ainult reisijate mugavuse ja usalduse jaoks, vaid on ka regulatiivne nõue tehisintellektisüsteemi ohutuse ja vastutuse tõendamiseks. IBM Watson Health (ja selle väljakutsed) Kuigi seda nimetatakse sageli AI üldiseks näiteks tervishoius, on see ka väärtuslik juhtumiuuring XAI tähtsuse kohta. Watson for Oncology projekti ebaõnnestumine toob esile, mis võib valesti minna, kui selgitused pole selged või kui alusandmed on kallutatud või lokaliseeritud. Süsteemi soovitused olid mõnikord vastuolus kohalike kliiniliste tavadega, kuna need põhinesid USA-kesksetel suunistel. See on hoiatav lugu tugeva ja kontekstiteadliku seletatavuse vajaduse kohta. UX-i uurija roll: selgituste kindlaksmääramine ja kinnitamine Meie disainilahendused on tõhusad vaid siis, kui need vastavad õigetele kasutajaküsimustele õigel ajal. Seletus, mis vastab küsimusele, mida kasutajal pole, on lihtsalt müra. See on koht, kus UX-i uuringud muutuvad XAI strateegia kriitiliseks sidekoeks, tagades, et selgitame, mis ja kuidas see meie kasutajatele tegelikult oluline on. Teadlase roll on kahekordne: esiteks teavitada strateegiat, tehes kindlaks, kus on vaja selgitusi, ja teiseks kinnitada neid selgitusi esitavad kujundused. XAI strateegiast teavitamine (mida selgitada) Enne kui saame kujundada ühe selgituse, peame mõistma kasutaja AI-süsteemi vaimset mudelit. Mida nad usuvad, et see teeb? Kus on lõhed nende arusaamise ja süsteemi tegelikkuse vahel? See on UX-i uurija põhitöö. Vaimse mudeli intervjuud: tehisintellektisüsteemide kasutajate arusaamade lahtipakkimine Sügavate, poolstruktureeritud intervjuude kaudu saavad UX-i praktikud hindamatut teavet selle kohta, kuidas kasutajad AI-süsteeme tajuvad ja mõistavad. Need seansid on loodud selleks, et julgustada kasutajaid sõna otseses mõttes joonistama või kirjeldama oma sisemist vaimset mudelit selle kohta, kuidas nad usuvad, et tehisintellekt töötab. See hõlmab sageli avatud küsimuste esitamist, mis ajendavad kasutajaid selgitama süsteemi loogikat, selle sisendeid ja väljundeid ning nende elementide vahelisi seoseid. Need intervjuud on võimsad, kuna paljastavad sageli sügavaid väärarusaamu ja eeldusi, mida kasutajad tehisintellekti kohta omavad. Näiteks võib soovitusmootoriga suhtlev kasutaja kindlalt väita, et süsteem põhineb üksnes tema varasemal vaatamisajalool. Nad ei pruugi aru saada, et algoritm hõlmab ka paljusid muid tegureid, nagu kellaaeg, mil nad sirvivad, platvormi praegused trendid üksused või isegi sarnaste kasutajate vaatamisharjumused. Selle lõhe paljastamine kasutaja vaimse mudeli ja tegeliku AI-loogika vahel on kriitilise tähtsusega. See ütleb meile täpselt, millist konkreetset teavet peame kasutajatele edastama, et aidata neil luua süsteemist täpsem ja jõulisem mentaalne mudel. See omakorda on oluline samm usalduse suurendamisel. Kui kasutajad mõistavad isegi kõrgel tasemel, kuidas tehisintellekt oma järeldusteni või soovitusteni jõuab, usaldavad nad tõenäolisemalt selle väljundeid ja toetuvad selle funktsionaalsusele. AI teekonna kaardistamine: sügav sukeldumine kasutaja usaldusse ja seletatavusse Kaardistades hoolikalt kasutaja teekonda tehisintellektil põhineva funktsiooniga, saame hindamatu ülevaate hetkedest, mil tekib segadus, pettumus või isegi sügav umbusk. See paljastab kriitilised punktid, kus kasutaja vaimne mudel AI toimimise kohta põrkub selle tegeliku käitumisega. Kaaluge muusika voogedastusteenust: kas kasutaja usaldus langeb, kui esitusloendi soovitus tundub "juhuslik", millel puudub märgatav seos nende varasemate kuulamisharjumuste või eelistustega? See tajutav juhuslikkus on otsene väljakutse kasutaja ootustele intelligentsele kureerimisele ja rikub kaudset lubadust, et tehisintellekt mõistab nende maitset. Samamoodi kogevad kasutajad fotohaldusrakenduses märkimisväärset frustratsiooni, kui tehisintellekti fotode sildistamise funktsioon tuvastab pidevalt hinnalise pereliikme valesti? See viga on rohkem kui tehniline tõrge; see lööb täpsuse, isikupärastamise ja isegi keskmesemotsionaalne side. Need valupunktid on eredad signaalid, mis näitavad täpselt, kus on vaja hästi paigutatud, selget ja lühidalt selgitust. Sellised selgitused on olulised parandusmehhanismid, mis parandavad usalduse rikkumist, mis võib põhjustada kasutaja hülgamiseni, kui seda ei käsitleta. Tehisintellekti teekonna kaardistamise võimsus seisneb selle võimes viia meid kaugemale AI-süsteemi lõpliku väljundi selgitamisest. Kuigi tehisintellekti toodetud mõistmine on oluline, on see sageli ebapiisav. Selle asemel sunnib see protsess meid keskenduma protsessi selgitamisele kriitilistel hetkedel. See tähendab adresseerimist:

Miks konkreetne väljund loodi: kas see oli tingitud konkreetsetest sisendandmetest? Konkreetne mudeliarhitektuur? Millised tegurid mõjutasid tehisintellekti otsust: kas teatud funktsioone kaaluti rohkem? Kuidas AI oma järelduseni jõudis: kas saame pakkuda selle sisemise toimimise kohta lihtsustatud ja analoogset selgitust? Milliseid eeldusi tegi tehisintellekt: kas kasutaja kavatsustest või andmetest oli kaudne arusaam, mis tuleb esile tuua? Mis on tehisintellekti piirangud: realistlikud ootused loob selgelt teada, mida tehisintellekt ei saa teha või kus selle täpsus võib kõikuda.

Tehisintellekti teekonna kaardistamine muudab XAI abstraktse kontseptsiooni praktiliseks ja rakendatavaks raamistikuks UX-i praktikute jaoks. See võimaldab meil minna kaugemale teoreetilisest arutlusest seletatavuse üle ja selle asemel määrata täpsed hetked, mil kaalul on kasutajate usaldus, pakkudes vajalikke teadmisi võimsa, läbipaistva, arusaadava ja usaldusväärse tehisintellekti kogemuste loomiseks. Lõppkokkuvõttes on uurimine see, kuidas avastame tundmatuid. Teie meeskond võib arutleda selle üle, kuidas selgitada laenu andmisest keeldumist, kuid uuringud võivad paljastada, et kasutajad on palju rohkem huvitatud sellest, kuidas nende andmeid üldse kasutati. Ilma uuringuteta me lihtsalt oletame, mida meie kasutajad imestavad. Disaini kallal koostöö (kuidas oma tehisintellekti selgitada) Kui uurimustöö on selgitanud, algab koostöö koos disainiga. Disainerid saavad prototüüpida mustreid, millest me varem rääkisime – „Sest” avaldus, interaktiivsed liugurid – ja teadlased saavad need kujundused kasutajatele ette panna, et näha, kas need peavad vastu. Sihtotstarbeline kasutatavuse ja arusaamise testimine: saame kavandada uuringuid, mis testivad spetsiaalselt XAI komponente. Me ei küsi lihtsalt: "Kas seda on lihtne kasutada?" Küsime: "Kas saate pärast selle nägemist mulle oma sõnadega öelda, miks süsteem seda toodet soovitas?" või "Näita mulle, mida teeksite, et näha, kas saaksite teistsuguse tulemuse." Siin on eesmärk mõõta kasutatavuse kõrval arusaamist ja toimivust. Usalduse enda mõõtmine: enne ja pärast selgituse kuvamist saame kasutada lihtsaid küsitlusi ja hindamisskaalasid. Näiteks võime küsida kasutajalt 5-pallisel skaalal: "Kui palju te seda soovitust usaldate?" enne kui nad näevad avaldust "Sest" ja seejärel küsige neilt uuesti. See annab kvantitatiivseid andmeid selle kohta, kas meie selgitused panevad tegelikult nõela usaldusele. See protsess loob võimsa iteratiivse tsükli. Uurimistulemused näitavad esialgset disaini. Seejärel testitakse seda disaini ja uued leiud edastatakse disainimeeskonnale täpsustamiseks. Võib-olla oli avaldus "Sest" liiga žargooniline või liugur "Mis-kui-kui" oli pigem segadusseajav kui jõudu andev. Selle koostöövalideerimisega tagame, et lõplikud selgitused on tehniliselt täpsed, tõeliselt arusaadavad, kasulikud ja toodet kasutavate inimeste jaoks usaldust loovad. Kuldvillaku selgitustsoon Kriitiline hoiatussõna: üle seletada on võimalik. Nagu muinasjutus, kus Kuldvillak otsis just õiget putru, on ka hea selgituse eesmärk anda õige hulk detaile – mitte liiga palju ega liiga vähe. Kasutaja pommitamine mudeli iga muutujaga põhjustab kognitiivset ülekoormust ja võib tegelikult vähendada usaldust. Eesmärk ei ole muuta kasutajast andmeteadlane. Üks lahendus on progressiivne avalikustamine.

Alustage lihtsast. Juhtige kokkuvõtliku lausega "Sest". Enamiku kasutajate jaoks piisab sellest. Paku teed detailideni. Esitage selge ja vähese hõõrdumisega link, nagu „Lisateave” või „Vaadake, kuidas see määrati”. Avalda keerukus. Selle lingi taga saate pakkuda interaktiivseid liugureid, visualiseerimisi või üksikasjalikumat loendit mõjutavatest teguritest.

See kihiline lähenemine austab kasutaja tähelepanu ja asjatundlikkust, pakkudes täpselt õiget kogustteavet nende vajaduste jaoks. Kujutagem ette, et kasutate nutikodu seadet, mis soovitab erinevate tegurite põhjal optimaalset kütet. Alustage lihtsast: "Teie kodu köetakse praegu 72 kraadini, mis on optimaalne temperatuur energiasäästu ja mugavuse tagamiseks." Paku teed detailideni: selle all väike link või nupp: "Miks on 72 kraadi optimaalne?" Selgitage keerukust: sellel lingil klõpsamine võib avada uue ekraani, mis näitab:

Interaktiivsed liugurid välistemperatuuri, niiskuse ja teie eelistatud mugavustaseme jaoks, mis näitavad, kuidas need reguleerivad soovitatud temperatuuri. Energiatarbimise visualiseerimine erinevatel temperatuuridel. Loend mõjutavatest teguritest, nagu „kellaaeg”, „Praegune välistemperatuur”, „Ajalooline energiakasutus” ja „Asjaoluandurid”.

Tõhus on kombineerida mitut XAI meetodit ja see Kuldvillaku selgitustsooni muster, mis pooldab järkjärgulist avalikustamist, julgustab seda kaudselt. Võite alustada lihtsa lausega "Sest" (muster 1), et seda saaks kohe aru saada, ja seejärel pakkuda linki "Lisateave", mis avab sügavama uurimise jaoks interaktiivse "Mis-kui-kui-" (muster 2) või "tõuke-ja-tõmba-visuaali" (muster 4). Näiteks võib laenutaotlussüsteem esialgu esitada keeldumise peamise põhjuse (funktsiooni olulisus), seejärel lubada kasutajal kasutada tööriista „Mis-kui-oleks”, et näha, kuidas muutused nende sissetulekutes või võlas tulemust muudaksid (kontrafaktid), ja lõpuks esitada üksikasjalik „tõuke ja tõmba” diagramm (väärtuspõhine selgitus), et illustreerida kõigi tegurite positiivset ja negatiivset mõju. See kihiline lähenemine võimaldab kasutajatel pääseda juurde vajalikule detailsusele, kui nad seda vajavad, vältides kognitiivset ülekoormust, pakkudes samas kõikehõlmavat läbipaistvust. Kasutatavate XAI tööriistade ja meetodite kindlaksmääramine on peamiselt UX põhjaliku uurimistöö funktsioon. Mentaalse mudeli intervjuud ja tehisintellekti teekonna kaardistamine on üliolulised kasutajate vajaduste ja AI mõistmise ja usaldusega seotud valupunktide väljaselgitamiseks. Mentaalse mudeli intervjuud aitavad paljastada kasutajate väärarusaamu AI toimimise kohta, näidates valdkondi, kus on vaja põhjapanevaid selgitusi (nt funktsioonide tähtsus või kohalikud selgitused). Tehisintellekti teekonna kaardistamine seevastu tuvastab kriitilised segaduse või usaldamatuse hetked kasutaja suhtluses tehisintellektiga, andes märku, kus üksikasjalikumad või interaktiivsemad selgitused (nt kontrafaktuaalid või väärtuspõhised selgitused) oleksid usalduse taastamiseks ja agentuuri pakkumiseks kõige kasulikumad.

Lõppkokkuvõttes on parim viis tehnika valimiseks lasta kasutajauuringul oma otsuseid teha, tagades, et teie kavandatud selgitused käsitlevad otseselt kasutaja tegelikke küsimusi ja muresid, mitte ei paku lihtsalt tehnilisi üksikasju nende enda huvides. XAI sügavate arutlusagentide jaoks Mõned uusimad AI-süsteemid, mida tuntakse sügavate arutlusagentidena, loovad iga keeruka ülesande jaoks selgesõnalise "mõtteahela". Nad ei viita ainult allikatele; need näitavad loogilist, samm-sammult teed, mille nad otsustasid. Kuigi see läbipaistvus pakub väärtuslikku konteksti, võib mitut lõiku hõlmav esitushaaval tunduda ülejõukäiv kasutajale, kes üritab lihtsalt ülesannet täita. Siin kehtivad otseselt XAI põhimõtted, eriti Goldilocks Zone of Explanation. Me saame kureerida teekonda, kasutades järkjärgulist avalikustamist, et näidata kõigepealt ainult lõplikku järeldust ja kõige silmatorkavamat sammu mõtteprotsessis. Kasutajad saavad seejärel lubada näha täielikku, üksikasjalikku, mitmeastmelist arutluskäiku, kui neil on vaja loogikat üle kontrollida või leida konkreetne fakt. See lähenemine austab kasutaja tähelepanu, säilitades samal ajal agendi täieliku läbipaistvuse. Järgmised sammud: tugevdage oma XAI-reisi Seletatavus on usaldusväärsete ja tõhusate AI-toodete loomise alustala. Edasijõudnud praktiku jaoks, kes soovib seda muutust oma organisatsioonis juhtida, ulatub teekond disainimustritest kaugemale, propageerimise ja pideva õppimiseni. Oma arusaamise ja praktilise rakendamise süvendamiseks kaaluge selliste ressursside uurimist nagu IBM Researchi tööriistakomplekt AI Explainability 360 (AIX360) või Google'i tööriist What-If, mis pakuvad interaktiivseid viise mudeli käitumise ja selgituste uurimiseks. Suhtlemine selliste kogukondadega nagu vastutustundliku tehisintellekti foorum või konkreetsed inimkesksele tehisintellektile keskendunud uurimisrühmad võivad anda hindamatuid teadmisi ja koostöövõimalusi. Lõpuks olge XAI eestkõneleja oma organisatsioonis.Raami seletatavus kui strateegiline investeering. Kaaluge lühikest esitlust oma juhtkonnale või erinevatele meeskondadele: "Investeerides XAI-sse, läheme kaugemale usalduse loomisest; kiirendame kasutajate kasutuselevõttu, vähendame tugikulusid, võimaldades kasutajatel mõista, ning leevendame olulisi eetilisi ja regulatiivseid riske, paljastades võimalikud eelarvamused. See on hea disain ja nutikas äri."

Teie praktilisel mõistmisel põhinev hääl on ülioluline tehisintellekti mustast kastist välja toomisel ja kasutajatega koostööpartnerluse loomisel.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free