Paskutiniame mano darbe nustatėme pagrindinę tiesą: kad vartotojai galėtų priimti dirbtinį intelektą ir ja pasikliauti, jie turi juo pasitikėti. Kalbėjome apie tai, kad pasitikėjimas yra daugialypė konstrukcija, pagrįsta AI gebėjimų, geranoriškumo, sąžiningumo ir nuspėjamumo suvokimu. Bet kas nutinka, kai dirbtinis intelektas tyliai, algoritmiškai išmintingai priima sprendimą, dėl kurio vartotojas būna sutrikęs, nusivylęs ar net įskaudintas? Hipotekos paraiška atmetama, mėgstamiausios dainos grojaraštyje staiga nėra, o kvalifikuotas gyvenimo aprašymas atmetamas žmogui dar nepamačius. Šiomis akimirkomis gebėjimai ir nuspėjamumas žlunga, o geranoriškumas jaučiasi toli. Mūsų pokalbis dabar turi vystytis nuo „kodėl pasitikėjimo“ iki „kaip“ skaidrumo. Paaiškinamo AI (XAI) sritis, kurioje pagrindinis dėmesys skiriamas metodų kūrimui, kad dirbtinio intelekto rezultatai būtų suprantami žmonėms, atsirado siekiant išspręsti šią problemą, tačiau dažnai tai yra grynai techninis iššūkis duomenų mokslininkams. Aš tvirtinu, kad tai yra esminis AI pagrįstų produktų dizaino iššūkis. Mūsų, UX profesionalų, darbas yra įveikti atotrūkį tarp algoritminio sprendimų priėmimo ir žmogaus supratimo. Šiame straipsnyje pateikiamos praktiškos, veiksmingos gairės, kaip atlikti tyrimus ir sukurti paaiškinamumą. Pereisime už madingų žodžių ir prie maketų, sudėtingas XAI koncepcijas paversdami konkrečiais dizaino modeliais, kuriuos galite pradėti naudoti jau šiandien. XAI panaikinimas: pagrindinės UX praktikų koncepcijos XAI yra skirtas atsakyti į vartotojo klausimą: „Kodėl? Kodėl man buvo parodytas šis skelbimas? Kodėl šis filmas man rekomenduojamas? Kodėl mano prašymas buvo atmestas? Pagalvokite apie tai kaip apie dirbtinį intelektą, rodantį savo darbą sprendžiant matematikos problemą. Be jo jūs tiesiog turite atsakymą ir esate priversti jį priimti tikėjimu. Rodydami žingsnius ugdote supratimą ir pasitikėjimą. Taip pat leidžiate, kad jūsų darbą dar kartą patikrintų ir patvirtintų patys žmonės, kuriems jis daro įtaką. Funkcijų svarba ir priešingi faktai Yra keletas metodų, kuriuos galime naudoti norėdami išsiaiškinti ar paaiškinti, kas vyksta su AI. Nors metodai svyruoja nuo visos sprendimų medžio logikos pateikimo iki rezultato santraukų natūralia kalba generavimo, du praktiškiausi ir įtakingiausi informacijos tipai, kuriuos UX specialistai gali įnešti į patirtį, yra funkcijų svarba (1 pav.) ir priešingi faktai. Vartotojams dažnai tai yra lengviausia suprasti, o dizaineriams įgyvendinti.

Funkcijos svarba Šis paaiškinamumo metodas atsako: „Kokie buvo svarbiausi veiksniai, į kuriuos atsižvelgė AI? Tai yra 2–3 svarbiausių kintamųjų, kurie turėjo didžiausią įtaką rezultatui, nustatymas. Tai antraštė, o ne visa istorija. Pavyzdys: Įsivaizduokite AI, kuri numato, ar klientas atsisakys (atšauks savo paslaugą). Funkcijos svarba gali atskleisti, kad „pagalbos skambučių skaičius per pastarąjį mėnesį“ ir „neseniai pakilusios kainos“ buvo du svarbiausi veiksniai nustatant, ar klientas gali atsisakyti klientų.

Kontrafaktai Šis galingas metodas atsako: „Ką turėčiau pakeisti, kad gaučiau kitokį rezultatą? Tai labai svarbu, nes suteikia vartotojams agentūros jausmą. Tai paverčia varginantį „ne“ į veiksmingą „dar ne“. Pavyzdys: Įsivaizduokite paskolos paraiškų sistemą, kurioje naudojamas AI. Vartotojui atmesta paskola. Užuot matęs tik „Paraiška atmesta“, taip pat būtų pateikiamas priešingas paaiškinimas: „Jei jūsų kredito balas būtų 50 punktų didesnis arba jei jūsų skolos ir pajamų santykis būtų 10 % mažesnis, jūsų paskola būtų patvirtinta“. Tai suteikia Sarai aiškių, veiksmingų veiksmų, kurių ji gali imtis, kad ateityje galėtų gauti paskolą.

Modelio duomenų naudojimas paaiškinimui patobulinti Nors technines specifikas dažnai nagrinėja duomenų mokslininkai, UX praktikams naudinga žinoti, kad tokie įrankiai kaip LIME (vietiniai interpretuojami modelio agnostikos paaiškinimai), kurie paaiškina individualias prognozes, apytiksliai apskaičiuojant modelį vietoje, ir SHAP (SHapley Additive ExPlanations), kuris naudoja žaidimų teorijos metodą, kad paaiškintų bet kokių sudėtingų mašininio mokymosi modelių išvestį iš šių sudėtingų modelių. Šios bibliotekos iš esmės padeda sugriauti AI sprendimą parodyti, kurie įvesties duomenys turėjo didžiausią įtaką tam tikram rezultatui. Tinkamai atlikus duomenis, kuriais grindžiamas AI įrankio sprendimas, galima papasakoti galingą istoriją. Pažvelkime į funkcijų svarbą ir priešingus faktus bei parodykime, kaip duomenų mokslas, pagrįstas sprendimu, gali būti panaudotas siekiant pagerinti vartotojo patirtį. Dabar tegulNurodykite funkcijų svarbą, naudodami vietinių paaiškinimų (pvz., LIME) duomenis: šis metodas atsako: „Kodėl AI man pateikė šią konkrečią rekomendaciją dabar? Užuot bendrai paaiškinęs, kaip modelis veikia, jis pateikia tikslią priežastį vienam konkrečiam atvejui. Tai asmeniška ir kontekstualu. Pavyzdys: Įsivaizduokite AI varomą muzikos rekomendacijų sistemą, pvz., „Spotify“. Vietinis paaiškinimas atsakytų: „Kodėl sistema dabar jums rekomendavo šią konkrečią Adelės dainą? Paaiškinimas gali būti toks: „Kadangi neseniai klausėtės kelių kitų emocingų baladžių ir moterų vokalistų dainų“.

Galiausiai pakalbėkime apie verte pagrįstų paaiškinimų (pvz., „Shapley Additive Explanations“ (SHAP) duomenų įtraukimą į sprendimo paaiškinimą: tai labiau niuansuota funkcijos svarbos versija, atsakanti į klausimą: „Kaip kiekvienas veiksnys lėmė sprendimą vienaip ar kitaip?“ Tai padeda įsivaizduoti, kas buvo svarbu ir ar jo įtaka buvo teigiama, ar neigiama. Pavyzdys: Įsivaizduokite, kad bankas naudoja dirbtinio intelekto modelį, kad nuspręstų, ar patvirtinti paskolos paraišką.

Ypatybės svarba: modelio išvestis gali parodyti, kad pareiškėjo kredito balas, pajamos ir skolos bei pajamų santykis buvo svarbiausi jo sprendimo veiksniai. Tai atsako į tai, kas buvo svarbu. Funkcijų svarba su vertėmis pagrįstais paaiškinimais (SHAP): SHAP reikšmės būtų dar svarbesnės, remiantis modelio elementais.

Patvirtintos paskolos atveju SHAP gali parodyti, kad aukštas kredito balas reikšmingai pastūmėjo sprendimą patvirtinti (teigiama įtaka), o šiek tiek didesnis nei vidutinis skolos ir pajamų santykis jį šiek tiek atitraukė (neigiama įtaka), bet nepakankamai, kad būtų atsisakyta suteikti paskolą. Dėl atsisakymo išduoti paskolą SHAP gali atskleisti, kad mažos pajamos ir didelis pastaruoju metu gautų kredito užklausų skaičius labai paskatino sprendimą atmesti, net jei kredito balas buvo tinkamas.

Tai padeda paskolos pareigūnui paaiškinti pareiškėjui daugiau nei buvo svarstoma, kaip kiekvienas veiksnys prisidėjo prie galutinio sprendimo „taip“ arba „ne“. Labai svarbu pripažinti, kad gebėjimas pateikti gerus paaiškinimus dažnai prasideda daug anksčiau kūrimo cikle. Duomenų mokslininkai ir inžinieriai atlieka pagrindinį vaidmenį sąmoningai struktūrizuodami modelius ir duomenų srautus taip, kad būtų lengviau paaiškinti, o ne bandydami tai padaryti kaip pasekmes. Tyrimų ir projektavimo komandos gali tai paskatinti pradėdamos ankstyvus pokalbius su duomenų mokslininkais ir inžinieriais apie naudotojų poreikius suprasti, prisidėdamos prie paaiškinamumo metrikos kūrimo ir bendradarbiaujant prototipų kūrimui paaiškinimų, kad jie būtų tikslūs ir patogūs vartotojui. XAI ir etiškas AI: šališkumo ir atsakomybės išpakavimas Be pasitikėjimo kūrimo, XAI vaidina svarbų vaidmenį sprendžiant gilius etinius AI* padarinius, ypač susijusius su algoritminiu šališkumu. Paaiškinamumo metodai, pvz., SHAP verčių analizė, gali atskleisti, ar modelio sprendimams neproporcingai didelę įtaką daro jautrūs požymiai, pvz., rasė, lytis ar socialinė ir ekonominė padėtis, net jei šie veiksniai nebuvo aiškiai naudojami kaip tiesioginė įvestis. Pavyzdžiui, jei paskolos patvirtinimo modelis nuolat priskiria neigiamas SHAP vertes pareiškėjams iš tam tikros demografinės padėties, tai rodo galimą šališkumą, kurį reikia ištirti, o tai suteikia komandoms galimybę atskleisti ir sušvelninti tokius nesąžiningus rezultatus. XAI galia taip pat apima „paaiškinamo plovimo“ galimybę. Lygiai taip pat, kaip „žaliasis plovimas“ klaidina vartotojus dėl aplinkosaugos praktikos, paaiškinamumo plovimas gali įvykti tada, kai paaiškinimai yra skirti užmaskuoti, o ne nušviesti probleminį algoritminį elgesį ar būdingus šališkumus. Tai gali pasireikšti kaip pernelyg supaprastinti paaiškinimai, kuriuose neįtraukiami kritiniai įtakos veiksniai, arba paaiškinimai, kurie strategiškai suformuluoja rezultatus taip, kad jie atrodytų neutralesni ar teisingesni, nei yra iš tikrųjų. Tai pabrėžia etinę UX praktikų atsakomybę rengiant paaiškinimus, kurie būtų tikrai skaidrūs ir patikrinami. UX profesionalai, bendradarbiaudami su duomenų mokslininkais ir etikos specialistais, prisiima esminę atsakomybę pranešdami apie sprendimo priežastis, taip pat apie pagrindinio AI modelio apribojimus ir galimus šališkumus. Tai apima realių naudotojų lūkesčių dėl AI tikslumo nustatymą, nustatymą, kur modelis gali būti mažiau patikimas, ir aiškių kreipimosi arba atsiliepimų kanalų teikimą, kai vartotojai pastebi nesąžiningus ar neteisingus rezultatus. Aktyviai sprendžiant šias problemasetiniai aspektai leis mums sukurti tikrai teisingas ir patikimas AI sistemas. Nuo metodų iki maketų: praktiniai XAI dizaino modeliai Sąvokų žinojimas yra vienas dalykas; jų projektavimas yra kitas dalykas. Štai kaip galime paversti šiuos XAI metodus intuityviais dizaino modeliais. 1 modelis: teiginys „Nes“ (dėl funkcijos svarbos) Tai yra paprasčiausias ir dažnai efektyviausias modelis. Tai tiesioginis, paprasta kalba pateikiamas teiginys, kuris parodo pagrindinę AI veiksmų priežastį.

Euristika: būkite tiesioginis ir glaustas. Švinas su vienintele įtakingiausia priežastimi. Venkite žargono bet kokia kaina.

Pavyzdys: įsivaizduokite muzikos srautinio perdavimo paslaugą. Užuot tiesiog pateikę grojaraštį „Discover Weekly“, pridedate nedidelę mikrokopijos eilutę. Dainos rekomendacija: „Velvet Morning“, nes klausotės „The Fuzz“ ir kito psichodelinio roko.

2 modelis: interaktyvus „kas būtų, jei“ (skirta priešingiems faktams) Kontrafaktai iš esmės yra susiję su galių suteikimu. Geriausias būdas jiems atstovauti yra suteikti vartotojams interaktyvių įrankių, kad jie patys galėtų tyrinėti galimybes. Tai puikiai tinka finansinėms, sveikatos ar kitoms į tikslą orientuotoms programoms.

Euristika: padarykite paaiškinimus interaktyvius ir įgalinančius. Leiskite vartotojams pamatyti savo pasirinkimo priežastis ir pasekmes.

Pavyzdys: paskolos paraiškos sąsaja. Po paneigimo, o ne aklavietėje, vartotojas gauna įrankį, leidžiantį nustatyti, kaip gali vykti įvairūs scenarijai (kas būtų, jei) (žr. 1 pav.).

3 modelis: paryškinimo ritė (vietiniams paaiškinimams) Kai dirbtinis intelektas atlieka veiksmą su naudotojo turiniu (pvz., apibendrina dokumentą arba atpažįsta veidus nuotraukose), paaiškinimas turi būti vaizdžiai susietas su šaltiniu.

Euristika: naudokite vaizdinius ženklus, pvz., paryškinimą, kontūrus ar komentarus, kad paaiškinimą tiesiogiai susietumėte su aiškinamu sąsajos elementu.

Pavyzdys: dirbtinio intelekto įrankis, apibendrinantis ilgus straipsnius. AI sukurtas santraukos taškas: Pradinis tyrimas parodė tvarių produktų rinkos spragą.Šaltinis dokumente: „...Mūsų antrojo ketvirčio rinkos tendencijų analizė įtikinamai parodė, kad joks pagrindinis konkurentas efektyviai neaptarnavo aplinką tausojančių vartotojų, o tai atskleidė didelį tvarių produktų rinkos spragą...“

4 modelis: „Push-and-Pull“ vizualinis vaizdas (vertė pagrįstiems paaiškinimams) Norint priimti sudėtingesnius sprendimus, naudotojams gali tekti suprasti veiksnių sąveiką. Paprasta duomenų vizualizacija gali tai padaryti aišku, o tai nėra didžiulė.

Euristika: naudokite paprastas, spalvomis koduotas duomenų vizualizacijas (pvz., juostines diagramas), kad parodytumėte veiksnius, kurie turėjo teigiamos ir neigiamos įtakos sprendimui.

Pavyzdys: dirbtinis intelektas tikrina kandidato į darbą profilį.Kodėl šis kandidatas atitinka 75 proc.: balą didinantys veiksniai:5 ir daugiau metų UX tyrimų patirtis, išmananti PythonFactors, mažina balą:nėra patirties su B2B SaaS

Šių dizaino modelių išmokimas ir naudojimas jūsų AI produkto UX padės padidinti paaiškinamumą. Taip pat galite naudoti papildomus metodus, kurių čia nenagrinėju. Tai apima:

Natūralios kalbos paaiškinimai: AI techninės išvesties vertimas į paprastą šnekamąją žmonių kalbą, kurią ne ekspertai gali lengvai suprasti. Kontekstiniai paaiškinimai: pateikiant AI išvesties pagrindimą konkrečiu momentu ir vietoje, jis labiausiai atitinka vartotojo užduotį. Atitinkamos vizualizacijos: naudokite diagramas, diagramas arba šilumos žemėlapius, kad vizualiai pavaizduotų AI sprendimų priėmimo procesą, todėl sudėtingi duomenys tampa intuityvūs ir lengviau suvokiami naudotojams.

Pastaba sąsajai: šių paaiškinamų rezultatų pavertimas sklandžia naudotojo patirtimi taip pat pateikia savo techninių sumetimų rinkinį. Paprasti kūrėjai dažnai susiduria su API dizainu, kad efektyviai gautų paaiškinimo duomenis, o našumo pasekmes (pvz., kiekvienos vartotojo sąveikos paaiškinimų generavimą realiuoju laiku) reikia kruopščiai planuoti, kad būtų išvengta delsos. Kai kurie realaus pasaulio pavyzdžiai UPS Capital's DeliveryDefense UPS naudoja dirbtinį intelektą, kad priskirtų adresams „pristatymo patikimumo balą“, kad būtų galima numatyti paketo vagystės tikimybę. Jų DeliveryDefense programinė įranga analizuoja istorinius duomenis apie vietą, nuostolių dažnį ir kitus veiksnius. Jei adresas turi žemą balą, sistema gali aktyviai nukreipti paketą į saugų UPS prieigos tašką, pateikdama sprendimo paaiškinimą (pvz., „Paketas nukreiptas į saugią vietą dėl vagystės istorijos“). Ši sistema parodo, kaip XAI gali būti naudojamas rizikos mažinimui ir klientų pasitikėjimo stiprinimuiskaidrumas. Autonominės transporto priemonės Šios ateities transporto priemonės turės veiksmingai naudoti XAI, kad padėtų jų transporto priemonėms priimti saugius ir paaiškinamus sprendimus. Kai savaeigis automobilis staiga stabdo, sistema gali realiu laiku paaiškinti savo veiksmus, pavyzdžiui, atpažindama į kelią įžengusį pėsčiąjį. Tai ne tik labai svarbu keleivių patogumui ir pasitikėjimui užtikrinti, bet ir reguliavimo reikalavimas, siekiant įrodyti AI sistemos saugumą ir atskaitomybę. IBM Watson Health (ir jos iššūkiai) Nors dažnai minimas kaip bendras AI pavyzdys sveikatos priežiūros srityje, tai taip pat yra vertingas XAI svarbos atvejo tyrimas. „Watson for Oncology“ projekto nesėkmė parodo, kas gali suklysti, kai paaiškinimai nėra aiškūs arba kai pagrindiniai duomenys yra šališki arba nelokalūs. Sistemos rekomendacijos kartais buvo nesuderinamos su vietine klinikine praktika, nes jos buvo pagrįstos JAV orientuotomis gairėmis. Tai yra įspėjamasis pasakojimas apie tvirto, kontekstą suvokiančio paaiškinimo poreikį. UX tyrinėtojo vaidmuo: paaiškinimų nustatymas ir patvirtinimas Mūsų dizaino sprendimai yra veiksmingi tik tada, jei jie tinkamu laiku atsako į tinkamus vartotojų klausimus. Paaiškinimas, atsakantis į klausimą, kurio vartotojas neturi, yra tik triukšmas. Čia UX tyrimai tampa svarbiausiu jungiamuoju audiniu XAI strategijoje, užtikrinant, kad paaiškintume, kas ir kaip iš tikrųjų svarbu mūsų vartotojams. Tyrėjo vaidmuo yra dvejopas: pirma, informuoti strategiją, nustatant, kur reikia paaiškinimų, ir, antra, patvirtinti tuos paaiškinimus pateikiančius projektus. Informavimas apie XAI strategiją (ką paaiškinti) Kad galėtume sukurti vieną paaiškinimą, turime suprasti vartotojo psichinį AI sistemos modelį. Ką jie tiki, kad tai daro? Kur yra atotrūkis tarp jų supratimo ir sistemos tikrovės? Tai yra pagrindinis UX tyrinėtojo darbas. Psichikos modelio interviu: vartotojo supratimo apie dirbtinio intelekto sistemas išpakavimas Per gilius, pusiau struktūruotus interviu UX praktikai gali įgyti neįkainojamų įžvalgų apie tai, kaip vartotojai suvokia ir supranta dirbtinio intelekto sistemas. Šios sesijos skirtos paskatinti vartotojus pažodžiui nupiešti arba apibūdinti savo vidinį „protinį modelį“, kaip, jų manymu, dirbtinis intelektas veikia. Tai dažnai apima atvirų klausimų uždavimą, kurie skatina vartotojus paaiškinti sistemos logiką, jos įvestis ir išvestis, taip pat šių elementų ryšius. Šie interviu yra galingi, nes jie dažnai atskleidžia gilius klaidingus supratimus ir prielaidas, kurias vartotojai laikosi apie AI. Pavyzdžiui, vartotojas, sąveikaujantis su rekomendacijų varikliu, gali užtikrintai teigti, kad sistema pagrįsta tik jo ankstesne žiūrėjimo istorija. Jie gali nesuvokti, kad į algoritmą taip pat įtraukta daugybė kitų veiksnių, tokių kaip paros laikas, kuriuo jie naršo, dabartiniai populiarūs elementai visoje platformoje ar net panašių vartotojų žiūrėjimo įpročiai. Labai svarbu atskleisti šią atotrūkį tarp vartotojo psichikos modelio ir tikrosios AI logikos. Ji tiksliai nurodo, kokią konkrečią informaciją turime perduoti vartotojams, kad padėtų jiems sukurti tikslesnį ir patikimesnį sistemos modelį. Tai, savo ruožtu, yra esminis žingsnis skatinant pasitikėjimą. Kai vartotojai net ir aukštu lygiu supranta, kaip AI daro išvadas ar rekomendacijas, jie labiau pasitiki jo rezultatais ir pasikliauja jo funkcionalumu. AI kelionės žemėlapiai: giliai pasinerkite į vartotojų pasitikėjimą ir paaiškinamumą Kruopščiai nubrėždami naudotojo kelionę naudodami dirbtinio intelekto funkciją, įgyjame neįkainojamų įžvalgų tiksliais momentais, kai iškyla sumaištis, nusivylimas ar net didelis nepasitikėjimas. Tai atskleidžia kritinius momentus, kai vartotojo psichinis AI veikimo modelis kertasi su jo elgesiu. Apsvarstykite muzikos srautinio perdavimo paslaugą: ar vartotojo pasitikėjimas krenta, kai grojaraščio rekomendacija atrodo „atsitiktinė“ ir neturi jokio pastebimo ryšio su ankstesniais klausymosi įpročiais ar nurodytomis nuostatomis? Šis suvokiamas atsitiktinumas yra tiesioginis iššūkis vartotojo lūkesčiams dėl protingo kuravimo ir numanomo pažado, kad AI supranta jų skonį, pažeidimas. Panašiai, ar nuotraukų tvarkymo programoje vartotojai patiria didelį nusivylimą, kai dirbtinio intelekto nuotraukų žymėjimo funkcija nuolat klaidingai identifikuoja branginamą šeimos narį? Ši klaida yra daugiau nei techninis gedimas; tai stulbina tikslumo, suasmeninimo ir netemocinis ryšys. Šie skausmo taškai yra ryškūs signalai, tiksliai nurodantys, kur reikia gerai išdėstyto, aiškaus ir glausto paaiškinimo. Tokie paaiškinimai yra esminiai taisymo mechanizmai, ištaisantys pasitikėjimo pažeidimą, dėl kurio, jei nebus išspręstas, vartotojas gali būti paliktas. AI kelionių žemėlapių galia slypi jo gebėjime padėti mums ne tik paaiškinti galutinę AI sistemos išvestį. Nors svarbu suprasti, ką sukūrė AI, dažnai to nepakanka. Vietoj to, šis procesas verčia mus sutelkti dėmesį į proceso paaiškinimą kritiniais momentais. Tai reiškia, kad reikia kreiptis:

Kodėl buvo sukurta tam tikra produkcija: ar tai buvo dėl konkrečių įvesties duomenų? Konkreti modelio architektūra? Kokie veiksniai turėjo įtakos AI sprendimui: ar tam tikros funkcijos buvo labiau pasvertos? Kaip AI padarė išvadą: ar galime pasiūlyti supaprastintą, analogišką jo vidinio veikimo paaiškinimą? Kokias prielaidas padarė dirbtinis intelektas: ar buvo netiesioginis vartotojo ketinimų supratimas ar duomenys, kuriuos reikia atskleisti? Kokie yra AI apribojimai: Aiškiai pranešus, ko dirbtinis intelektas negali padaryti arba kur jo tikslumas gali svyruoti, sukuria realius lūkesčius.

AI kelionės žemėlapis paverčia abstrakčią XAI koncepciją į praktišką, veiksmingą sistemą, skirtą UX praktikams. Tai leidžia mums neapsiriboti teorinėmis paaiškinamumo diskusijomis, o nustatyti tikslius momentus, kai ant kortos gresia vartotojų pasitikėjimas, suteikdamas reikiamų įžvalgų, kad sukurtume galingą, skaidrią, suprantamą ir patikimą AI patirtį. Galiausiai tyrimai yra tai, kaip mes atskleidžiame nežinomybę. Jūsų komanda gali diskutuoti, kaip paaiškinti, kodėl paskola buvo atmesta, tačiau tyrimai gali atskleisti, kad vartotojams daug labiau rūpi suprasti, kaip buvo naudojami jų duomenys. Neatlikę tyrimų mes tiesiog spėliojame, kuo domisi mūsų vartotojai. Bendradarbiavimas kuriant dizainą (kaip paaiškinti savo AI) Kai tyrimai nustato, ką paaiškinti, prasideda bendradarbiavimo ciklas su dizainu. Dizaineriai gali prototipuoti anksčiau aptartus modelius – teiginį „Nes“, interaktyvius slankiklius – ir mokslininkai gali pateikti tuos dizainus vartotojams, kad pamatytų, ar jie laikosi. Tikslinis tinkamumo naudoti ir supratimo testavimas: galime sukurti tyrimų tyrimus, kuriuose konkrečiai tikrinami XAI komponentai. Mes ne tik klausiame: „Ar tai lengva naudoti? Mes klausiame: „Kaip tai pamatysite, ar galite savais žodžiais pasakyti, kodėl sistema rekomendavo šį produktą? arba „Parodykite, ką darytumėte, kad pamatytumėte, ar gautumėte kitokį rezultatą“. Tikslas yra įvertinti supratimą ir veiksmingumą kartu su tinkamumu naudoti. Pats pasitikėjimo matavimas: prieš ir po paaiškinimo parodymo galime naudoti paprastas apklausas ir vertinimo skales. Pavyzdžiui, galime paklausti vartotojo 5 balų skalėje: „Kiek pasitikite šia rekomendacija? prieš pamatydami teiginį „Nes“, o po to dar kartą paklauskite. Tai suteikia kiekybinių duomenų apie tai, ar mūsų paaiškinimai iš tikrųjų paverčia pasitikėjimu. Šis procesas sukuria galingą, pasikartojančią kilpą. Tyrimo rezultatai patvirtina pradinį dizainą. Tada šis dizainas išbandomas, o naujos išvados grąžinamos projektavimo komandai tobulinti. Galbūt teiginys „Kadangi“ buvo per daug žargoniškas, o slankiklis „Kas būtų, jei“ buvo labiau klaidinantis nei įgalinantis. Atlikdami šį bendradarbiaujantį patvirtinimą užtikriname, kad galutiniai paaiškinimai būtų techniškai tikslūs, tikrai suprantami, naudingi ir stiprintų produktą naudojančių žmonių pasitikėjimą. Auksaplaukės paaiškinimo zona Kritinis atsargumo žodis: galima per daug paaiškinti. Kaip ir pasakoje, kur Auksaplaukė ieškojo „tik tinkamos“ košės, gero paaiškinimo tikslas yra pateikti reikiamą detalių kiekį – ne per daug ir ne per mažai. Vartotojo bombardavimas su kiekvienu modelio kintamuoju sukels pažinimo perkrovą ir iš tikrųjų gali sumažinti pasitikėjimą. Tikslas nėra paversti vartotoju duomenų mokslininku. Vienas iš sprendimų yra laipsniškas atskleidimas.

Pradėkite nuo paprasto. Vadovaukitės glaustu teiginiu „Nes“. Daugumai vartotojų to pakaks. Pasiūlykite kelią iki smulkmenų. Pateikite aiškią, mažos trinties nuorodą, pvz., „Sužinokite daugiau“ arba „Pažiūrėkite, kaip tai buvo nustatyta“. Atskleiskite sudėtingumą. Už šios nuorodos galite pasiūlyti interaktyvius slankiklius, vizualizacijas arba išsamesnį prisidedančių veiksnių sąrašą.

Šis daugialypis metodas gerbia naudotojo dėmesį ir patirtį, suteikiant reikiamą kiekįinformacijos jų poreikiams. Įsivaizduokime, kad naudojate išmaniųjų namų įrenginį, kuris rekomenduoja optimalų šildymą pagal įvairius veiksnius. Pradėkite nuo paprasto: „Šiuo metu jūsų namai šildomi iki 72 laipsnių, o tai yra optimali temperatūra energijos taupymui ir komfortui“. Pasiūlykite kelią į detales: po ja yra maža nuoroda arba mygtukas: „Kodėl 72 laipsniai yra optimalūs? Atskleiskite sudėtingumą: spustelėjus šią nuorodą gali būti atidarytas naujas ekranas, kuriame bus rodoma:

Interaktyvūs lauko temperatūros, drėgmės ir pageidaujamo komforto lygio slankikliai, rodantys, kaip jie reguliuoja rekomenduojamą temperatūrą. Energijos suvartojimo skirtingomis temperatūromis vizualizacija. Įtakingų veiksnių, pvz., „Paros laikas“, „Dabartinė lauko temperatūra“, „Istorinis energijos suvartojimas“ ir „Užimtumo jutikliai“, sąrašas.

Veiksminga derinti kelis XAI metodus, o šis „Goldilocks“ paaiškinimo zonos modelis, propaguojantis laipsnišką atskleidimą, netiesiogiai tai skatina. Galite pradėti nuo paprasto teiginio „Nes“ (1 modelis), kad būtų galima nedelsiant suprasti, o tada pasiūlyti nuorodą „Sužinokite daugiau“, kuri atskleidžia interaktyvų „Kas būtų, jei“ (2 modelis) arba „Stumkite ir traukite vaizdinį“ (4 modelis), kad galėtumėte giliau tyrinėti. Pavyzdžiui, paskolos paraiškos sistema iš pradžių gali nurodyti pagrindinę atsisakymo priežastį (ypatybės svarbą), tada leisti vartotojui sąveikauti su įrankiu „Kas būtų, jei“ ir pamatyti, kaip jo pajamų ar skolos pokyčiai pakeis rezultatą (priešingos situacijos), ir galiausiai pateikti išsamią „Stumkite ir traukite“ diagramą (vertė pagrįstas paaiškinimas), kad parodytų teigiamą ir neigiamą visų veiksnių įtaką. Šis daugiasluoksnis metodas leidžia vartotojams pasiekti reikiamą detalumo lygį, kai to reikia, taip užkertant kelią pažinimo perkrovai, kartu užtikrinant visapusį skaidrumą. Nustatyti, kuriuos XAI įrankius ir metodus naudoti, pirmiausia priklauso nuo kruopštaus UX tyrimo. Psichikos modelio interviu ir AI kelionės žemėlapiai yra labai svarbūs norint tiksliai nustatyti vartotojų poreikius ir skaudulius, susijusius su AI supratimu ir pasitikėjimu. Psichinio modelio interviu padeda atskleisti vartotojų klaidingą supratimą apie tai, kaip veikia AI, nurodant sritis, kuriose reikia esminių paaiškinimų (pvz., funkcijų svarbos ar vietos paaiškinimų). Kita vertus, dirbtinio intelekto kelionės žemėlapis nustato svarbias painiavos ar nepasitikėjimo akimirkas vartotojo sąveikoje su dirbtiniu intelektu, o tai rodo, kur detalesni arba interaktyvesni paaiškinimai (pvz., priešingi faktai ar vertybėmis pagrįsti paaiškinimai) būtų naudingiausi siekiant atkurti pasitikėjimą ir suteikti agentūrą.

Galiausiai geriausias būdas pasirinkti techniką yra leisti naudotojo tyrimui vadovautis jūsų sprendimais, užtikrinant, kad jūsų sukurti paaiškinimai būtų tiesiogiai susiję su aktualiais vartotojo klausimais ir rūpesčiais, o ne paprasčiausiai pateikiant techninę informaciją jų pačių labui. XAI giliems samprotavimo agentams Kai kurios naujausios AI sistemos, žinomos kaip gilaus mąstymo agentai, kiekvienai sudėtingai užduočiai sukuria aiškią „minčių grandinę“. Jie ne tik cituoja šaltinius; jie parodo logišką, žingsnis po žingsnio kelią, kurį jie nuėjo, kad padarytų išvadą. Nors šis skaidrumas suteikia vertingą kontekstą, kelias pastraipas apimantis žaismas po žaidimo gali jaustis nepakeliamas vartotojui, kuris tiesiog bando atlikti užduotį. Čia tiesiogiai taikomi XAI principai, ypač Goldilocks paaiškinimo zonos. Galime kuruoti kelionę, naudodami laipsnišką atskleidimą, kad pirmiausia parodytume tik galutinę išvadą ir svarbiausią žingsnį mąstymo procese. Tada vartotojai gali pasirinkti, kad pamatytų visą, išsamų, kelių žingsnių samprotavimą, kai jiems reikia dar kartą patikrinti logiką arba rasti konkretų faktą. Taikant šį metodą atsižvelgiama į naudotojo dėmesį ir išsaugomas visiškas agento skaidrumas. Kiti žingsniai: įgalinkite savo XAI kelionę Paaiškinamumas yra pagrindinis ramstis kuriant patikimus ir veiksmingus dirbtinio intelekto produktus. Pažengusiems specialistams, norintiems paskatinti šiuos pokyčius savo organizacijoje, kelionė apima ne tik dizaino modelius, bet ir propagavimą ir nuolatinį mokymąsi. Norėdami pagilinti savo supratimą ir praktinį pritaikymą, apsvarstykite galimybę ištirti išteklius, pvz., AI Explainability 360 (AIX360) įrankių rinkinį iš IBM tyrimų arba Google What-If Tool, kuriuose siūlomi interaktyvūs modelio elgesio ir paaiškinimų tyrimo būdai. Bendradarbiavimas su bendruomenėmis, tokiomis kaip Atsakingas AI forumas arba konkrečios tyrimų grupės, orientuotos į žmogų, gali suteikti neįkainojamų įžvalgų ir bendradarbiavimo galimybių. Galiausiai, būkite XAI advokatas savo organizacijoje.Frame paaiškinamumas kaip strateginė investicija. Apsvarstykite trumpą pristatymą savo vadovybei arba įvairių funkcijų komandoms: "Investuodami į XAI, mes ne tik sukursime pasitikėjimą; paspartinsime vartotojų priėmimą, sumažinsime palaikymo išlaidas, suteikdami vartotojams supratimo, ir sumažinsime reikšmingą etinę ir reguliavimo riziką, atskleisdami galimus šališkumus. Tai geras dizainas ir protingas verslas."

Jūsų balsas, pagrįstas praktiniu supratimu, yra labai svarbus norint ištraukti AI iš juodosios dėžės ir bendradarbiauti su vartotojais.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free