V mojom poslednom diele sme stanovili základnú pravdu: aby si používatelia osvojili AI a spoliehali sa na ňu, musia jej dôverovať. Hovorili sme o tom, že dôvera je mnohostranný konštrukt, postavený na vnímaní schopností, benevolencie, integrity a predvídateľnosti AI. Čo sa však stane, keď AI vo svojej tichej algoritmickej múdrosti urobí rozhodnutie, ktoré zanechá používateľa zmäteného, ​​frustrovaného alebo dokonca zraneného? Žiadosť o hypotéku je zamietnutá, obľúbená skladba zrazu chýba v zozname skladieb a kvalifikovaný životopis je zamietnutý skôr, ako ho človek vôbec uvidí. V týchto chvíľach sú schopnosti a predvídateľnosť rozbité a zhovievavosť je ako svet preč. Naša konverzácia sa teraz musí vyvinúť z dôvodu dôvery k tomu, ako na transparentnosť. Oblasť Explainable AI (XAI), ktorá sa zameriava na vývoj metód, aby boli výstupy AI zrozumiteľné pre ľudí, sa objavila na riešenie tohto problému, ale často je to koncipované ako čisto technická výzva pre vedcov údajov. Tvrdím, že ide o kritickú dizajnovú výzvu pre produkty, ktoré sa spoliehajú na AI. Našou úlohou ako profesionálov v oblasti UX je preklenúť priepasť medzi algoritmickým rozhodovaním a ľudským porozumením. Tento článok poskytuje praktický návod, ako skúmať a navrhovať vysvetliteľnosť. Prejdeme od módnych slov k modelom a prevedieme zložité koncepty XAI do konkrétnych návrhových vzorov, ktoré môžete začať používať už dnes. Demystifikačné XAI: Základné koncepty pre používateľov UX XAI je o odpovedi na otázku používateľa: "Prečo?" Prečo sa mi zobrazila táto reklama? Prečo je tento film odporúčaný práve mne? Prečo bola moja žiadosť zamietnutá? Predstavte si to ako AI, ktorá ukazuje svoju prácu na matematickom probléme. Bez nej máte len odpoveď a ste nútení ju prijať s vierou. Ukazovaním krokov si budujete porozumenie a dôveru. Umožňujete tiež, aby bola vaša práca dvakrát kontrolovaná a overená tými ľuďmi, ktorých sa týka. Význam funkcie a kontrafakty Existuje množstvo techník, ktoré môžeme použiť na objasnenie alebo vysvetlenie toho, čo sa deje s AI. Zatiaľ čo metódy siahajú od poskytovania celej logiky rozhodovacieho stromu až po generovanie súhrnov výstupu v prirodzenom jazyku, dva z najpraktickejších a najvplyvnejších typov informácií, ktoré môžu odborníci v oblasti UX zaviesť do skúseností, sú dôležitosť funkcie (obrázok 1) a kontrafakty. Tieto sú pre používateľov často najjednoduchšie na pochopenie a pre dizajnérov najpraktickejšie na implementáciu.

Dôležitosť funkcie Táto metóda vysvetlenia odpovedá: „Aké boli najdôležitejšie faktory, ktoré AI zvažovala?“ Ide o identifikáciu 2-3 hlavných premenných, ktoré mali najväčší vplyv na výsledok. Je to nadpis, nie celý príbeh. Príklad: Predstavte si AI, ktorá predpovedá, či zákazník zanevrie (zruší svoju službu). Dôležitosť funkcie by mohla odhaliť, že „počet telefonátov na podporu za posledný mesiac“ a „nedávne zvýšenie cien“ boli dva najdôležitejšie faktory pri určovaní, či je pravdepodobné, že zákazník bude míňať.

Kontrafakty Táto účinná metóda odpovedá: „Čo by som potreboval zmeniť, aby som dosiahol iný výsledok? To je kľúčové, pretože to dáva používateľom pocit agentúry. Premieňa frustrujúce „nie“ na žalovateľné „ešte nie“. Príklad: Predstavte si systém žiadosti o pôžičku, ktorý využíva AI. Používateľovi bola pôžička zamietnutá. Namiesto toho, aby ste videli len „Žiadosť bola zamietnutá“, by aj protichodné vysvetlenie zdieľalo: „Ak by bolo vaše kreditné skóre o 50 bodov vyššie alebo ak by bol pomer dlhu k príjmu o 10 % nižší, vaša pôžička by bola schválená.“ To dáva Sarah jasné a uskutočniteľné kroky, ktoré môže podniknúť, aby v budúcnosti potenciálne získala pôžičku.

Použitie údajov modelu na vylepšenie vysvetlenia Hoci technickými špecifikami sa často zaoberajú dátoví vedci, pre odborníkov v oblasti UX je užitočné vedieť, že nástroje ako LIME (Local Interpretable Model-Agnostic Explanations), ktoré vysvetľujú jednotlivé predpovede lokálnou aproximáciou modelu, a SHAP (SHapley Additive exPlanations), ktoré využívajú prístup teórie hier na vysvetlenie výstupu akéhokoľvek modelu strojového učenia, sa bežne používajú na extrahovanie týchto „prečo“ na extrakciu týchto „prečo“ modelov. Tieto knižnice v podstate pomáhajú rozložiť rozhodnutie AI ukázať, ktoré vstupy boli pre daný výsledok najvplyvnejšie. Ak sa to urobí správne, údaje, ktoré sú základom rozhodnutia nástroja AI, možno použiť na rozprávanie silného príbehu. Prejdime si dôležitosť funkcií a kontrafakty a ukážme, ako možno využiť vedu o údajoch, ktorá stojí za rozhodnutím, na zlepšenie používateľského zážitku. Teraz poďmepokryť dôležitosť funkcie pomocou údajov miestnych vysvetlení (napr. LIME): Tento prístup odpovedá na otázku: „Prečo mi AI urobila toto konkrétne odporúčanie práve teraz?“ Namiesto všeobecného vysvetlenia toho, ako model funguje, poskytuje cielený dôvod pre jeden konkrétny prípad. Je to osobné a kontextové. Príklad: Predstavte si systém odporúčaní hudby poháňaný AI, ako je Spotify. Miestne vysvetlenie by odpovedalo: „Prečo vám systém práve teraz odporučil túto konkrétnu skladbu od Adele? Vysvetlenie môže byť: „Pretože ste nedávno počúvali niekoľko ďalších emocionálnych balád a piesní od ženských vokalistiek.“

Nakoniec sa zameriame na zahrnutie vysvetlení založených na hodnote (napr. údaje Shapley Additive Explanations (SHAP) do vysvetlenia rozhodnutia: Toto je presnejšia verzia dôležitosti funkcie, ktorá odpovedá na otázku: „Ako každý faktor ovplyvnil rozhodnutie jedným alebo druhým smerom?“ Pomáha vizualizovať, na čom záležalo a či bol jeho vplyv pozitívny alebo negatívny. Príklad: Predstavte si, že banka používa model AI na rozhodnutie, či schváli žiadosť o úver.

Dôležitosť funkcie: Výstup modelu môže ukázať, že úverové skóre žiadateľa, príjem a pomer dlhu k príjmu boli najdôležitejšími faktormi pri jeho rozhodovaní. Toto odpovedá na to, na čom záležalo. Dôležitosť funkcie s vysvetleniami založenými na hodnote (SHAP): Hodnoty SHAP by zvýšili dôležitosť funkcie na základe prvkov modelu.

V prípade schválenej pôžičky môže SHAP ukázať, že vysoké úverové skóre výrazne posunulo rozhodnutie smerom k schváleniu (pozitívny vplyv), zatiaľ čo mierne vyšší ako priemerný pomer dlhu k príjmu ho mierne stiahol (negatívny vplyv), ale nie natoľko, aby úver odmietol. V prípade zamietnutej pôžičky mohol SHAP odhaliť, že nízky príjem a vysoký počet nedávnych úverových dopytov výrazne posunuli rozhodnutie smerom k zamietnutiu, aj keď úverové skóre bolo slušné.

To pomáha úverovému úradníkovi vysvetliť žiadateľovi nad rámec toho, čo sa zvažovalo, ako každý faktor prispel ku konečnému rozhodnutiu „áno“ alebo „nie“. Je dôležité si uvedomiť, že schopnosť poskytovať dobré vysvetlenia často začína oveľa skôr vo vývojovom cykle. Vedci a inžinieri v oblasti údajov zohrávajú kľúčovú úlohu tým, že zámerne štruktúrujú modely a dátové kanály spôsobom, ktorý vo svojej podstate podporuje vysvetliteľnosť, namiesto toho, aby sa to snažili pripevniť ako dodatočný nápad. Výskumné a dizajnérske tímy to môžu podporiť iniciovaním skorých rozhovorov s dátovými vedcami a inžiniermi o potrebách používateľov na pochopenie, prispievaním k vývoju metrík vysvetliteľnosti a spoločným prototypovaním vysvetlení, aby boli presné a užívateľsky prívetivé. XAI a etická AI: Rozbalenie zaujatosti a zodpovednosti Okrem budovania dôvery hrá XAI kľúčovú úlohu pri riešení hlbokých etických dôsledkov AI*, najmä pokiaľ ide o algoritmickú zaujatosť. Techniky vysvetlenia, ako je napríklad analýza hodnôt SHAP, môžu odhaliť, či sú rozhodnutia modelu neúmerne ovplyvnené citlivými atribútmi, ako je rasa, pohlavie alebo socioekonomický status, aj keď tieto faktory neboli explicitne použité ako priame vstupy. Napríklad, ak model schvaľovania pôžičiek sústavne priraďuje záporné hodnoty SHAP žiadateľom z určitej demografickej skupiny, signalizuje to potenciálnu zaujatosť, ktorá si vyžaduje vyšetrovanie, čím sa tímom dáva možnosť odhaliť a zmierniť takéto nespravodlivé výsledky. Sila XAI prichádza aj s potenciálom pre „vysvetliteľnosť“. Rovnako ako „greenwashing“ zavádza spotrebiteľov o environmentálnych praktikách, vysvetľovanie môže nastať vtedy, keď sú vysvetlenia navrhnuté tak, aby skôr zahmlili, než aby osvetlili problematické algoritmické správanie alebo prirodzené predsudky. To by sa mohlo prejaviť ako príliš zjednodušené vysvetlenia, ktoré vynechávajú kritické ovplyvňujúce faktory, alebo vysvetlenia, ktoré strategicky rámcovajú výsledky tak, aby vyzerali neutrálnejšie alebo spravodlivejšie, než v skutočnosti sú. Zdôrazňuje etickú zodpovednosť odborníkov v oblasti UX navrhovať vysvetlenia, ktoré sú skutočne transparentné a overiteľné. Profesionáli UX v spolupráci s dátovými vedcami a etickými odborníkmi nesú kľúčovú zodpovednosť za oznamovanie dôvodov rozhodnutia a tiež obmedzení a potenciálnych skreslení základného modelu AI. To zahŕňa nastavenie realistických očakávaní používateľov o presnosti AI, identifikáciu toho, kde môže byť model menej spoľahlivý, a poskytovanie jasných kanálov na nápravu alebo spätnú väzbu, keď používatelia vnímajú nespravodlivé alebo nesprávne výsledky. Aktívne ich riešiťetické rozmery nám umožnia budovať systémy AI, ktoré sú skutočne spravodlivé a dôveryhodné. Od metód k maketám: Praktické dizajnové vzory XAI Poznať pojmy je jedna vec; ich navrhovanie je niečo iné. Here’s how we can translate these XAI methods into intuitive design patterns. Vzor 1: Vyhlásenie „Pretože“ (pre dôležitosť funkcie) Toto je najjednoduchší a často najefektívnejší vzor. Je to priame vyhlásenie v jednoduchom jazyku, ktoré odhaľuje hlavný dôvod činnosti AI.

Heuristika: Buďte priami a struční. Viesť s jediným najsilnejším dôvodom. Vyhnite sa žargónu za každú cenu.

Príklad: Predstavte si službu streamovania hudby. Namiesto toho, aby ste len predstavili zoznam skladieb „Discover Weekly“, pridáte malý riadok z mikrokópie. Odporúčanie piesne: „Velvet Morning“ Pretože počúvate „The Fuzz“ a iný psychedelický rock.

Vzor 2: Interaktívny „čo keby“ (pre protichodné situácie) Kontrafakty sú vo svojej podstate o posilnení postavenia. Najlepší spôsob, ako ich reprezentovať, je poskytnúť používateľom interaktívne nástroje na preskúmanie možností sami. To je ideálne pre finančné, zdravotné alebo iné cielene orientované aplikácie.

Heuristika: Urobte vysvetlenia interaktívne a posilňujúce. Umožnite používateľom vidieť príčinu a následok ich rozhodnutí.

Príklad: Rozhranie žiadosti o pôžičku. Po odmietnutí dostane používateľ namiesto slepej uličky nástroj na určenie toho, ako sa môžu odohrať rôzne scenáre (čo ak) (pozri obrázok 1).

Vzor 3: Zvýrazňovacia cievka (pre miestne vysvetlenie) Keď AI vykoná akciu s obsahom používateľa (napríklad sumarizuje dokument alebo identifikuje tváre na fotografiách), vysvetlenie by malo byť vizuálne prepojené so zdrojom.

Heuristika: Na prepojenie vysvetlenia priamo s prvkom rozhrania, ktorý vysvetľuje, použite vizuálne podnety, ako sú zvýraznenie, obrysy alebo anotácie.

Príklad: Nástroj umelej inteligencie, ktorý sumarizuje dlhé články. Zhrnutie vygenerované AI: Počiatočný prieskum ukázal medzeru na trhu pre udržateľné produkty. Zdroj v dokumente: „...Naša analýza trendov na trhu v 2. štvrťroku presvedčivo preukázala, že žiadny veľký konkurent efektívne neslúži ekologicky uvedomelému spotrebiteľovi, čo odhalilo značnú medzeru na trhu udržateľných produktov...“

Vzor 4: Vizuál push-and-pull (pre vysvetlenia založené na hodnote) Pre komplexnejšie rozhodnutia môžu používatelia potrebovať pochopiť súhru faktorov. Jednoduché vizualizácie údajov to môžu objasniť bez toho, aby boli ohromujúce.

Heuristika: Použite jednoduché, farebne označené dátové vizualizácie (ako stĺpcové grafy) na zobrazenie faktorov, ktoré pozitívne a negatívne ovplyvnili rozhodnutie.

Príklad: Umelá inteligencia, ktorá kontroluje profil kandidáta na prácu. Prečo sa tento kandidát zhoduje na 75 %: Faktory, ktoré zvyšujú skóre: Viac ako 5-ročné skúsenosti s výskumom UX Skúsenosť s PythonFaktormi, ktoré znižujú skóre: Žiadne skúsenosti s B2B SaaS

Učenie sa a používanie týchto návrhových vzorov v UX vášho produktu AI pomôže zvýšiť vysvetliteľnosť. Môžete použiť aj ďalšie techniky, ktorým sa tu nebudem do hĺbky venovať. To zahŕňa nasledovné:

Natural language explanations: Translating an AI’s technical output into simple, conversational human language that non-experts can easily understand. Kontextové vysvetlenia: Poskytnutie zdôvodnenia výstupu AI v konkrétnom okamihu a mieste je najrelevantnejšie pre úlohu používateľa. Relevantné vizualizácie: Používanie tabuliek, grafov alebo tepelných máp na vizuálne znázornenie rozhodovacieho procesu AI, vďaka čomu sú komplexné údaje intuitívne a pre používateľov ľahšie pochopiteľné.

Poznámka pre frontend: Prevod týchto vysvetliteľných výstupov do bezproblémových používateľských skúseností predstavuje aj vlastný súbor technických úvah. Vývojári front-endu často zápasia s návrhom API, aby mohli efektívne získať vysvetlené údaje, a dôsledky na výkon (ako je generovanie vysvetlení v reálnom čase pre každú interakciu používateľa) potrebujú starostlivé plánovanie, aby sa predišlo oneskoreniu. Niektoré príklady z reálneho sveta UPS Capital's DeliveryDefense UPS používa AI na priradenie „skóre spoľahlivosti doručenia“ adresám na predpovedanie pravdepodobnosti odcudzenia balíka. Ich softvér DeliveryDefense analyzuje historické údaje o polohe, frekvencii strát a ďalších faktoroch. Ak má adresa nízke skóre, systém môže proaktívne presmerovať balík na zabezpečený prístupový bod UPS a poskytnúť vysvetlenie rozhodnutia (napr. „Balík presmerovaný na bezpečné miesto z dôvodu histórie krádeže“). Tento systém demonštruje, ako možno XAI použiť na zmiernenie rizík a budovanie dôvery zákazníkovtransparentnosť. Autonómne vozidlá Tieto vozidlá budúcnosti budú musieť efektívne využívať XAI, aby pomohli ich vozidlám robiť bezpečné a vysvetliteľné rozhodnutia. Keď samoriadiace auto náhle zabrzdí, systém môže poskytnúť vysvetlenie svojho konania v reálnom čase, napríklad identifikáciou chodca, ktorý vstúpi do vozovky. Je to kľúčové nielen pre pohodlie a dôveru cestujúcich, ale je to aj regulačná požiadavka na preukázanie bezpečnosti a zodpovednosti systému AI. IBM Watson Health (a jeho výzvy) Hoci sa často uvádza ako všeobecný príklad AI v zdravotníctve, je to tiež cenná prípadová štúdia dôležitosti XAI. Neúspech jeho projektu Watson for Oncology poukazuje na to, čo sa môže pokaziť, keď vysvetlenia nie sú jasné, alebo keď sú základné údaje skreslené alebo nie sú lokalizované. Odporúčania systému boli niekedy v rozpore s miestnymi klinickými postupmi, pretože boli založené na usmerneniach zameraných na USA. Toto slúži ako varovný príbeh o potrebe robustnej, kontextovo uvedomelej vysvetliteľnosti. Úloha výskumníka UX: presné určenie a overenie vysvetlení Naše dizajnové riešenia sú účinné len vtedy, ak odpovedajú na správne otázky používateľov v správnom čase. Vysvetlenie, ktoré odpovedá na otázku, ktorú používateľ nemá, je len hluk. This is where UX research becomes the critical connective tissue in an XAI strategy, ensuring that we explain the what and how that actually matters to our users. Úloha výskumníka je dvojaká: po prvé, informovať o stratégii identifikáciou, kde sú potrebné vysvetlenia, a po druhé, overiť návrhy, ktoré tieto vysvetlenia poskytujú. Informovanie o stratégii XAI (čo vysvetliť) Skôr než navrhneme jedno vysvetlenie, musíme pochopiť mentálny model systému AI používateľa. Čomu veria, že to robí? Kde sú medzery medzi ich chápaním a realitou systému? Toto je základná práca výskumníka UX. Rozhovory s mentálnym modelom: Rozbaľovanie používateľských postrehov systémov AI Prostredníctvom hlbokých, pološtruktúrovaných rozhovorov môžu odborníci na UX získať neoceniteľné informácie o tom, ako používatelia vnímajú a chápu systémy AI. Tieto stretnutia sú navrhnuté tak, aby povzbudili používateľov, aby doslova nakreslili alebo opísali svoj vnútorný „mentálny model“ toho, ako veria, že AI funguje. To často zahŕňa kladenie otvorených otázok, ktoré vyzývajú používateľov, aby vysvetlili logiku systému, jeho vstupy a výstupy, ako aj vzťahy medzi týmito prvkami. Tieto rozhovory sú silné, pretože často odhaľujú hlboké mylné predstavy a predpoklady, ktoré používatelia o AI majú. Používateľ interagujúci s nástrojom odporúčaní môže napríklad s istotou tvrdiť, že systém je založený výlučne na jeho predchádzajúcej histórii prezerania. Možno si neuvedomujú, že algoritmus zahŕňa aj množstvo ďalších faktorov, ako je denná doba, počas ktorej prehliadajú, aktuálne trendy položky na platforme alebo dokonca zvyky podobných používateľov. Odhalenie tejto priepasti medzi mentálnym modelom používateľa a skutočnou základnou logikou AI je mimoriadne dôležité. Presne nám hovorí, aké konkrétne informácie musíme používateľom oznámiť, aby sme im pomohli vybudovať presnejší a robustnejší mentálny model systému. To je zasa zásadný krok pri posilňovaní dôvery. Keď používatelia pochopia, dokonca aj na vysokej úrovni, ako AI prichádza k svojim záverom alebo odporúčaniam, je pravdepodobnejšie, že budú dôverovať jej výstupom a spoliehať sa na jej funkčnosť. AI Journey Mapping: Hlboký ponor do používateľskej dôvery a vysvetliteľnosti Dôsledným mapovaním cesty používateľa pomocou funkcie poháňanej AI získavame neoceniteľné informácie o presných momentoch, v ktorých sa objavuje zmätok, frustrácia alebo dokonca hlboká nedôvera. To odhaľuje kritické body, kde sa mentálny model používateľa fungovania AI stretáva s jeho skutočným správaním. Zvážte službu streamovania hudby: Klesne dôvera používateľa, keď sa odporúčanie na zoznam skladieb považuje za „náhodné“, bez akéhokoľvek zreteľného spojenia s jeho predchádzajúcimi zvykmi pri počúvaní alebo uvedenými preferenciami? This perceived randomness is a direct challenge to the user’s expectation of intelligent curation and a breach of the implicit promise that the AI understands their taste. Podobne v aplikácii na správu fotografií zažívajú používatelia výraznú frustráciu, keď funkcia označovania fotografií pomocou AI neustále nesprávne identifikuje váženého člena rodiny? Táto chyba je viac ako len technická chyba; zasahuje do srdca presnosti, personalizácie a dokoncaemocionálne spojenie. Tieto bolestivé body sú živými signálmi, ktoré presne naznačujú, kde je potrebné dobre umiestnené, jasné a stručné vysvetlenie. Takéto vysvetlenia slúžia ako kľúčové opravné mechanizmy, ktoré napravujú porušenie dôvery, ktoré, ak sa nerieši, môže viesť k opusteniu používateľa. Sila mapovania ciest AI spočíva v jeho schopnosti posunúť nás nad rámec jednoduchého vysvetlenia konečného výstupu systému AI. Aj keď je dôležité pochopiť, čo vytvorila AI, často je to nedostatočné. Namiesto toho nás tento proces núti sústrediť sa na vysvetlenie procesu v kritických momentoch. To znamená adresovať:

Prečo bol vytvorený konkrétny výstup: Bolo to kvôli špecifickým vstupným údajom? Konkrétna modelová architektúra? Aké faktory ovplyvnili rozhodnutie AI: Boli niektoré funkcie váženejšie? Ako AI dospela k svojmu záveru: Môžeme ponúknuť zjednodušené, analogické vysvetlenie jej vnútorného fungovania? Aké predpoklady urobila AI: Existovali implicitné pochopenie zámeru alebo údajov používateľa, ktoré je potrebné odhaliť? Aké sú obmedzenia AI: Jasné oznamovanie toho, čo AI nedokáže alebo kde môže kolísať jej presnosť, vytvára realistické očakávania.

Mapovanie ciest AI premieňa abstraktný koncept XAI na praktický a použiteľný rámec pre používateľov UX. Umožňuje nám to posunúť sa nad rámec teoretických diskusií o vysvetliteľnosti a namiesto toho presne určiť momenty, v ktorých je dôvera používateľov v stávke, a poskytnúť potrebné poznatky na vybudovanie skúseností AI, ktoré sú výkonné, transparentné, zrozumiteľné a dôveryhodné. Nakoniec, výskum je spôsob, akým odhaľujeme neznáme. Váš tím možno diskutuje o tom, ako vysvetliť, prečo bola pôžička zamietnutá, ale výskum môže odhaliť, že používatelia sa oveľa viac zaujímajú o pochopenie toho, ako boli ich údaje v prvom rade použité. Bez výskumu jednoducho hádame, čo naši používatelia zaujímajú. Spolupráca na dizajne (ako vysvetliť svoju AI) Keď výskum identifikuje, čo treba vysvetliť, začne sa kolaboratívna slučka s dizajnom. Dizajnéri môžu prototypovať vzory, o ktorých sme diskutovali skôr – vyhlásenie „Pretože“, interaktívne posúvače – a výskumníci môžu tieto návrhy predložiť používateľom, aby zistili, či obstoja. Cielené testovanie použiteľnosti a porozumenia: Môžeme navrhnúť výskumné štúdie, ktoré špecificky testujú komponenty XAI. Nepýtame sa len: „Je to jednoduché? Pýtame sa: „Po tom, čo ste to videli, môžete mi vlastnými slovami povedať, prečo systém odporučil tento produkt? alebo „Ukážte mi, čo by ste urobili, keby ste mohli získať iný výsledok.“ Cieľom je merať porozumenie a použiteľnosť spolu s použiteľnosťou. Meranie samotnej dôvery: Pred a po zobrazení vysvetlenia môžeme použiť jednoduché prieskumy a hodnotiace stupnice. Môžeme sa napríklad používateľa na 5-bodovej škále opýtať: „Do akej miery dôverujete tomuto odporúčaniu?“ predtým, než uvidia vyhlásenie „Pretože“, a potom sa ich opýtaj znova. To poskytuje kvantitatívne údaje o tom, či naše vysvetlenia skutočne posúvajú ihlu dôvery. Tento proces vytvára silnú iteračnú slučku. Výsledky výskumu ovplyvňujú počiatočný dizajn. Tento dizajn sa potom otestuje a nové zistenia sa vrátia dizajnérskemu tímu na vylepšenie. Možno bolo vyhlásenie „Pretože“ príliš žargónové alebo posúvač „Čo keby“ bol viac mätúci ako posilňujúci. Prostredníctvom tohto kolaboratívneho overovania zaisťujeme, že konečné vysvetlenia sú technicky presné, skutočne zrozumiteľné, užitočné a vytvárajúce dôveru pre ľudí používajúcich produkt. Zlatovláska zóna vysvetlenia Dôležité upozornenie: je možné prehnane vysvetliť. Rovnako ako v rozprávke, kde Zlatovláska hľadala kašu, ktorá bola ‚akurát‘, cieľom dobrého vysvetlenia je poskytnúť správne množstvo detailov – ani príliš veľa, ani príliš málo. Bombardovanie používateľa každou premennou v modeli povedie ku kognitívnemu preťaženiu a môže skutočne znížiť dôveru. Cieľom nie je urobiť z používateľa dátového vedca. Jedným z riešení je postupné zverejňovanie.

Začnite s jednoduchým. Veďte stručné vyhlásenie „Pretože“. Väčšine používateľov to bude stačiť. Ponúknite cestu k detailom. Poskytnite jasný odkaz s nízkym trením, napríklad „Ďalšie informácie“ alebo „Pozrite sa, ako sa to určilo“. Odhaľ zložitosť. Za týmto odkazom môžete ponúknuť interaktívne posúvače, vizualizácie alebo podrobnejší zoznam prispievajúcich faktorov.

Tento vrstvený prístup rešpektuje pozornosť a odbornosť používateľov a poskytuje správne množstvoinformácií pre ich potreby. Predstavme si, že používate inteligentné domáce zariadenie, ktoré odporúča optimálne vykurovanie na základe rôznych faktorov. Začnite jednoducho: „Váš dom je momentálne vykúrený na 72 stupňov, čo je optimálna teplota pre úsporu energie a pohodlie.“ Ponúknite cestu k detailom: Pod tým je malý odkaz alebo tlačidlo: „Prečo je 72 stupňov optimálnych?“ Odhaľte zložitosť: Kliknutím na tento odkaz sa otvorí nová obrazovka, ktorá zobrazuje:

Interaktívne posúvače pre vonkajšiu teplotu, vlhkosť a preferovanú úroveň pohodlia, ktoré ukazujú, ako upravujú odporúčanú teplotu. Vizualizácia spotreby energie pri rôznych teplotách. Zoznam prispievajúcich faktorov, ako sú „čas dňa“, „aktuálna vonkajšia teplota“, „historická spotreba energie“ a „senzory obsadenosti“.

Je efektívne kombinovať viacero metód XAI a tento vzor zóny vysvetlenia Goldilocks, ktorý obhajuje postupné zverejňovanie, to implicitne podporuje. Môžete začať jednoduchým vyhlásením „Pretože“ (Vzor 1) na okamžité pochopenie a potom ponúknuť odkaz „Viac informácií“, ktorý odhaľuje interaktívne „Čo keby“ (Vzor 2) alebo „Push-and-Pull Visual“ (Vzor 4) na hlbšie preskúmanie. Napríklad systém žiadosti o pôžičku by mohol na začiatku uviesť primárny dôvod zamietnutia (dôležitosť funkcie), potom umožniť používateľovi interagovať s nástrojom „Čo keby“ a zistiť, ako by zmeny jeho príjmu alebo dlhu zmenili výsledok (kontrafaktuály), a nakoniec poskytnúť podrobný graf „Push-and-Pull“ (vysvetlenie založené na hodnote) na ilustráciu pozitívnych a negatívnych príspevkov všetkých faktorov. Tento vrstvený prístup umožňuje používateľom prístup k úrovni detailov, ktoré potrebujú, keď to potrebujú, čím sa predchádza kognitívnemu preťaženiu a zároveň poskytuje komplexná transparentnosť. Určenie, ktoré nástroje a metódy XAI použiť, je predovšetkým funkciou dôkladného prieskumu UX. Rozhovory s mentálnym modelom a mapovanie ciest AI sú kľúčové na určenie potrieb používateľov a bolestivých bodov súvisiacich s porozumením a dôverou AI. Rozhovory s mentálnym modelom pomáhajú odhaliť mylné predstavy používateľov o tom, ako funguje AI, a naznačujú oblasti, kde sú potrebné základné vysvetlenia (napríklad dôležitosť funkcie alebo miestne vysvetlenia). Na druhej strane mapovanie ciest AI identifikuje kritické momenty zmätku alebo nedôvery v interakciu používateľa s AI a signalizuje, kde by podrobnejšie alebo interaktívnejšie vysvetlenia (ako kontrafakty alebo vysvetlenia založené na hodnotách) boli najvýhodnejšie na obnovenie dôvery a poskytnutie agentúry.

V konečnom dôsledku je najlepším spôsobom, ako zvoliť techniku, nechať používateľský prieskum viesť vaše rozhodnutia a zabezpečiť, aby vysvetlenia, ktoré navrhujete, priamo riešili skutočné otázky a obavy používateľov, a nie jednoducho ponúkať technické podrobnosti pre nich samé. XAI pre Deep Reasoning Agents Niektoré z najnovších systémov AI, známe ako agenti hlbokého uvažovania, vytvárajú explicitný „reťazec myšlienok“ pre každú komplexnú úlohu. Neuvádzajú len zdroje; ukazujú logickú, krok za krokom cestu, ktorou sa dostali k záveru. Aj keď táto transparentnosť poskytuje hodnotný kontext, hra za hraním, ktorá zahŕňa niekoľko odsekov, môže byť pre používateľa, ktorý sa jednoducho pokúša dokončiť úlohu, zdrvujúca. Priamo tu platia princípy XAI, najmä Goldilocks Zone of Explanation. Cestu môžeme pripraviť pomocou progresívneho odhaľovania, aby sme najskôr ukázali iba konečný záver a najvýraznejší krok v myšlienkovom procese. Používatelia sa potom môžu prihlásiť na zobrazenie úplného, ​​podrobného zdôvodnenia v niekoľkých krokoch, keď potrebujú znova skontrolovať logiku alebo nájsť konkrétnu skutočnosť. Tento prístup rešpektuje pozornosť používateľa a zároveň zachováva úplnú transparentnosť agenta. Ďalšie kroky: Posilnite svoju cestu XAI Vysvetliteľnosť je základným pilierom budovania dôveryhodných a efektívnych produktov AI. Pre pokročilých odborníkov, ktorí chcú presadzovať túto zmenu v rámci svojej organizácie, cesta presahuje rámec návrhových vzorov do obhajoby a neustáleho učenia sa. Ak chcete prehĺbiť svoje porozumenie a praktickú aplikáciu, zvážte preskúmanie zdrojov, ako je súprava nástrojov AI Explainability 360 (AIX360) od IBM Research alebo nástroj What-If od spoločnosti Google, ktoré ponúkajú interaktívne spôsoby skúmania správania a vysvetlení modelu. Zapojenie sa do komunít, ako je Fórum zodpovedného umenia alebo špecifických výskumných skupín zameraných na umelú inteligenciu zameranú na človeka, môže poskytnúť neoceniteľné poznatky a príležitosti na spoluprácu. Nakoniec buďte zástancom XAI vo svojej vlastnej organizácii.Vysvetliteľnosť rámca ako strategická investícia. Zvážte krátku prezentáciu pre vaše vedenie alebo tímy s viacerými funkciami: „Investíciou do XAI prekročíme rámec budovania dôvery; urýchlime prijatie používateľov, znížime náklady na podporu tým, že používateľom umožníme porozumieť, a zmiernime významné etické a regulačné riziká odhalením potenciálnych predsudkov. Ide o dobrý dizajn a inteligentné podnikanie.“

Váš hlas založený na praktickom porozumení je rozhodujúci pri vynášaní AI z čiernej skrinky a pri vytváraní partnerského vzťahu s používateľmi.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free