V mém posledním díle jsme stanovili základní pravdu: aby si uživatelé osvojili umělou inteligenci a spoléhali na ni, musí jí důvěřovat. Mluvili jsme o tom, že důvěra je mnohostranný konstrukt, postavený na vnímání schopností, benevolence, integrity a předvídatelnosti umělé inteligence. Co se ale stane, když AI ve své tiché, algoritmické moudrosti učiní rozhodnutí, které uživatele zanechá zmateným, frustrovaným nebo dokonce zraněným? Žádost o hypotéku je zamítnuta, oblíbená píseň náhle chybí v seznamu skladeb a kvalifikovaný životopis je zamítnut dříve, než jej člověk vůbec uvidí. V těchto chvílích jsou schopnosti a předvídatelnost otřeseny a shovívavost je jakoby vzdálená. Náš rozhovor se nyní musí vyvinout od důvodu důvěry k tomu, jak transparentnost. Oblast Explainable AI (XAI), která se zaměřuje na vývoj metod, aby byly výstupy umělé inteligence srozumitelné lidem, se objevila, aby to řešila, ale často je to koncipováno jako čistě technická výzva pro datové vědce. Tvrdím, že je to kritická konstrukční výzva pro produkty spoléhající se na AI. Naším úkolem jako profesionálů UX je překlenout propast mezi algoritmickým rozhodováním a lidským porozuměním. Tento článek poskytuje praktické a použitelné pokyny, jak zkoumat a navrhovat srozumitelnost. Přeneseme se za módní slova a do maket, převedeme složité koncepty XAI do konkrétních návrhových vzorů, které můžete začít používat již dnes. Demystifikační XAI: Základní koncepty pro uživatele UX XAI je o zodpovězení otázky uživatele: "Proč?" Proč se mi zobrazila tato reklama? Proč je mi tento film doporučen? Proč byla moje žádost zamítnuta? Představte si to jako AI, která ukazuje svou práci na matematickém problému. Bez ní máte jen odpověď a jste nuceni ji přijmout s vírou. Ukazováním kroků budujete porozumění a důvěru. Umožňujete také, aby byla vaše práce dvakrát zkontrolována a ověřena právě těmi lidmi, kterých se týká. Význam funkce a kontrafakty Existuje řada technik, které můžeme použít k objasnění nebo vysvětlení toho, co se děje s AI. Zatímco metody sahají od poskytování celé logiky rozhodovacího stromu až po generování souhrnů výstupu v přirozeném jazyce, dva z nejpraktičtějších a nejpůsobivějších typů informací, které mohou praktici UX vnést do zážitku, jsou důležitost funkcí (obrázek 1) a kontrafaktuální skutečnosti. Ty jsou pro uživatele často nejsrozumitelnější a pro návrháře nejschůdnější k implementaci.
Význam funkce Tato metoda vysvětlení odpovídá: „Jaké byly nejdůležitější faktory, které umělá inteligence zvažovala? Jde o identifikaci 2–3 hlavních proměnných, které měly největší vliv na výsledek. Je to titulek, ne celý příběh. Příklad: Představte si AI, která předpovídá, zda zákazník přestane nakupovat (zruší svou službu). Důležitost funkce by mohla odhalit, že „počet telefonátů na podporu za poslední měsíc“ a „nedávné zvýšení cen“ byly dva nejdůležitější faktory při určování toho, zda je pravděpodobné, že zákazník přestane nakupovat.
Kontrafaktuály Tato účinná metoda odpovídá: "Co bych potřeboval změnit, abych dosáhl jiného výsledku?" To je zásadní, protože to dává uživatelům pocit agentury. Přeměňuje frustrující „ne“ na použitelné „zatím ne“. Příklad: Představte si systém žádosti o úvěr, který využívá AI. Uživateli je odepřena výpůjčka. Namísto toho, abyste viděli pouze „Žádost zamítnuta“, by srovnávací vysvětlení také sdílelo: „Pokud by vaše kreditní skóre bylo o 50 bodů vyšší nebo pokud by byl váš poměr dluhu k příjmu o 10 % nižší, vaše půjčka by byla schválena.“ To dává Sarah jasné a proveditelné kroky, které může podniknout, aby v budoucnu potenciálně získala půjčku.
Použití dat modelu k vylepšení vysvětlení Přestože technickými specifiky se často zabývají datoví vědci, pro odborníky na UX je užitečné vědět, že nástroje jako LIME (Local Interpretable Model-Agnostic Explanations), které vysvětlují jednotlivé předpovědi místní aproximací modelu, a SHAP (SHapley Additive exPlanations), které využívají přístup teorie her k vysvětlení výstupu jakéhokoli modelu strojového učení, se běžně používají k extrakci těchto „proč“ k extrakci těchto „modelů strojového učení“. Tyto knihovny v podstatě pomáhají rozložit rozhodnutí AI ukázat, které vstupy byly pro daný výsledek nejvlivnější. Když se to udělá správně, data, která jsou základem rozhodnutí nástroje AI, mohou být použita k vyprávění silného příběhu. Pojďme si projít důležitost funkcí a kontrafaktuály a ukažme, jak lze datovou vědu, která stojí za rozhodnutím, využít ke zlepšení uživatelské zkušenosti. Nyní pojďmepokrytí důležitosti funkce pomocí dat Local Explanations (např. LIME): Tento přístup odpovídá: „Proč mi AI udělala toto konkrétní doporučení právě teď?“ Namísto obecného vysvětlení toho, jak model funguje, poskytuje cílený důvod pro jednu konkrétní instanci. Je to osobní a kontextové. Příklad: Představte si systém doporučení hudby poháněný umělou inteligencí, jako je Spotify. Místní vysvětlení by odpovědělo: "Proč vám systém právě teď doporučil tuto konkrétní píseň od Adele?" Vysvětlení by mohlo znít: „Protože jste nedávno poslouchali několik dalších emocionálních balad a písní ženských vokalistek.“
Nakonec se podívejme na zahrnutí vysvětlení založených na hodnotě (např. data Shapley Additive Explanations (SHAP) do vysvětlení rozhodnutí: Toto je podrobnější verze důležitosti funkce, která odpovídá: „Jak každý faktor ovlivnil rozhodnutí jedním nebo druhým směrem?“ Pomáhá vizualizovat, na čem záleželo, a zda byl jeho vliv pozitivní nebo negativní. Příklad: Představte si, že banka používá model AI k rozhodnutí, zda schválí žádost o úvěr.
Důležitost funkce: Výstup modelu může ukázat, že nejdůležitějšími faktory při rozhodování žadatele byly jeho kreditní skóre, příjem a poměr dluhu k příjmu. To odpovídá tomu, na čem záleželo. Důležitost funkce s vysvětlením založeným na hodnotě (SHAP): Hodnoty SHAP by dále zvýšily důležitost funkce na základě prvků modelu.
U schváleného úvěru může SHAP ukázat, že vysoké kreditní skóre významně posunulo rozhodnutí ke schválení (pozitivní vliv), zatímco mírně vyšší než průměrný poměr dluhu k příjmu jej mírně stáhl (negativní vliv), ale ne natolik, aby úvěr odmítl. U zamítnuté půjčky mohl SHAP odhalit, že nízký příjem a vysoký počet nedávných úvěrových dotazů silně posunuly rozhodnutí směrem k zamítnutí, i když úvěrové skóre bylo slušné.
To pomáhá úvěrovému úředníkovi vysvětlit žadateli nad rámec toho, co bylo zvažováno, jak jednotlivé faktory přispěly ke konečnému rozhodnutí „ano“ nebo „ne“. Je důležité si uvědomit, že schopnost poskytovat dobrá vysvětlení často začíná mnohem dříve ve vývojovém cyklu. Datoví vědci a inženýři hrají klíčovou roli tím, že záměrně strukturují modely a datové kanály způsobem, který ze své podstaty podporuje vysvětlitelnost, spíše než aby se je snažili upevnit jako dodatečný nápad. Výzkumné a návrhářské týmy to mohou podpořit zahájením časných rozhovorů s datovými vědci a inženýry o potřebách uživatelů pro porozumění, přispěním k vývoji metrik vysvětlitelnosti a společným prototypováním vysvětlení, aby bylo zajištěno, že jsou přesné a uživatelsky přívětivé. XAI a etické AI: Rozbalení předsudků a odpovědnosti Kromě budování důvěry hraje XAI klíčovou roli při řešení hlubokých etických důsledků AI*, zejména pokud jde o algoritmické zkreslení. Techniky vysvětlitelnosti, jako je analýza hodnot SHAP, mohou odhalit, zda jsou rozhodnutí modelu neúměrně ovlivněna citlivými atributy, jako je rasa, pohlaví nebo socioekonomický status, i když tyto faktory nebyly explicitně použity jako přímé vstupy. Pokud například model schvalování půjček soustavně přiřazuje záporné hodnoty SHAP žadatelům z určité demografické skupiny, signalizuje to potenciální zkreslení, které vyžaduje prošetření, čímž se týmům umožní odhalit a zmírnit takové nespravedlivé výsledky. Síla XAI přichází také s potenciálem „vysvětlitelnosti“. Stejně jako „greenwashing“ uvádí spotřebitele v omyl ohledně environmentálních praktik, může dojít k mytí vysvětlitelnosti, když jsou vysvětlení navržena tak, aby spíše zakryla, než aby osvětlila problematické algoritmické chování nebo přirozené předsudky. To by se mohlo projevit jako příliš zjednodušená vysvětlení, která vynechávají kritické ovlivňující faktory, nebo vysvětlení, která strategicky rámují výsledky tak, aby vypadaly neutrálněji nebo spravedlivěji, než ve skutečnosti jsou. Zdůrazňuje etickou odpovědnost odborníků na UX navrhovat vysvětlení, která jsou skutečně transparentní a ověřitelná. Profesionálové na UX ve spolupráci s datovými vědci a etiky nesou klíčovou odpovědnost za sdělování důvodu rozhodnutí a také omezení a potenciálních zkreslení základního modelu AI. To zahrnuje nastavení realistických očekávání uživatelů ohledně přesnosti umělé inteligence, identifikaci, kde může být model méně spolehlivý, a poskytování jasných kanálů pro odvolání nebo zpětnou vazbu, když uživatelé vnímají nespravedlivé nebo nesprávné výsledky. Proaktivně je řešitetické dimenze nám umožní budovat systémy umělé inteligence, které jsou skutečně spravedlivé a důvěryhodné. Od metod k maketám: Praktické návrhové vzory XAI Znát pojmy je jedna věc; jejich navrhování je něco jiného. Zde je návod, jak můžeme tyto metody XAI převést do intuitivních návrhových vzorů. Vzor 1: Prohlášení „Protože“ (pro význam funkce) Toto je nejjednodušší a často nejúčinnější vzor. Je to přímé, srozumitelné prohlášení, které odhaluje primární důvod akce AI.
Heuristika: Buďte přímí a struční. Veďte jediný nejpůsobivější důvod. Vyhněte se za každou cenu žargonu.
Příklad: Představte si službu streamování hudby. Namísto pouhého představení seznamu skladeb „Discover Weekly“ přidáte malý řádek mikrokopie. Doporučení k písni: „Velvet Morning“ Protože posloucháte „The Fuzz“ a další psychedelický rock.
Vzor 2: Interaktivní „co kdyby“ (pro kontrafakty) Kontrafaktuály jsou ze své podstaty o zmocnění. Nejlepší způsob, jak je reprezentovat, je poskytnout uživatelům interaktivní nástroje, aby sami prozkoumali možnosti. To je ideální pro finanční, zdravotní nebo jiné cíleně orientované aplikace.
Heuristika: Udělejte vysvětlení interaktivní a posilující. Umožněte uživatelům vidět příčinu a následek jejich rozhodnutí.
Příklad: Rozhraní žádosti o půjčku. Po odmítnutí namísto slepé uličky dostane uživatel nástroj, který určí, jak by se různé scénáře (co kdyby) mohly odehrát (viz obrázek 1).
Vzor 3: Hlavní role (pro místní vysvětlení) Když AI provede akci s obsahem uživatele (jako je shrnutí dokumentu nebo identifikace tváří na fotkách), vysvětlení by mělo být vizuálně propojeno se zdrojem.
Heuristika: Pomocí vizuálních vodítek, jako je zvýraznění, obrysy nebo anotace, připojte vysvětlení přímo k prvku rozhraní, který vysvětluje.
Příklad: Nástroj umělé inteligence, který shrnuje dlouhé články. Souhrnný bod vygenerovaný AI: Počáteční průzkum ukázal mezeru na trhu pro udržitelné produkty. Zdroj v dokumentu: „...Naše analýza trendů na trhu ve 2. čtvrtletí přesvědčivě prokázala, že žádný velký konkurent účinně nesloužil ekologicky uvědomělému spotřebiteli, což odhalilo významnou mezeru na trhu pro udržitelné produkty...“
Vzor 4: Vizuál push-and-pull (pro vysvětlení založená na hodnotě) Pro složitější rozhodnutí mohou uživatelé potřebovat porozumět souhře faktorů. Jednoduché vizualizace dat to mohou objasnit, aniž by to bylo ohromující.
Heuristika: Použijte jednoduché, barevně odlišené vizualizace dat (jako jsou sloupcové grafy) k zobrazení faktorů, které pozitivně a negativně ovlivnily rozhodnutí.
Příklad: Umělá inteligence, která prověřuje profil kandidáta na pozici. Proč se tento kandidát shoduje na 75 %: Faktory zvyšující skóre: 5+ let zkušeností s výzkumem UX Zkušenosti s PythonFaktory snižující skóre: Žádné zkušenosti s B2B SaaS
Učení se a používání těchto návrhových vzorů v uživatelském rozhraní vašeho produktu AI pomůže zvýšit vysvětlitelnost. Můžete také použít další techniky, které zde nebudu podrobně popisovat. To zahrnuje následující:
Vysvětlení přirozeného jazyka: Překlad technického výstupu AI do jednoduchého konverzačního lidského jazyka, kterému snadno porozumí i neodborníci. Kontextová vysvětlení: Poskytování zdůvodnění výstupu AI v konkrétním okamžiku a místě, je nejrelevantnější pro úkol uživatele. Relevantní vizualizace: Použití tabulek, grafů nebo teplotních map k vizuálnímu znázornění rozhodovacího procesu AI, díky čemuž jsou složitá data intuitivní a pro uživatele snáze uchopitelná.
Poznámka pro frontend: Převedení těchto výstupů vysvětlitelnosti do bezproblémových uživatelských zkušeností také představuje vlastní soubor technických aspektů. Vývojáři front-endu se často potýkají s návrhem rozhraní API, aby efektivně získali data vysvětlení, a důsledky pro výkon (jako je generování vysvětlení v reálném čase pro každou interakci uživatele) potřebují pečlivé plánování, aby se zabránilo latenci. Některé příklady z reálného světa UPS Capital's DeliveryDefense UPS používá AI k přiřazení „skóre spolehlivosti doručení“ adresám, aby bylo možné předpovědět pravděpodobnost odcizení balíku. Jejich software DeliveryDefense analyzuje historická data o umístění, četnosti ztrát a dalších faktorech. Pokud má adresa nízké skóre, systém může proaktivně přesměrovat balík na zabezpečený přístupový bod UPS a poskytnout vysvětlení pro rozhodnutí (např. „Balík přesměrován na bezpečné místo kvůli historii krádeže“). Tento systém ukazuje, jak lze XAI využít ke zmírnění rizik a budování důvěry zákazníkůprůhlednost. Autonomní vozidla Tato vozidla budoucnosti budou muset efektivně využívat XAI, aby pomohla jejich vozidlům přijímat bezpečná a vysvětlitelná rozhodnutí. Když samořídící auto náhle zabrzdí, systém může poskytnout vysvětlení svého jednání v reálném čase, například identifikací chodce vstupujícího do vozovky. To je klíčové nejen pro pohodlí a důvěru cestujících, ale je to i regulační požadavek k prokázání bezpečnosti a odpovědnosti systému AI. IBM Watson Health (a jeho výzvy) I když se často uvádí jako obecný příklad AI ve zdravotnictví, je to také cenná případová studie významu XAI. Neúspěch jeho projektu Watson for Oncology poukazuje na to, co se může pokazit, když vysvětlení nejsou jasná, nebo když jsou základní data zkreslená či nelokalizovaná. Doporučení systému byla někdy v rozporu s místní klinickou praxí, protože byla založena na směrnicích zaměřených na USA. To slouží jako varovný příběh o potřebě robustní, kontextově uvědomělé vysvětlitelnosti. Role výzkumníka UX: Přesné určení a ověření vysvětlení Naše designová řešení jsou účinná pouze tehdy, když řeší správné uživatelské otázky ve správný čas. Vysvětlení, které odpovídá na otázku, kterou uživatel nemá, je jen hluk. Zde se výzkum UX stává kritickou pojivovou tkání ve strategii XAI a zajišťuje, že našim uživatelům vysvětlíme, co a jak je skutečně důležité. Role výzkumníka je dvojí: za prvé, informovat strategii tím, že identifikuje, kde jsou potřebná vysvětlení, a za druhé, ověřovat návrhy, které tato vysvětlení poskytují. Informování o strategii XAI (co vysvětlit) Než budeme moci navrhnout jediné vysvětlení, musíme pochopit uživatelský mentální model systému AI. Co věří, že to dělá? Kde jsou mezery mezi jejich chápáním a realitou systému? Toto je základní práce výzkumníka UX. Rozhovory s mentálním modelem: Rozbalení uživatelského vnímání systémů AI Prostřednictvím hlubokých, polostrukturovaných rozhovorů mohou odborníci na UX získat neocenitelné poznatky o tom, jak uživatelé vnímají a chápou systémy AI. Tyto relace jsou navrženy tak, aby povzbudily uživatele, aby doslova nakreslili nebo popsali svůj vnitřní „mentální model“ toho, jak věří, že AI funguje. To často zahrnuje kladení otevřených otázek, které uživatele vyzývají, aby vysvětlili logiku systému, jeho vstupy a výstupy, stejně jako vztahy mezi těmito prvky. Tyto rozhovory jsou silné, protože často odhalují hluboké mylné představy a domněnky, které uživatelé o AI zastávají. Například uživatel interagující s nástrojem pro doporučení může sebevědomě tvrdit, že systém je založen čistě na jeho minulé historii prohlížení. Možná si neuvědomují, že algoritmus také zahrnuje množství dalších faktorů, jako je denní doba, kterou procházejí, aktuální trendy položky napříč platformou nebo dokonce zvyky podobných uživatelů. Odhalení této mezery mezi mentálním modelem uživatele a skutečnou základní logikou umělé inteligence je kriticky důležité. Přesně nám říká, jaké konkrétní informace potřebujeme sdělit uživatelům, abychom jim pomohli vytvořit přesnější a robustnější mentální model systému. To je zase zásadní krok k posílení důvěry. Když uživatelé i na vysoké úrovni pochopí, jak AI dospívá ke svým závěrům nebo doporučením, je pravděpodobnější, že budou důvěřovat jejím výstupům a spoléhat se na její funkčnost. AI Journey Mapping: Hluboký ponor do uživatelské důvěry a vysvětlitelnosti Pečlivým mapováním cesty uživatele pomocí funkce využívající umělou inteligenci získáváme neocenitelné vhledy do přesných okamžiků, kdy se objevuje zmatek, frustrace nebo dokonce hluboká nedůvěra. To odhaluje kritické body, kde se mentální model uživatele fungování AI střetává s jeho skutečným chováním. Zvažte službu streamování hudby: Klesá důvěra uživatele, když je doporučení seznamu skladeb „náhodné“ a postrádá jakékoli rozpoznatelné spojení s jeho dřívějšími zvyklostmi při poslechu nebo uvedenými preferencemi? Tato vnímaná náhodnost je přímou výzvou pro uživatelovo očekávání inteligentního kurátorství a porušením implicitního slibu, že AI rozumí jejich vkusu. Podobně v aplikaci pro správu fotografií zažívají uživatelé značnou frustraci, když funkce AI pro označování fotografií soustavně nesprávně identifikuje milovaného člena rodiny? Tato chyba je více než jen technická závada; zasahuje do srdce přesnosti, personalizace a dokonceemocionální spojení. Tyto bolestivé body jsou živými signály, které přesně ukazují, kde je nutné dobře umístěné, jasné a stručné vysvětlení. Taková vysvětlení slouží jako zásadní opravné mechanismy, které napravují porušení důvěry, které, pokud se neřeší, může vést k opuštění uživatele. Síla mapování cest pomocí umělé inteligence spočívá v jeho schopnosti posunout nás dál, než je pouhé vysvětlení konečného výstupu systému umělé inteligence. I když je pochopení toho, co umělá inteligence produkovala, důležité, často je to nedostatečné. Místo toho nás tento proces nutí soustředit se na vysvětlení procesu v kritických okamžicích. To znamená adresovat:
Proč byl generován konkrétní výstup: Bylo to kvůli specifickým vstupním datům? Konkrétní modelová architektura? Jaké faktory ovlivnily rozhodnutí AI: Byly některé funkce váženější? Jak AI dospěla ke svému závěru: Můžeme nabídnout zjednodušené, analogické vysvětlení jejího vnitřního fungování? Jaké předpoklady umělá inteligence učinila: Existovalo implicitní pochopení záměru uživatele nebo dat, která je třeba odhalit? Jaká jsou omezení umělé inteligence: Jasné sdělování toho, co umělá inteligence neumí nebo kde může kolísat její přesnost, vytváří realistická očekávání.
Mapování cest pomocí umělé inteligence transformuje abstraktní koncept XAI do praktického a použitelného rámce pro odborníky na UX. Umožňuje nám to překročit teoretické diskuse o vysvětlitelnosti a místo toho přesně určit momenty, kdy je v sázce důvěra uživatelů, a poskytuje potřebné poznatky pro vytváření zkušeností s umělou inteligencí, které jsou výkonné, transparentní, srozumitelné a důvěryhodné. Nakonec, výzkum je způsob, jak odhalit neznámé. Váš tým možná diskutuje o tom, jak vysvětlit, proč byla půjčka zamítnuta, ale výzkum by mohl odhalit, že uživatelé se mnohem více zajímají o pochopení toho, jak byla jejich data vůbec použita. Bez průzkumu jednoduše hádáme, co naši uživatelé přemýšlí. Spolupráce na designu (jak vysvětlit svou AI) Jakmile výzkum identifikuje, co vysvětlit, začne smyčka spolupráce s designem. Návrháři mohou prototypovat vzory, o kterých jsme hovořili dříve – prohlášení „Protože“, interaktivní posuvníky – a výzkumníci mohou tyto návrhy předložit uživatelům, aby zjistili, zda obstojí. Cílené testování použitelnosti a porozumění: Můžeme navrhnout výzkumné studie, které konkrétně testují komponenty XAI. Neptáme se jen: „Je to snadné? Ptáme se: „Po tom, co jste to viděli, můžete mi svými slovy říci, proč systém doporučil tento produkt?“ nebo "Ukažte mi, co byste udělali, abyste viděli, kdy byste mohli získat jiný výsledek." Cílem je zde kromě použitelnosti měřit porozumění a akceschopnost. Měření samotné důvěry: Můžeme použít jednoduché průzkumy a hodnotící stupnice před a po zobrazení vysvětlení. Můžeme se například uživatele na 5bodové škále zeptat: „Jak moc důvěřujete tomuto doporučení?“ než uvidí prohlášení „Protože“, a poté se jich znovu zeptejte. To poskytuje kvantitativní údaje o tom, zda naše vysvětlení skutečně posouvají jehlu důvěry. Tento proces vytváří silnou, iterativní smyčku. Výsledky výzkumu ovlivňují původní návrh. Tento design je poté testován a nová zjištění jsou zaslána zpět designérskému týmu k upřesnění. Možná bylo prohlášení „Protože“ příliš žargonové nebo posuvník „Co kdyby“ byl spíše matoucí než posilující. Prostřednictvím tohoto kolaborativního ověřování zajišťujeme, že konečná vysvětlení jsou technicky přesná, skutečně srozumitelná, užitečná a buduje důvěru lidí používajících produkt. Zlatovláska zóna vysvětlení Důležité upozornění: je možné to přehnaně vysvětlit. Stejně jako v pohádce, kde Zlatovláska hledala kaši, která byla ‚tak akorát‘, cílem dobrého vysvětlení je poskytnout správné množství podrobností – ani moc, ani málo. Bombardování uživatele každou proměnnou v modelu povede ke kognitivnímu přetížení a může ve skutečnosti snížit důvěru. Cílem není udělat z uživatele datového vědce. Jedním z řešení je postupné zveřejňování.
Začněte tím jednoduchým. Veďte stručné prohlášení „Protože“. Většině uživatelů to bude stačit. Nabídněte cestu k detailu. Poskytněte jasný odkaz s minimálním třením, jako je „Další informace“ nebo „Podívejte se, jak to bylo určeno“. Odhalte složitost. Za tímto odkazem můžete nabídnout interaktivní posuvníky, vizualizace nebo podrobnější seznam přispívajících faktorů.
Tento vrstvený přístup respektuje pozornost a odbornost uživatele a poskytuje správné množstvíinformací pro jejich potřeby. Představme si, že používáte chytré domácí zařízení, které doporučuje optimální vytápění na základě různých faktorů. Začněte jednoduše: „Váš dům je aktuálně vytápěn na 72 stupňů, což je optimální teplota pro úsporu energie a pohodlí.“ Nabídněte cestu k detailům: Pod tím malý odkaz nebo tlačítko: „Proč je 72 stupňů optimální?“ Odhalte složitost: Kliknutím na tento odkaz se může otevřít nová obrazovka, která ukazuje:
Interaktivní posuvníky pro venkovní teplotu, vlhkost a vámi preferovanou úroveň pohodlí, ukazující, jak upravují doporučenou teplotu. Vizualizace spotřeby energie při různých teplotách. Seznam přispívajících faktorů, jako je „Denní doba“, „Aktuální venkovní teplota“, „Historická spotřeba energie“ a „Snímače obsazenosti“.
Je efektivní kombinovat více metod XAI a tento vzor Goldilocks Zone of Explanation, který obhajuje postupné odhalování, to implicitně podporuje. Můžete začít jednoduchým prohlášením „Protože“ (Vzor 1) pro okamžité pochopení a poté nabídnout odkaz „Další informace“, který odhalí interaktivní „Co když“ (Vzor 2) nebo „Push-and-Pull Visual“ (Vzor 4) k hlubšímu prozkoumání. Například systém žádostí o půjčku by mohl nejprve uvést primární důvod zamítnutí (důležitost funkce), poté umožnit uživateli interakci s nástrojem „Co kdyby“ a zjistit, jak by změny jeho příjmu nebo dluhu změnily výsledek (srovnávací analýzy), a nakonec poskytnout podrobný graf „Push-and-Pull“ (vysvětlení založené na hodnotě), který ilustruje pozitivní a negativní příspěvky všech faktorů. Tento vrstvený přístup umožňuje uživatelům přístup k úrovni detailů, které potřebují, když to potřebují, čímž se zabrání přetížení kognitivních funkcí a zároveň poskytuje komplexní transparentnost. Určení, které nástroje a metody XAI použít, je především funkcí důkladného průzkumu uživatelského prostředí. Rozhovory s mentálním modelem a mapování cesty AI jsou zásadní pro určení potřeb uživatelů a bolestivých bodů souvisejících s porozuměním AI a důvěrou. Rozhovory s mentálním modelem pomáhají odhalit mylné představy uživatelů o tom, jak AI funguje, a naznačují oblasti, kde je potřeba základní vysvětlení (jako je důležitost funkce nebo místní vysvětlení). Mapování cesty AI na druhé straně identifikuje kritické momenty zmatku nebo nedůvěry v interakci uživatele s AI a signalizuje, kde by podrobnější nebo interaktivnější vysvětlení (jako kontrafaktuální nebo hodnotová vysvětlení) byla nejpřínosnější pro obnovení důvěry a poskytnutí agentury.
Nejlepším způsobem, jak zvolit techniku, je nakonec nechat se při rozhodování řídit uživatelským průzkumem a zajistit, aby vámi navržená vysvětlení přímo řešila skutečné otázky a obavy uživatelů, spíše než pouze nabízet technické podrobnosti pro ně samotné. XAI pro Deep Reasoning Agents Některé z nejnovějších systémů umělé inteligence, známé jako agenti hlubokého uvažování, vytvářejí explicitní „myšlenkový řetězec“ pro každý složitý úkol. Neuvádějí pouze zdroje; ukazují logickou, krok za krokem cestu, kterou se vydali, aby dospěli k závěru. I když tato transparentnost poskytuje cenný kontext, hra za hrou, která zahrnuje několik odstavců, může uživateli při pouhém pokusu o dokončení úkolu připadat ohromující. Přímo zde platí principy XAI, zejména Goldilocks Zone of Explanation. Můžeme kurátorem cesty pomocí postupného odhalování ukázat pouze konečný závěr a nejvýraznější krok v procesu myšlení jako první. Uživatelé se pak mohou přihlásit k zobrazení úplného, podrobného zdůvodnění ve více krocích, když potřebují znovu zkontrolovat logiku nebo najít konkrétní skutečnost. Tento přístup respektuje pozornost uživatele a zároveň zachovává plnou transparentnost agenta. Další kroky: Posílení vaší cesty XAI Vysvětlitelnost je základním pilířem pro vytváření důvěryhodných a účinných produktů AI. Pro pokročilé odborníky, kteří chtějí řídit tuto změnu v rámci své organizace, cesta sahá za návrhové vzory do obhajoby a neustálého učení. Chcete-li prohloubit své porozumění a praktickou aplikaci, zvažte prozkoumání zdrojů, jako je sada nástrojů AI Explainability 360 (AIX360) od IBM Research nebo nástroj What-If společnosti Google, které nabízejí interaktivní způsoby prozkoumání chování modelu a vysvětlení. Spolupráce s komunitami, jako je Responsible AI Forum nebo konkrétními výzkumnými skupinami zaměřenými na umělou inteligenci zaměřenou na člověka, může poskytnout neocenitelné poznatky a příležitosti ke spolupráci. A konečně, buďte zastáncem XAI ve své vlastní organizaci.Vysvětlitelnost rámce jako strategická investice. Zvažte krátkou prezentaci pro vaše vedení nebo mezifunkční týmy: "Investicemi do XAI půjdeme nad rámec budování důvěry; urychlíme přijetí uživateli, snížíme náklady na podporu tím, že uživatelům umožníme porozumění, a zmírníme významná etická a regulační rizika odhalením potenciálních předsudků. To je dobrý design a chytré podnikání."
Váš hlas založený na praktickém porozumění je zásadní pro vyvedení umělé inteligence z černé skříňky a do spolupráce s uživateli.