Utolsó írásomban egy alapvető igazságot állapítottunk meg: ahhoz, hogy a felhasználók elfogadják a mesterséges intelligenciát, és rá támaszkodjanak, bízniuk kell benne. Arról beszéltünk, hogy a bizalom egy sokrétű konstrukció, amely egy mesterséges intelligencia képességének, jóindulatának, integritásának és kiszámíthatóságának felfogására épül. De mi történik, ha egy mesterséges intelligencia a maga csendes, algoritmikus bölcsességével olyan döntést hoz, amely a felhasználót összezavarja, frusztrálja vagy akár meg is sérti? A jelzáloghitel-kérelmet elutasítják, egy kedvenc dal hirtelen hiányzik a lejátszási listáról, és a minősített önéletrajzot elutasítják, mielőtt az ember látná. Ezekben a pillanatokban a képesség és a kiszámíthatóság összetörik, és a jóindulat egy világra esik. Beszélgetésünknek most a bizalom miértjétől az átláthatóság mikéntjéig kell fejlődnie. Az magyarázható AI (XAI) területe, amely olyan módszerek fejlesztésére összpontosít, amelyek az AI-kimeneteket az emberek számára érthetővé teszik, ennek megoldására jelent meg, de ez gyakran pusztán technikai kihívásként jelenik meg az adatkutatók számára. Azt állítom, hogy ez kritikus tervezési kihívás az AI-n alapuló termékek számára. UX-szakemberként az a feladatunk, hogy áthidaljuk az algoritmikus döntéshozatal és az emberi megértés közötti szakadékot. Ez a cikk gyakorlati, gyakorlatias útmutatást ad a magyarázhatóság érdekében történő kutatáshoz és tervezéshez. Túllépünk a hívószavakon és a maketteken, és az összetett XAI-koncepciókat konkrét tervezési mintákká alakítjuk, amelyeket már ma elkezdhet használni. A misztifikáció megszüntetése XAI: Alapvető fogalmak UX-alkalmazók számára Az XAI a felhasználó kérdésének megválaszolásáról szól: „Miért?” Miért jelent meg ez a hirdetés? Miért ajánlott ez a film nekem? Miért utasították el a kérésemet? Tekintsd úgy, mint a mesterséges intelligencia, amely egy matematikai feladattal kapcsolatos munkáját mutatja be. Enélkül csak van válaszod, és kénytelen vagy hittel fogadni. A lépések bemutatásával megértést és bizalmat épít. Azt is lehetővé teszi, hogy munkáját kétszer is ellenőrizzék és igazolják azok az emberek, akikre hatással van. Funkció fontossága és ellentétes tények Számos technikát használhatunk annak tisztázására vagy magyarázatára, hogy mi történik az AI-val. Míg a módszerek a döntési fa teljes logikájának biztosításától a kimenet természetes nyelvű összefoglalóinak létrehozásáig terjednek, a UX-alkalmazók két legpraktikusabb és leghatékonyabb információtípusa, amelyet a tapasztalatokba bevezethetnek, a jellemzők fontossága (1. ábra) és az ellentétes tények. Ezek gyakran a legegyszerűbben érthetők a felhasználók számára, és a tervezők számára a legcélravezetőbbek.

Funkció fontossága Ez a magyarázhatósági módszer a következőt válaszolja: „Melyek voltak a legfontosabb tényezők, amelyeket az AI figyelembe vett?” Arról van szó, hogy azonosítsuk azt a 2-3 legfontosabb változót, amelyek a legnagyobb hatással voltak az eredményre. Ez a főcím, nem az egész történet. Példa: Képzeljünk el egy mesterséges intelligenciát, amely megjósolja, hogy az ügyfél lemond-e (lemondja-e a szolgáltatást). A funkció fontossága felfedheti, hogy a „támogatási hívások száma az elmúlt hónapban” és a „legutóbbi áremelések” voltak a két legfontosabb tényező annak meghatározásában, hogy az ügyfél valószínűleg visszaesik-e.

Ellentétes tények Ez a hatékony módszer a következő választ adja: „Mit kellene megváltoztatnom, hogy más eredményt érjek el?” Ez kulcsfontosságú, mert az ügynökség érzését kelti a felhasználókban. A frusztráló „nem”-et egy megtámadott „még nem”-vé alakítja. Példa: Képzeljünk el egy kölcsönkérelmező rendszert, amely mesterséges intelligenciát használ. A felhasználótól megtagadják a kölcsönt. Ahelyett, hogy csak az „Elutasítva kérelmet” látná, egy ellentétes magyarázat is megosztaná: „Ha a hitelképessége 50 ponttal magasabb, vagy ha az adósság-jövedelem aránya 10%-kal alacsonyabb lenne, a hitelét jóváhagyták volna.” Ez egyértelmű, végrehajtható lépéseket tesz Sarah-nak, hogy a jövőben kölcsönt kaphasson.

Modelladatok használata a magyarázat javítására Bár a technikai specifikumokkal gyakran adattudósok foglalkoznak, az UX-alkalmazóknak hasznos tudniuk, hogy az olyan eszközök, mint a LIME (Local Interpretable Model-Agnostic Explanations), amely a modell lokális közelítésével magyarázza az egyéni előrejelzéseket, és a SHAP (SHapley Additive ExPlanations), amely játékelméleti megközelítést alkalmaz, hogy megmagyarázza az általánosan használt gépi tanulási modellek kimenetét a „whyly-ből” a bonyolult gépi tanulási modellekből. Ezek a könyvtárak lényegében segítenek lebontani egy mesterséges intelligencia azon döntését, hogy megmutassák, mely bemenetek voltak a legnagyobb hatással egy adott eredményre. Ha megfelelően végezzük, az AI-eszköz döntésének alapjául szolgáló adatok egy erőteljes történet elmesélésére használhatók fel. Nézzük meg a funkciók fontosságát és az ellentétes tényeket, és mutassuk meg, hogyan lehet a döntés mögött meghúzódó adattudományt felhasználni a felhasználói élmény javítására. Most nézzükfedje le a jellemzők fontosságát a helyi magyarázatok (pl. LIME) adatok segítségével: Ez a megközelítés a következőre válaszol: „Miért javasolta a mesterséges intelligencia ezt a konkrét ajánlást éppen most?” A modell működésének általános magyarázata helyett egyetlen, konkrét példányra koncentrált indoklást ad. Ez személyes és kontextuális. Példa: Képzeljünk el egy mesterséges intelligencia-alapú zeneajánló rendszert, például a Spotify-t. Egy helyi magyarázat a következőt válaszolná: „Miért ajánlotta a rendszer most neked ezt a konkrét Adele-dalt?” A magyarázat a következő lehet: „Mert nemrégiben több érzelmes balladát és dalt hallgattál női énekesektől.”

Végezetül térjünk ki az értékalapú magyarázatok (pl. Shapley Additive Explanations (SHAP) adatok egy döntés magyarázatához) való beépítésére: Ez a jellemző fontosságának árnyaltabb változata, amely a következőt válaszolja: „Hogyan befolyásolták az egyes tényezők a döntést így vagy úgy?” Segít elképzelni, hogy mi számít, és hogy a befolyása pozitív vagy negatív volt-e. Példa: Képzeljük el, hogy egy bank mesterséges intelligencia modellt használ annak eldöntésére, hogy jóváhagyja-e a hitelkérelmet.

A jellemző fontossága: A modell kimenete megmutathatja, hogy a kérelmező hitelpontszáma, jövedelme és adósság-jövedelem aránya volt a legfontosabb tényező a döntésben. Ez választ ad arra, ami számított. Jellemzők fontossága értékalapú magyarázatokkal (SHAP): A SHAP-értékek a modell elemei alapján tovább növelnék a jellemzők fontosságát.

Egy jóváhagyott hitel esetében a SHAP kimutathatja, hogy a magas hitelképesség jelentősen a jóváhagyás felé tolta a döntést (pozitív befolyás), míg az átlagosnál valamivel magasabb adósság/jövedelem arány kissé elhúzta (negatív hatás), de nem eléggé a hitel elutasításához. A visszautasított kölcsön esetében az SHAP felfedhette, hogy az alacsony jövedelem és a közelmúltbeli hitelkérdések nagy száma erőteljesen az elutasítás felé tolta a döntést, még akkor is, ha a hitelképesség megfelelő volt.

Ez segít a hitelfelügyelőnek elmagyarázni a kérelmezőnek a mérlegelésen túl, hogy az egyes tényezők hogyan járultak hozzá a végső „igen” vagy „nem” döntéshez. Kulcsfontosságú annak felismerése, hogy a jó magyarázatok képessége gyakran sokkal korábban kezdődik a fejlesztési ciklusban. Az adattudósok és mérnökök kulcsfontosságú szerepet játszanak abban, hogy szándékosan strukturálják a modelleket és az adatfolyamokat oly módon, hogy azok eleve támogatják a megmagyarázhatóságot, ahelyett, hogy utólagos gondolatként próbálnák ráerősíteni. A kutató- és tervezőcsapatok elősegíthetik ezt azáltal, hogy korai beszélgetéseket kezdeményeznek adattudósokkal és mérnökökkel a felhasználók megértéséhez szükséges szükségleteiről, hozzájárulnak a magyarázhatósági mérőszámok fejlesztéséhez, és közösen készítenek prototípusokat a magyarázatok pontosságáról és felhasználóbarátságáról. XAI és etikus mesterséges intelligencia: Az elfogultság és a felelősség kibontása A bizalomépítésen túl az XAI kritikus szerepet játszik az AI* mélyreható etikai vonatkozásainak kezelésében, különösen az algoritmikus torzítás tekintetében. A magyarázhatósági technikák, például a SHAP értékek elemzése feltárhatják, hogy a modell döntéseit aránytalanul befolyásolják-e olyan érzékeny tulajdonságok, mint a faj, a nem vagy a társadalmi-gazdasági státusz, még akkor is, ha ezeket a tényezőket nem használták kifejezetten közvetlen bemenetként. Például, ha egy hitel-jóváhagyási modell következetesen negatív SHAP-értékeket rendel egy bizonyos demográfiai csoportból származó kérelmezőkhöz, az potenciális torzítást jelez, amely vizsgálatot igényel, és felhatalmazza a csapatokat az ilyen tisztességtelen kimenetelek feltárására és enyhítésére. Az XAI ereje a „magyarázható mosás” lehetőségével is jár. Ahogyan a „zöldmosás” félrevezeti a fogyasztókat a környezeti gyakorlatokkal kapcsolatban, úgy a magyarázhatósági mosás is megtörténhet, ha a magyarázatok célja a problémás algoritmikus viselkedés vagy a benne rejlő torzítások elfedése, nem pedig megvilágítása. Ez túlságosan leegyszerűsített magyarázatokban nyilvánulhat meg, amelyek figyelmen kívül hagyják a kritikus befolyásoló tényezőket, vagy olyan magyarázatokban, amelyek stratégiailag az eredményeket semlegesebbnek vagy igazságosabbnak teszik, mint amilyenek valójában. Hangsúlyozza a felhasználói élményt gyakorlók etikai felelősségét, hogy olyan magyarázatokat tervezzenek, amelyek valóban átláthatóak és ellenőrizhetők. Az UX-szakemberek adattudósokkal és etikusokkal együttműködve alapvető felelősséget viselnek a döntés indokainak, valamint az alapul szolgáló AI-modell korlátainak és lehetséges torzításainak kommunikálásában. Ez magában foglalja a felhasználók reális elvárásait a mesterséges intelligencia pontosságával kapcsolatban, annak azonosítását, hogy hol lehet kevésbé megbízható a modell, és egyértelmű csatornákat kell biztosítani a jogorvoslathoz vagy a visszajelzéshez, ha a felhasználók tisztességtelen vagy helytelen eredményeket észlelnek. Ezek proaktív kezeléseAz etikai dimenziók lehetővé teszik számunkra, hogy valóban igazságos és megbízható AI-rendszereket építsünk. A módszerektől a makettekig: gyakorlati XAI tervezési minták A fogalmak ismerete egy dolog; ezek tervezése egy másik. Így fordíthatjuk le ezeket az XAI-módszereket intuitív tervezési mintákká. 1. minta: A „mert” kijelentés (a funkció fontosságához) Ez a legegyszerűbb és gyakran a leghatékonyabb minta. Ez egy közvetlen, közérthető kijelentés, amely felszínre hozza a mesterséges intelligencia cselekvésének elsődleges okát.

Heurisztikus: Legyen közvetlen és tömör. Vezessen a leghatásosabb okkal. Minden áron kerülje a zsargont.

Példa: Képzeljünk el egy zenei streaming szolgáltatást. Ahelyett, hogy csak bemutatna egy „Discover Weekly” lejátszási listát, ad hozzá egy kis sor mikromásolatot. Dalajánló: „Velvet Morning”, Mert „The Fuzz”-t és más pszichedelikus rockot hallgat.

2. minta: A „Mi lenne, ha” interaktív (ellentétes tények számára) A kontrafaktuálisok eleve a felhatalmazásról szólnak. A legjobb módja annak, hogy képviseljük őket, ha interaktív eszközöket adunk a felhasználóknak a lehetőségek felfedezéséhez. Ez tökéletes pénzügyi, egészségügyi vagy egyéb célorientált alkalmazásokhoz.

Heurisztikus: Tegye a magyarázatokat interaktívvá és megerősítővé. Hagyja, hogy a felhasználók lássák döntéseik okát és következményeit.

Példa: Hiteligénylési felület. Az elutasítás után a zsákutca helyett a felhasználó egy olyan eszközt kap, amellyel meghatározhatja, hogy a különböző forgatókönyvek (mi lenne, ha) hogyan játszódnak le (lásd 1. ábra).

3. minta: A kiemelő tekercs (helyi magyarázatokhoz) Amikor egy mesterséges intelligencia műveletet hajt végre a felhasználó tartalmán (például összefoglal egy dokumentumot vagy azonosítja az arcokat a fényképeken), a magyarázatot vizuálisan kell kapcsolni a forráshoz.

Heurisztikus: Használjon vizuális jelzéseket, például kiemeléseket, körvonalakat vagy megjegyzéseket, hogy a magyarázatot közvetlenül a magyarázott felületelemhez kapcsolja.

Példa: Egy mesterséges intelligencia eszköz, amely hosszú cikkeket foglal össze. A mesterséges intelligencia által generált összefoglaló pont: A kezdeti kutatás piaci rést mutatott ki a fenntartható termékek között. Forrás a dokumentumban: „...A piaci trendek második negyedéves elemzése meggyőzően kimutatta, hogy egyetlen jelentős versenytárs sem szolgálta ki hatékonyan a környezettudatos fogyasztókat, ami jelentős piaci rést tárt fel a fenntartható termékek terén...”

4. minta: A Push-and-Pull vizuális kép (értékalapú magyarázatokhoz) Bonyolultabb döntésekhez a felhasználóknak meg kell érteniük a tényezők kölcsönhatását. Az egyszerű adatvizualizációk ezt egyértelművé tehetik anélkül, hogy elsöprőek lennének.

Heurisztikus: Használjon egyszerű, színkódolt adatvizualizációkat (például oszlopdiagramokat) a döntést pozitívan és negatívan befolyásoló tényezők bemutatásához.

Példa: A mesterséges intelligencia átvizsgálja egy jelölt profilját egy állásra.Miért felel meg ez a jelölt 75%-ban:A pontszámot felfelé mutató tényezők:5+ év UX-kutatási tapasztalat, járatos a PythonFactorsban, ami csökkenti a pontszámot:Nincs tapasztalat a B2B SaaS-szel kapcsolatban

Ezen tervezési minták elsajátítása és használata az AI-termék felhasználói élményében segít a megmagyarázhatóság növelésében. Használhat további technikákat is, amelyekre itt nem térek ki részletesen. Ez a következőket tartalmazza:

Természetes nyelvű magyarázatok: A mesterséges intelligencia technikai eredményeinek lefordítása egyszerű, társalgási nyelvre, amelyet nem szakértők könnyen megértenek. Kontextus szerinti magyarázatok: Az MI kimenetének az adott pillanatban és helyen történő indoklása a leginkább releváns a felhasználó feladatához. Releváns vizualizációk: Diagramok, grafikonok vagy hőtérképek segítségével vizuálisan ábrázolja a mesterséges intelligencia döntéshozatali folyamatát, így az összetett adatok intuitívvá és könnyebben megragadhatóvá válnak a felhasználók számára.

Megjegyzés a kezelőfelülethez: Ezeknek a magyarázhatósági kimeneteknek a zökkenőmentes felhasználói élményekbe történő átültetése saját technikai megfontolásokat is tartalmaz. A front-end fejlesztők gyakran küzdenek az API tervezéssel a magyarázati adatok hatékony lekérése érdekében, és a teljesítményre gyakorolt ​​hatások (például a magyarázatok valós idejű generálása minden felhasználói interakcióhoz) gondos tervezést igényelnek a késleltetés elkerülése érdekében. Néhány példa a való világból A UPS Capital DeliveryDefense A UPS mesterséges intelligencia segítségével „szállítási megbízhatósági pontszámot” rendel a címekhez, hogy előre jelezze egy csomag ellopásának valószínűségét. DeliveryDefense szoftverük elemzi a korábbi adatokat a helyről, a veszteség gyakoriságáról és egyéb tényezőkről. Ha egy cím alacsony pontszámot ér el, a rendszer proaktívan átirányíthatja a csomagot egy biztonságos UPS hozzáférési ponthoz, magyarázatot adva a döntésre (pl. „A csomag átirányítva egy biztonságos helyre lopás előzményei miatt”). Ez a rendszer bemutatja, hogyan használható az XAI a kockázatcsökkentésre és az ügyfelek bizalmának építéséreátláthatóság. Autonóm járművek Ezeknek a jövő járműveinek hatékonyan kell használniuk az XAI-t, hogy segítsék járműveiket biztonságos, megmagyarázható döntések meghozatalában. Amikor egy önvezető autó hirtelen fékez, a rendszer valós idejű magyarázatot tud adni a működésére, például az útra lépő gyalogos azonosításával. Ez nemcsak az utasok kényelme és bizalma szempontjából kulcsfontosságú, hanem szabályozási követelmény is az AI-rendszer biztonságának és elszámoltathatóságának bizonyításához. IBM Watson Health (és kihívásai) Bár gyakran emlegetik a mesterséges intelligencia általános példájaként az egészségügyben, ez egyben értékes esettanulmány is az XAI fontosságáról. A Watson for Oncology projekt kudarca rávilágít arra, hogy mi történhet rosszul, ha a magyarázatok nem egyértelműek, vagy ha a mögöttes adatok elfogultak vagy nem lokalizáltak. A rendszer ajánlásai néha nem voltak összhangban a helyi klinikai gyakorlattal, mert az Egyesült Államok-központú irányelveken alapultak. Ez figyelmeztető meseként szolgál a robusztus, kontextus-tudatos magyarázhatóság szükségességére. Az UX-kutató szerepe: A magyarázatok pontos meghatározása és érvényesítése Tervezési megoldásaink csak akkor hatékonyak, ha a megfelelő felhasználói kérdésekre a megfelelő időben válaszolnak. A magyarázat, amely megválaszolja a felhasználó kérdését, csak zaj. Ez az a pont, ahol az UX-kutatás válik a kritikus kötőszövetté az XAI-stratégiában, biztosítva, hogy elmagyarázzuk felhasználóinknak, hogy mi és hogyan számít valójában. A kutató szerepe kettős: először, hogy tájékoztassa a stratégiát azáltal, hogy meghatározza, hol van szükség magyarázatra, másodszor, hogy érvényesítse azokat a terveket, amelyek ezeket a magyarázatokat adják. Tájékoztatás az XAI-stratégiáról (mit magyarázzunk) Mielőtt egyetlen magyarázatot tervezhetnénk, meg kell értenünk az AI-rendszer felhasználó mentális modelljét. Mit gondolnak, mit csinál? Hol vannak a szakadékok megértésük és a rendszer valósága között? Ez egy UX-kutató alapvető munkája. Mentális modellinterjúk: Az AI-rendszerek felhasználói észlelésének kibontása A mélyreható, félig strukturált interjúk révén a felhasználói élményt gyakorló szakemberek felbecsülhetetlen értékű betekintést nyerhetnek abba, hogy a felhasználók hogyan érzékelik és megértik az AI-rendszereket. Ezek a foglalkozások arra ösztönzik a felhasználókat, hogy szó szerint rajzolják meg vagy írják le belső „mentális modelljüket” arra vonatkozóan, hogy szerintük hogyan működik az AI. Ez gyakran azt jelenti, hogy nyílt végű kérdéseket kell feltenni, amelyek arra késztetik a felhasználókat, hogy magyarázzák el a rendszer logikáját, bemeneteit és kimeneteit, valamint az ezen elemek közötti kapcsolatokat. Ezek az interjúk erősek, mert gyakran feltárnak mélyreható tévhiteket és feltételezéseket, amelyeket a felhasználók az AI-val kapcsolatban vallanak. Például egy ajánlómotorral interakcióba lépő felhasználó magabiztosan állíthatja, hogy a rendszer pusztán a múltbeli megtekintési előzményein alapul. Lehetséges, hogy nem veszik észre, hogy az algoritmus számos egyéb tényezőt is magában foglal, például a napszakot, amikor böngészik, a platform aktuális trendjeit vagy akár a hasonló felhasználók megtekintési szokásait. A felhasználó mentális modellje és a mögöttes mesterséges intelligencia logikája közötti szakadék feltárása rendkívül fontos. Pontosan megmondja, hogy milyen konkrét információkat kell közölnünk a felhasználókkal, hogy segítsen nekik felépíteni egy pontosabb és robusztusabb mentális modellt a rendszerről. Ez pedig alapvető lépés a bizalom erősítésében. Ha a felhasználók még magas szinten is megértik, hogyan jut el egy mesterséges intelligencia következtetéseihez vagy javaslataihoz, nagyobb valószínűséggel bíznak a kimeneteiben, és támaszkodnak a funkcióira. AI Journey Mapping: mély merülés a felhasználói bizalomban és a megmagyarázhatóságban Azáltal, hogy egy mesterséges intelligencia által vezérelt funkcióval aprólékosan feltérképezzük a felhasználó útját, felbecsülhetetlen értékű betekintést nyerünk a zűrzavar, a frusztráció vagy akár a mélységes bizalmatlanság pontos pillanataiba. Ez olyan kritikus fordulatokat tár fel, ahol a felhasználó mentális modellje az AI működéséről ütközik a tényleges viselkedésével. Fontolja meg a zenei streaming szolgáltatást: Csökken-e a felhasználó bizalma, ha egy lejátszási listára vonatkozó ajánlás „véletlenszerűnek” tűnik, és nincs észrevehető kapcsolat a korábbi hallgatási szokásaikkal vagy megadott preferenciáival? Ez az észlelt véletlenszerűség közvetlen kihívást jelent a felhasználó intelligens kezelésre vonatkozó elvárásai számára, és megszegi azt a burkolt ígéretet, hogy a mesterséges intelligencia megérti az ízlését. Hasonlóképpen, egy fotókezelő alkalmazásban a felhasználók jelentős frusztrációt tapasztalnak, amikor egy mesterséges intelligencia fotócímkézési funkciója következetesen félreazonosítja a dédelgetett családtagot? Ez a hiba több, mint technikai hiba; a pontosság, a személyre szabottság, sőtérzelmi kapcsolat. Ezek a fájdalompontok élénk jelzések, amelyek pontosan jelzik, hol van szükség jól elhelyezett, világos és tömör magyarázatra. Az ilyen magyarázatok kulcsfontosságú javítási mechanizmusként szolgálnak, javítva a bizalom megsértését, amely ha nem kezelik, a felhasználó elhagyásához vezethet. A mesterséges intelligencia úttérképének ereje abban rejlik, hogy képes túllépni azon, hogy egyszerűen elmagyarázzuk egy AI-rendszer végső kimenetét. Bár fontos megérteni, hogy az AI mit produkált, ez gyakran nem elegendő. Ehelyett ez a folyamat arra kényszerít bennünket, hogy a kritikus pillanatokban a folyamat magyarázatára összpontosítsunk. Ez a következő címzést jelenti:

Miért jött létre egy adott kimenet: konkrét bemeneti adatok miatt? Egy adott modell architektúra? Milyen tényezők befolyásolták a mesterséges intelligencia döntését: Vannak-e bizonyos funkciók nagyobb súlyozással? Hogyan jutott a mesterséges intelligencia a következtetésre: Tudunk-e egyszerűsített, analóg magyarázatot adni a belső működésére? Milyen feltételezéseket tett a mesterséges intelligencia: Voltak-e hallgatólagos ismeretek a felhasználó szándékáról vagy adatokról, amelyeket fel kell tárni? Melyek a mesterséges intelligencia korlátai: Reális elvárásokat épít fel, ha világosan közöljük, hogy az AI mire nem képes, vagy hol ingadozhat a pontossága.

A mesterséges intelligencia úttérképezése az XAI elvont fogalmát praktikus, használható keretté alakítja a felhasználói élményt gyakorlók számára. Lehetővé teszi számunkra, hogy túllépjünk a megmagyarázhatóság elméleti megvitatásain, és ehelyett pontosan meghatározzuk azokat a pillanatokat, amikor a felhasználói bizalom forog kockán, biztosítva a szükséges betekintést az erőteljes, átlátható, érthető és megbízható AI-élmények kialakításához. Végső soron a kutatás az, hogyan tárjuk fel az ismeretleneket. Lehet, hogy a csapata azon vitatkozik, hogyan magyarázza meg, miért utasították el a kölcsönt, de a kutatás felfedheti, hogy a felhasználók sokkal jobban foglalkoznak azzal, hogyan használták fel adataikat. Kutatás nélkül egyszerűen csak találgatjuk, mire kíváncsiak a felhasználók. Együttműködés a tervezésben (Hogyan magyarázzuk el az AI-t) Miután a kutatás megállapította, hogy mit kell magyarázni, megkezdődik az együttműködési hurok a tervezéssel. A tervezők prototípust készíthetnek a korábban tárgyalt mintákról – a „Mert” kijelentésről, az interaktív csúszkákról –, a kutatók pedig a felhasználók elé helyezhetik ezeket a terveket, hogy megnézzék, kitartanak-e. Célzott használhatóság és megértés tesztelése: Olyan kutatási tanulmányokat tervezhetünk, amelyek kifejezetten az XAI összetevőit tesztelik. Nem csak azt kérdezzük: „Könnyen használható?” Azt kérdezzük: „Miután ezt láttuk, meg tudná mondani a saját szavaival, hogy a rendszer miért ajánlotta ezt a terméket?” vagy „Mutasd meg, mit tennél, ha más eredményt érnél el.” A cél itt a használhatóság mellett a megértés és a cselekvőképesség mérése. Maga a bizalom mérése: A magyarázat megjelenítése előtt és után egyszerű felméréseket és értékelési skálákat használhatunk. Például egy 5 fokú skálán megkérdezhetjük a felhasználót: „Mennyire bízik ebben az ajánlásban?” mielőtt látják a „Mert” kijelentést, majd kérdezze meg őket újra utána. Ez kvantitatív adatokat szolgáltat arról, hogy magyarázataink valóban a bizalomra helyezik-e a tűt. Ez a folyamat erőteljes, iteratív hurkot hoz létre. A kutatási eredmények megadják a kezdeti tervezést. Ezt a tervet ezután tesztelik, és az új eredményeket visszacsatolják a tervezőcsapatnak finomítás céljából. Lehet, hogy a „Mert” kijelentés túlságosan zsargonikus volt, vagy a „Mi lenne, ha” csúszka inkább zavaró, mintsem erőt adott. Ezzel az együttműködési validációval biztosítjuk, hogy a végső magyarázatok technikailag pontosak, valóban érthetőek, hasznosak és bizalomépítők legyenek a terméket használó emberek számára. Az Aranyhajú Magyarázat Zóna Egy kritikus figyelmeztetés: túlmagyarázni lehet. Akárcsak a mesében, ahol Aranyfürt a „pontosan megfelelő” kását kereste, a jó magyarázat célja az, hogy megfelelő mennyiségű részletet adjon – nem túl sok és nem túl kevés. Ha egy modellben minden változóval bombázzák a felhasználót, az kognitív túlterheléshez vezet, és valójában csökkentheti a bizalmat. A cél nem az, hogy a felhasználóból adattudós legyen. Az egyik megoldás a progresszív közzététel.

Kezdje az egyszerűvel. Vezessen egy tömör „Mert” kijelentéssel. A legtöbb felhasználó számára ez elég lesz. Kínáljon utat a részletekhez. Adjon meg világos, alacsony súrlódású linket, például „További információ” vagy „Nézze meg, hogyan határozták meg ezt”. Fedezze fel a bonyolultságot. A hivatkozás mögött interaktív csúszkákat, vizualizációkat vagy a hozzájáruló tényezők részletesebb listáját kínálhatja.

Ez a többrétegű megközelítés tiszteletben tartja a felhasználók figyelmét és szakértelmét, és éppen a megfelelő mennyiséget biztosítjaigényeiknek megfelelő információkat. Tegyük fel, hogy olyan okosotthon-eszközt használ, amely különféle tényezők alapján optimális fűtést javasol. Kezdje az egyszerűvel: „Az otthona jelenleg 72 fokra van felfűtve, ami az optimális hőmérséklet az energiamegtakarítás és a kényelem érdekében.” Útvonal felajánlása a részletekhez: Alatta egy kis link vagy gomb: „Miért az optimális 72 fok?” Fedezze fel a bonyolultságot: A linkre kattintva egy új képernyő nyílik meg, amelyen a következők láthatók:

Interaktív csúszkák a külső hőmérséklethez, páratartalomhoz és az Ön által preferált komfortfokozathoz, bemutatva, hogyan állítják be az ajánlott hőmérsékletet. Az energiafogyasztás megjelenítése különböző hőmérsékleteken. A hozzájáruló tényezők listája, például „napszak”, „jelenlegi külső hőmérséklet”, „történelmi energiafelhasználás” és „foglaltságérzékelők”.

Hatékony több XAI-módszer kombinálása, és ez a Goldilocks Zone of Explanation minta, amely a progresszív nyilvánosságra hozatalt szorgalmazza, implicit módon ezt ösztönzi. Kezdheti egy egyszerű „Mert” kijelentéssel (1. minta) az azonnali megértés érdekében, majd kínálhat egy „További információ” hivatkozást, amely egy „Mi lenne, ha” interaktív (2. minta) vagy egy „Push-and-Pull Visual” (4. minta) megjelenítése a mélyebb felfedezéshez. Például egy hiteligénylő rendszer először megadhatja az elutasítás elsődleges okát (a funkció fontossága), majd lehetővé teheti a felhasználó számára, hogy interakcióba lépjen egy „Mi lenne, ha” eszközzel, hogy meglássa, hogyan változtatnák meg a jövedelmében vagy adósságában bekövetkezett változások az eredményt (kontratények), végül pedig részletes „Push-and-Pull” diagramot (értékalapú magyarázat) nyújthat az összes tényező pozitív és negatív hozzájárulásának szemléltetésére. Ez a többrétegű megközelítés lehetővé teszi a felhasználók számára, hogy akkor érjék el a szükséges részletszintet, amikor szükségük van rá, megelőzve a kognitív túlterheltséget, ugyanakkor átfogó átláthatóságot biztosítva. A használandó XAI eszközök és módszerek meghatározása elsősorban az alapos UX-kutatás függvénye. A mentális modellinterjúk és a mesterséges intelligencia utazásának feltérképezése kulcsfontosságú a felhasználói igények és a mesterséges intelligencia megértésével és bizalommal kapcsolatos fájdalmak pontos meghatározásában. A mentális modellinterjúk segítenek feltárni a felhasználói tévhiteket az AI működésével kapcsolatban, jelezve azokat a területeket, ahol alapvető magyarázatokra van szükség (például a funkciók fontosságára vagy a helyi magyarázatokra). A mesterséges intelligencia úttérképezése ezzel szemben azonosítja a zavart vagy bizalmatlanság kritikus pillanatait a felhasználó és a mesterséges intelligencia interakciójában, jelezve, hogy hol lenne a legelőnyösebb a részletesebb vagy interaktívabb magyarázatok (például a tények ellentéte vagy az értékalapú magyarázatok) a bizalom újraépítése és az ügynökség biztosítása érdekében.

Végső soron a technika kiválasztásának legjobb módja az, ha hagyjuk, hogy a felhasználói kutatás irányítsa a döntéseit, biztosítva, hogy az Ön által tervezett magyarázatok közvetlenül foglalkozzanak a felhasználók aktuális kérdéseivel és aggályaival, ahelyett, hogy egyszerűen technikai részleteket kínálnának saját érdekükben. XAI a Deep Reasoning Agents számára A legújabb mesterséges intelligencia-rendszerek némelyike, úgynevezett mély gondolkodási ágensek, explicit „gondolatláncot” állítanak elő minden összetett feladathoz. Nem csupán forrásokra hivatkoznak; bemutatják azt a logikus, lépésről lépésre megtett utat, amelyen eljutottak a következtetéshez. Noha ez az átlátszóság értékes kontextust biztosít, a több bekezdést átívelő lejátszást lejátszva túlnyomó érzés lehet a felhasználó számára, aki egyszerűen csak megpróbál egy feladatot végrehajtani. Az XAI alapelvei, különösen a Goldilocks Zone of Explanation, itt közvetlenül érvényesek. Az utazást úgy irányíthatjuk, hogy a progresszív nyilvánosságra hozatal segítségével először csak a végső következtetést és a gondolkodási folyamat legszembetűnőbb lépését mutatjuk be. A felhasználók ezután feliratkozhatnak a teljes, részletes, többlépcsős érvelés megtekintéséhez, amikor még egyszer ellenőrizniük kell a logikát, vagy meg kell találniuk egy konkrét tényt. Ez a megközelítés tiszteletben tartja a felhasználók figyelmét, miközben megőrzi az ügynök teljes átláthatóságát. Következő lépések: Erősítse meg XAI-útját A megmagyarázhatóság alapvető pillére a megbízható és hatékony AI-termékek létrehozásának. Azon haladó szakemberek számára, akik ezt a változást szeretnék elérni szervezetükön belül, az út a tervezési mintákon túl az érdekérvényesítés és a folyamatos tanulás felé is kiterjed. A megértés és a gyakorlati alkalmazás elmélyítése érdekében fontolja meg az olyan források felfedezését, mint az IBM Research AI Explainability 360 (AIX360) eszközkészlete vagy a Google What-If Tool, amelyek interaktív módszereket kínálnak a modell viselkedésének és magyarázatainak felfedezésére. Az olyan közösségekkel való együttműködés, mint a Felelős AI Fórum vagy az emberközpontú mesterséges intelligencia kutatására összpontosító speciális kutatócsoportok, felbecsülhetetlen értékű betekintést és együttműködési lehetőségeket kínálhat. Végül, legyen az XAI szószólója saját szervezetén belül.A keret magyarázhatósága, mint stratégiai befektetés. Fontolja meg a vezetői vagy többfunkciós csapatok rövid bemutatását: „Az XAI-ba való befektetéssel túllépünk a bizalomépítésen: felgyorsítjuk a felhasználók elfogadását, csökkentjük a támogatási költségeket azáltal, hogy a felhasználókat megértéssel látjuk el, és mérsékeljük a jelentős etikai és szabályozási kockázatokat azáltal, hogy feltárjuk az esetleges torzításokat. Ez jó tervezés és intelligens üzlet.”

A gyakorlati megértésen alapuló hangja kulcsfontosságú abban, hogy a mesterséges intelligencia kikerüljön a fekete dobozból, és együttműködjön a felhasználókkal.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free