Në artikullin tim të fundit, ne vendosëm një të vërtetë themelore: që përdoruesit të adoptojnë dhe të mbështeten në AI, ata duhet t'i besojnë asaj. Ne folëm që besimi është një konstrukt i shumëanshëm, i ndërtuar mbi perceptimet e aftësisë, dashamirësisë, integritetit dhe parashikueshmërisë së një AI. Por çfarë ndodh kur një AI, në mençurinë e saj të heshtur, algoritmike, merr një vendim që e lë një përdorues të hutuar, të frustruar apo edhe të lënduar? Një aplikim për hipotekë refuzohet, një këngë e preferuar mungon papritur në një listë dëgjimi dhe një rezyme e kualifikuar refuzohet përpara se një njeri ta shohë atë. Në këto momente, aftësia dhe parashikueshmëria shkatërrohen dhe dashamirësia ndihet një botë larg. Biseda jonë tani duhet të evoluojë nga arsyeja e besimit në mënyrën e transparencës. Fusha e AI të shpjegueshme (XAI), e cila fokusohet në zhvillimin e metodave për t'i bërë rezultatet e AI të kuptueshme për njerëzit, është shfaqur për të adresuar këtë, por shpesh është përshtatur si një sfidë thjesht teknike për shkencëtarët e të dhënave. Unë argumentoj se është një sfidë kritike e dizajnit për produktet që mbështeten në AI. Është detyra jonë si profesionistë të UX-së për të kapërcyer hendekun midis vendimmarrjes algoritmike dhe të kuptuarit njerëzor. Ky artikull ofron udhëzime praktike dhe të zbatueshme se si të hulumtohet dhe të dizajnohet për shpjegueshmëri. Ne do të kalojmë përtej fjalëve kryesore dhe në modele, duke përkthyer koncepte komplekse XAI në modele konkrete dizajni që mund të filloni t'i përdorni sot. XAI çmistifikues: Konceptet kryesore për praktikuesit UX XAI ka të bëjë me përgjigjen e pyetjes së përdoruesit: "Pse?" Pse m'u shfaq kjo reklamë? Pse më rekomandohet ky film? Pse u refuzua kërkesa ime? Mendoni për atë si AI që tregon punën e saj në një problem matematikor. Pa të, ju thjesht keni një përgjigje dhe jeni të detyruar ta merrni atë me besim. Duke treguar hapat, ju ndërtoni mirëkuptim dhe besim. You also allow for your work to be double-checked and verified by the very humans it impacts. Rëndësia e Veçorisë dhe Kundërfaktet Ka një sërë teknikash që mund të përdorim për të sqaruar ose shpjeguar se çfarë po ndodh me AI. Ndërsa metodat variojnë nga ofrimi i të gjithë logjikës së një peme vendimesh deri te gjenerimi i përmbledhjeve të gjuhës natyrore të një produkti, dy nga llojet më praktike dhe më me ndikim të informacionit që praktikuesit UX mund të fusin në një përvojë janë rëndësia e veçorive (Figura 1) dhe kundërfaktualet. Këto janë shpesh më të thjeshtat për t'u kuptuar nga përdoruesit dhe më të zbatueshmet për t'i zbatuar nga projektuesit.
Rëndësia e veçorisë Kjo metodë shpjegueshmërie përgjigjet: "Cilët ishin faktorët më të rëndësishëm që AI mori në konsideratë?" Bëhet fjalë për identifikimin e 2-3 variablave kryesorë që patën ndikimin më të madh në rezultat. Është titulli, jo i gjithë historia. Shembull: Imagjinoni një AI që parashikon nëse një klient do të shpërthejë (anulojë shërbimin e tij). Rëndësia e veçorive mund të zbulojë se "numri i thirrjeve mbështetëse në muajin e fundit" dhe "rritjet e fundit të çmimeve" ishin dy faktorët më të rëndësishëm për të përcaktuar nëse një klient ka të ngjarë të shpërthejë.
Kundërfaktualet Kjo metodë e fuqishme përgjigjet: "Çfarë duhet të ndryshoj për të marrë një rezultat tjetër?" Kjo është thelbësore sepse u jep përdoruesve një ndjenjë të agjencisë. Ajo transformon një "jo" zhgënjyese në një "ende jo" vepruese. Shembull: Imagjinoni një sistem aplikimi kredie që përdor AI. Një përdoruesi i refuzohet një hua. Instead of just seeing “Application Denied,” a counterfactual explanation would also share, “If your credit score were 50 points higher, or if your debt-to-income ratio were 10% lower, your loan would have been approved.” Kjo i jep Sarës hapa të qartë dhe të zbatueshëm që ajo mund të ndërmarrë për të marrë një hua potencialisht në të ardhmen.
Përdorimi i të dhënave të modelit për të përmirësuar shpjegimin Megjithëse specifikat teknike trajtohen shpesh nga shkencëtarët e të dhënave, është e dobishme për praktikuesit UX të dinë se mjetet si LIME (Shpjegimet agnostike të modelit lokal të interpretueshëm) i cili shpjegon parashikimet individuale duke përafruar modelin në nivel lokal, dhe SHAP (Shpjegimet shtesë SHapley) që përdor një qasje të teorisë së lojës për të shpjeguar çdo rezultat të zakonshëm të të mësuarit të makinës për të shpjeguar në mënyrë të zakonshme këto rezultate të të mësuarit të makinës. modele komplekse. Këto biblioteka në thelb ndihmojnë në zbërthimin e vendimit të një AI për të treguar se cilat inpute ishin më me ndikim për një rezultat të caktuar. Kur bëhet siç duhet, të dhënat në bazë të vendimit të një mjeti AI mund të përdoren për të treguar një histori të fuqishme. Le të ecim nëpër rëndësinë e veçorive dhe kundërfaktualet dhe të tregojmë se si mund të përdoret shkenca e të dhënave pas vendimit për të përmirësuar përvojën e përdoruesit. Tani lembuloni rëndësinë e veçorive me ndihmën e të dhënave të Shpjegimeve Lokale (p.sh., LIME): Kjo qasje përgjigjet: "Pse AI e bëri këtë rekomandim specifik për mua, pikërisht tani?" Në vend të një shpjegimi të përgjithshëm se si funksionon modeli, ai ofron një arsye të fokusuar për një shembull të vetëm, specifik. Është personale dhe kontekstuale. Shembull: Imagjinoni një sistem rekomandimi muzikor të fuqizuar nga AI si Spotify. Një shpjegim lokal do të përgjigjej: "Pse sistemi ju rekomandoi këtë këngë specifike nga Adele tani?" Shpjegimi mund të jetë: "Sepse kohët e fundit keni dëgjuar disa balada të tjera emocionale dhe këngë nga vokaliste femra."
Së fundi, le të mbulojmë përfshirjen e Shpjegimeve të bazuara në vlerë (p.sh. të dhënat e Shpjegimeve Shtuese të Shapley (SHAP) në një shpjegim të një vendimi: Ky është një version më i nuancuar i rëndësisë së veçorive që përgjigjet: "Si e shtyu secili faktor vendimin në një mënyrë apo në tjetrën?" Ndihmon në vizualizimin e asaj që kishte rëndësi dhe nëse ndikimi i tij ishte pozitiv apo negativ. Shembull: Imagjinoni që një bankë përdor një model të AI për të vendosur nëse do të miratojë një aplikim kredie.
Rëndësia e tipareve: Prodhimi i modelit mund të tregojë se rezultati i kredisë, të ardhurat dhe raporti i borxhit ndaj të ardhurave të aplikantit ishin faktorët më të rëndësishëm në vendimin e tij. Kjo i përgjigjet asaj që kishte rëndësi. Rëndësia e veçorive me shpjegime të bazuara në vlerë (SHAP): Vlerat SHAP do të merrnin rëndësinë e veçorive më tej bazuar në elementet e modelit.
Për një kredi të miratuar, SHAP mund të tregojë se një rezultat i lartë krediti e shtyu vendimin në mënyrë të konsiderueshme drejt miratimit (ndikim pozitiv), ndërsa një raport pak më i lartë se mesatarja e borxhit ndaj të ardhurave e tërhoqi atë paksa (ndikim negativ), por jo mjaftueshëm për të mohuar kredinë. Për një kredi të refuzuar, SHAP mund të zbulojë se të ardhurat e ulëta dhe një numër i madh i kërkesave të fundit për kredi e shtynë vendimin drejt mohimit, edhe nëse rezultati i kredisë ishte i mirë.
Kjo e ndihmon zyrtarin e kredisë t'i shpjegojë aplikantit përtej asaj që u mor në konsideratë, se si secili faktor kontribuoi në vendimin përfundimtar "po" ose "jo". Është thelbësore të pranohet se aftësia për të dhënë shpjegime të mira shpesh fillon shumë më herët në ciklin e zhvillimit. Shkencëtarët dhe inxhinierët e të dhënave luajnë një rol kyç duke strukturuar qëllimisht modelet dhe tubacionet e të dhënave në mënyra që mbështesin në thelb shpjegueshmërinë, në vend që të përpiqen ta fusin atë si një mendim të mëvonshëm. Ekipet e kërkimit dhe projektimit mund ta nxisin këtë duke nisur biseda të hershme me shkencëtarët dhe inxhinierët e të dhënave rreth nevojave të përdoruesve për të kuptuar, duke kontribuar në zhvillimin e matjeve të shpjegueshmërisë dhe duke krijuar në mënyrë bashkëpunuese shpjegime prototip për t'u siguruar që ato janë të sakta dhe miqësore për përdoruesit. XAI And Ethical AI: Unpacking Bias And Responsibility Përtej ndërtimit të besimit, XAI luan një rol kritik në adresimin e implikimeve të thella etike të AI*, veçanërisht në lidhje me paragjykimet algoritmike. Teknikat e shpjegueshmërisë, të tilla si analizimi i vlerave SHAP, mund të zbulojnë nëse vendimet e një modeli ndikohen në mënyrë disproporcionale nga atribute të ndjeshme si raca, gjinia ose statusi socio-ekonomik, edhe nëse këta faktorë nuk janë përdorur në mënyrë eksplicite si inpute të drejtpërdrejta. Për shembull, nëse një model i miratimit të kredisë cakton vazhdimisht vlera negative SHAP për aplikantët nga një demografi e caktuar, ai sinjalizon një paragjykim të mundshëm që ka nevojë për hetim, duke fuqizuar ekipet për të dalë në sipërfaqe dhe për të zbutur rezultate të tilla të padrejta. Fuqia e XAI vjen gjithashtu me potencialin për "larje të shpjegueshme". Ashtu si “greenwashing” i mashtron konsumatorët në lidhje me praktikat mjedisore, larja e shpjegueshmërisë mund të ndodhë kur shpjegimet janë krijuar për të errësuar, në vend që të ndriçojnë, sjelljen problematike algoritmike ose paragjykimet e natyrshme. Kjo mund të shfaqet si shpjegime tepër të thjeshtuara që lënë jashtë faktorëve kritikë ndikues, ose shpjegime që i kornizojnë në mënyrë strategjike rezultatet që të duken më neutrale ose më të drejta se sa janë në të vërtetë. Ai nënvizon përgjegjësinë etike të praktikuesve të UX për të hartuar shpjegime që janë vërtet transparente dhe të verifikueshme. Profesionistët e UX, në bashkëpunim me shkencëtarët e të dhënave dhe etikët, mbajnë një përgjegjësi thelbësore në komunikimin e arsyes së një vendimi, si dhe kufizimeve dhe paragjykimeve të mundshme të modelit themelor të AI. Kjo përfshin vendosjen e pritshmërive reale të përdoruesve për saktësinë e AI, identifikimin se ku modeli mund të jetë më pak i besueshëm dhe ofrimin e kanaleve të qarta për rekurs ose reagime kur përdoruesit perceptojnë rezultate të padrejta ose të pasakta. Duke i adresuar këto në mënyrë proaktiveDimensionet etike do të na lejojnë të ndërtojmë sisteme të AI që janë vërtet të drejta dhe të besueshme. Nga metodat në modele: Modele praktike të dizajnit XAI Njohja e koncepteve është një gjë; dizenjimi i tyre është një tjetër. Ja se si mund t'i përkthejmë këto metoda XAI në modele intuitive të projektimit. Modeli 1: Deklarata "Sepse" (për rëndësinë e veçorive) Ky është modeli më i thjeshtë dhe shpesh më efektiv. Është një deklaratë e drejtpërdrejtë, në gjuhë të thjeshtë që nxjerr në pah arsyen kryesore për veprimin e një AI.
Heuristik: Jini të drejtpërdrejtë dhe konciz. Drejtoni me arsyen e vetme më ndikuese. Shmangni zhargonin me çdo kusht.
Shembull: Imagjinoni një shërbim transmetimi muzikor. Në vend që të prezantoni thjesht një listë dëgjimi "Discover Weekly", ju shtoni një linjë të vogël mikrokopjeje.
Modeli 2: Interaktivi "Çfarë-Nëse" (për Kundërfaktualët) Kundërfaktualët janë në thelb për fuqizimin. Mënyra më e mirë për t'i përfaqësuar ato është duke u dhënë përdoruesve mjete ndërvepruese për të eksploruar vetë mundësitë. Kjo është e përkryer për aplikacione financiare, shëndetësore ose të tjera të orientuara drejt qëllimit.
Heuristik: Bëni shpjegimet ndërvepruese dhe fuqizuese. Lërini përdoruesit të shohin shkakun dhe efektin e zgjedhjeve të tyre.
Shembull: Një ndërfaqe aplikimi për kredi. Pas një mohimi, në vend të një rrugë pa krye, përdoruesi merr një mjet për të përcaktuar se si mund të zhvillohen skenarë të ndryshëm (çka-nëse) (Shih Figurën 1).
Modeli 3: Mbështjellja kryesore (për shpjegime lokale) Kur një AI kryen një veprim në përmbajtjen e një përdoruesi (si përmbledhja e një dokumenti ose identifikimi i fytyrave në foto), shpjegimi duhet të lidhet vizualisht me burimin.
Heuristik: Përdorni shenja vizuale si theksimi, skicat ose shënimet për të lidhur shpjegimin drejtpërdrejt me elementin e ndërfaqes që po shpjegon.
Shembull: Një mjet i AI që përmbledh artikuj të gjatë. Pika e përmbledhjes së gjeneruar nga AI: Hulumtimi fillestar tregoi një boshllëk tregu për produkte të qëndrueshme. Burimi në Dokument: "...Analiza jonë e tremujorit të dytë të tendencave të tregut tregoi përfundimisht se asnjë konkurrent i madh nuk po i shërbente në mënyrë efektive konsumatorit të vetëdijshëm për mjedisin, duke zbuluar një boshllëk të rëndësishëm tregu për produkte të qëndrueshme..."
Modeli 4: Vizuali Push-and-Pull (për shpjegime të bazuara në vlera) Për vendime më komplekse, përdoruesit mund të kenë nevojë të kuptojnë ndërveprimin e faktorëve. Vizualizimet e thjeshta të të dhënave mund ta bëjnë këtë të qartë pa qenë dërrmuese.
Heuristik: Përdorni vizualizime të thjeshta të të dhënave të koduara me ngjyra (si grafikët me shtylla) për të treguar faktorët që ndikuan pozitivisht dhe negativisht në një vendim.
Example: An AI screening a candidate’s profile for a job.Why this candidate is a 75% match:Factors pushing the score up:5+ Years UX Research ExperienceProficient in PythonFactors pushing the score down:No experience with B2B SaaS
Mësimi dhe përdorimi i këtyre modeleve të dizajnit në UX të produktit tuaj të AI do të ndihmojë në rritjen e shpjegueshmërisë. Ju gjithashtu mund të përdorni teknika shtesë që nuk po i mbuloj në thellësi këtu. Kjo përfshin sa vijon:
Natural language explanations: Translating an AI’s technical output into simple, conversational human language that non-experts can easily understand. Shpjegimet kontekstuale: Sigurimi i një arsyetimi për prodhimin e një AI në momentin dhe vendndodhjen specifike, është më e rëndësishme për detyrën e përdoruesit. Vizualizimet përkatëse: Përdorimi i grafikëve, grafikëve ose hartave të nxehtësisë për të përfaqësuar vizualisht procesin e vendimmarrjes së një AI, duke i bërë të dhënat komplekse intuitive dhe më të lehta për t'u kuptuar nga përdoruesit.
Një shënim për pjesën e përparme: Përkthimi i këtyre rezultateve të shpjegueshmërisë në përvoja të pandërprera të përdoruesit paraqet gjithashtu grupin e vet të konsideratave teknike. Zhvilluesit e faqes së përparme shpesh ndeshen me dizajnin e API-së për të tërhequr në mënyrë efikase të dhënat e shpjegimit dhe implikimet e performancës (si gjenerimi në kohë reale i shpjegimeve për çdo ndërveprim të përdoruesit) kanë nevojë për planifikim të kujdesshëm për të shmangur vonesën. Disa shembuj të botës reale Mbrojtja e dorëzimit të UPS Capital UPS përdor AI për të caktuar një "rezultat të besueshmërisë së dorëzimit" për adresat për të parashikuar gjasat që një paketë të vidhet. Softueri i tyre DeliveryDefense analizon të dhënat historike mbi vendndodhjen, shpeshtësinë e humbjeve dhe faktorë të tjerë. Nëse një adresë ka një rezultat të ulët, sistemi mund ta ridrejtojë në mënyrë proaktive paketën në një pikë aksesi të sigurt UPS, duke ofruar një shpjegim për vendimin (p.sh., "Paketa u ridrejtua në një vend të sigurt për shkak të një historie vjedhjeje"). Ky sistem demonstron se si XAI mund të përdoret për zbutjen e rrezikut dhe ndërtimin e besimit të klientit përmestransparencës. Automjete autonome These vehicles of the future will need to effectively use XAI to help their vehicles make safe, explainable decisions. Kur një makinë që drejton vetë frenon papritur, sistemi mund të japë një shpjegim në kohë reale për veprimin e tij, për shembull, duke identifikuar një këmbësor që hyn në rrugë. Kjo nuk është vetëm thelbësore për komoditetin dhe besimin e pasagjerëve, por është një kërkesë rregullatore për të vërtetuar sigurinë dhe përgjegjshmërinë e sistemit të AI. IBM Watson Health (dhe sfidat e tij) Ndërsa përmendet shpesh si një shembull i përgjithshëm i AI në kujdesin shëndetësor, është gjithashtu një rast studimi i vlefshëm për rëndësinë e XAI. Dështimi i projektit të tij Watson për Onkologji thekson se çfarë mund të shkojë keq kur shpjegimet nuk janë të qarta, ose kur të dhënat themelore janë të njëanshme ose jo të lokalizuara. Rekomandimet e sistemit ndonjëherë ishin në kundërshtim me praktikat klinike lokale, sepse ato bazoheshin në udhëzimet me qendër në SHBA. Kjo shërben si një përrallë paralajmëruese për nevojën për shpjegueshmëri të fortë dhe të vetëdijshme për kontekstin. Roli i studiuesit të UX: Vërtetimi dhe vërtetimi i shpjegimeve Zgjidhjet tona të projektimit janë efektive vetëm nëse adresojnë pyetjet e duhura të përdoruesit në kohën e duhur. Një shpjegim që i përgjigjet një pyetjeje që përdoruesi nuk ka është vetëm zhurma. Kjo është ajo ku kërkimi UX bëhet indi lidhor kritik në një strategji XAI, duke siguruar që ne të shpjegojmë se çfarë dhe si kjo në të vërtetë ka rëndësi për përdoruesit tanë. Roli i studiuesit është i dyfishtë: së pari, të informojë strategjinë duke identifikuar se ku nevojiten shpjegime, dhe së dyti, të vërtetojë planet që japin ato shpjegime. Informimi i Strategjisë XAI (Çfarë duhet të shpjegohet) Përpara se të mund të hartojmë një shpjegim të vetëm, duhet të kuptojmë modelin mendor të përdoruesit të sistemit të AI. Çfarë besojnë se po bën? Ku janë boshllëqet midis kuptimit të tyre dhe realitetit të sistemit? Kjo është puna themelore e një studiuesi UX. Intervistat e modelit mendor: Shpaketimi i perceptimeve të përdoruesve për sistemet e AI Nëpërmjet intervistave të thella, gjysmë të strukturuara, praktikuesit UX mund të fitojnë njohuri të paçmueshme se si përdoruesit i perceptojnë dhe kuptojnë sistemet e AI. Këto sesione janë krijuar për të inkurajuar përdoruesit që fjalë për fjalë të vizatojnë ose të përshkruajnë "modelin mendor" të tyre të brendshëm se si ata besojnë se funksionon AI. Kjo shpesh përfshin bërjen e pyetjeve të hapura që i nxisin përdoruesit të shpjegojnë logjikën e sistemit, hyrjet dhe daljet e tij, si dhe marrëdhëniet midis këtyre elementeve. Këto intervista janë të fuqishme sepse ato shpesh zbulojnë keqkuptime dhe supozime të thella që përdoruesit mbajnë rreth AI. Për shembull, një përdorues që ndërvepron me një motor rekomandimi mund të pohojë me besim se sistemi bazohet thjesht në historinë e tyre të kaluar të shikimit. Ata mund të mos e kuptojnë se algoritmi përfshin gjithashtu një mori faktorësh të tjerë, të tillë si ora e ditës që po shfletojnë, artikujt aktualë në trend në të gjithë platformën, apo edhe zakonet e shikimit të përdoruesve të ngjashëm. Zbulimi i këtij hendeku midis modelit mendor të një përdoruesi dhe logjikës aktuale të AI-së është jashtëzakonisht i rëndësishëm. Ai na tregon saktësisht se çfarë informacioni specifik duhet t'u komunikojmë përdoruesve për t'i ndihmuar ata të ndërtojnë një model mendor më të saktë dhe më të fortë të sistemit. Ky, nga ana tjetër, është një hap themelor në nxitjen e besimit. Kur përdoruesit kuptojnë, edhe në një nivel të lartë, se si një AI arrin në përfundimet ose rekomandimet e saj, ata kanë më shumë gjasa t'u besojnë rezultateve të saj dhe të mbështeten në funksionalitetin e saj. Harta e Udhëtimit të AI: Një zhytje e thellë në besimin dhe shpjegueshmërinë e përdoruesit By meticulously mapping the user’s journey with an AI-powered feature, we gain invaluable insights into the precise moments where confusion, frustration, or even profound distrust emerge. Kjo zbulon pika kritike ku modeli mendor i përdoruesit për mënyrën se si funksionon AI bie ndesh me sjelljen e tij aktuale. Konsideroni një shërbim të transmetimit muzikor: A bie besimi i përdoruesit kur rekomandimi i listës së luajtjes ndihet "i rastësishëm", i mungon ndonjë lidhje e dukshme me zakonet e tyre të së kaluarës së dëgjimit ose preferencat e deklaruara? Kjo rastësi e perceptuar është një sfidë e drejtpërdrejtë ndaj pritjes së përdoruesit për kurim inteligjent dhe një shkelje e premtimit të nënkuptuar që AI kupton shijen e tyre. Në mënyrë të ngjashme, në një aplikacion për menaxhimin e fotografive, a përjetojnë përdoruesit një zhgënjim të konsiderueshëm kur një veçori e etiketimit të fotografive me AI keqidentifikon vazhdimisht një anëtar të dashur të familjes? Ky gabim është më shumë se një defekt teknik; godet në zemër të saktësisë, personalizimit dhe madjelidhje emocionale. Këto pika dhimbjeje janë sinjale të gjalla që tregojnë saktësisht se ku është i nevojshëm një shpjegim i vendosur mirë, i qartë dhe konciz. Shpjegime të tilla shërbejnë si mekanizma të rëndësishëm riparimi, duke ndrequr një shkelje të besimit që, nëse nuk adresohet, mund të çojë në braktisjen e përdoruesit. Fuqia e hartës së udhëtimit të AI qëndron në aftësinë e saj për të na lëvizur përtej shpjegimit të thjeshtë të rezultatit përfundimtar të një sistemi AI. Ndërsa të kuptuarit e asaj që prodhoi AI është e rëndësishme, shpesh është e pamjaftueshme. Në vend të kësaj, ky proces na detyron të përqendrohemi në shpjegimin e procesit në momente kritike. Kjo nënkupton adresimin:
Pse u krijua një dalje e veçantë: A ishte për shkak të të dhënave specifike hyrëse? Një model i veçantë arkitekture? Cilët faktorë ndikuan në vendimin e AI: A ishin disa veçori të peshuara më shumë? How the AI arrived at its conclusion: Can we offer a simplified, analogous explanation of its internal workings? Cilat supozime bëri AI: A kishte kuptime të nënkuptuara të qëllimit ose të dhënave të përdoruesit që duhen shfaqur? Cilat janë kufizimet e AI: Komunikimi i qartë i asaj që AI nuk mund të bëjë, ose ku saktësia e saj mund të lëkundet, krijon pritshmëri realiste.
Harta e udhëtimit të AI transformon konceptin abstrakt të XAI në një kornizë praktike dhe vepruese për praktikuesit UX. Ai na mundëson të lëvizim përtej diskutimeve teorike të shpjegueshmërisë dhe në vend të kësaj të përcaktojmë momentet e sakta ku besimi i përdoruesit është në rrezik, duke ofruar njohuritë e nevojshme për të ndërtuar përvoja të AI që janë të fuqishme, transparente, të kuptueshme dhe të besueshme. Në fund të fundit, hulumtimi është se si ne zbulojmë të panjohurat. Ekipi juaj mund të jetë duke debatuar se si të shpjegojë pse u refuzua një hua, por hulumtimi mund të zbulojë se përdoruesit janë shumë më të shqetësuar për të kuptuar se si janë përdorur të dhënat e tyre në radhë të parë. Without research, we are simply guessing what our users are wondering. Bashkëpunimi në Dizajn (Si të Shpjegoni AI tuaj) Pasi kërkimi ka identifikuar se çfarë duhet të shpjegohet, fillon cikli i bashkëpunimit me dizajnin. Dizajnerët mund të prototipojnë modelet që diskutuam më herët - deklaratën "Sepse", rrëshqitësit interaktivë - dhe studiuesit mund t'i vendosin ato modele para përdoruesve për të parë nëse ato qëndrojnë. Testimi i synuar i përdorshmërisë dhe kuptimit: Ne mund të hartojmë studime kërkimore që testojnë në mënyrë specifike komponentët XAI. Ne nuk pyesim thjesht: "A është kjo e lehtë për t'u përdorur?" Ne pyesim: "Pasi e pamë këtë, a mund të më thoni me fjalët tuaja pse sistemi e rekomandoi këtë produkt?" ose "Më tregoni se çfarë do të bënit për të parë nëse mund të merrni një rezultat tjetër." Qëllimi këtu është matja e të kuptuarit dhe e veprimit, krahas përdorshmërisë. Matja e vetëbesimit: Ne mund të përdorim anketa të thjeshta dhe shkallë vlerësimi përpara dhe pasi të shfaqet një shpjegim. Për shembull, ne mund të pyesim një përdorues në një shkallë 5-pikëshe, "Sa i beson këtij rekomandimi?" përpara se të shohin deklaratën "Sepse" dhe pastaj pyesni ata përsëri më pas. Kjo siguron të dhëna sasiore nëse shpjegimet tona po lëvizin vërtet gjilpërën në besim. Ky proces krijon një lak të fuqishëm, përsëritës. Gjetjet e hulumtimit informojnë dizajnin fillestar. Ai dizajn më pas testohet dhe gjetjet e reja i kthehen ekipit të projektimit për përsosje. Ndoshta deklarata "Sepse" ishte shumë zhargonike, ose rrëshqitësi "Çfarë-Nëse" ishte më shumë konfuz sesa fuqizues. Nëpërmjet këtij vërtetimi bashkëpunues, ne sigurojmë që shpjegimet përfundimtare të jenë teknikisht të sakta, vërtet të kuptueshme, të dobishme dhe të krijojnë besim për njerëzit që përdorin produktin. Zona e Shpjegimit të Goldilocks Një fjalë kritike e kujdesit: është e mundur të mbishpjegosh. As in the fairy tale, where Goldilocks sought the porridge that was ‘just right’, the goal of a good explanation is to provide the right amount of detail—not too much and not too little. Bombardimi i një përdoruesi me çdo variabël në një model do të çojë në mbingarkesë njohëse dhe në fakt mund të ulë besimin. Qëllimi nuk është që përdoruesi të bëhet shkencëtar i të dhënave. Një zgjidhje është zbulimi progresiv.
Filloni me të thjeshtat. Drejtoni me një deklaratë koncize "Sepse". Për shumicën e përdoruesve, kjo do të jetë e mjaftueshme. Ofroni një rrugë drejt detajeve. Jep një lidhje të qartë dhe me fërkim të ulët si "Mëso më shumë" ose "Shiko se si u përcaktua kjo". Zbuloni kompleksitetin. Pas kësaj lidhjeje, ju mund të ofroni rrëshqitësit interaktivë, vizualizimet ose një listë më të detajuar të faktorëve kontribues.
Kjo qasje e shtresuar respekton vëmendjen dhe ekspertizën e përdoruesit, duke siguruar sasinë e duhurinformacion për nevojat e tyre. Le të imagjinojmë se po përdorni një pajisje shtëpiake inteligjente që rekomandon ngrohje optimale bazuar në faktorë të ndryshëm. Filloni me të thjeshtë: “Shtëpia juaj aktualisht është ngrohur në 72 gradë, e cila është temperatura optimale për kursim të energjisë dhe rehati”. Ofroni një shteg drejt detajeve: Më poshtë, një lidhje ose buton i vogël: "Pse është 72 gradë optimale?" Zbuloni kompleksitetin: Klikimi në atë lidhje mund të hapë një ekran të ri që tregon:
Rrëshqitës interaktivë për temperaturën e jashtme, lagështinë dhe nivelin tuaj të preferuar të rehatisë, duke demonstruar se si këto rregullojnë temperaturën e rekomanduar. Një vizualizimi i konsumit të energjisë në temperatura të ndryshme. Një listë faktorësh kontribues si "Koha e ditës", "Temperatura aktuale e jashtme", "Përdorimi historik i energjisë" dhe "Sensorët e okupimit".
Është efektive të kombinohen metoda të shumta XAI dhe ky model i Zonës së Shpjegimit Goldilocks, i cili mbron për zbulimin progresiv, e inkurajon në mënyrë implicite këtë. You might start with a simple “Because” statement (Pattern 1) for immediate comprehension, and then offer a “Learn More” link that reveals a “What-If” Interactive (Pattern 2) or a “Push-and-Pull Visual” (Pattern 4) for deeper exploration. Për shembull, një sistem aplikimi për kredi mund të deklarojë fillimisht arsyen kryesore të mohimit (rëndësia e veçorive), më pas të lejojë përdoruesin të ndërveprojë me një mjet "Çfarë-Nëse" për të parë se si ndryshimet në të ardhurat ose borxhin e tyre do të ndryshonin rezultatin (kundërfaktualët) dhe së fundi, të sigurojë një grafik të detajuar "Push-dhe-Tull" (shpjegimi i bazuar në vlerë) për të ilustruar kontributet pozitive të të gjithë faktorëve. Kjo qasje e shtresuar i lejon përdoruesit të kenë akses në nivelin e detajeve që u nevojiten, kur u nevojiten, duke parandaluar mbingarkimin kognitiv duke siguruar ende transparencë gjithëpërfshirëse. Përcaktimi i mjeteve dhe metodave të XAI për t'u përdorur është kryesisht një funksion i hulumtimit të plotë UX. Intervistat e modelit mendor dhe harta e udhëtimit të AI janë thelbësore për të përcaktuar nevojat e përdoruesve dhe pikat e dhimbjes që lidhen me të kuptuarit dhe besimin e AI. Intervistat e modelit mendor ndihmojnë në zbulimin e keqkuptimeve të përdoruesve për mënyrën se si funksionon AI, duke treguar fushat ku nevojiten shpjegime themelore (si rëndësia e veçorive ose shpjegimet lokale). Harta e udhëtimit të AI, nga ana tjetër, identifikon momentet kritike të konfuzionit ose mosbesimit në ndërveprimin e përdoruesit me AI, duke sinjalizuar se ku shpjegimet më të grimcuara ose ndërvepruese (si kundërfaktualet ose shpjegimet e bazuara në vlera) do të ishin më të dobishmet për të rindërtuar besimin dhe për të ofruar agjenci.
Në fund të fundit, mënyra më e mirë për të zgjedhur një teknikë është të lejoni kërkimin e përdoruesit të udhëheqë vendimet tuaja, duke siguruar që shpjegimet që hartoni adresojnë drejtpërdrejt pyetjet dhe shqetësimet aktuale të përdoruesit, në vend që thjesht të ofrojnë detaje teknike për hir të tyre. XAI për agjentët e arsyetimit të thellë Disa nga sistemet më të reja të AI, të njohura si agjentë të arsyetimit të thellë, prodhojnë një "zinxhir mendimi" të qartë për çdo detyrë komplekse. Ata nuk citojnë vetëm burime; ato tregojnë rrugën logjike, hap pas hapi që morën për të arritur në një përfundim. Ndërkohë që kjo transparencë ofron një kontekst të vlefshëm, një lojë-pas-play që përfshin disa paragrafë mund të duket dërrmuese për një përdorues që thjesht përpiqet të përfundojë një detyrë. Parimet e XAI, veçanërisht Zona e Shpjegimit Goldilocks, zbatohen drejtpërdrejt këtu. Ne mund të kurojmë udhëtimin, duke përdorur zbulimin progresiv për të treguar fillimisht vetëm përfundimin përfundimtar dhe hapin më të spikatur në procesin e të menduarit. Përdoruesit më pas mund të zgjedhin për të parë arsyetimin e plotë, të detajuar, me shumë hapa kur duhet të kontrollojnë dyfish logjikën ose të gjejnë një fakt specifik. Kjo qasje respekton vëmendjen e përdoruesit duke ruajtur transparencën e plotë të agjentit. Hapat e ardhshëm: Fuqizimi i Udhëtimit tuaj XAI Shpjegueshmëria është një shtyllë themelore për ndërtimin e produkteve të besueshme dhe efektive të AI. Për praktikantin e avancuar që kërkon të drejtojë këtë ndryshim brenda organizatës së tyre, udhëtimi shtrihet përtej modeleve të projektimit në advokim dhe mësim të vazhdueshëm. Për të thelluar kuptimin dhe aplikimin tuaj praktik, merrni parasysh eksplorimin e burimeve si paketa e veglave AI Explainability 360 (AIX360) nga IBM Research ose Google's What-If Tool, të cilat ofrojnë mënyra interaktive për të eksploruar sjelljen dhe shpjegimet e modelit. Angazhimi me komunitete si Forumi Përgjegjës i AI ose grupe specifike kërkimore të fokusuara në AI me në qendër njeriun mund të ofrojë njohuri të paçmueshme dhe mundësi bashkëpunimi. Së fundi, jini një avokat për XAI brenda organizatës suaj.Shpjegueshmëria e kornizës si një investim strategjik. Merrni parasysh një fjalim të shkurtër për ekipet tuaja drejtuese ose ndërfunksionale: "Duke investuar në XAI, ne do të shkojmë përtej ndërtimit të besimit; ne do të përshpejtojmë adoptimin e përdoruesve, do të zvogëlojmë kostot e mbështetjes duke fuqizuar përdoruesit me mirëkuptim dhe do të zbusim rreziqet e rëndësishme etike dhe rregullatore duke ekspozuar paragjykimet e mundshme. Ky është një dizajn i mirë dhe biznes i zgjuar."
Zëri juaj, i bazuar në kuptimin praktik, është vendimtar në nxjerrjen e AI nga kutia e zezë dhe në një partneritet bashkëpunues me përdoruesit.