In mijn laatste stuk hebben we een fundamentele waarheid vastgesteld: als gebruikers AI willen adopteren en erop willen vertrouwen, moeten ze erop vertrouwen. We hadden het erover dat vertrouwen een constructie met meerdere facetten is, gebouwd op percepties van het vermogen, de welwillendheid, de integriteit en de voorspelbaarheid van een AI. Maar wat gebeurt er als een AI, in zijn stille, algoritmische wijsheid, een beslissing neemt die een gebruiker verward, gefrustreerd of zelfs gekwetst achterlaat? Een hypotheekaanvraag wordt afgewezen, een favoriet nummer ontbreekt plotseling in een afspeellijst en een gekwalificeerd cv wordt afgewezen voordat een mens het ooit heeft gezien. Op deze momenten worden het vermogen en de voorspelbaarheid verbrijzeld, en voelt welwillendheid een wereld verwijderd. Ons gesprek moet nu evolueren van het waarom van vertrouwen naar het hoe van transparantie. Het vakgebied van de Verklaarbare AI (XAI), dat zich richt op het ontwikkelen van methoden om AI-resultaten begrijpelijk te maken voor mensen, is ontstaan ​​om dit aan te pakken, maar wordt vaak gezien als een puur technische uitdaging voor datawetenschappers. Ik beweer dat het een cruciale ontwerpuitdaging is voor producten die afhankelijk zijn van AI. Het is onze taak als UX-professionals om de kloof tussen algoritmische besluitvorming en menselijk begrip te overbruggen. Dit artikel biedt praktische, bruikbare richtlijnen voor het onderzoeken en ontwerpen met het oog op verklaarbaarheid. We gaan verder dan de modewoorden en gaan over op de mockups, waarbij we complexe XAI-concepten vertalen naar concrete ontwerppatronen die u vandaag nog kunt gebruiken. XAI ontraadselen: kernconcepten voor UX-beoefenaars XAI gaat over het beantwoorden van de vraag van de gebruiker: “Waarom?” Waarom kreeg ik deze advertentie te zien? Waarom wordt deze film mij aanbevolen? Waarom werd mijn verzoek afgewezen? Zie het als de AI die zijn werk laat zien aan een wiskundig probleem. Zonder dat heb je gewoon een antwoord, en ben je gedwongen het in vertrouwen te aanvaarden. Door de stappen te laten zien, bouw je begrip en vertrouwen op. U zorgt er ook voor dat uw werk dubbel wordt gecontroleerd en geverifieerd door de mensen die er invloed op hebben. Kenmerk belang en contrafeiten Er zijn een aantal technieken die we kunnen gebruiken om te verduidelijken of uit te leggen wat er met AI gebeurt. Hoewel de methoden variëren van het aanbieden van de volledige logica van een beslissingsboom tot het genereren van samenvattingen in natuurlijke taal van een resultaat, zijn twee van de meest praktische en impactvolle soorten informatie die UX-beoefenaars in een ervaring kunnen introduceren het belang van kenmerken (Figuur 1) en contrafeiten. Deze zijn vaak het meest eenvoudig te begrijpen voor gebruikers en het meest uitvoerbaar voor ontwerpers om te implementeren.

Kenmerk belang Deze verklaarbaarheidsmethode antwoordt: “Wat waren de belangrijkste factoren waar de AI rekening mee hield?” Het gaat om het identificeren van de twee tot drie belangrijkste variabelen die de grootste impact op de uitkomst hadden. Het is de kop, niet het hele verhaal. Voorbeeld: Stel je een AI voor die voorspelt of een klant zal churnen (zijn service annuleren). Het belang van de kenmerken zou kunnen aantonen dat “het aantal ondersteuningsoproepen in de afgelopen maand” en “recente prijsstijgingen” de twee belangrijkste factoren waren bij het bepalen of een klant waarschijnlijk zou afhaken.

Contrafeiten Deze krachtige methode antwoordt: “Wat zou ik moeten veranderen om een ander resultaat te krijgen?” Dit is van cruciaal belang omdat het gebruikers een gevoel van keuzevrijheid geeft. Het transformeert een frustrerend ‘nee’ in een uitvoerbaar ‘nog niet’. Voorbeeld: Stel je een leningaanvraagsysteem voor dat gebruik maakt van AI. Een gebruiker wordt een lening geweigerd. In plaats van alleen maar 'Aanvraag geweigerd' te zien, zou een contrafeitelijke verklaring ook zeggen: 'Als uw kredietscore 50 punten hoger was geweest, of als uw schuld-inkomensratio 10% lager was geweest, zou uw lening zijn goedgekeurd.' Dit geeft Sarah duidelijke, uitvoerbare stappen die ze kan nemen om mogelijk in de toekomst een lening te krijgen.

Modelgegevens gebruiken om de uitleg te verbeteren Hoewel technische details vaak door datawetenschappers worden afgehandeld, is het nuttig voor UX-beoefenaars om te weten dat tools als LIME (Local Interpretable Model-agnostic Explanations), dat individuele voorspellingen verklaart door het model lokaal te benaderen, en SHAP (SHapley Additive exPlanations), dat een speltheoretische benadering gebruikt om de output van elk machine learning-model uit te leggen, vaak worden gebruikt om deze ‘waarom’-inzichten uit complexe modellen te extraheren. Deze bibliotheken helpen in wezen de beslissing van een AI te doorbreken om te laten zien welke input het meest invloedrijk was voor een bepaald resultaat. Als het goed wordt gedaan, kunnen de gegevens die ten grondslag liggen aan de beslissing van een AI-tool worden gebruikt om een ​​krachtig verhaal te vertellen. Laten we het belang van functies en contrafeiten eens bekijken en laten zien hoe de datawetenschap achter de beslissing kan worden gebruikt om de gebruikerservaring te verbeteren. Laten we nubestrijk het belang van functies met behulp van gegevens uit lokale verklaringen (bijvoorbeeld LIME): deze aanpak antwoordt: "Waarom heeft de AI op dit moment deze specifieke aanbeveling voor mij gedaan?" In plaats van een algemene uitleg over hoe het model werkt, biedt het een gerichte reden voor een enkel specifiek geval. Het is persoonlijk en contextueel. Voorbeeld: Stel je een AI-aangedreven muziekaanbevelingssysteem voor, zoals Spotify. Een lokale verklaring zou antwoorden: “Waarom heeft het systeem u dit specifieke nummer van Adele nu aanbevolen?” De verklaring zou kunnen zijn: “Omdat je onlangs naar verschillende andere emotionele ballades en liedjes van zangeressen hebt geluisterd.”

Laten we tot slot de opname van op waarden gebaseerde verklaringen (bijvoorbeeld Shapley Additive Explanations (SHAP)-gegevens) bespreken bij de uitleg van een beslissing: dit is een meer genuanceerde versie van het belang van kenmerken die antwoordt: "Hoe heeft elke factor de beslissing op de een of andere manier beïnvloed?" Het helpt visualiseren wat er toe deed, en of de invloed ervan positief of negatief was. Voorbeeld: Stel je voor dat een bank een AI-model gebruikt om te beslissen of ze een leningaanvraag goedkeurt.

Kenmerkbelang: Uit de modeluitvoer zou kunnen blijken dat de kredietscore, het inkomen en de schuld-inkomensverhouding van de aanvrager de belangrijkste factoren waren bij zijn beslissing. Dit beantwoordt wat er toe deed. Kenmerkbelang met op waarden gebaseerde uitleg (SHAP): SHAP-waarden zouden het belang van kenmerken verder vergroten op basis van elementen van het model.

Voor een goedgekeurde lening zou SHAP kunnen aantonen dat een hoge kredietscore de beslissing aanzienlijk in de richting van goedkeuring duwde (positieve invloed), terwijl een iets hoger dan gemiddelde schuld-inkomensratio deze enigszins wegtrok (negatieve invloed), maar niet genoeg om de lening te weigeren. Voor een geweigerde lening zou SHAP kunnen onthullen dat een laag inkomen en een groot aantal recente kredietonderzoeken de beslissing sterk in de richting van weigering hebben geduwd, zelfs als de kredietscore redelijk was.

Dit helpt de leningfunctionaris om aan de aanvrager uit te leggen hoe elke factor heeft bijgedragen aan de uiteindelijke “ja” of “nee” beslissing, afgezien van wat er in overweging werd genomen. Het is van cruciaal belang om te erkennen dat het vermogen om goede uitleg te geven vaak al veel eerder in de ontwikkelingscyclus begint. Datawetenschappers en -ingenieurs spelen een cruciale rol door modellen en datapijplijnen opzettelijk te structureren op een manier die inherent de verklaarbaarheid ondersteunt, in plaats van te proberen dit als een bijzaak vast te stellen. Onderzoeks- en ontwerpteams kunnen dit bevorderen door vroegtijdig gesprekken te initiëren met datawetenschappers en ingenieurs over de behoeften van gebruikers aan begrip, bij te dragen aan de ontwikkeling van verklaarbaarheidsmetrieken en gezamenlijk prototypes te maken van verklaringen om ervoor te zorgen dat deze zowel accuraat als gebruiksvriendelijk zijn. XAI en ethische AI: vooroordelen en verantwoordelijkheid uit de doeken doen Naast het opbouwen van vertrouwen speelt XAI een cruciale rol bij het aanpakken van de diepgaande ethische implicaties van AI*, met name als het gaat om algoritmische vooroordelen. Uitlegbaarheidstechnieken, zoals het analyseren van SHAP-waarden, kunnen uitwijzen of de beslissingen van een model onevenredig worden beïnvloed door gevoelige kenmerken zoals ras, geslacht of sociaal-economische status, zelfs als deze factoren niet expliciet als directe input werden gebruikt. Als een model voor de goedkeuring van leningen bijvoorbeeld consequent negatieve SHAP-waarden toekent aan aanvragers uit een bepaalde demografische groep, signaleert dit een potentiële vooringenomenheid die moet worden onderzocht, waardoor teams dergelijke oneerlijke uitkomsten aan het licht kunnen brengen en kunnen verzachten. De kracht van XAI brengt ook het potentieel met zich mee voor ‘verklaarbaarheid’. Net zoals ‘greenwashing’ consumenten misleidt over milieupraktijken, kan het ‘verklaarbaarheidswassen’ plaatsvinden wanneer verklaringen zijn ontworpen om problematisch algoritmisch gedrag of inherente vooroordelen te verdoezelen in plaats van te verhelderen. Dit zou zich kunnen manifesteren in de vorm van al te simplistische verklaringen waarbij cruciale beïnvloedende factoren worden weggelaten, of in verklaringen die de resultaten op een strategische manier neutraler of eerlijker laten lijken dan ze in werkelijkheid zijn. Het onderstreept de ethische verantwoordelijkheid van UX-beoefenaars om verklaringen te ontwerpen die echt transparant en verifieerbaar zijn. UX-professionals hebben, in samenwerking met datawetenschappers en ethici, een cruciale verantwoordelijkheid bij het communiceren van het waarom van een beslissing, en ook van de beperkingen en potentiële vooroordelen van het onderliggende AI-model. Dit omvat het stellen van realistische gebruikersverwachtingen over de nauwkeurigheid van AI, het identificeren van waar het model mogelijk minder betrouwbaar is, en het bieden van duidelijke kanalen voor verhaal of feedback wanneer gebruikers oneerlijke of onjuiste uitkomsten waarnemen. Deze proactief aanpakkenethische dimensies zullen ons in staat stellen AI-systemen te bouwen die werkelijk rechtvaardig en betrouwbaar zijn. Van methoden tot mockups: praktische XAI-ontwerppatronen De concepten kennen is één ding; ze ontwerpen is iets anders. Hier leest u hoe we deze XAI-methoden kunnen vertalen naar intuïtieve ontwerppatronen. Patroon 1: De verklaring 'Omdat' (voor het belang van functies) Dit is het eenvoudigste en vaak meest effectieve patroon. Het is een directe verklaring in duidelijke taal die de belangrijkste reden voor de actie van een AI naar voren brengt.

Heuristisch: wees direct en beknopt. Leid met de meest impactvolle reden. Vermijd jargon ten koste van alles.

Voorbeeld: Stel je een muziekstreamingdienst voor. In plaats van alleen maar een ‘Discover Weekly’-afspeellijst te presenteren, voeg je een kleine regel microcopy toe. Aanbeveling van het nummer: ‘Velvet Morning’ Omdat je naar ‘The Fuzz’ en andere psychedelische rock luistert.

Patroon 2: Het ‘Wat-Als’-interactieve verhaal (voor counterfactuals) Counterfactuals gaan inherent over empowerment. De beste manier om ze te vertegenwoordigen is door gebruikers interactieve hulpmiddelen te geven waarmee ze zelf de mogelijkheden kunnen verkennen. Dit is perfect voor financiële, gezondheids- of andere doelgerichte toepassingen.

Heuristisch: maak uitleg interactief en versterkend. Laat gebruikers de oorzaak en het gevolg van hun keuzes zien.

Voorbeeld: een interface voor een leningaanvraag. Na een ontkenning krijgt de gebruiker, in plaats van een doodlopende weg, een hulpmiddel om te bepalen hoe verschillende scenario's (wat-als) zich zouden kunnen afspelen (zie figuur 1).

Patroon 3: De hoogtepuntenrol (voor lokale uitleg) Wanneer een AI een actie uitvoert op de inhoud van een gebruiker (zoals het samenvatten van een document of het identificeren van gezichten op foto’s), moet de uitleg visueel aan de bron worden gekoppeld.

Heuristisch: gebruik visuele aanwijzingen zoals accentuering, contouren of annotaties om de uitleg rechtstreeks te verbinden met het interface-element dat het uitlegt.

Voorbeeld: Een AI-tool die lange artikelen samenvat. Door AI gegenereerde samenvatting Punt: Eerste onderzoek toonde een marktkloof aan voor duurzame producten. Bron in document: “...Onze analyse van markttrends in het tweede kwartaal heeft overtuigend aangetoond dat geen enkele grote concurrent de milieubewuste consument effectief bediende, wat een aanzienlijke marktkloof voor duurzame producten aan het licht bracht...”

Patroon 4: Het push-and-pull-beeld (voor op waarden gebaseerde uitleg) Voor complexere beslissingen moeten gebruikers mogelijk het samenspel van factoren begrijpen. Eenvoudige datavisualisaties kunnen dit duidelijk maken zonder overweldigend te zijn.

Heuristisch: gebruik eenvoudige, kleurgecodeerde gegevensvisualisaties (zoals staafdiagrammen) om de factoren weer te geven die een beslissing positief en negatief hebben beïnvloed.

Voorbeeld: Een AI screent het profiel van een kandidaat voor een baan. Waarom deze kandidaat voor 75% matcht: Factoren die de score omhoog duwen: 5+ jaar ervaring met UX-onderzoek Vaardig in Python Factoren die de score omlaag duwen: Geen ervaring met B2B SaaS

Het leren en gebruiken van deze ontwerppatronen in de UX van uw AI-product zal de uitlegbaarheid helpen vergroten. Je kunt ook aanvullende technieken gebruiken die ik hier niet diepgaand bespreek. Dit omvat het volgende:

Verklaringen in natuurlijke taal: het vertalen van de technische output van een AI naar eenvoudige, gemoedelijke menselijke taal die niet-experts gemakkelijk kunnen begrijpen. Contextuele verklaringen: het biedt een reden voor de output van een AI op een specifiek moment en op een specifieke locatie en is het meest relevant voor de taak van de gebruiker. Relevante visualisaties: het gebruik van diagrammen, grafieken of heatmaps om het besluitvormingsproces van een AI visueel weer te geven, waardoor complexe gegevens intuïtief en gemakkelijker te begrijpen voor gebruikers worden.

Een opmerking voor de front-end: het vertalen van deze verklaarbaarheidsresultaten naar naadloze gebruikerservaringen brengt ook zijn eigen reeks technische overwegingen met zich mee. Front-end-ontwikkelaars worstelen vaak met API-ontwerp om uitleggegevens efficiënt op te halen, en implicaties voor de prestaties (zoals het realtime genereren van uitleg voor elke gebruikersinteractie) hebben een zorgvuldige planning nodig om latentie te voorkomen. Enkele praktijkvoorbeelden DeliveryDefense van UPS Capital UPS gebruikt AI om een ‘afleveringsbetrouwbaarheidsscore’ toe te kennen aan adressen om zo de waarschijnlijkheid te voorspellen dat een pakket wordt gestolen. Hun DeliveryDefense-software analyseert historische gegevens over locatie, verliesfrequentie en andere factoren. Als een adres een lage score heeft, kan het systeem het pakket proactief omleiden naar een beveiligd UPS Access Point, waarbij een verklaring wordt gegeven voor de beslissing (bijvoorbeeld: “Pakket omgeleid naar een veilige locatie vanwege een geschiedenis van diefstal”). Dit systeem laat zien hoe XAI kan worden gebruikt voor risicobeperking en het opbouwen van klantvertrouwentransparantie. Autonome voertuigen Deze voertuigen van de toekomst zullen XAI effectief moeten gebruiken om hun voertuigen te helpen veilige, verklaarbare beslissingen te nemen. Wanneer een zelfrijdende auto plotseling remt, kan het systeem een ​​realtime verklaring voor zijn actie geven, bijvoorbeeld door een voetganger te identificeren die de weg opstapt. Dit is niet alleen cruciaal voor het comfort en vertrouwen van passagiers, maar is ook een wettelijke vereiste om de veiligheid en verantwoordelijkheid van het AI-systeem te bewijzen. IBM Watson Health (en zijn uitdagingen) Hoewel het vaak wordt aangehaald als algemeen voorbeeld van AI in de gezondheidszorg, is het ook een waardevolle case study voor het belang van XAI. Het mislukken van het Watson for Oncology-project benadrukt wat er mis kan gaan als de verklaringen niet duidelijk zijn, of als de onderliggende gegevens vertekend of niet gelokaliseerd zijn. De aanbevelingen van het systeem waren soms inconsistent met de lokale klinische praktijken, omdat ze gebaseerd waren op op de VS gerichte richtlijnen. Dit dient als een waarschuwend verhaal over de noodzaak van robuuste, contextbewuste verklaarbaarheid. De rol van de UX-onderzoeker: het vaststellen en valideren van verklaringen Onze ontwerpoplossingen zijn alleen effectief als ze op het juiste moment de juiste gebruikersvragen beantwoorden. Een uitleg die een vraag beantwoordt die de gebruiker niet heeft, is slechts ruis. Dit is waar UX-onderzoek het cruciale bindweefsel wordt in een XAI-strategie, en ervoor zorgt dat we uitleggen wat en hoe dat werkelijk van belang is voor onze gebruikers. De rol van de onderzoeker is tweeledig: ten eerste om de strategie te onderbouwen door te identificeren waar verklaringen nodig zijn, en ten tweede om de ontwerpen te valideren die deze verklaringen opleveren. Informatie over de XAI-strategie (wat uit te leggen) Voordat we één enkele verklaring kunnen ontwerpen, moeten we het mentale model van de gebruiker van het AI-systeem begrijpen. Wat denken ze dat het doet? Waar liggen de gaten tussen hun begrip en de realiteit van het systeem? Dit is het fundamentele werk van een UX-onderzoeker. Interviews met mentale modellen: de perceptie van gebruikers van AI-systemen uitpakken Door middel van diepgaande, semi-gestructureerde interviews kunnen UX-beoefenaars waardevolle inzichten verwerven in hoe gebruikers AI-systemen waarnemen en begrijpen. Deze sessies zijn bedoeld om gebruikers aan te moedigen letterlijk hun interne ‘mentale model’ te tekenen of te beschrijven van hoe zij denken dat de AI werkt. Vaak gaat het hierbij om het stellen van open vragen die gebruikers ertoe aanzetten de logica van het systeem, de input en output ervan, evenals de relaties tussen deze elementen, uit te leggen. Deze interviews zijn krachtig omdat ze vaak diepgaande misvattingen en aannames van gebruikers over AI aan het licht brengen. Een gebruiker die interactie heeft met een aanbevelingsengine kan bijvoorbeeld vol vertrouwen beweren dat het systeem puur gebaseerd is op zijn eerdere kijkgeschiedenis. Ze realiseren zich misschien niet dat het algoritme ook een groot aantal andere factoren omvat, zoals het tijdstip waarop ze browsen, de huidige trending items op het platform of zelfs het kijkgedrag van vergelijkbare gebruikers. Het blootleggen van deze kloof tussen het mentale model van een gebruiker en de feitelijke onderliggende AI-logica is van cruciaal belang. Het vertelt ons precies welke specifieke informatie we aan gebruikers moeten communiceren om hen te helpen een nauwkeuriger en robuuster mentaal model van het systeem op te bouwen. Dit is op zijn beurt een fundamentele stap in het bevorderen van vertrouwen. Wanneer gebruikers, zelfs op een hoog niveau, begrijpen hoe een AI tot haar conclusies of aanbevelingen komt, is de kans groter dat ze de resultaten ervan vertrouwen en vertrouwen op de functionaliteit ervan. AI Journey Mapping: een diepe duik in het vertrouwen en de uitlegbaarheid van gebruikers Door het traject van de gebruiker nauwgezet in kaart te brengen met een AI-aangedreven functie, krijgen we waardevolle inzichten in de precieze momenten waarop verwarring, frustratie of zelfs diep wantrouwen ontstaat. Dit brengt kritische momenten aan het licht waarop het mentale model van de gebruiker over hoe de AI werkt, botst met het daadwerkelijke gedrag ervan. Overweeg een muziekstreamingservice: keldert het vertrouwen van de gebruiker wanneer een aanbeveling voor een afspeellijst ‘willekeurig’ aanvoelt, zonder enig waarneembaar verband met hun vroegere luistergewoonten of uitgesproken voorkeuren? Deze waargenomen willekeur is een directe uitdaging voor de verwachting van de gebruiker van intelligent beheer en een schending van de impliciete belofte dat de AI hun smaak begrijpt. Op dezelfde manier ervaren gebruikers in een fotobeheertoepassing aanzienlijke frustratie wanneer een AI-functie voor het taggen van foto's consequent een dierbaar familielid verkeerd identificeert? Deze fout is meer dan een technisch probleem; het raakt de kern van nauwkeurigheid, personalisatie en zelfsemotionele verbinding. Deze pijnpunten zijn levendige signalen die precies aangeven waar een goedgeplaatste, duidelijke en beknopte uitleg nodig is. Dergelijke verklaringen dienen als cruciale herstelmechanismen en herstellen een vertrouwensbreuk die, als er niets aan wordt gedaan, kan leiden tot het verlaten van de gebruiker. De kracht van AI-reismapping ligt in het vermogen om ons verder te brengen dan alleen het uitleggen van de uiteindelijke output van een AI-systeem. Hoewel het belangrijk is om te begrijpen wat de AI heeft geproduceerd, is het vaak onvoldoende. In plaats daarvan dwingt dit proces ons om ons te concentreren op het uitleggen van het proces op kritieke momenten. Dit betekent het aanpakken van:

Waarom werd een bepaalde output gegenereerd: was dit te wijten aan specifieke inputgegevens? Een bepaalde modelarchitectuur? Welke factoren hebben de beslissing van de AI beïnvloed: Werden bepaalde functies zwaarder gewogen? Hoe de AI tot zijn conclusie kwam: kunnen we een vereenvoudigde, analoge uitleg geven van de interne werking ervan? Welke aannames heeft de AI gemaakt: waren er impliciete inzichten in de bedoelingen van de gebruiker of moesten er gegevens naar boven komen? Wat de beperkingen van de AI zijn: Het duidelijk communiceren van wat de AI niet kan, of waar de nauwkeurigheid ervan zou kunnen wankelen, schept realistische verwachtingen.

AI-reismapping transformeert het abstracte concept van XAI in een praktisch, uitvoerbaar raamwerk voor UX-beoefenaars. Het stelt ons in staat verder te gaan dan theoretische discussies over verklaarbaarheid en in plaats daarvan de exacte momenten vast te stellen waarop het vertrouwen van gebruikers op het spel staat, waardoor de nodige inzichten worden geboden om AI-ervaringen op te bouwen die krachtig, transparant, begrijpelijk en betrouwbaar zijn. Uiteindelijk is onderzoek de manier waarop we de onbekende dingen blootleggen. Uw team debatteert misschien over de vraag hoe ze kunnen verklaren waarom een ​​lening is geweigerd, maar uit onderzoek zou kunnen blijken dat gebruikers zich veel meer zorgen maken over hoe hun gegevens überhaupt zijn gebruikt. Zonder onderzoek raden we alleen maar aan wat onze gebruikers zich afvragen. Samenwerken aan het ontwerp (hoe u uw AI kunt uitleggen) Zodra het onderzoek heeft vastgesteld wat er moet worden uitgelegd, begint de samenwerking met het ontwerp. Ontwerpers kunnen een prototype maken van de patronen die we eerder hebben besproken – de ‘Omdat’-verklaring, de interactieve schuifregelaars – en onderzoekers kunnen die ontwerpen aan gebruikers voorleggen om te zien of ze standhouden. Gerichte bruikbaarheids- en begripstesten: We kunnen onderzoeksstudies ontwerpen die specifiek de XAI-componenten testen. We vragen niet alleen: "Is dit gemakkelijk te gebruiken?" We vragen: “Kunt u mij, nadat u dit heeft gezien, in uw eigen woorden vertellen waarom het systeem dit product heeft aanbevolen?” of “Laat me zien wat je zou doen om te zien of je een ander resultaat zou kunnen krijgen.” Het doel hier is om naast de bruikbaarheid ook het begrip en de bruikbaarheid te meten. Het vertrouwen zelf meten: We kunnen eenvoudige enquêtes en beoordelingsschalen gebruiken voor en nadat een uitleg wordt getoond. We kunnen een gebruiker bijvoorbeeld op een vijfpuntsschaal vragen: 'In hoeverre vertrouwt u deze aanbeveling?' voordat ze de verklaring 'Omdat' zien, en vraag het ze daarna opnieuw. Dit levert kwantitatieve gegevens op over de vraag of onze verklaringen daadwerkelijk in de richting van vertrouwen gaan. Dit proces creëert een krachtige, iteratieve lus. Onderzoeksresultaten vormen de basis voor het initiële ontwerp. Dat ontwerp wordt vervolgens getest en de nieuwe bevindingen worden ter verfijning teruggekoppeld naar het ontwerpteam. Misschien was de uitspraak ‘Omdat’ te jargonisch, of was de schuifregelaar ‘Wat als’ eerder verwarrend dan stimulerend. Door deze gezamenlijke validatie zorgen we ervoor dat de uiteindelijke uitleg technisch accuraat, echt begrijpelijk, nuttig en vertrouwenwekkend is voor de mensen die het product gebruiken. De Goudlokje-zone van uitleg Een kritisch woord van waarschuwing: het is mogelijk om te veel uit te leggen. Net als in het sprookje, waarin Goudlokje de pap zocht die ‘precies goed’ was, is het doel van een goede uitleg om de juiste hoeveelheid details te geven – niet te veel en niet te weinig. Het bombarderen van een gebruiker met elke variabele in een model zal leiden tot cognitieve overbelasting en kan het vertrouwen zelfs verminderen. Het doel is niet om van de gebruiker een datawetenschapper te maken. Eén oplossing is progressieve openbaarmaking.

Begin met het simpele. Leid met een beknopte ‘Omdat’-verklaring. Voor de meeste gebruikers zal dit voldoende zijn. Bied een pad naar detail. Zorg voor een duidelijke link met weinig wrijving, zoals 'Meer informatie' of 'Bekijk hoe dit is vastgesteld'. Onthul de complexiteit. Achter die link kunt u de interactieve sliders, de visualisaties of een meer gedetailleerde lijst met bijdragende factoren aanbieden.

Deze gelaagde aanpak respecteert de aandacht en expertise van de gebruiker en biedt precies de juiste hoeveelheidvan informatie voor hun behoeften. Stel je voor dat je een smarthome-apparaat gebruikt dat optimale verwarming aanbeveelt op basis van verschillende factoren. Begin met het simpele: “Je huis wordt momenteel verwarmd tot 72 graden, wat de optimale temperatuur is voor energiebesparing en comfort.” Bied een pad naar details: Daaronder een kleine link of knop: "Waarom is 72 graden optimaal?" Onthul de complexiteit: als u op die link klikt, wordt mogelijk een nieuw scherm geopend met:

Interactieve schuifregelaars voor buitentemperatuur, luchtvochtigheid en uw gewenste comfortniveau, die laten zien hoe deze de aanbevolen temperatuur aanpassen. Een visualisatie van het energieverbruik bij verschillende temperaturen. Een lijst met factoren die bijdragen, zoals 'Tijdstip van de dag', 'Huidige buitentemperatuur', 'Historisch energieverbruik' en 'Aanwezigheidssensoren'.

Het is effectief om meerdere XAI-methoden te combineren en dit Goldilocks Zone of Explanation-patroon, dat pleit voor progressieve openbaarmaking, moedigt dit impliciet aan. U kunt beginnen met een eenvoudige 'Omdat'-verklaring (Patroon 1) voor onmiddellijk begrip, en vervolgens een 'Meer informatie'-link aanbieden die een 'Wat-Als'-interactief (Patroon 2) of een 'Push-and-Pull-visual' (Patroon 4) onthult voor diepere verkenning. Een systeem voor het aanvragen van leningen zou bijvoorbeeld in eerste instantie de belangrijkste reden voor weigering kunnen vermelden (belangrijkheid van de functie), vervolgens de gebruiker in staat stellen om te communiceren met een 'What-If'-tool om te zien hoe veranderingen in zijn inkomen of schuld de uitkomst zouden veranderen (counterfactuals), en ten slotte een gedetailleerd 'Push-and-Pull'-diagram bieden (op waarde gebaseerde uitleg) om de positieve en negatieve bijdragen van alle factoren te illustreren. Dankzij deze gelaagde aanpak hebben gebruikers toegang tot het detailniveau dat ze nodig hebben, wanneer ze dat nodig hebben, waardoor cognitieve overbelasting wordt voorkomen en toch uitgebreide transparantie wordt geboden. Het bepalen welke XAI-tools en -methoden moeten worden gebruikt, is in de eerste plaats een functie van grondig UX-onderzoek. Interviews met mentale modellen en het in kaart brengen van AI-trajecten zijn cruciaal voor het vaststellen van gebruikersbehoeften en pijnpunten met betrekking tot AI-begrip en -vertrouwen. Interviews met mentale modellen helpen misvattingen van gebruikers over de manier waarop de AI werkt aan het licht te brengen, en geven gebieden aan waar fundamentele verklaringen (zoals het belang van functies of lokale verklaringen) nodig zijn. AI-reismapping daarentegen identificeert kritieke momenten van verwarring of wantrouwen in de interactie van de gebruiker met de AI, waardoor wordt aangegeven waar gedetailleerdere of interactievere verklaringen (zoals contrafeitelijke verklaringen of op waarden gebaseerde verklaringen) het meest nuttig zouden zijn om het vertrouwen te herstellen en keuzevrijheid te bieden.

Uiteindelijk is de beste manier om een ​​techniek te kiezen het gebruiksonderzoek als leidraad voor uw beslissingen te nemen, waarbij u ervoor zorgt dat de uitleg die u ontwerpt rechtstreeks ingaat op de daadwerkelijke vragen en zorgen van gebruikers, in plaats van simpelweg technische details ter wille van de gebruiker aan te bieden. XAI voor agenten die diep redeneren Sommige van de nieuwste AI-systemen, bekend als deep redenation agents, produceren voor elke complexe taak een expliciete ‘gedachteketen’. Ze citeren niet alleen maar bronnen; ze laten het logische, stapsgewijze pad zien dat ze hebben gevolgd om tot een conclusie te komen. Hoewel deze transparantie waardevolle context biedt, kan een play-by-play-sessie die meerdere alinea's beslaat, overweldigend overkomen voor een gebruiker die simpelweg een taak probeert te voltooien. De principes van XAI, vooral de Goldilocks Zone of Explanation, zijn hier rechtstreeks van toepassing. We kunnen de reis samenstellen, waarbij we progressieve openbaarmaking gebruiken om alleen de eindconclusie en de meest opvallende stap in het denkproces als eerste te laten zien. Gebruikers kunnen zich vervolgens aanmelden om de volledige, gedetailleerde redenering in meerdere stappen te zien wanneer ze de logica nog eens moeten controleren of een specifiek feit moeten vinden. Deze aanpak respecteert de aandacht van de gebruiker terwijl de volledige transparantie van de agent behouden blijft. Volgende stappen: uw XAI-reis versterken Uitlegbaarheid is een fundamentele pijler voor het bouwen van betrouwbare en effectieve AI-producten. Voor de gevorderde beoefenaar die deze verandering binnen zijn organisatie wil stimuleren, reikt de reis verder dan ontwerppatronen naar belangenbehartiging en continu leren. Om uw begrip en praktische toepassing te verdiepen, kunt u overwegen bronnen te verkennen zoals de AI Exploreability 360 (AIX360) toolkit van IBM Research of de What-If Tool van Google, die interactieve manieren bieden om modelgedrag en verklaringen te onderzoeken. Het samenwerken met gemeenschappen zoals het Responsible AI Forum of specifieke onderzoeksgroepen die zich richten op mensgerichte AI kan waardevolle inzichten en samenwerkingsmogelijkheden opleveren. Wees ten slotte een pleitbezorger voor XAI binnen uw eigen organisatie.Kader verklaarbaarheid als een strategische investering. Overweeg een korte pitch voor uw leiderschap of multifunctionele teams: "Door te investeren in XAI gaan we verder dan het opbouwen van vertrouwen; we versnellen de acceptatie door gebruikers, verlagen de ondersteuningskosten door gebruikers inzicht te geven en beperken aanzienlijke ethische en regelgevende risico's door potentiële vooroordelen bloot te leggen. Dit is een goed ontwerp en slim zakendoen."

Uw stem, gebaseerd op praktisch inzicht, is cruciaal om AI uit de black box te halen en in een samenwerkingspartnerschap met gebruikers te brengen.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free