A la meva última peça, vam establir una veritat fonamental: perquè els usuaris adoptin i confiin en la IA, han de confiar-hi. Hem parlat que la confiança és una construcció polièdrica, basada en les percepcions de la capacitat, la benevolència, la integritat i la predictibilitat d'una IA. Però, què passa quan una IA, amb la seva saviesa algorítmica silenciosa, pren una decisió que deixa un usuari confós, frustrat o fins i tot ferit? Es denega una sol·licitud d'hipoteca, una cançó preferida s'absenta de sobte d'una llista de reproducció i es rebutja un currículum qualificat abans que un humà el vegi mai. En aquests moments, la capacitat i la predictibilitat es trenquen, i la benevolència se sent a un món llunyà. La nostra conversa ara ha d'evolucionar del perquè de la confiança al com de la transparència. El camp de la IA explicable (XAI), que se centra a desenvolupar mètodes per fer que els resultats de la IA siguin comprensibles per als humans, ha sorgit per abordar-ho, però sovint s'emmarca com un repte purament tècnic per als científics de dades. Crec que és un repte de disseny crític per als productes que depenen de la IA. La nostra feina com a professionals d'UX és salvar la bretxa entre la presa de decisions algorítmiques i la comprensió humana. Aquest article ofereix una guia pràctica i pràctica sobre com investigar i dissenyar per explicar-los. Anirem més enllà de les paraules de moda i passarem a les maquetes, traduint conceptes complexos de XAI en patrons de disseny concrets que podeu començar a utilitzar avui. Desmitificant XAI: conceptes bàsics per a professionals d'UX XAI tracta de respondre la pregunta de l'usuari: "Per què?" Per què em van mostrar aquest anunci? Per què em recomana aquesta pel·lícula? Per què es va denegar la meva sol·licitud? Penseu en això com la IA que mostra el seu treball en un problema de matemàtiques. Sense ell, només tens una resposta i estàs obligat a acceptar-la per fe. En mostrar els passos, genereu comprensió i confiança. També permeteu que el vostre treball sigui revisat i verificat pels mateixos humans que afecta. Importància de les característiques i contrafactuals Hi ha diverses tècniques que podem utilitzar per aclarir o explicar què està passant amb la IA. Tot i que els mètodes van des de proporcionar tota la lògica d'un arbre de decisió fins a generar resums en llenguatge natural d'una sortida, dos dels tipus d'informació més pràctics i impactants que els professionals d'UX poden introduir en una experiència són la importància de les característiques (figura 1) i els contrafactuals. Sovint són els més senzills d'entendre per als usuaris i els més útils per implementar els dissenyadors.
Importància de la característica Aquest mètode d'explicabilitat respon: "Quins van ser els factors més importants que va tenir en compte la IA?" Es tracta d'identificar les 2-3 variables principals que van tenir un impacte més gran en el resultat. És el titular, no tota la història. Exemple: imagineu una IA que prediu si un client abandonarà (cancel·larà el seu servei). La importància de les funcions podria revelar que el "nombre de trucades d'assistència durant l'últim mes" i els "augments de preus recents" van ser els dos factors més importants per determinar si un client era probable que es reduís.
Contrafactuals Aquest mètode potent respon: "Què hauria de canviar per obtenir un resultat diferent?" Això és crucial perquè dóna als usuaris una sensació d'agència. Transforma un "no" frustrant en un "encara no" actiu. Exemple: imagineu un sistema de sol·licitud de préstec que utilitza IA. A un usuari se li denega un préstec. En lloc de veure només "Aplicació denegada", una explicació contrafactual també compartiria: "Si la vostra puntuació de crèdit fos 50 punts més alta, o si la vostra relació deute/ingressos fos un 10% més baixa, el vostre préstec hauria estat aprovat". Això li dóna a Sarah passos clars i accionables que pot prendre per obtenir un préstec en el futur.
Ús de dades del model per millorar l'explicació Tot i que els científics de dades sovint gestionen les especificitats tècniques, és útil que els professionals d'UX sàpiguen que eines com LIME (Explicacions agnòstiques del model interpretable local), que explica les prediccions individuals aproximant el model localment, i SHAP (explicacions additives de SHAPley), que utilitza un enfocament de teoria de jocs per explicar els resultats de qualsevol model que s'utilitza habitualment en l'aprenentatge automàtic. models. Aquestes biblioteques ajuden essencialment a desglossar la decisió d'una IA de mostrar quines entrades eren més influents per a un resultat determinat. Quan es fa correctament, les dades subjacents a la decisió d'una eina d'IA es poden utilitzar per explicar una història poderosa. Repassem la importància de les funcions i els contrafactuals i mostrem com es pot utilitzar la ciència de dades darrere de la decisió per millorar l'experiència de l'usuari. Ara anemcobrir la importància de les funcions amb l'ajuda de dades d'explicacions locals (p. ex., LIME): aquest enfocament respon: "Per què l'IA em va fer aquesta recomanació específica, ara mateix?" En lloc d'una explicació general de com funciona el model, proporciona una raó enfocada per a una única instància específica. És personal i contextual. Exemple: imagineu un sistema de recomanació de música basat en IA com Spotify. Una explicació local respondria: "Per què el sistema t'ha recomanat aquesta cançó específica d'Adele ara mateix?" L'explicació podria ser: "Perquè recentment heu escoltat diverses altres balades i cançons emocionals de vocalistes femenines".
Finalment, cobrim la inclusió d'explicacions basades en valors (per exemple, dades d'explicacions additives de Shapley (SHAP) a una explicació d'una decisió: aquesta és una versió més matisada de la importància de les característiques que respon: "Com va impulsar cada factor la decisió d'una manera o una altra?" Ajuda a visualitzar què importava i si la seva influència era positiva o negativa. Exemple: imagineu que un banc utilitza un model d'IA per decidir si aprova una sol·licitud de préstec.
Importància de les característiques: la sortida del model pot mostrar que la puntuació creditícia, els ingressos i la relació deute-ingressos del sol·licitant van ser els factors més importants en la seva decisió. Això respon al que importava. Importància de les característiques amb explicacions basades en valors (SHAP): els valors SHAP augmentarien la importància de les característiques en funció dels elements del model.
Per a un préstec aprovat, SHAP podria mostrar que una puntuació de crèdit alta va impulsar significativament la decisió cap a l'aprovació (influència positiva), mentre que una ràtio deute/ingressos lleugerament superior a la mitjana l'allunyava lleugerament (influència negativa), però no prou per denegar el préstec. Per a un préstec denegat, SHAP podria revelar que uns ingressos baixos i un nombre elevat de consultes de crèdit recents van impulsar fortament la decisió cap a la denegació, fins i tot si la puntuació de crèdit era decent.
Això ajuda l'oficial de préstecs a explicar al sol·licitant més enllà del que es va considerar, com cada factor va contribuir a la decisió final de "sí" o "no". És crucial reconèixer que la capacitat de proporcionar bones explicacions sovint comença molt abans en el cicle de desenvolupament. Els científics i enginyers de dades juguen un paper fonamental estructurant intencionadament models i canalitzacions de dades de manera que inherentment afavoreixin l'explicabilitat, en lloc d'intentar-ho com una idea posterior. Els equips d'investigació i disseny poden fomentar-ho iniciant converses primerenques amb científics de dades i enginyers sobre les necessitats de comprensió dels usuaris, contribuint al desenvolupament de mètriques d'explicabilitat i creant prototips col·laboratius per garantir que siguin precises i fàcils d'utilitzar. XAI i IA ètica: desempaquetant biaix i responsabilitat Més enllà de la creació de confiança, la XAI té un paper fonamental a l'hora d'abordar les profundes implicacions ètiques de la IA*, especialment pel que fa al biaix algorítmic. Les tècniques d'explicació, com ara l'anàlisi dels valors SHAP, poden revelar si les decisions d'un model estan influenciades de manera desproporcionada per atributs sensibles com la raça, el gènere o l'estatus socioeconòmic, fins i tot si aquests factors no s'utilitzen explícitament com a inputs directes. Per exemple, si un model d'aprovació de préstecs assigna constantment valors SHAP negatius als sol·licitants d'un determinat grup demogràfic, indica un biaix potencial que necessita investigació, donant poder als equips per aflorar i mitigar aquests resultats injusts. El poder de XAI també ve amb el potencial de "rentat d'explicació". De la mateixa manera que el "rentat ecològic" enganya els consumidors sobre les pràctiques ambientals, el rentat d'explicabilitat es pot produir quan les explicacions estan dissenyades per enfosquir, en lloc d'il·luminar, un comportament algorítmic problemàtic o biaixos inherents. Això podria manifestar-se com a explicacions excessivament simplistes que ometen factors d'influència crítics, o explicacions que enmarquen estratègicament els resultats per semblar més neutrals o justos del que realment són. Subratlla la responsabilitat ètica dels professionals d'UX per dissenyar explicacions que siguin realment transparents i verificables. Els professionals d'UX, en col·laboració amb científics de dades i ètics, tenen una responsabilitat crucial a l'hora de comunicar el perquè d'una decisió, i també les limitacions i els biaixos potencials del model d'IA subjacent. Això implica establir expectatives realistes dels usuaris sobre la precisió de la IA, identificar on el model podria ser menys fiable i proporcionar canals clars de recurs o comentaris quan els usuaris perceben resultats injusts o incorrectes. Abordar-los de manera proactivaLes dimensions ètiques ens permetran construir sistemes d'IA que siguin realment justos i fiables. De mètodes a maquetes: patrons pràctics de disseny XAI Conèixer els conceptes és una cosa; dissenyar-los és un altre. A continuació s'explica com podem traduir aquests mètodes XAI en patrons de disseny intuïtius. Patró 1: la declaració "Perquè" (per a la importància de les funcions) Aquest és el patró més senzill i sovint més efectiu. És una declaració directa i en llenguatge senzill que mostra el motiu principal de l'acció d'una IA.
Heurístic: sigueu directe i concís. Liderar amb la raó més impactant. Eviteu l'argot a tota costa.
Exemple: imagineu un servei de reproducció de música. En lloc de presentar només una llista de reproducció "Discover Weekly", afegiu una petita línia de microcòpia. Recomanació de cançó: "Velvet Morning" Perquè escolteu "The Fuzz" i un altre rock psicodèlic.
Patró 2: l'interactiu "Què passa si" (per a contrafactuals) Els contrafactuals són inherents a l'apoderament. La millor manera de representar-los és oferint als usuaris eines interactives per explorar les possibilitats ells mateixos. Això és perfecte per a aplicacions financeres, de salut o altres aplicacions orientades a objectius.
Heurística: Feu explicacions interactives i empoderadores. Permet als usuaris veure la causa i l'efecte de les seves eleccions.
Exemple: una interfície de sol·licitud de préstec. Després d'una denegació, en comptes d'un carreró sense sortida, l'usuari obté una eina per determinar com es podrien produir diversos escenaris (i si) (vegeu la figura 1).
Patró 3: el rodet destacat (per a explicacions locals) Quan una IA realitza una acció sobre el contingut d'un usuari (com ara resumir un document o identificar cares a les fotos), l'explicació s'ha d'enllaçar visualment amb la font.
Heurístic: utilitzeu indicis visuals com ressaltats, contorns o anotacions per connectar l'explicació directament amb l'element de la interfície que explica.
Exemple: una eina d'IA que resumeix articles llargs. Punt de resum generat per IA: la investigació inicial va mostrar una bretxa de mercat per als productes sostenibles. Font del document: "...La nostra anàlisi de les tendències del mercat del segon trimestre va demostrar de manera concloent que cap competidor important servia de manera efectiva al consumidor ecològic, revelant una bretxa de mercat important per als productes sostenibles..."
Patró 4: el visual Push-and-Pull (per a explicacions basades en valors) Per prendre decisions més complexes, els usuaris poden necessitar entendre la interacció dels factors. Les visualitzacions de dades senzilles poden deixar-ho clar sense ser aclaparadors.
Heurística: utilitzeu visualitzacions de dades senzilles i codificades per colors (com ara gràfics de barres) per mostrar els factors que van influir positivament i negativament en una decisió.
Exemple: una intel·ligència artificial que examina el perfil d'un candidat per a una feina. Per què aquest candidat coincideix en un 75%: Factors que augmenten la puntuació: 5 anys o més d'experiència en recerca d'UX. Competència en PythonFactors que fan que baixin la puntuació: Sense experiència amb B2B SaaS
Aprendre i utilitzar aquests patrons de disseny a l'UX del vostre producte d'IA ajudarà a augmentar l'explicabilitat. També podeu utilitzar tècniques addicionals que no estic tractant aquí en profunditat. Això inclou el següent:
Explicacions en llenguatge natural: traduir la producció tècnica d'una IA a un llenguatge humà senzill i conversacional que els no experts poden entendre fàcilment. Explicacions contextuals: proporcionant una justificació per a la sortida d'una IA en el moment i la ubicació específics, és més rellevant per a la tasca de l'usuari. Visualitzacions rellevants: ús de gràfics, gràfics o mapes de calor per representar visualment el procés de presa de decisions d'una IA, fent que les dades complexes siguin intuïtives i més fàcils de comprendre per als usuaris.
Una nota per al front-end: traduir aquestes sortides d'explicabilitat en experiències d'usuari sense problemes també presenta el seu propi conjunt de consideracions tècniques. Els desenvolupadors front-end sovint s'enfronten al disseny de l'API per recuperar de manera eficient les dades d'explicació, i les implicacions de rendiment (com la generació d'explicacions en temps real per a cada interacció de l'usuari) necessiten una planificació acurada per evitar la latència. Alguns exemples del món real DeliveryDefense d'UPS Capital UPS utilitza IA per assignar una "puntuació de confiança en el lliurament" a les adreces per predir la probabilitat de robatori d'un paquet. El seu programari DeliveryDefense analitza les dades històriques sobre la ubicació, la freqüència de pèrdua i altres factors. Si una adreça té una puntuació baixa, el sistema pot redirigir el paquet de manera proactiva a un punt d'accés UPS segur, proporcionant una explicació de la decisió (p. ex., "Paquet redirigit a una ubicació segura a causa d'un historial de robatori"). Aquest sistema demostra com es pot utilitzar XAI per a la mitigació de riscos i generar la confiança dels clientstransparència. Vehicles Autònoms Aquests vehicles del futur hauran d'utilitzar XAI de manera eficaç per ajudar els seus vehicles a prendre decisions segures i explicables. Quan un cotxe autònom frena de sobte, el sistema pot proporcionar una explicació en temps real de la seva acció, per exemple, identificant un vianant que entra a la carretera. Això no només és crucial per a la comoditat i la confiança dels passatgers, sinó que és un requisit reglamentari per demostrar la seguretat i la responsabilitat del sistema d'IA. IBM Watson Health (i els seus reptes) Tot i que sovint es cita com un exemple general d'IA a l'assistència sanitària, també és un valuós cas d'estudi sobre la importància de la XAI. El fracàs del seu projecte Watson for Oncology posa de manifest què pot sortir malament quan les explicacions no són clares o quan les dades subjacents estan esbiaixades o no localitzades. De vegades, les recomanacions del sistema eren incompatibles amb les pràctiques clíniques locals perquè es basaven en directrius centrades en els EUA. Això serveix com a història d'advertència sobre la necessitat d'una explicabilitat sòlida i conscient del context. El paper de l'investigador UX: identificar i validar explicacions Les nostres solucions de disseny només són efectives si aborden les preguntes adequades dels usuaris en el moment adequat. Una explicació que respon a una pregunta que l'usuari no té és només soroll. Aquí és on la investigació UX es converteix en el teixit connectiu crític en una estratègia XAI, assegurant-nos que expliquem què i com és important als nostres usuaris. El paper de l'investigador és doble: primer, informar l'estratègia identificant on calen explicacions, i segon, validar els dissenys que ofereixen aquestes explicacions. Informar l'estratègia XAI (què cal explicar) Abans de poder dissenyar una única explicació, hem d'entendre el model mental de l'usuari del sistema d'IA. Què creuen que està fent? On són les llacunes entre la seva comprensió i la realitat del sistema? Aquest és el treball fonamental d'un investigador UX. Entrevistes de models mentals: desempaquetant les percepcions dels usuaris dels sistemes d'IA A través d'entrevistes profundes i semiestructurades, els professionals d'UX poden obtenir informació inestimable sobre com els usuaris perceben i entenen els sistemes d'IA. Aquestes sessions estan dissenyades per animar els usuaris a dibuixar o descriure literalment el seu "model mental" intern de com creuen que funciona la IA. Sovint, això implica fer preguntes obertes que demanen als usuaris que expliquin la lògica del sistema, les seves entrades i les seves sortides, així com les relacions entre aquests elements. Aquestes entrevistes són potents perquè sovint revelen profundes idees errònies i suposicions que els usuaris tenen sobre la IA. Per exemple, un usuari que interacciona amb un motor de recomanacions pot afirmar amb confiança que el sistema es basa exclusivament en el seu historial de visualització anterior. És possible que no s'adonin que l'algoritme també incorpora multitud d'altres factors, com ara l'hora del dia en què estan navegant, els elements de tendència actuals a la plataforma o fins i tot els hàbits de visualització d'usuaris similars. Descobrir aquesta bretxa entre el model mental d'un usuari i la lògica real de la IA subjacent és molt important. Ens indica amb precisió quina informació específica hem de comunicar als usuaris per ajudar-los a construir un model mental més precís i robust del sistema. Aquest, al seu torn, és un pas fonamental per fomentar la confiança. Quan els usuaris entenen, fins i tot a un alt nivell, com una IA arriba a les seves conclusions o recomanacions, és més probable que confiïn en els seus resultats i confiïn en la seva funcionalitat. AI Journey Mapping: una immersió profunda en la confiança i l'explicació dels usuaris En mapejar meticulosament el viatge de l'usuari amb una funció impulsada per IA, obtenim informació inestimable sobre els moments precisos on sorgeixen confusió, frustració o fins i tot una profunda desconfiança. Això descobreix moments crítics en què el model mental de l'usuari de com funciona la IA xoca amb el seu comportament real. Penseu en un servei de reproducció de música: la confiança de l'usuari cau en picat quan una recomanació d'una llista de reproducció se sent "atzar", sense cap connexió perceptible amb els seus hàbits d'escolta anteriors o les seves preferències? Aquesta aleatorietat percebuda és un repte directe a l'expectativa de l'usuari de curació intel·ligent i un incompliment de la promesa implícita que la IA entén el seu gust. De la mateixa manera, en una aplicació de gestió de fotografies, els usuaris experimenten una frustració significativa quan una funció d'etiquetatge de fotografies amb intel·ligència artificial identifica erròniament un membre estimat de la família? Aquest error és més que un error tècnic; impacta al cor de la precisió, la personalització i fins i totconnexió emocional. Aquests punts dolorosos són senyals vius que indiquen amb precisió on és necessària una explicació ben situada, clara i concisa. Aquestes explicacions serveixen com a mecanismes de reparació crucials, reparant una ruptura de confiança que, si no es resol, pot provocar l'abandonament de l'usuari. El poder del mapatge de viatges d'IA rau en la seva capacitat de moure'ns més enllà de la simple explicació de la sortida final d'un sistema d'IA. Tot i que és important comprendre què produeix la IA, sovint és insuficient. En canvi, aquest procés ens obliga a centrar-nos a explicar el procés en els moments crítics. Això vol dir abordar:
Per què es va generar una sortida determinada: va ser a causa de dades d'entrada específiques? Un model d'arquitectura en particular? Quins factors van influir en la decisió de l'IA: es van ponderar més determinades funcions? Com va arribar la IA a la seva conclusió: podem oferir una explicació simplificada i anàloga del seu funcionament intern? Quins supòsits va fer l'IA: hi havia comprensió implícita de la intenció o les dades de l'usuari que calia aflorar? Quines són les limitacions de la IA: comunicar clarament allò que la IA no pot fer, o on la seva precisió pot fluctuar, genera expectatives realistes.
El mapatge del viatge d'IA transforma el concepte abstracte de XAI en un marc pràctic i accionable per als professionals de la UX. Ens permet anar més enllà de les discussions teòriques sobre l'explicabilitat i, en canvi, identificar els moments exactes en què la confiança dels usuaris està en joc, proporcionant la informació necessària per crear experiències d'IA potents, transparents, comprensibles i fiables. En última instància, la investigació és com descobrim les incògnites. El vostre equip podria estar debatint com explicar per què es va denegar un préstec, però la investigació podria revelar que els usuaris estan molt més preocupats per entendre com es van utilitzar les seves dades en primer lloc. Sense investigar, simplement endevinem què es pregunten els nostres usuaris. Col·laborant en el disseny (com explicar la vostra IA) Una vegada que la investigació ha identificat què s'ha d'explicar, comença el bucle col·laboratiu amb el disseny. Els dissenyadors poden prototipar els patrons que hem comentat anteriorment (la declaració "Perquè", els controls lliscants interactius) i els investigadors poden posar aquests dissenys davant dels usuaris per veure si aguanten. Proves d'usabilitat i comprensió dirigides: podem dissenyar estudis de recerca que aprovin específicament els components XAI. No només ens preguntem: "És fàcil d'utilitzar?" Preguntem: "Després de veure això, em pots dir amb les teves paraules per què el sistema recomana aquest producte?" o "Mostra'm què faries per veure si pots obtenir un resultat diferent". L'objectiu aquí és mesurar la comprensió i la capacitat d'acció, juntament amb la usabilitat. Mesurar la confiança en si mateixa: podem utilitzar enquestes senzilles i escales de valoració abans i després de mostrar una explicació. Per exemple, podem preguntar a un usuari en una escala de 5 punts: "Quan confies en aquesta recomanació?" abans de veure la declaració "Perquè" i després preguntar-los de nou. Això proporciona dades quantitatives sobre si les nostres explicacions realment estan movent l'agulla de la confiança. Aquest procés crea un bucle potent i iteratiu. Els resultats de la investigació informen el disseny inicial. A continuació, es prova aquest disseny i les noves troballes es transmeten a l'equip de disseny per millorar-les. Potser l'afirmació "Perquè" era massa argolla, o el control lliscant "Què passa si" era més confús que empoderant. Mitjançant aquesta validació col·laborativa, ens assegurem que les explicacions finals siguin tècnicament precises, realment comprensibles, útils i que generin confiança per a les persones que utilitzen el producte. La zona d'explicació de les rams d'or Una paraula crítica de precaució: és possible sobreexplicar. Com en el conte de fades, on Ricitos d'or buscava la farineta que era "just", l'objectiu d'una bona explicació és proporcionar la quantitat adequada de detalls, ni massa ni massa poc. Bombardejar un usuari amb totes les variables d'un model comportarà una sobrecàrrega cognitiva i pot disminuir la confiança. L'objectiu no és convertir l'usuari en un científic de dades. Una solució és la divulgació progressiva.
Comenceu pel simple. Dirigiu-vos amb una declaració concisa "Perquè". Per a la majoria dels usuaris, això serà suficient. Oferir un camí cap al detall. Proporcioneu un enllaç clar i de poca fricció, com ara "Més informació" o "Vegeu com es va determinar això". Revela la complexitat. Darrere d'aquest enllaç, podeu oferir els controls lliscants interactius, les visualitzacions o una llista més detallada de factors que contribueixen.
Aquest enfocament en capes respecta l'atenció i l'experiència de l'usuari, proporcionant la quantitat justad'informació per a les seves necessitats. Imaginem que utilitzeu un dispositiu domèstic intel·ligent que recomana una calefacció òptima en funció de diversos factors. Comenceu amb el senzill: "Actualment, la teva llar s'escalfa a 72 graus, que és la temperatura òptima per estalviar energia i comoditat". Oferiu un camí al detall: a sota, un petit enllaç o botó: "Per què és òptim 72 graus?" Revela la complexitat: fer clic a aquest enllaç podria obrir una pantalla nova que mostra:
Controls lliscants interactius per a la temperatura exterior, la humitat i el vostre nivell de confort preferit, que demostren com aquests ajusten la temperatura recomanada. Una visualització del consum d'energia a diferents temperatures. Una llista de factors que contribueixen com ara "Hora del dia", "Temperatura exterior actual", "Ús històric d'energia" i "Sensors d'ocupació".
És eficaç combinar diversos mètodes XAI i aquest patró d'explicació de la zona d'or, que defensa la divulgació progressiva, ho fomenta implícitament. Podeu començar amb una senzilla declaració "Perquè" (Patró 1) per a una comprensió immediata i, a continuació, oferir un enllaç "Més informació" que reveli un interactiu "Què passa si passaria" (Patró 2) o un "Visual Push-and-Pull" (Patró 4) per a una exploració més profunda. Per exemple, un sistema de sol·licitud de préstec podria indicar inicialment el motiu principal de la denegació (importància de les funcions), després permetre a l'usuari interactuar amb una eina "Què passa si" per veure com els canvis en els seus ingressos o deutes alterarien el resultat (contrafàctics) i, finalment, proporcionar un gràfic detallat "Push-and-Pull" (basat en valors per il·lustrar tots els factors positius i negatius). Aquest enfocament en capes permet als usuaris accedir al nivell de detall que necessiten, quan ho necessiten, evitant la sobrecàrrega cognitiva i alhora proporcionant una transparència integral. La determinació de quines eines i mètodes XAI s'han d'utilitzar és principalment una funció d'una investigació exhaustiva d'UX. Les entrevistes amb models mentals i el mapatge de viatges d'IA són crucials per identificar les necessitats dels usuaris i els punts dolorosos relacionats amb la comprensió i la confiança de la IA. Les entrevistes amb models mentals ajuden a descobrir idees errònies dels usuaris sobre com funciona l'IA, indicant àrees on es necessiten explicacions fonamentals (com la importància de les característiques o les explicacions locals). D'altra banda, el mapatge del viatge de la IA identifica els moments crítics de confusió o desconfiança en la interacció de l'usuari amb la IA, indicant on les explicacions més granulars o interactives (com ara explicacions contrafactuals o basades en valors) serien més beneficioses per reconstruir la confiança i oferir agència.
En última instància, la millor manera d'escollir una tècnica és deixar que la investigació de l'usuari guiï les vostres decisions, assegurant-vos que les explicacions que dissenyeu abordin directament les preguntes i preocupacions reals dels usuaris, en lloc d'oferir simplement detalls tècnics pel seu propi bé. XAI per a agents de raonament profund Alguns dels sistemes d'IA més nous, coneguts com a agents de raonament profund, produeixen una "cadena de pensament" explícita per a cada tasca complexa. No només citen fonts; mostren el camí lògic, pas a pas, que van seguir per arribar a una conclusió. Tot i que aquesta transparència proporciona un context valuós, una reproducció per joc que abasta diversos paràgrafs pot resultar aclaparador per a un usuari que simplement intenta completar una tasca. Els principis de XAI, especialment la Zona d'Explicació de Rics d'Or, s'apliquen directament aquí. Podem curar el viatge, utilitzant la divulgació progressiva per mostrar primer només la conclusió final i el pas més destacat del procés de pensament. Els usuaris poden optar per veure el raonament complet, detallat i de diversos passos quan necessiten comprovar la lògica o trobar un fet específic. Aquest enfocament respecta l'atenció de l'usuari alhora que preserva la total transparència de l'agent. Següents passos: potenciar el vostre viatge XAI L'explicació és un pilar fonamental per crear productes d'IA fiables i eficaços. Per als professionals avançats que busquen impulsar aquest canvi a la seva organització, el viatge s'estén més enllà dels patrons de disseny cap a la defensa i l'aprenentatge continu. Per aprofundir en la vostra comprensió i aplicació pràctica, considereu explorar recursos com el conjunt d'eines AI Explainability 360 (AIX360) d'IBM Research o l'eina What-If de Google, que ofereixen maneres interactives d'explorar el comportament i les explicacions dels models. Col·laborar amb comunitats com el Fòrum d'IA responsable o grups de recerca específics centrats en la IA centrada en l'ésser humà pot proporcionar coneixements i oportunitats de col·laboració inestimables. Finalment, sigueu un defensor de la XAI dins de la vostra pròpia organització.Marc explicabilitat com a inversió estratègica. Penseu en una breu presentació al vostre lideratge o equips multifuncionals: "En invertir en XAI, anirem més enllà de la creació de confiança; accelerarem l'adopció dels usuaris, reduirem els costos de suport facilitant als usuaris la comprensió i mitigarem riscos ètics i reguladors significatius exposant possibles biaixos. Aquest és un bon disseny i un negoci intel·ligent".
La vostra veu, basada en la comprensió pràctica, és crucial per treure la IA de la caixa negra i en una associació col·laborativa amb els usuaris.