Nel mio ultimo articolo abbiamo stabilito una verità fondamentale: affinché gli utenti possano adottare e fare affidamento sull’intelligenza artificiale, devono fidarsi di essa. Abbiamo parlato della fiducia come di un costrutto sfaccettato, costruito sulla percezione dell’abilità, della benevolenza, dell’integrità e della prevedibilità di un’intelligenza artificiale. Ma cosa succede quando un’intelligenza artificiale, nella sua silenziosa saggezza algoritmica, prende una decisione che lascia l’utente confuso, frustrato o addirittura ferito? Una richiesta di mutuo viene respinta, una canzone preferita viene improvvisamente assente da una playlist e un curriculum qualificato viene rifiutato prima che un essere umano lo veda. In questi momenti, abilità e prevedibilità vanno in frantumi e la benevolenza sembra un mondo lontano. La nostra conversazione ora deve evolversi dal perché della fiducia al come della trasparenza. Per affrontare questo problema è emerso il campo dell’Explainable AI (XAI), che si concentra sullo sviluppo di metodi per rendere i risultati dell’IA comprensibili agli esseri umani, ma è spesso considerato una sfida puramente tecnica per i data scientist. Ritengo che sia una sfida progettuale critica per i prodotti che si basano sull’intelligenza artificiale. Il nostro lavoro come professionisti UX è colmare il divario tra il processo decisionale algoritmico e la comprensione umana. Questo articolo fornisce una guida pratica e attuabile su come ricercare e progettare per la spiegabilità. Andremo oltre le parole d'ordine e passeremo ai modelli, traducendo concetti XAI complessi in modelli di progettazione concreti che puoi iniziare a utilizzare oggi stesso. XAI demistificante: concetti fondamentali per i professionisti UX XAI consiste nel rispondere alla domanda dell'utente: "Perché?" Perché mi è stato mostrato questo annuncio? Perchè mi viene consigliato questo film? Perché la mia richiesta è stata respinta? Pensatelo come se l'intelligenza artificiale mostrasse il suo lavoro su un problema di matematica. Senza di essa, hai solo una risposta e sei costretto ad accettarla per fede. Mostrando i passaggi, crei comprensione e fiducia. Consenti inoltre che il tuo lavoro venga ricontrollato e verificato dagli stessi esseri umani su cui influisce. Importanza delle caratteristiche e controfattuali Esistono numerose tecniche che possiamo utilizzare per chiarire o spiegare cosa sta succedendo con l’intelligenza artificiale. Mentre i metodi spaziano dal fornire l’intera logica di un albero decisionale alla generazione di riepiloghi in linguaggio naturale di un output, due dei tipi di informazioni più pratici e di maggiore impatto che i professionisti UX possono introdurre in un’esperienza sono l’importanza delle caratteristiche (Figura 1) e i controfattuali. Questi sono spesso i più semplici da comprendere per gli utenti e i più pratici da implementare per i progettisti.
Importanza delle caratteristiche Questo metodo di spiegabilità risponde: “Quali sono stati i fattori più importanti considerati dall’intelligenza artificiale?” Si tratta di identificare le 2-3 principali variabili che hanno avuto il maggiore impatto sul risultato. È il titolo, non l’intera storia. Esempio: immagina un'intelligenza artificiale che prevede se un cliente abbandonerà (annullerà il servizio). L'importanza delle caratteristiche potrebbe rivelare che "il numero di chiamate di supporto nell'ultimo mese" e i "recenti aumenti di prezzo" sono stati i due fattori più importanti nel determinare se un cliente avrebbe potuto abbandonare.
Controfattuali Questo potente metodo risponde: "Cosa dovrei cambiare per ottenere un risultato diverso?" Questo è fondamentale perché dà agli utenti un senso di agenzia. Trasforma un “no” frustrante in un “non ancora” attuabile. Esempio: immagina un sistema di richiesta di prestito che utilizza l'intelligenza artificiale. A un utente viene negato un prestito. Invece di vedere semplicemente “Richiesta negata”, una spiegazione controfattuale potrebbe anche essere: “Se il tuo punteggio di credito fosse stato di 50 punti più alto, o se il tuo rapporto debito/reddito fosse inferiore del 10%, il tuo prestito sarebbe stato approvato”. Ciò fornisce a Sarah misure chiare e attuabili che può intraprendere per ottenere potenzialmente un prestito in futuro.
Utilizzo dei dati del modello per migliorare la spiegazione Sebbene le specifiche tecniche siano spesso gestite da data scientist, è utile per i professionisti UX sapere che strumenti come LIME (Local Interpretable Model-agnostic Explanations) che spiega le previsioni individuali approssimando il modello localmente e SHAP (SHapley Additive exPlanations) che utilizza un approccio basato sulla teoria dei giochi per spiegare l'output di qualsiasi modello di machine learning sono comunemente usati per estrarre queste informazioni sul "perché" da modelli complessi. Queste librerie aiutano essenzialmente ad analizzare la decisione di un’intelligenza artificiale per mostrare quali input sono stati più influenti per un determinato risultato. Se eseguiti correttamente, i dati alla base della decisione di uno strumento di intelligenza artificiale possono essere utilizzati per raccontare una storia potente. Esaminiamo l'importanza delle funzionalità e i controfattuali e mostriamo come la scienza dei dati alla base della decisione può essere utilizzata per migliorare l'esperienza dell'utente. Ora andiamocoprire l'importanza delle funzionalità con l'assistenza dei dati delle spiegazioni locali (ad esempio, LIME): questo approccio risponde: "Perché l'intelligenza artificiale mi ha fatto questa raccomandazione specifica, proprio ora?" Invece di una spiegazione generale di come funziona il modello, fornisce una motivazione mirata per un singolo caso specifico. È personale e contestuale. Esempio: immagina un sistema di consigli musicali basato sull'intelligenza artificiale come Spotify. Una spiegazione locale risponderebbe: "Perché il sistema ti ha consigliato questa specifica canzone di Adele in questo momento?" La spiegazione potrebbe essere: “Perché recentemente hai ascoltato molte altre ballate e canzoni emozionanti di cantanti donne”.
Infine, esaminiamo l'inclusione delle spiegazioni basate sul valore (ad esempio i dati Shapley Additive Explanations (SHAP) nella spiegazione di una decisione: questa è una versione più sfumata dell'importanza delle caratteristiche che risponde: "In che modo ciascun fattore ha spinto la decisione in un modo o nell'altro?" Aiuta a visualizzare ciò che contava e se la sua influenza era positiva o negativa. Esempio: immagina che una banca utilizzi un modello di intelligenza artificiale per decidere se approvare una richiesta di prestito.
Importanza delle caratteristiche: l’output del modello potrebbe mostrare che il punteggio di credito, il reddito e il rapporto debito/reddito del richiedente sono stati i fattori più importanti nella sua decisione. Questo risponde a ciò che contava. Importanza delle funzionalità con spiegazioni basate sul valore (SHAP): i valori SHAP assumerebbero ulteriormente l'importanza delle funzionalità in base agli elementi del modello.
Per un prestito approvato, SHAP potrebbe mostrare che un punteggio di credito elevato ha spinto significativamente la decisione verso l’approvazione (influenza positiva), mentre un rapporto debito/reddito leggermente superiore alla media l’ha allontanata leggermente (influenza negativa), ma non abbastanza per negare il prestito. Per un prestito negato, SHAP potrebbe rivelare che un reddito basso e un numero elevato di recenti richieste di credito hanno fortemente spinto la decisione verso il rifiuto, anche se il punteggio di credito era decente.
Ciò aiuta l'ufficiale di prestito a spiegare al richiedente oltre ciò che è stato considerato, come ciascun fattore ha contribuito alla decisione finale "sì" o "no". È fondamentale riconoscere che la capacità di fornire buone spiegazioni spesso inizia molto prima nel ciclo di sviluppo. I data scientist e gli ingegneri svolgono un ruolo fondamentale strutturando intenzionalmente modelli e pipeline di dati in modi che supportano intrinsecamente la spiegabilità, piuttosto che cercare di inserirli in un secondo momento. I team di ricerca e progettazione possono favorire ciò avviando conversazioni iniziali con data scientist e ingegneri sulle esigenze di comprensione degli utenti, contribuendo allo sviluppo di metriche di spiegabilità e prototipando in modo collaborativo le spiegazioni per garantire che siano accurate e facili da usare. XAI e intelligenza artificiale etica: disfare pregiudizi e responsabilità Oltre a creare fiducia, XAI svolge un ruolo fondamentale nell’affrontare le profonde implicazioni etiche dell’intelligenza artificiale*, in particolare per quanto riguarda i pregiudizi algoritmici. Le tecniche di spiegabilità, come l’analisi dei valori SHAP, possono rivelare se le decisioni di un modello sono influenzate in modo sproporzionato da attributi sensibili come la razza, il genere o lo stato socioeconomico, anche se questi fattori non sono stati esplicitamente utilizzati come input diretti. Ad esempio, se un modello di approvazione del prestito assegna costantemente valori SHAP negativi ai richiedenti di un determinato gruppo demografico, segnala un potenziale pregiudizio che necessita di indagine, consentendo ai team di emergere e mitigare tali risultati ingiusti. La potenza di XAI comporta anche il potenziale di "lavaggio della spiegabilità". Proprio come il “greenwashing” fuorvia i consumatori riguardo alle pratiche ambientali, il lavaggio della spiegabilità può verificarsi quando le spiegazioni sono progettate per oscurare, piuttosto che illuminare, comportamenti algoritmici problematici o pregiudizi intrinseci. Ciò potrebbe manifestarsi sotto forma di spiegazioni eccessivamente semplicistiche che omettono fattori critici d’influenza, o spiegazioni che inquadrano strategicamente i risultati in modo da apparire più neutrali o equi di quanto non siano in realtà. Sottolinea la responsabilità etica dei professionisti UX nel progettare spiegazioni che siano veramente trasparenti e verificabili. I professionisti UX, in collaborazione con data scientist ed esperti di etica, hanno una responsabilità cruciale nel comunicare il perché di una decisione, nonché i limiti e i potenziali pregiudizi del modello di intelligenza artificiale sottostante. Ciò comporta la definizione di aspettative realistiche da parte degli utenti sull’accuratezza dell’intelligenza artificiale, l’identificazione dei punti in cui il modello potrebbe essere meno affidabile e la fornitura di canali chiari per il ricorso o il feedback quando gli utenti percepiscono risultati ingiusti o errati. Affrontare questi problemi in modo proattivoLe dimensioni etiche ci consentiranno di costruire sistemi di intelligenza artificiale veramente giusti e affidabili. Dai metodi ai mockup: modelli di progettazione XAI pratici Conoscere i concetti è una cosa; progettarli è un'altra. Ecco come possiamo tradurre questi metodi XAI in modelli di progettazione intuitivi. Modello 1: L'affermazione "perché" (per l'importanza delle funzionalità) Questo è il modello più semplice e spesso più efficace. È un’affermazione diretta e semplice che fa emergere la ragione principale dell’azione di un’intelligenza artificiale.
Euristica: sii diretto e conciso. Guida con il motivo più efficace. Evita il gergo a tutti i costi.
Esempio: immagina un servizio di streaming musicale. Invece di presentare semplicemente una playlist "Discover Weekly", aggiungi una piccola riga di microcopy. Consigli per la canzone: "Velvet Morning" Perché ascolti "The Fuzz" e altro rock psichedelico.
Modello 2: Il "what-if" interattivo (per controfattuali) I controfattuali riguardano intrinsecamente l’empowerment. Il modo migliore per rappresentarli è fornire agli utenti strumenti interattivi per esplorare da soli le possibilità. Questo è perfetto per applicazioni finanziarie, sanitarie o altre applicazioni orientate agli obiettivi.
Euristico: rendere le spiegazioni interattive e responsabilizzanti. Consenti agli utenti di vedere la causa e l'effetto delle loro scelte.
Esempio: un'interfaccia per la richiesta di prestito. Dopo un rifiuto, invece di un vicolo cieco, l'utente ottiene uno strumento per determinare come potrebbero svolgersi vari scenari (what-ifs) (vedere Figura 1).
Modello 3: Il filmato dei momenti salienti (per spiegazioni locali) Quando un’intelligenza artificiale esegue un’azione sul contenuto di un utente (come riassumere un documento o identificare volti nelle foto), la spiegazione dovrebbe essere collegata visivamente alla fonte.
Euristico: utilizza segnali visivi come evidenziazioni, contorni o annotazioni per collegare la spiegazione direttamente all'elemento dell'interfaccia che sta spiegando.
Esempio: uno strumento di intelligenza artificiale che riassume articoli lunghi. Punto riassuntivo generato dall'intelligenza artificiale: la ricerca iniziale ha mostrato un divario di mercato per i prodotti sostenibili. Fonte del documento: "... La nostra analisi del secondo trimestre delle tendenze di mercato ha dimostrato in modo conclusivo che nessun grande concorrente stava effettivamente servendo il consumatore eco-consapevole, rivelando un significativo divario di mercato per i prodotti sostenibili..."
Modello 4: L'aspetto visivo "Push-and-Pull" (per spiegazioni basate sul valore) Per decisioni più complesse, gli utenti potrebbero dover comprendere l'interazione dei fattori. Semplici visualizzazioni di dati possono renderlo chiaro senza essere opprimenti.
Euristico: utilizza visualizzazioni di dati semplici e codificate a colori (come i grafici a barre) per mostrare i fattori che hanno influenzato positivamente e negativamente una decisione.
Esempio: un'intelligenza artificiale che esamina il profilo di un candidato per un lavoro. Perché questo candidato ha una corrispondenza del 75%: Fattori che aumentano il punteggio: 5+ anni di esperienza nella ricerca UX Competente in Python Fattori che spingono verso il basso il punteggio: Nessuna esperienza con SaaS B2B
Imparare e utilizzare questi modelli di progettazione nella UX del tuo prodotto AI contribuirà ad aumentare la spiegabilità. Puoi anche utilizzare tecniche aggiuntive che non tratterò in modo approfondito qui. Ciò include quanto segue:
Spiegazioni in linguaggio naturale: tradurre i risultati tecnici di un’intelligenza artificiale in un linguaggio umano semplice e colloquiale che i non esperti possano facilmente comprendere. Spiegazioni contestuali: fornire una motivazione per l'output di un'intelligenza artificiale in un momento e in un luogo specifici, è molto rilevante per il compito dell'utente. Visualizzazioni pertinenti: utilizzo di diagrammi, grafici o mappe di calore per rappresentare visivamente il processo decisionale di un'intelligenza artificiale, rendendo i dati complessi intuitivi e più facili da comprendere per gli utenti.
Una nota per il front-end: tradurre questi risultati di spiegabilità in esperienze utente fluide presenta anche una serie di considerazioni tecniche. Gli sviluppatori front-end spesso sono alle prese con la progettazione delle API per recuperare in modo efficiente i dati delle spiegazioni e le implicazioni sulle prestazioni (come la generazione di spiegazioni in tempo reale per ogni interazione dell'utente) richiedono un'attenta pianificazione per evitare la latenza. Alcuni esempi del mondo reale DeliveryDefense di UPS Capital UPS utilizza l'intelligenza artificiale per assegnare un "punteggio di affidabilità della consegna" agli indirizzi per prevedere la probabilità che un pacco venga rubato. Il loro software DeliveryDefense analizza i dati storici su posizione, frequenza di perdita e altri fattori. Se un indirizzo ha un punteggio basso, il sistema può reindirizzare in modo proattivo il pacco verso un UPS Access Point sicuro, fornendo una spiegazione per la decisione (ad esempio, "Pacco reindirizzato verso un luogo sicuro a causa di precedenti di furto"). Questo sistema dimostra come XAI possa essere utilizzato per mitigare i rischi e rafforzare la fiducia dei clientitrasparenza. Veicoli autonomi Questi veicoli del futuro dovranno utilizzare in modo efficace XAI per aiutare i loro veicoli a prendere decisioni sicure e spiegabili. Quando un’auto a guida autonoma frena improvvisamente, il sistema può fornire una spiegazione in tempo reale per la sua azione, ad esempio identificando un pedone che entra in strada. Ciò non è solo fondamentale per il comfort e la fiducia dei passeggeri, ma è un requisito normativo per dimostrare la sicurezza e la responsabilità del sistema di intelligenza artificiale. IBM Watson Health (e le sue sfide) Sebbene spesso citato come esempio generale di intelligenza artificiale nel settore sanitario, è anche un prezioso caso di studio per l'importanza di XAI. Il fallimento del progetto Watson for Oncology evidenzia cosa può andare storto quando le spiegazioni non sono chiare o quando i dati sottostanti sono distorti o non localizzati. Le raccomandazioni del sistema erano talvolta incoerenti con le pratiche cliniche locali perché basate su linee guida incentrate sugli Stati Uniti. Ciò funge da ammonimento sulla necessità di una spiegabilità solida e consapevole del contesto. Il ruolo del ricercatore UX: individuare e convalidare le spiegazioni Le nostre soluzioni di progettazione sono efficaci solo se rispondono alle domande giuste degli utenti al momento giusto. Una spiegazione che risponde a una domanda che l’utente non ha è solo rumore. È qui che la ricerca sulla UX diventa il tessuto connettivo critico in una strategia XAI, assicurandoci di spiegare cosa e come è realmente importante per i nostri utenti. Il ruolo del ricercatore è duplice: in primo luogo, informare la strategia identificando dove sono necessarie spiegazioni e, in secondo luogo, convalidare i progetti che forniscono tali spiegazioni. Informare la strategia XAI (cosa spiegare) Prima di poter progettare un’unica spiegazione, dobbiamo comprendere il modello mentale del sistema di intelligenza artificiale dell’utente. Cosa credono che stia facendo? Dove sono i divari tra la loro comprensione e la realtà del sistema? Questo è il lavoro fondamentale di un ricercatore UX. Interviste sui modelli mentali: svelare le percezioni degli utenti sui sistemi di intelligenza artificiale Attraverso interviste profonde e semi-strutturate, i professionisti UX possono acquisire preziose informazioni su come gli utenti percepiscono e comprendono i sistemi di intelligenza artificiale. Queste sessioni sono progettate per incoraggiare gli utenti a disegnare o descrivere letteralmente il loro “modello mentale” interno di come credono che funzioni l’intelligenza artificiale. Ciò spesso implica porre domande aperte che spingano gli utenti a spiegare la logica del sistema, i suoi input e output, nonché le relazioni tra questi elementi. Queste interviste sono potenti perché spesso rivelano profonde idee sbagliate e presupposti che gli utenti hanno sull’intelligenza artificiale. Ad esempio, un utente che interagisce con un motore di consigli potrebbe affermare con sicurezza che il sistema si basa esclusivamente sulla cronologia di visualizzazione passata. Potrebbero non rendersi conto che l'algoritmo incorpora anche una moltitudine di altri fattori, come l'ora del giorno in cui stanno navigando, gli elementi di tendenza attuali sulla piattaforma o persino le abitudini di visualizzazione di utenti simili. Scoprire questo divario tra il modello mentale di un utente e l’effettiva logica dell’intelligenza artificiale sottostante è di fondamentale importanza. Ci dice esattamente quali informazioni specifiche dobbiamo comunicare agli utenti per aiutarli a costruire un modello mentale del sistema più accurato e robusto. Questo, a sua volta, è un passo fondamentale per promuovere la fiducia. Quando gli utenti comprendono, anche ad alto livello, come un’intelligenza artificiale arriva alle sue conclusioni o raccomandazioni, è più probabile che si fidino dei suoi risultati e facciano affidamento sulla sua funzionalità. Mappatura del viaggio dell'intelligenza artificiale: un approfondimento sulla fiducia degli utenti e sulla spiegabilità Mappando meticolosamente il percorso dell'utente con una funzionalità basata sull'intelligenza artificiale, otteniamo informazioni preziose sui momenti precisi in cui emergono confusione, frustrazione o addirittura profonda sfiducia. Ciò svela i punti critici in cui il modello mentale dell’utente su come opera l’intelligenza artificiale si scontra con il suo comportamento reale. Considera un servizio di streaming musicale: la fiducia dell'utente crolla quando una raccomandazione su una playlist sembra "casuale", priva di qualsiasi connessione riconoscibile con le sue passate abitudini di ascolto o preferenze dichiarate? Questa casualità percepita è una sfida diretta all’aspettativa dell’utente di una cura intelligente e una violazione della promessa implicita che l’intelligenza artificiale comprenda i suoi gusti. Allo stesso modo, in un'applicazione di gestione delle foto, gli utenti sperimentano una frustrazione significativa quando una funzionalità di tagging delle foto dell'intelligenza artificiale identifica costantemente erroneamente un membro della famiglia caro? Questo errore è più di un problema tecnico; colpisce al cuore in termini di precisione, personalizzazione e persinoconnessione emotiva. Questi punti critici sono segnali vividi che indicano esattamente dove è necessaria una spiegazione ben posizionata, chiara e concisa. Tali spiegazioni fungono da meccanismi di riparazione cruciali, riparando una violazione di fiducia che, se non affrontata, può portare all’abbandono dell’utente. Il potere della mappatura del viaggio dell’intelligenza artificiale risiede nella sua capacità di portarci oltre la semplice spiegazione del risultato finale di un sistema di intelligenza artificiale. Sebbene comprendere ciò che l’intelligenza artificiale ha prodotto sia importante, spesso non è sufficiente. Invece, questo processo ci costringe a concentrarci sulla spiegazione del processo nei momenti critici. Ciò significa affrontare:
Perché è stato generato un particolare output: era dovuto a dati di input specifici? Un modello di architettura particolare? Quali fattori hanno influenzato la decisione dell’IA: alcune funzionalità hanno avuto un peso maggiore? Come l'intelligenza artificiale è arrivata alla sua conclusione: possiamo offrire una spiegazione semplificata e analoga del suo funzionamento interno? Quali presupposti ha fatto l’intelligenza artificiale: c’erano comprensioni implicite delle intenzioni dell’utente o dei dati che dovevano essere emersi? Quali sono i limiti dell’intelligenza artificiale: comunicare chiaramente ciò che l’intelligenza artificiale non può fare o dove la sua precisione potrebbe vacillare crea aspettative realistiche.
La mappatura del viaggio dell'intelligenza artificiale trasforma il concetto astratto di XAI in un quadro pratico e utilizzabile per i professionisti UX. Ci consente di andare oltre le discussioni teoriche sulla spiegabilità e individuare invece i momenti esatti in cui è in gioco la fiducia degli utenti, fornendo le informazioni necessarie per costruire esperienze di intelligenza artificiale potenti, trasparenti, comprensibili e affidabili. In definitiva, la ricerca è il modo in cui scopriamo le incognite. Il tuo team potrebbe discutere su come spiegare il motivo per cui un prestito è stato negato, ma la ricerca potrebbe rivelare che gli utenti sono molto più interessati a capire in primo luogo come sono stati utilizzati i loro dati. Senza ricerca, stiamo semplicemente indovinando cosa si chiedono i nostri utenti. Collaborare alla progettazione (come spiegare la tua intelligenza artificiale) Una volta che la ricerca ha identificato cosa spiegare, inizia il ciclo di collaborazione con il design. I designer possono prototipare i modelli di cui abbiamo discusso in precedenza (l'affermazione "Perché", i dispositivi di scorrimento interattivi) e i ricercatori possono presentare tali progetti agli utenti per vedere se reggono. Test mirati di usabilità e comprensione: possiamo progettare studi di ricerca che testano specificamente i componenti XAI. Non ci chiediamo semplicemente: “È facile da usare?” Chiediamo: "Dopo aver visto questo, puoi dirmi con parole tue perché il sistema ha consigliato questo prodotto?" oppure "Mostrami cosa faresti per vedere se potessi ottenere un risultato diverso". L’obiettivo qui è misurare la comprensione e l’agibilità, insieme all’usabilità. Misurare la fiducia stessa: possiamo utilizzare semplici sondaggi e scale di valutazione prima e dopo la presentazione di una spiegazione. Ad esempio, possiamo chiedere a un utente su una scala a 5 punti: "Quanto ti fidi di questo consiglio?" prima che vedano l'affermazione "Perché", e poi chiediglielo di nuovo in seguito. Ciò fornisce dati quantitativi sul fatto che le nostre spiegazioni stiano effettivamente spostando l’ago della fiducia. Questo processo crea un ciclo potente e iterativo. I risultati della ricerca informano la progettazione iniziale. Il progetto viene quindi testato e i nuovi risultati vengono restituiti al team di progettazione per il perfezionamento. Forse l’affermazione “Perché” era troppo gergale, o il cursore “What-If” era più confuso che conferente. Attraverso questa convalida collaborativa, garantiamo che le spiegazioni finali siano tecnicamente accurate, realmente comprensibili, utili e in grado di creare fiducia per le persone che utilizzano il prodotto. La zona di spiegazione di Riccioli d'oro Un avvertimento critico: è possibile spiegare in modo eccessivo. Come nella fiaba, in cui Riccioli d'oro cercava il porridge "giusto", l'obiettivo di una buona spiegazione è fornire la giusta quantità di dettagli, né troppi né troppo pochi. Bombardare un utente con ogni variabile di un modello porterà a un sovraccarico cognitivo e può effettivamente diminuire la fiducia. L’obiettivo non è rendere l’utente un data scientist. Una soluzione è la divulgazione progressiva.
Inizia con il semplice. Inizia con una concisa dichiarazione "Perché". Per la maggior parte degli utenti, questo sarà sufficiente. Offrire un percorso verso i dettagli. Fornisci un collegamento chiaro e semplice come "Ulteriori informazioni" o "Guarda come è stato determinato". Rivelare la complessità. Dietro quel collegamento puoi offrire cursori interattivi, visualizzazioni o un elenco più dettagliato di fattori che contribuiscono.
Questo approccio a più livelli rispetta l'attenzione e l'esperienza dell'utente, fornendone la giusta quantitàdi informazioni per le loro esigenze. Immaginiamo che tu stia utilizzando un dispositivo domestico intelligente che consiglia il riscaldamento ottimale in base a vari fattori. Inizia con il semplice: “La tua casa è attualmente riscaldata a 72 gradi, che è la temperatura ottimale per il risparmio energetico e il comfort”. Offri un percorso verso i dettagli: sotto, un piccolo collegamento o pulsante: "Perché 72 gradi sono ottimali?" Rivela la complessità: facendo clic su quel collegamento si potrebbe aprire una nuova schermata che mostra:
Cursori interattivi per la temperatura esterna, l'umidità e il livello di comfort preferito, che mostrano come questi regolano la temperatura consigliata. Una visualizzazione del consumo energetico a diverse temperature. Un elenco di fattori che contribuiscono come "Ora del giorno", "Temperatura esterna attuale", "Consumo energetico storico" e "Sensori di presenza".
È efficace combinare più metodi XAI e questo modello Goldilocks Zone of Explanation, che sostiene la divulgazione progressiva, lo incoraggia implicitamente. Potresti iniziare con una semplice affermazione "Perché" (modello 1) per una comprensione immediata, quindi offrire un collegamento "Ulteriori informazioni" che rivela un "What-If" interattivo (modello 2) o un "Push-and-Pull Visual" (modello 4) per un'esplorazione più approfondita. Ad esempio, un sistema di richiesta di prestito potrebbe inizialmente indicare il motivo principale del rifiuto (importanza della funzionalità), quindi consentire all'utente di interagire con uno strumento "What-If" per vedere come le modifiche al reddito o al debito altererebbero il risultato (controfattuali) e, infine, fornire un grafico dettagliato "Push-and-Pull" (spiegazione basata sul valore) per illustrare i contributi positivi e negativi di tutti i fattori. Questo approccio a più livelli consente agli utenti di accedere al livello di dettaglio di cui hanno bisogno, quando ne hanno bisogno, prevenendo il sovraccarico cognitivo e garantendo allo stesso tempo una trasparenza completa. Determinare quali strumenti e metodi XAI utilizzare è principalmente una funzione di una ricerca approfondita sulla UX. Le interviste ai modelli mentali e la mappatura del percorso dell’intelligenza artificiale sono cruciali per individuare le esigenze degli utenti e i punti critici legati alla comprensione e alla fiducia nell’intelligenza artificiale. Le interviste sui modelli mentali aiutano a svelare le idee sbagliate degli utenti su come funziona l'intelligenza artificiale, indicando le aree in cui sono necessarie spiegazioni fondamentali (come l'importanza delle funzionalità o spiegazioni locali). La mappatura del viaggio dell’intelligenza artificiale, d’altra parte, identifica i momenti critici di confusione o sfiducia nell’interazione dell’utente con l’intelligenza artificiale, segnalando dove spiegazioni più granulari o interattive (come controfattuali o spiegazioni basate sul valore) sarebbero più utili per ricostruire la fiducia e fornire agenzia.
In definitiva, il modo migliore per scegliere una tecnica è lasciare che la ricerca degli utenti guidi le tue decisioni, assicurandoti che le spiegazioni che progetti rispondano direttamente alle domande e alle preoccupazioni degli utenti reali, piuttosto che offrire semplicemente dettagli tecnici fine a se stessi. XAI per agenti di ragionamento profondo Alcuni dei più recenti sistemi di intelligenza artificiale, noti come agenti di ragionamento profondo, producono una “catena di pensiero” esplicita per ogni compito complesso. Non si limitano a citare le fonti; mostrano il percorso logico e graduale che hanno seguito per arrivare ad una conclusione. Sebbene questa trasparenza fornisca un contesto prezioso, una sequenza che si estende su diversi paragrafi può sembrare opprimente per un utente che sta semplicemente cercando di completare un'attività. I principi di XAI, in particolare la Zona di Spiegazione di Riccioli d'Oro, si applicano direttamente qui. Possiamo curare il viaggio, utilizzando la divulgazione progressiva per mostrare prima solo la conclusione finale e il passaggio più saliente del processo di pensiero. Gli utenti possono quindi scegliere di visualizzare il ragionamento completo, dettagliato e in più fasi quando hanno bisogno di ricontrollare la logica o trovare un fatto specifico. Questo approccio rispetta l’attenzione dell’utente preservando la piena trasparenza dell’agente. Passaggi successivi: potenziare il tuo viaggio XAI La spiegabilità è un pilastro fondamentale per costruire prodotti di intelligenza artificiale affidabili ed efficaci. Per i professionisti avanzati che desiderano guidare questo cambiamento all'interno della propria organizzazione, il viaggio si estende oltre i modelli di progettazione, fino al sostegno e all'apprendimento continuo. Per approfondire la tua comprensione e l'applicazione pratica, valuta la possibilità di esplorare risorse come il toolkit AI Explainability 360 (AIX360) di IBM Research o lo strumento What-If di Google, che offrono modi interattivi per esplorare il comportamento e le spiegazioni del modello. Il coinvolgimento di comunità come il Responsible AI Forum o di specifici gruppi di ricerca focalizzati sull’intelligenza artificiale incentrata sull’uomo può fornire preziose informazioni e opportunità di collaborazione. Infine, sii un sostenitore di XAI all'interno della tua organizzazione.Inquadrare la spiegabilità come un investimento strategico. Prendi in considerazione una breve presentazione alla tua leadership o ai team interfunzionali: "Investendo in XAI, andremo oltre la creazione di fiducia; accelereremo l'adozione da parte degli utenti, ridurremo i costi di supporto consentendo agli utenti di comprendere e mitigheremo significativi rischi etici e normativi esponendo potenziali pregiudizi. Questo è buon design e business intelligente."
La tua voce, fondata sulla comprensione pratica, è fondamentale per portare l’intelligenza artificiale fuori dalla scatola nera e in una partnership collaborativa con gli utenti.