Progettare per agenti autonomi presenta una frustrazione unica. Affidiamo un compito complesso a un'intelligenza artificiale, questa svanisce per 30 secondi (o 30 minuti) e poi ritorna con un risultato. Fissiamo lo schermo. Ha funzionato? Did it hallucinate? Ha controllato il database di conformità o ha saltato quel passaggio? Solitamente rispondiamo a questa ansia con uno dei due estremi. O manteniamo il sistema una scatola nera, nascondendo tutto per mantenere la semplicità, oppure ci lasciamo prendere dal panico e forniamo un Dump dei dati, trasmettendo in streaming ogni riga di registro e chiamata API all'utente. Nessuno dei due approcci affronta direttamente le sfumature necessarie per fornire agli utenti il livello ideale di trasparenza. The Black Box leaves users feeling powerless. Il Data Dump crea cecità alle notifiche, distruggendo l'efficienza che l'agente aveva promesso di fornire. Gli utenti ignorano il flusso costante di informazioni finché qualcosa non si rompe, a quel punto non hanno il contesto per risolverlo. We need an organized way to find the balance. Nel mio articolo precedente, "Designing For Agentic AI", abbiamo esaminato gli elementi dell'interfaccia che creano fiducia, come mostrare in anticipo l'azione prevista dall'IA (Anteprime intento) e dare agli utenti il controllo su quanto fa l'IA da sola (Autonomy Dials). Ma sapere quali elementi utilizzare è solo una parte della sfida. La domanda più difficile per i progettisti è sapere quando usarli. Come fai a sapere quale momento specifico in un flusso di lavoro di 30 secondi richiede un'anteprima dell'intento e quale può essere gestito con una semplice voce di registro? Questo articolo fornisce un metodo per rispondere a questa domanda. We will walk through the Decision Node Audit. Questo processo riunisce progettisti e ingegneri nella stessa stanza per mappare la logica di backend sull'interfaccia utente. Imparerai come individuare i momenti esatti in cui un utente ha bisogno di un aggiornamento su ciò che sta facendo l'intelligenza artificiale. Tratteremo anche una matrice Impatto/Rischio che aiuterà a stabilire la priorità quali nodi decisionali visualizzare e qualsiasi modello di progettazione associato da abbinare a tale decisione. Transparency Moments: A Case Study Example Prendiamo in considerazione Meridian (nome di fantasia), una compagnia assicurativa che utilizza un'intelligenza artificiale per elaborare le richieste di indennizzo iniziali. L'utente carica le foto dei danni al veicolo e il rapporto della polizia. L'agente poi scompare per un minuto prima di tornare con una valutazione del rischio e una proposta di intervallo di pagamento. Inizialmente, l'interfaccia di Meridian mostrava semplicemente il calcolo dello stato del reclamo. Gli utenti sono diventati frustrati. Avevano presentato diversi documenti dettagliati e non erano sicuri che l'IA avesse esaminato anche il rapporto della polizia, che conteneva circostanze attenuanti. The Black Box created distrust. Per risolvere questo problema, il team di progettazione ha condotto un audit del nodo decisionale. Hanno scoperto che l’intelligenza artificiale eseguiva tre passaggi distinti, basati sulla probabilità, con numerosi passaggi più piccoli incorporati:
Analisi delle immaginiL'agente ha confrontato le foto dei danni con un database di tipici scenari di incidenti automobilistici per stimare il costo della riparazione. This involved a confidence score. Revisione testuale Ha scansionato il verbale della polizia alla ricerca di parole chiave che incidono sulla responsabilità (ad esempio, colpa, condizioni meteorologiche, sobrietà). Ciò ha comportato una valutazione probabilistica della legittimazione ad agire. Riferimento incrociato alla polizza Ha confrontato i dettagli della richiesta con i termini della polizza specifici dell'utente, cercando eccezioni o limiti di copertura. This also involved probabilistic matching.
Il team ha trasformato questi passaggi in momenti di trasparenza. The interface sequence was updated to:
Valutazione delle foto dei danni: confronto con 500 profili di impatto di veicoli. Revisione del rapporto della polizia: analisi delle parole chiave sulla responsabilità e dei precedenti legali. Verifica della copertura della polizza: verifica delle esclusioni specifiche nel tuo piano.
Il sistema ha comunque impiegato lo stesso tempo, ma la comunicazione esplicita sul funzionamento interno dell’agente ha ripristinato la fiducia degli utenti. Gli utenti capivano che l’intelligenza artificiale stava svolgendo il compito complesso per cui era stata progettata e sapevano esattamente dove concentrare la loro attenzione se la valutazione finale sembrava imprecisa. Questa scelta progettuale ha trasformato un momento di ansia in un momento di connessione con l'utente. Applicazione della matrice impatto/rischio: cosa abbiamo scelto di nascondere Nella maggior parte delle esperienze di intelligenza artificiale non mancano eventi e nodi decisionali che potrebbero potenzialmente essere visualizzati durante l’elaborazione. Uno dei risultati più critici dell’audit è stato decidere cosa mantenere invisibile. In the Meridian example, the backend logs generated 50+ events per claim. Avremmo potuto visualizzare per impostazione predefinita ciascun evento mentre veniva elaborato come parte dell'interfaccia utente. Abbiamo invece applicato la matrice di rischio per eliminarli:
Log Event: Pinging ServerWest-2 for redundancy check. Verdetto del filtro: Nascondi. (Low Stakes, High Technicality).
Evento di registro: confronto tra la stima della riparazione e il valore del BlueBook. Verdetto del filtro: Mostra. (High Stakes, impacts user’s payout).
Eliminando i dettagli non necessari, le informazioni importanti, come la verifica della copertura, hanno avuto un impatto maggiore. Abbiamo creato un'interfaccia aperta e progettato un'esperienza aperta. Questo approccio utilizza l’idea che le persone si sentono meglio riguardo a un servizio quando possono vedere il lavoro svolto. Mostrando i passaggi specifici (Valutazione, Revisione, Verifica), abbiamo cambiato un'attesa di 30 secondi da un momento di preoccupazione ("È rotto?") a un momento in cui si sente che si sta creando qualcosa di prezioso ("Sta pensando"). Diamo ora uno sguardo più da vicino a come possiamo rivedere il processo decisionale nei nostri prodotti per identificare i momenti chiave che richiedono informazioni chiare. L'audit del nodo decisionale La trasparenza viene meno quando la consideriamo una scelta di stile piuttosto che un requisito funzionale. Abbiamo la tendenza a chiederci: "Come dovrebbe essere l'interfaccia utente?" prima di chiederci: "Cosa sta effettivamente decidendo l'agente?" Il Decision Node Audit è un modo semplice per rendere i sistemi di intelligenza artificiale più facili da comprendere. Funziona mappando attentamente il processo interno del sistema. The main goal is to find and clearly define the exact moments where the system stops following its set rules and instead makes a choice based on chance or estimation. Mappando questa struttura, i creatori possono mostrare questi punti di incertezza direttamente alle persone che utilizzano il sistema. Ciò trasforma gli aggiornamenti di sistema da dichiarazioni vaghe a rapporti specifici e affidabili su come l’IA è giunta alla sua conclusione. Oltre al caso di studio assicurativo di cui sopra, di recente ho lavorato con un team building di un agente di approvvigionamento. Il sistema ha esaminato i contratti dei fornitori e segnalato i rischi. Originariamente, lo schermo mostrava una semplice barra di avanzamento: “Revisione dei contratti”. Gli utenti lo odiavano. La nostra ricerca ha indicato che si sentivano in ansia per le implicazioni legali di una clausola mancante. Abbiamo risolto questo problema conducendo un audit del nodo decisionale. Alla conclusione di questo articolo ho incluso una lista di controllo dettagliata per condurre questo audit. Abbiamo organizzato una sessione con gli ingegneri e abbiamo illustrato come funziona il sistema. Abbiamo identificato i “punti decisionali”: momenti in cui l’IA doveva scegliere tra due buone opzioni. Nei programmi per computer standard, il processo è chiaro: se accade A, allora accadrà sempre B. Nei sistemi di intelligenza artificiale, il processo è spesso basato sul caso. L'intelligenza artificiale ritiene che A sia probabilmente la scelta migliore, ma potrebbe esserne certa solo al 65%. Nel sistema contrattuale, abbiamo trovato un momento in cui l’IA ha verificato i termini di responsabilità rispetto alle nostre regole aziendali. It was rarely a perfect match. L'intelligenza artificiale doveva decidere se una corrispondenza del 90% era sufficiente. This was a key decision point.
Una volta identificato questo nodo, lo abbiamo esposto all'utente. Invece di "Revisione dei contratti", l'interfaccia è stata aggiornata per dire: "La clausola di responsabilità varia dal modello standard. Analisi del livello di rischio." This specific update gave users confidence. Sapevano che l'agente aveva controllato la clausola di responsabilità. Hanno capito il motivo del ritardo e hanno acquisito la fiducia che l'azione desiderata si stava verificando nel back-end. Sapevano anche dove approfondire una volta che l'agente aveva generato il contratto. Per verificare come l'intelligenza artificiale prende decisioni, è necessario lavorare a stretto contatto con ingegneri, product manager, analisti aziendali e persone chiave che prendono le scelte (spesso nascoste) che incidono sul funzionamento dello strumento di intelligenza artificiale. Draw out the steps the tool takes. Segna ogni punto in cui il processo cambia direzione perché viene soddisfatta una probabilità. Questi sono i luoghi in cui dovresti concentrarti per essere più trasparente. Come mostrato nella Figura 2 di seguito, l'audit del nodo decisionale prevede questi passaggi:
Riunisci il team: coinvolgi i proprietari dei prodotti, gli analisti aziendali, i progettisti, i decisori chiave e gli ingegneri che hanno creato l'intelligenza artificiale. Ad esempio, Pensa a un team di prodotto che crea uno strumento di intelligenza artificiale progettato per rivedere contratti legali disordinati. Il team comprende il progettista UX, il product manager, il ricercatore UX, un avvocato praticante che funge da esperto in materia e l'ingegnere backend che ha scritto il codice di analisi del testo.
Disegna l'intero processo: documenta ogni passaggio compiuto dall'intelligenza artificiale, dalla prima azione dell'utente al risultato finale. Il team sta davanti a una lavagna e disegna l'intera sequenza per un flusso di lavoro chiave che coinvolge l'intelligenza artificiale alla ricerca di una clausola di responsabilità in un contratto complesso. L'avvocato caricaun PDF di cinquanta pagine → Il sistema converte il documento in testo leggibile. → L'IA scansiona le pagine alla ricerca di clausole di responsabilità. → L'utente attende. → Qualche istante o minuto dopo, lo strumento evidenzia i paragrafi trovati in giallo sull'interfaccia utente. Lo fanno anche per molti altri flussi di lavoro supportati dallo strumento.
Scopri dove le cose non sono chiare: guarda la mappa del processo per qualsiasi punto in cui l’intelligenza artificiale confronta opzioni o input che non hanno una corrispondenza perfetta. Il team guarda la lavagna per individuare i passaggi ambigui. La conversione di un'immagine in testo segue regole rigide. Trovare una clausola di responsabilità specifica comporta congetture. Ogni azienda scrive queste clausole in modo diverso, quindi l’intelligenza artificiale deve valutare più opzioni e fare una previsione invece di trovare una corrispondenza esatta delle parole.
Identify the ‘best guess’ steps: For each unclear spot, check if the system uses a confidence score (for example, is it 85% sure?). Questi sono i punti in cui l'IA fa la scelta finale. Il sistema deve indovinare (dare una probabilità) quali paragrafi assomigliano maggiormente a una clausola di responsabilità standard. It assigns a confidence score to its best guess. That guess is a decision node. L'interfaccia deve comunicare all'avvocato che sta evidenziando una potenziale corrispondenza, anziché dichiarare di aver trovato la clausola definitiva.
Esaminare la scelta: per ogni punto di scelta, capire i calcoli interni specifici o il confronto da eseguire (ad esempio, abbinare una parte di un contratto a una polizza o confrontare l'immagine di un'auto rotta con una libreria di foto di auto danneggiate). L'ingegnere spiega che il sistema confronta i vari paragrafi con un database di clausole di responsabilità standard di casi aziendali precedenti. Calcola un punteggio di somiglianza del testo per decidere una corrispondenza in base alle probabilità.
Scrivi spiegazioni chiare: crea messaggi per l'utente che descrivono chiaramente l'azione interna specifica che si verifica quando l'IA fa una scelta. Il progettista del contenuto scrive un messaggio specifico per questo esatto momento. Il testo recita: Confronto del testo del documento con le clausole aziendali standard per identificare potenziali rischi di responsabilità.
Aggiorna lo schermo: inserisci queste nuove e chiare spiegazioni nell'interfaccia utente, sostituendo messaggi vaghi come "Revisione dei contratti". Il team di progettazione rimuove la casella di selezione generica di caricamento Processing PDF. Inseriscono la nuova spiegazione in una barra di stato situata proprio sopra il visualizzatore di documenti mentre l'IA pensa.
Verifica l'attendibilità: assicurati che i nuovi messaggi sullo schermo forniscano agli utenti un motivo semplice per qualsiasi tempo di attesa o risultato, il che dovrebbe farli sentire più sicuri e fiduciosi.
La matrice impatto/rischio Dopo aver osservato da vicino il processo dell’intelligenza artificiale, probabilmente troverai molti punti in cui fa una scelta. Un’intelligenza artificiale potrebbe fare dozzine di piccole scelte per un singolo compito complesso. Mostrarli tutti crea troppe informazioni non necessarie. You need to group these choices. Puoi utilizzare una matrice impatto/rischio per ordinare queste scelte in base al tipo di azione(i) che l’IA sta intraprendendo. Here are examples of impact/risk matrices: Innanzitutto, cerca decisioni a bassa posta in gioco e a basso impatto. Posta in gioco bassa/impatto basso
Esempio: organizzare una struttura di file o rinominare un documento. Transparency Need: Minimal. È sufficiente una discreta notifica di avviso o una voce di registro. Users can undo these actions easily.
Quindi identificare le decisioni ad alto rischio e ad alto impatto. High Stakes / High Impact
Esempio: rifiutare una richiesta di prestito o eseguire un'operazione di compravendita di azioni. Esigenza di trasparenza: elevata. These actions require Proof of Work. Il sistema deve dimostrare la logica prima o immediatamente mentre agisce.
Considera un bot di trading finanziario che tratta tutti gli ordini di acquisto/vendita allo stesso modo. Esegue un'operazione da $ 5 con la stessa opacità di un'operazione da $ 50.000. Gli utenti potrebbero chiedersi se lo strumento riconosca il potenziale impatto della trasparenza sulla negoziazione di ingenti importi in dollari. Hanno bisogno che il sistema si fermi e mostri il suo lavoro per le operazioni ad alto rischio. La soluzione è introdurre uno stato di logica di revisione per qualsiasi transazione che superi uno specifico importo in dollari, consentendo all'utente di vedere i fattori che guidano la decisione prima dell'esecuzione. Mappatura dei nodi sui modelli: una rubrica per la selezione dei modelli di progettazione Una volta identificati i nodi decisionali chiave della tua esperienza, devi decidere quale modello di interfaccia utente si applica a ciascuno di essi che visualizzerai. In Designing For Agentic AI, we introduced patterns like the Intent Preview (for high-stakes control) and the Action Audit (for retrospective safety). Il fattore decisivo nella scelta tra loro è la reversibilità. Filtriamo ogninodo decisionale attraverso la matrice di impatto al fine di assegnare il modello corretto: Alta posta in gioco e irreversibile: questi nodi richiedono un'anteprima dell'intento. Poiché l'utente non può annullare facilmente l'azione (ad esempio, eliminare permanentemente un database), il momento di trasparenza deve avvenire prima dell'esecuzione. Il sistema deve fare una pausa, spiegare il suo intento e richiedere conferma. Alta posta in gioco e reversibile: questi nodi possono fare affidamento sul modello Action Audit & Undo. Se l'agente di vendita basato sull'intelligenza artificiale sposta un lead in una pipeline diversa, può farlo in modo autonomo purché informi l'utente e offra un pulsante Annulla immediato. Classificando rigorosamente i nodi in questo modo, evitiamo la “fatica da allerta”. Riserviamo l'anteprima dell'intento ad alto attrito solo per i momenti veramente irreversibili, mentre facciamo affidamento sull'audit dell'azione per mantenere la velocità per tutto il resto.
Reversibile Irreversibile Basso impatto Tipo: Auto-ExecuteUI: Toast passivo / LogEx: ridenominazione di un file Tipo: ConfermaUI: opzione di annullamento sempliceEs: archiviazione di un'e-mail Alto impatto Tipo: ReviewUI: notifica + Review TrailEx: invio di una bozza a un cliente Tipo: anteprima intentoUI: modale/esplicita PermissionEx: eliminazione di un server
Tabella 1: La matrice di impatto e reversibilità può quindi essere utilizzata per mappare i momenti di trasparenza in modelli di progettazione. Qualitative Validation: “The Wait, Why?” Test Puoi identificare potenziali nodi su una lavagna, ma devi convalidarli con il comportamento umano. Devi verificare se la tua mappa corrisponde al modello mentale dell'utente. I use a protocol called the “Wait, Why?” Test. Ask a user to watch the agent complete a task. Instruct them to speak aloud. Ogni volta che fanno una domanda: "Aspetta, perché ha fatto questo?" o "È bloccato?" o "Mi ha sentito?" — you mark a timestamp. These questions signal user confusion. The user feels their control slipping away. Ad esempio, in uno studio condotto su un assistente alla pianificazione sanitaria, gli utenti hanno osservato l'agente prenotare un appuntamento. The screen sat static for four seconds. I partecipanti chiedevano costantemente: “Sta controllando il mio calendario o quello del medico?”
Quella domanda ha rivelato un momento di trasparenza mancante. Il sistema doveva dividere l'attesa di quattro secondi in due passaggi distinti: "Verifica della disponibilità" seguito da "Sincronizzazione con la pianificazione del fornitore". Questo piccolo cambiamento ha ridotto i livelli di ansia espressi dagli utenti. La trasparenza fallisce quando descrive solo un'azione di sistema. L’interfaccia deve collegare il processo tecnico all’obiettivo specifico dell’utente. Una schermata che mostra "Verifica della tua disponibilità" risulta piatta perché priva di contesto. L'utente capisce che l'IA sta guardando un calendario, ma non sa perché. We must pair the action with the outcome. Il sistema deve dividere l'attesa di quattro secondi in due passaggi distinti. Innanzitutto, l'interfaccia visualizza "Controlla il tuo calendario per trovare gli orari di apertura". Quindi si aggiorna in "Sincronizzazione con il programma del fornitore per garantire l'appuntamento". Ciò fonda il processo tecnico nella vita reale dell’utente. Considera un'intelligenza artificiale che gestisce l'inventario per un bar locale. The system encounters a supply shortage. Un'interfaccia che legge "contattare il fornitore" o "opzioni di revisione" crea ansia. Il manager si chiede se il sistema stia annullando l'ordine o acquistando un'alternativa costosa. Un approccio migliore è spiegare il risultato previsto: “Valutare fornitori alternativi per mantenere il programma di consegna del venerdì”. Questo dice all'utente esattamente cosa sta cercando di ottenere l'intelligenza artificiale. Operationalizing the Audit Hai completato l'audit del nodo decisionale e filtrato il tuo elenco attraverso la matrice di impatto e rischio. Ora hai un elenco di momenti essenziali per essere trasparenti. Next, you need to create them in the UI. Questo passaggio richiede il lavoro di squadra tra diversi reparti. Non puoi progettare la trasparenza da solo utilizzando uno strumento di progettazione. È necessario capire come funziona il sistema dietro le quinte. Start with a Logic Review. Meet with your lead system designer. Bring your map of decision nodes. È necessario confermare che il sistema possa effettivamente condividere questi stati. Spesso trovo che il sistema tecnico non rivela lo stato esatto che voglio mostrare. L'ingegnere potrebbe dire che il sistema restituisce semplicemente uno stato generale di "funzionamento". You must push for a detailed update. You need the system to send a specific noticequando passa dalla lettura del testo al controllo delle regole. Senza questa connessione tecnica, il tuo progetto è impossibile da realizzare. Next, involve the Content Design team. Hai la ragione tecnica per l’azione dell’IA, ma hai bisogno di una spiegazione chiara e a misura d’uomo. Gli ingegneri forniscono il processo sottostante, ma i progettisti di contenuti forniscono il modo in cui viene comunicato. Do not write these messages alone. Uno sviluppatore potrebbe scrivere "Funzione di esecuzione 402", che è tecnicamente corretto ma privo di significato per l'utente. Un designer potrebbe scrivere “Thinking”, che è amichevole ma troppo vago. Un content strategist trova la giusta via di mezzo. Creano frasi specifiche, come “Scansione dei rischi di responsabilità”, che mostrano che l’intelligenza artificiale funziona senza confondere l’utente. Finally, test the transparency of your messages. Non aspettare fino alla realizzazione del prodotto finale per vedere se il testo funziona. Conduco test comparativi su prototipi semplici dove l'unica cosa che cambia è il messaggio di stato. Ad esempio, mostro a un gruppo (Gruppo A) un messaggio che dice "Verifica identità" e a un altro gruppo (Gruppo B) un messaggio che dice "Controllo database governativi" (questi sono esempi inventati, ma capisci il punto). Then I ask them which AI feels safer. Scoprirai spesso che alcune parole causano preoccupazione, mentre altre creano fiducia. Devi considerare la formulazione come qualcosa che devi testare e dimostrare efficace. How This Changes the Design Process La conduzione di questi audit ha il potenziale per rafforzare il modo in cui un team lavora insieme. We stop handing off polished design files. Iniziamo a utilizzare prototipi disordinati e fogli di calcolo condivisi. The core tool becomes a transparency matrix. Gli ingegneri e i progettisti di contenuti modificano insieme questo foglio di calcolo. Mappano gli esatti codici tecnici alle parole che l'utente leggerà. I team sperimenteranno attriti durante la revisione della logica. Immagina un progettista che chiede all'ingegnere come l'intelligenza artificiale decide di rifiutare una transazione inserita in una nota spese. L'ingegnere potrebbe dire che il backend emette solo un codice di stato generico come "Errore: dati mancanti". Il progettista afferma che queste non sono informazioni utilizzabili sullo schermo. Il progettista negozia con l'ingegnere per creare un gancio tecnico specifico. L'ingegnere scrive una nuova regola in modo che il sistema segnali esattamente cosa manca, ad esempio un'immagine della ricevuta mancante. I content designer fungono da traduttori durante questa fase. Uno sviluppatore potrebbe scrivere una stringa tecnicamente accurata come "Calcolo della soglia di confidenza per la corrispondenza dei fornitori". Un progettista di contenuti traduce quella stringa in una frase che crea fiducia per un risultato specifico. Lo stratega lo riscrive come “Confronto dei prezzi dei venditori locali per garantire la consegna del venerdì”. The user understands the action and the result. L'intero team interfunzionale partecipa alle sessioni di test degli utenti. Guardano una persona reale reagire a diversi messaggi di stato. Vedere un utente farsi prendere dal panico perché sullo schermo viene visualizzato il messaggio "Esecuzione di un'operazione" costringe il team a riconsiderare il proprio approccio. Gli ingegneri e i progettisti si allineano su una formulazione migliore. Cambiano il testo in “Verifica di fondi sufficienti” prima di acquistare azioni. Testing together guarantees the final interface serves both the system logic and the user’s peace of mind. Ci vuole tempo per incorporare queste attività aggiuntive nel calendario del team. Tuttavia, il risultato finale dovrebbe essere un team che comunica in modo più aperto e utenti che comprendono meglio cosa stanno facendo per loro conto gli strumenti basati sull’intelligenza artificiale (e perché). Questo approccio integrato è una pietra miliare nella progettazione di esperienze IA veramente affidabili. La fiducia è una scelta di design Spesso consideriamo la fiducia come un sottoprodotto emotivo di una buona esperienza utente. È più facile vedere la fiducia come il risultato meccanico di una comunicazione prevedibile. Costruiamo la fiducia mostrando le informazioni giuste al momento giusto. Lo distruggiamo travolgendo l'utente o nascondendo completamente il macchinario. Inizia con il Decision Node Audit, in particolare per gli strumenti e i prodotti di intelligenza artificiale degli agenti. Trova i momenti in cui il sistema emette un giudizio. Map those moments to the Risk Matrix. If the stakes are high, open the box. Mostra il lavoro. Nel prossimo articolo vedremo come progettare questi momenti: come scrivere il testo, strutturare l'interfaccia utente e gestire gli inevitabili errori quando l'agente sbaglia. Appendix: The Decision Node Audit Checklist Phase 1: Setup and Mapping ✅ Riunisci il team: coinvolgi i proprietari del prodotto, gli analisti aziendali, i designer,i decisori chiave e gli ingegneri che hanno creato l’intelligenza artificiale. Suggerimento: hai bisogno che gli ingegneri spieghino l'effettiva logica del backend. Do not attempt this step alone. ✅ Disegna l'intero processo: documenta ogni passaggio compiuto dall'intelligenza artificiale, dalla prima azione dell'utente al risultato finale. Suggerimento: una sessione fisica alla lavagna spesso è la soluzione migliore per illustrare questi passaggi iniziali. Phase 2: Locating the Hidden Logic ✅ Trova dove le cose non sono chiare: guarda la mappa del processo per qualsiasi punto in cui l'IA confronta opzioni o input che non hanno una corrispondenza perfetta. ✅ Identifica i passaggi migliori: per ogni punto poco chiaro, controlla se il sistema utilizza un punteggio di confidenza. Ad esempio, chiedi se il sistema è sicuro all'85%. Questi sono i punti in cui l'IA fa la scelta finale. ✅ Esamina la scelta: per ogni punto di scelta, scopri i calcoli interni specifici o il confronto che viene effettuato. Un esempio è abbinare una parte di un contratto a una polizza. Un altro esempio riguarda il confronto tra l'immagine di un'auto rotta e una libreria di foto di auto danneggiate. Phase 3: Creating the User Experience ✅ Scrivi spiegazioni chiare: crea messaggi per l'utente che descrivono chiaramente l'azione interna specifica che si verifica quando l'IA fa una scelta. Hint: Ground your messages in concrete reality. Se un'intelligenza artificiale prenota un incontro con un cliente in un bar locale, comunica all'utente che il sistema sta controllando il sistema di prenotazione del bar. ✅ Aggiorna lo schermo: inserisci queste nuove e chiare spiegazioni nell'interfaccia utente. Sostituisci messaggi vaghi come Revisione dei contratti con le tue spiegazioni specifiche. ✅ Verifica l'attendibilità: assicurati che i nuovi messaggi sullo schermo forniscano agli utenti un motivo semplice per qualsiasi tempo di attesa o risultato. Questo dovrebbe farli sentire sicuri e fiduciosi. Suggerimento: testare questi messaggi con utenti reali per verificare che comprendano il risultato specifico raggiunto.