În ultima mea bucată, am stabilit un adevăr fundamental: pentru ca utilizatorii să adopte și să se bazeze pe AI, trebuie să aibă încredere în el. Am vorbit despre încredere că este o construcție cu mai multe fațete, construită pe percepțiile abilității, bunăvoinței, integrității și previzibilității unei IA. Dar ce se întâmplă atunci când un AI, în înțelepciunea sa tăcută, algoritmică, ia o decizie care lasă un utilizator confuz, frustrat sau chiar rănit? O cerere de credit ipotecar este respinsă, o melodie preferată lipsește dintr-o dată dintr-o listă de redare și un CV calificat este respins înainte ca un om să îl vadă vreodată. În aceste momente, capacitatea și predictibilitatea sunt spulberate, iar bunăvoința se simte la o lume departe. Conversația noastră acum trebuie să evolueze de la motivul încrederii la modul în care transparența. Domeniul IA explicabilă (XAI), care se concentrează pe dezvoltarea de metode pentru a face rezultatele AI înțelese de oameni, a apărut pentru a aborda acest lucru, dar este adesea încadrat ca o provocare pur tehnică pentru oamenii de știință de date. Consider că este o provocare critică de proiectare pentru produsele care se bazează pe AI. Este datoria noastră, ca profesioniști UX, să reducem decalajul dintre luarea de decizii algoritmice și înțelegerea umană. Acest articol oferă îndrumări practice și acționabile despre cum să cercetați și să proiectați pentru explicabilitate. Vom trece dincolo de cuvintele la modă și vom trece la machete, transpunând concepte XAI complexe în modele de design concrete pe care le puteți începe astăzi. Demistificarea XAI: Concepte de bază pentru practicienii UX XAI este despre a răspunde la întrebarea utilizatorului: „De ce?” De ce mi s-a afișat acest anunț? De ce mi se recomandă acest film? De ce mi-a fost respinsă cererea? Gândiți-vă la asta ca la IA care își arată munca la o problemă de matematică. Fără el, ai doar un răspuns și ești forțat să-l asumi pe credință. Arătând pașii, construiești înțelegere și încredere. De asemenea, permiteți ca munca dvs. să fie verificată și verificată de către oamenii pe care îi afectează. Importanța caracteristicilor și contrafactuale Există o serie de tehnici pe care le putem folosi pentru a clarifica sau explica ce se întâmplă cu AI. În timp ce metodele variază de la furnizarea întregii logici a unui arbore de decizie până la generarea de rezumate în limbaj natural ale unui rezultat, două dintre cele mai practice și de impact tipuri de informații pe care practicienii UX le pot introduce într-o experiență sunt importanța caracteristicilor (Figura 1) și contrafactualele. Acestea sunt adesea cele mai simple de înțeles de către utilizatori și cele mai acționabile de implementat de către designeri.

Importanța caracteristicilor Această metodă de explicabilitate răspunde: „Care au fost cei mai importanți factori pe care AI a luat în considerare?” Este vorba despre identificarea primelor 2-3 variabile care au avut cel mai mare impact asupra rezultatului. Este titlul, nu întreaga poveste. Exemplu: Imaginați-vă un AI care prezice dacă un client își va anula serviciul. Importanța caracteristicilor ar putea dezvălui că „numărul de apeluri de asistență în ultima lună” și „creșterile recente ale prețurilor” au fost cei mai importanți doi factori pentru a determina dacă un client ar fi probabil să se retragă.

Contrafactuale Această metodă puternică răspunde: „Ce ar trebui să schimb pentru a obține un rezultat diferit?” Acest lucru este crucial, deoarece oferă utilizatorilor un sentiment de agenție. Transformă un „nu” frustrant într-un „încă nu” care poate fi acționat. Exemplu: Imaginați-vă un sistem de cerere de împrumut care utilizează AI. Un utilizator i se refuză un împrumut. În loc să vedeți doar „Cerere refuzată”, o explicație contrafactuală ar spune, de asemenea, „Dacă scorul dvs. de credit ar fi fost cu 50 de puncte mai mare sau dacă raportul datorii/venituri ar fi fost cu 10% mai mic, împrumutul dvs. ar fi fost aprobat”. Acest lucru îi oferă Sarah pași clari și aplicabili pe care îi poate lua pentru a obține un împrumut în viitor.

Utilizarea datelor modelului pentru a îmbunătăți explicația Deși specificațiile tehnice sunt adesea gestionate de oamenii de știință de date, este util pentru practicienii UX să știe că instrumente precum LIME (Local Interpretable Model-agnostic Explanations) care explică predicțiile individuale prin aproximarea modelului la nivel local și SHAP (SHapley Additive exPlanations) care utilizează o abordare a teoriei jocurilor pentru a explica aceste rezultate din orice complex de învățare automată. modele. Aceste biblioteci ajută în esență la defalcarea deciziei unei AI de a arăta care intrări au fost cele mai influente pentru un anumit rezultat. Când sunt făcute corect, datele care stau la baza deciziei unui instrument AI pot fi folosite pentru a spune o poveste puternică. Să trecem prin importanța caracteristicilor și contrafactualele și să arătăm cum știința datelor din spatele deciziei poate fi utilizată pentru a îmbunătăți experiența utilizatorului. Acum haidețiacoperă importanța caracteristicii cu ajutorul datelor explicațiilor locale (de exemplu, LIME): această abordare răspunde: „De ce AI a făcut această recomandare specifică pentru mine, chiar acum?” În loc de o explicație generală a modului în care funcționează modelul, acesta oferă un motiv concentrat pentru o singură instanță specifică. Este personal și contextual. Exemplu: Imaginați-vă un sistem de recomandare muzicală bazat pe inteligență artificială, cum ar fi Spotify. O explicație locală ar răspunde: „De ce ți-a recomandat sistemul acest cântec specific lui Adele chiar acum?” Explicația ar putea fi: „Pentru că ați ascultat recent câteva alte balade și cântece emoționante ale unor vocaliste de sex feminin”.

În cele din urmă, să acoperim includerea explicațiilor bazate pe valoare (de exemplu, date Shapley Additive Explanations (SHAP) într-o explicație a unei decizii: aceasta este o versiune mai nuanțată a importanței caracteristicii care răspunde: „Cum a împins fiecare factor decizia într-un fel sau altul?” Ajută la vizualizarea a ceea ce a contat și dacă influența sa a fost pozitivă sau negativă. Exemplu: Imaginați-vă că o bancă folosește un model AI pentru a decide dacă aprobă o cerere de împrumut.

Importanța caracteristicii: rezultatul modelului ar putea arăta că scorul de credit al solicitantului, venitul și raportul datorie-venit au fost cei mai importanți factori în decizia sa. Acesta răspunde la ceea ce a contat. Importanța caracteristicilor cu explicații bazate pe valoare (SHAP): valorile SHAP ar lua importanța caracteristicii în continuare pe baza elementelor modelului.

Pentru un împrumut aprobat, SHAP ar putea arăta că un scor mare de credit a împins în mod semnificativ decizia spre aprobare (influență pozitivă), în timp ce un raport datorii/venituri puțin mai mare decât media a îndepărtat-o ușor (influență negativă), dar nu suficient pentru a refuza împrumutul. Pentru un împrumut refuzat, SHAP ar putea dezvălui că un venit scăzut și un număr mare de solicitări recente de credit au împins puternic decizia către refuz, chiar dacă scorul de credit a fost decent.

Acest lucru îl ajută pe ofițerul de credite să explice solicitantului, dincolo de ceea ce a fost considerat, modul în care fiecare factor a contribuit la decizia finală „da” sau „nu”. Este esențial să recunoaștem că capacitatea de a oferi explicații bune începe adesea mult mai devreme în ciclul de dezvoltare. Oamenii de știință și inginerii de date joacă un rol esențial prin structurarea intenționată a modelelor și a conductelor de date în moduri care să susțină în mod inerent explicabilitatea, mai degrabă decât să încerce să le adauge ca o idee ulterioară. Echipele de cercetare și proiectare pot promova acest lucru inițiind conversații timpurii cu cercetătorii de date și inginerii despre nevoile utilizatorilor de înțelegere, contribuind la dezvoltarea unor metrici de explicabilitate și prototipând în colaborare explicațiile pentru a se asigura că acestea sunt atât exacte, cât și ușor de utilizat. XAI și IA etică: dezvăluirea părtinirii și a responsabilității Dincolo de construirea încrederii, XAI joacă un rol critic în abordarea implicațiilor etice profunde ale AI*, în special în ceea ce privește părtinirea algoritmică. Tehnicile de explicabilitate, cum ar fi analiza valorilor SHAP, pot dezvălui dacă deciziile unui model sunt influențate în mod disproporționat de atribute sensibile precum rasa, genul sau statutul socioeconomic, chiar dacă acești factori nu au fost folosiți în mod explicit ca intrări directe. De exemplu, dacă un model de aprobare a împrumuturilor atribuie în mod constant valori SHAP negative solicitanților dintr-o anumită categorie demografică, acesta semnalează o potențială părtinire care necesită investigație, dând putere echipelor să iasă la suprafață și să atenueze astfel de rezultate incorecte. Puterea XAI vine și cu potențialul de „spălare explicabilă”. Așa cum „spălarea ecologică” induce în eroare consumatorii cu privire la practicile de mediu, spălarea explicabilității poate avea loc atunci când explicațiile sunt concepute pentru a ascunde, mai degrabă decât a lumina, comportamentul algoritmic problematic sau părtinirile inerente. Acest lucru s-ar putea manifesta ca explicații excesiv de simpliste care omit factori de influență critici sau explicații care încadrează strategic rezultatele să pară mai neutre sau corecte decât sunt cu adevărat. Subliniază responsabilitatea etică a practicienilor UX de a concepe explicații care sunt cu adevărat transparente și verificabile. Profesioniștii UX, în colaborare cu oamenii de știință ai datelor și eticieni, dețin o responsabilitate crucială în comunicarea motivului unei decizii, precum și a limitărilor și a potențialelor părtiniri ale modelului AI subiacent. Aceasta implică stabilirea așteptărilor realiste ale utilizatorilor cu privire la acuratețea AI, identificarea unde modelul ar putea fi mai puțin fiabil și furnizarea de canale clare pentru recurs sau feedback atunci când utilizatorii percep rezultate incorecte sau incorecte. Abordarea proactivă a acestoraDimensiunile etice ne vor permite să construim sisteme AI care sunt cu adevărat juste și de încredere. De la metode la modele: modele practice de design XAI Cunoașterea conceptelor este un lucru; proiectarea lor este alta. Iată cum putem traduce aceste metode XAI în modele de design intuitive. Model 1: Declarația „Pentru că” (pentru importanța caracteristicii) Acesta este cel mai simplu și adesea cel mai eficient model. Este o declarație directă, în limbaj simplu, care evidențiază motivul principal pentru acțiunea unei AI.

Euristică: Fii direct și concis. Conduceți cu cel mai important motiv. Evită jargonul cu orice preț.

Exemplu: Imaginați-vă un serviciu de streaming de muzică. În loc să prezinți doar o listă de redare „Discover Weekly”, adaugi o mică linie de microcopie. Recomandare melodie: „Velvet Morning” Pentru că asculți „The Fuzz” și alt rock psihedelic.

Modelul 2: Interactivul „Ce-ar fi dacă” (pentru contrafactuale) Contrafactualele sunt în mod inerent despre împuternicire. Cel mai bun mod de a-i reprezenta este oferind utilizatorilor instrumente interactive pentru a explora ei înșiși posibilitățile. Acest lucru este perfect pentru aplicații financiare, de sănătate sau alte aplicații orientate spre obiective.

Euristică: faceți explicații interactive și împuternicitoare. Permiteți utilizatorilor să vadă cauza și efectul alegerilor lor.

Exemplu: o interfață pentru cerere de împrumut. După o negare, în loc de o fundătură, utilizatorul primește un instrument pentru a determina modul în care s-ar putea desfășura diferite scenarii (ce ar fi dacă) (vezi Figura 1).

Modelul 3: Tamburul Highlight (Pentru explicații locale) Când o IA realizează o acțiune asupra conținutului unui utilizator (cum ar fi rezumarea unui document sau identificarea fețelor în fotografii), explicația ar trebui să fie legată vizual de sursă.

Euristică: Folosiți indicii vizuale precum evidențierea, contururile sau adnotările pentru a conecta explicația direct la elementul de interfață pe care îl explică.

Exemplu: un instrument AI care rezumă articole lungi. Rezumat generat de AI: Cercetarea inițială a arătat un decalaj pe piață pentru produsele durabile. Sursa în document: „...Analiza noastră din Q2 a tendințelor pieței a demonstrat în mod concludent că niciun concurent major nu a servit eficient consumatorul conștient de mediu, dezvăluind un decalaj semnificativ de piață pentru produsele durabile...”

Modelul 4: Vizualul Push-and-Pull (pentru explicații bazate pe valoare) Pentru decizii mai complexe, utilizatorii ar putea avea nevoie să înțeleagă interacțiunea factorilor. Vizualizările simple ale datelor pot clarifica acest lucru fără a fi copleșitoare.

Euristică: utilizați vizualizări de date simple, codate pe culori (cum ar fi diagramele cu bare) pentru a arăta factorii care au influențat pozitiv și negativ o decizie.

Exemplu: O IA care examinează profilul unui candidat pentru un loc de muncă. De ce acest candidat este o potrivire de 75%: Factori care cresc scorul: 5+ ani de experiență în cercetare UX. Competente în PythonFactori care reduc scorul: Fără experiență cu B2B SaaS

Învățarea și utilizarea acestor modele de design în UX-ul produsului dvs. AI va ajuta la creșterea explicabilității. De asemenea, puteți utiliza tehnici suplimentare pe care nu le acoper în detaliu aici. Aceasta include următoarele:

Explicații în limbaj natural: traducerea rezultatelor tehnice ale unei IA într-un limbaj uman simplu, conversațional, pe care cei care nu sunt experți îl pot înțelege cu ușurință. Explicații contextuale: oferind o justificare pentru rezultatul unui AI la momentul și locația specifică, este cel mai relevant pentru sarcina utilizatorului. Vizualizări relevante: Folosind diagrame, grafice sau hărți termice pentru a reprezenta vizual procesul de luare a deciziilor unui AI, făcând datele complexe intuitive și mai ușor de înțeles de către utilizatori.

O notă pentru front-end: traducerea acestor rezultate explicabile în experiențe de utilizator fără întreruperi prezintă, de asemenea, propriul set de considerații tehnice. Dezvoltatorii front-end se confruntă adesea cu designul API pentru a prelua în mod eficient datele explicative, iar implicațiile de performanță (cum ar fi generarea în timp real a explicațiilor pentru fiecare interacțiune cu utilizatorul) au nevoie de o planificare atentă pentru a evita latența. Câteva exemple din lumea reală DeliveryDefense a UPS Capital UPS folosește AI pentru a atribui un „scor de încredere în livrare” adreselor pentru a prezice probabilitatea furtului unui pachet. Software-ul lor DeliveryDefense analizează datele istorice privind locația, frecvența pierderilor și alți factori. Dacă o adresă are un scor scăzut, sistemul poate redirecționa în mod proactiv pachetul către un punct de acces UPS securizat, oferind o explicație pentru decizie (de exemplu, „Pachetul redirecționat către o locație sigură din cauza unui istoric de furt”). Acest sistem demonstrează modul în care XAI poate fi utilizat pentru atenuarea riscurilor și pentru a construi încrederea cliențilortransparenţă. Vehicule autonome Aceste vehicule ale viitorului vor trebui să utilizeze eficient XAI pentru a-și ajuta vehiculele să ia decizii sigure și explicabile. Când o mașină cu conducere autonomă frânează brusc, sistemul poate oferi o explicație în timp real pentru acțiunea sa, de exemplu, identificând un pieton care pășește pe drum. Acest lucru nu este doar crucial pentru confortul și încrederea pasagerilor, ci este o cerință de reglementare pentru a dovedi siguranța și responsabilitatea sistemului AI. IBM Watson Health (și provocările sale) Deși este adesea citat ca exemplu general de IA în asistența medicală, este, de asemenea, un studiu de caz valoros pentru importanța XAI. Eșecul proiectului său Watson for Oncology evidențiază ce poate merge prost atunci când explicațiile nu sunt clare sau când datele de bază sunt părtinitoare sau nu sunt localizate. Recomandările sistemului au fost uneori în contradicție cu practicile clinice locale, deoarece s-au bazat pe ghiduri centrate pe SUA. Aceasta servește ca o poveste de avertizare asupra nevoii de explicabilitate robustă, conștientă de context. Rolul cercetătorului UX: identificarea și validarea explicațiilor Soluțiile noastre de proiectare sunt eficiente numai dacă răspund întrebărilor potrivite ale utilizatorilor la momentul potrivit. O explicație care răspunde la o întrebare pe care utilizatorul nu o are este doar zgomot. Aici cercetarea UX devine țesutul conjunctiv critic într-o strategie XAI, asigurându-ne că explicăm ce și cum contează de fapt pentru utilizatorii noștri. Rolul cercetătorului este dublu: în primul rând, de a informa strategia prin identificarea unde sunt necesare explicații și, în al doilea rând, de a valida proiectele care oferă acele explicații. Informarea strategiei XAI (Ce să explic) Înainte de a putea concepe o singură explicație, trebuie să înțelegem modelul mental al utilizatorului al sistemului AI. Ce cred ei că face? Unde sunt decalajele dintre înțelegerea lor și realitatea sistemului? Aceasta este munca de bază a unui cercetător UX. Interviuri cu modele mentale: dezvăluirea percepțiilor utilizatorilor despre sistemele AI Prin interviuri profunde, semi-structurate, practicienii UX pot obține informații neprețuite despre modul în care utilizatorii percep și înțeleg sistemele AI. Aceste sesiuni sunt concepute pentru a încuraja utilizatorii să deseneze sau să descrie literalmente „modelul mental” intern despre modul în care cred că funcționează AI. Acest lucru implică adesea adresarea de întrebări deschise care îi determină pe utilizatori să explice logica sistemului, intrările și ieșirile sale, precum și relațiile dintre aceste elemente. Aceste interviuri sunt puternice, deoarece dezvăluie frecvent concepții greșite și presupuneri profunde pe care utilizatorii le au despre AI. De exemplu, un utilizator care interacționează cu un motor de recomandare ar putea afirma cu încredere că sistemul se bazează exclusiv pe istoricul său de vizionare trecut. S-ar putea să nu realizeze că algoritmul încorporează și o multitudine de alți factori, cum ar fi ora din zi în care navighează, elementele curente în tendințe pe platformă sau chiar obiceiurile de vizualizare ale utilizatorilor similari. Descoperirea acestui decalaj dintre modelul mental al unui utilizator și logica reală subiacentă AI este extrem de importantă. Ne spune exact ce informații specifice trebuie să le comunicăm utilizatorilor pentru a-i ajuta să construiască un model mental mai precis și mai robust al sistemului. Acesta, la rândul său, este un pas fundamental în stimularea încrederii. Când utilizatorii înțeleg, chiar și la un nivel înalt, cum ajunge un AI la concluziile sau recomandările sale, este mai probabil să aibă încredere în rezultatele sale și să se bazeze pe funcționalitatea sa. AI Journey Mapping: O scufundare profundă în încrederea și explicabilitatea utilizatorilor Prin cartografierea meticuloasă a călătoriei utilizatorului cu o funcție bazată pe inteligență artificială, obținem informații neprețuite asupra momentelor precise în care apar confuzie, frustrare sau chiar neîncredere profundă. Acest lucru descoperă momente critice în care modelul mental al utilizatorului despre modul în care funcționează AI intră în conflict cu comportamentul său real. Luați în considerare un serviciu de streaming de muzică: Încrederea utilizatorului scade atunci când o recomandare de playlist pare „aleatorie”, fără vreo legătură vizibilă cu obiceiurile de ascultare anterioare sau cu preferințele declarate? Această aleatorie percepută este o provocare directă pentru așteptările utilizatorului de a avea o cura inteligentă și o încălcare a promisiunii implicite că AI-ul le înțelege gustul. În mod similar, într-o aplicație de gestionare a fotografiilor, utilizatorii se confruntă cu o frustrare semnificativă atunci când o funcție de etichetare a fotografiilor AI identifică greșit în mod constant un membru prețuit al familiei? Această eroare este mai mult decât o eroare tehnică; lovește în centrul preciziei, personalizării și chiarconexiune emoțională. Aceste puncte dureroase sunt semnale vii care indică exact unde este necesară o explicație bine plasată, clară și concisă. Astfel de explicații servesc ca mecanisme de reparare esențiale, remediază o încălcare a încrederii care, dacă nu este abordată, poate duce la abandonarea utilizatorului. Puterea cartografierii călătoriilor AI constă în capacitatea sa de a ne muta dincolo de simpla explicare a rezultatului final al unui sistem AI. Deși înțelegerea a ceea ce a produs AI este importantă, este adesea insuficientă. În schimb, acest proces ne obligă să ne concentrăm pe explicarea procesului în momentele critice. Aceasta înseamnă abordarea:

De ce a fost generată o anumită ieșire: a fost din cauza unor date de intrare specifice? Un anume model de arhitectură? Ce factori au influențat decizia AI: anumite caracteristici au fost ponderate mai mult? Cum a ajuns AI la concluzia: putem oferi o explicație simplificată, analogă, a funcționării sale interne? Ce presupuneri a făcut AI: au existat înțelegeri implicite despre intenția utilizatorului sau datele care trebuie să fie scoase la suprafață? Care sunt limitările AI: comunicarea clară a ceea ce AI nu poate face sau în cazul în care precizia sa poate scădea, creează așteptări realiste.

Maparea călătoriei AI transformă conceptul abstract al XAI într-un cadru practic și acționabil pentru practicienii UX. Ne permite să trecem dincolo de discuțiile teoretice despre explicabilitate și, în schimb, să identificăm exact momentele în care este în joc încrederea utilizatorilor, oferind informațiile necesare pentru a construi experiențe AI care sunt puternice, transparente, ușor de înțeles și de încredere. În cele din urmă, cercetarea este modul în care descoperim necunoscutele. Echipa dvs. ar putea dezbate cum să explice de ce a fost refuzat un împrumut, dar cercetările ar putea dezvălui că utilizatorii sunt mult mai preocupați de înțelegerea modului în care au fost utilizate datele lor în primul rând. Fără cercetare, pur și simplu ghicim ce se întreabă utilizatorii noștri. Colaborarea la proiectare (Cum să vă explicați AI) Odată ce cercetarea a identificat ce să explice, începe bucla de colaborare cu designul. Designerii pot prototipa modelele pe care le-am discutat mai devreme – declarația „Pentru că”, glisoarele interactive – iar cercetătorii pot pune acele modele în fața utilizatorilor pentru a vedea dacă rezistă. Testare țintită de utilizare și înțelegere: putem proiecta studii de cercetare care testează în mod specific componentele XAI. Nu ne întrebăm doar: „Este ușor de utilizat?” Întrebăm: „După ce ați văzut acest lucru, puteți să-mi spuneți cu propriile cuvinte de ce sistemul a recomandat acest produs?” sau „Arată-mi ce ai face pentru a vedea dacă ai putea obține un rezultat diferit”. Scopul aici este de a măsura înțelegerea și capacitatea de acționare, alături de gradul de utilizare. Măsurarea încrederii în sine: putem folosi sondaje simple și scale de evaluare înainte și după afișarea unei explicații. De exemplu, putem întreba un utilizator pe o scară de 5 puncte: „Câtă încredere aveți în această recomandare?” înainte ca aceștia să vadă afirmația „Pentru că”, apoi întrebați-i din nou după aceea. Acest lucru oferă date cantitative despre dacă explicațiile noastre de fapt mută acul asupra încrederii. Acest proces creează o buclă puternică, iterativă. Rezultatele cercetării informează proiectarea inițială. Designul respectiv este apoi testat, iar noile descoperiri sunt transmise echipei de proiectare pentru rafinare. Poate că afirmația „Pentru că” era prea jargonică sau glisorul „Ce-ar fi cazul” a fost mai confuz decât împuternicitor. Prin această validare în colaborare, ne asigurăm că explicațiile finale sunt corecte din punct de vedere tehnic, cu adevărat inteligibile, utile și care construiesc încredere pentru persoanele care folosesc produsul. Zona de explicație Goldilocks Un cuvânt critic de precauție: este posibil să supraexplicați. Ca și în basm, în care Goldilocks a căutat terciul care a fost „potrivit”, scopul unei explicații bune este de a oferi cantitatea potrivită de detalii – nici prea multe, nici prea puține. Bombardarea unui utilizator cu fiecare variabilă dintr-un model va duce la suprasolicitare cognitivă și poate scădea de fapt încrederea. Scopul nu este de a face utilizatorul un cercetător al datelor. O soluție este dezvăluirea progresivă.

Începeți cu simplul. Conduceți cu o declarație concisă „Pentru că”. Pentru majoritatea utilizatorilor, acest lucru va fi suficient. Oferiți o cale către detalii. Furnizați un link clar, cu frecare redusă, cum ar fi „Aflați mai multe” sau „Vedeți cum a fost determinat acest lucru”. Dezvăluie complexitatea. În spatele acestui link, puteți oferi glisoarele interactive, vizualizările sau o listă mai detaliată a factorilor care contribuie.

Această abordare stratificată respectă atenția și expertiza utilizatorului, oferind doar cantitatea potrivităde informaţii pentru nevoile lor. Să ne imaginăm că utilizați un dispozitiv de casă inteligentă care recomandă o încălzire optimă pe baza diferiților factori. Începeți cu simplul: „Casa ta este în prezent încălzită la 72 de grade, care este temperatura optimă pentru economii de energie și confort.” Oferiți o cale către detalii: mai jos, un mic link sau un buton: „De ce este optim 72 de grade?” Dezvăluie complexitatea: făcând clic pe acel link ar putea deschide un nou ecran care să arate:

Glisoare interactive pentru temperatura exterioară, umiditate și nivelul de confort preferat, demonstrând modul în care acestea reglează temperatura recomandată. O vizualizare a consumului de energie la diferite temperaturi. O listă de factori care contribuie, cum ar fi „Momentul zilei”, „Temperatura exterioară actuală”, „Utilizarea istorică a energiei” și „Senzori de ocupare”.

Este eficient să combinați mai multe metode XAI și acest model Goldilocks Zone of Explication, care pledează pentru dezvăluirea progresivă, încurajează implicit acest lucru. Puteți începe cu o declarație simplă „Pentru că” (Modelul 1) pentru înțelegere imediată, apoi oferiți un link „Aflați mai multe” care dezvăluie un interactiv „Ce ar fi dacă” (Modelul 2) sau un „Vizual „Apăsați și trageți” (Modelul 4) pentru o explorare mai profundă. De exemplu, un sistem de cerere de împrumut ar putea inițial să precizeze motivul principal al refuzului (importanța caracteristicii), apoi să permită utilizatorului să interacționeze cu un instrument „What-If” pentru a vedea cum modificările aduse veniturilor sau datoriei lor ar modifica rezultatul (contrafactuale) și, în final, să ofere o diagramă detaliată „Push-and-Pull” (basată pe valoare pentru a ilustra toate explicațiile pozitive și negative). Această abordare stratificată permite utilizatorilor să acceseze nivelul de detaliu de care au nevoie, atunci când au nevoie, prevenind supraîncărcarea cognitivă, oferind în același timp o transparență cuprinzătoare. Determinarea instrumentelor și metodelor XAI de utilizat este în primul rând o funcție de cercetare aprofundată UX. Interviurile cu modele mentale și maparea călătoriei AI sunt cruciale pentru identificarea nevoilor utilizatorilor și a punctelor dureroase legate de înțelegerea și încrederea în AI. Interviurile cu modele mentale ajută la descoperirea concepțiilor greșite ale utilizatorilor despre modul în care funcționează AI, indicând zonele în care sunt necesare explicații fundamentale (cum ar fi importanța caracteristicilor sau explicații locale). Pe de altă parte, cartografierea călătoriei AI identifică momentele critice de confuzie sau neîncredere în interacțiunea utilizatorului cu AI, semnalând unde explicații mai granulare sau interactive (cum ar fi contrafactuale sau explicații bazate pe valori) ar fi cele mai benefice pentru a reconstrui încrederea și a oferi agenție.

În cele din urmă, cel mai bun mod de a alege o tehnică este să lăsați cercetarea utilizatorilor să vă ghideze deciziile, asigurându-vă că explicațiile pe care le proiectați răspund direct întrebărilor și preocupărilor reale ale utilizatorilor, mai degrabă decât să ofere pur și simplu detalii tehnice de dragul lor. XAI pentru agenții de raționament profund Unele dintre cele mai noi sisteme AI, cunoscute ca agenți de raționament profund, produc un „lanț de gândire” explicit pentru fiecare sarcină complexă. Ei nu citează doar surse; ele arată calea logică, pas cu pas, pe care au urmat-o pentru a ajunge la o concluzie. În timp ce această transparență oferă un context valoros, o redare cu redare care se întinde pe mai multe paragrafe poate fi copleșitoare pentru un utilizator care încearcă pur și simplu să finalizeze o sarcină. Principiile XAI, în special Zona de explicație Goldilocks, se aplică direct aici. Putem organiza călătoria, folosind dezvăluirea progresivă pentru a arăta mai întâi doar concluzia finală și cel mai important pas din procesul de gândire. Utilizatorii se pot înscrie apoi pentru a vedea raționamentul complet, detaliat, în mai mulți pași atunci când trebuie să verifice logica sau să găsească un fapt specific. Această abordare respectă atenția utilizatorului, păstrând în același timp transparența deplină a agentului. Următorii pași: Împuterniciți-vă călătoria XAI Explicabilitatea este un pilon fundamental pentru construirea de produse AI de încredere și eficiente. Pentru practicienii avansați care doresc să conducă această schimbare în cadrul organizației lor, călătoria se extinde dincolo de modelele de proiectare în advocacy și învățarea continuă. Pentru a vă aprofunda înțelegerea și aplicarea practică, luați în considerare explorarea resurselor precum setul de instrumente AI Explainability 360 (AIX360) de la IBM Research sau Google’s What-If Tool, care oferă modalități interactive de a explora comportamentul și explicațiile modelului. Interacțiunea cu comunități precum Forumul AI responsabil sau grupuri de cercetare specifice axate pe IA centrată pe om poate oferi informații neprețuite și oportunități de colaborare. În cele din urmă, fiți un avocat al XAI în cadrul propriei organizații.Explicabilitatea cadrului ca investiție strategică. Luați în considerare o scurtă prezentare către conducerea dvs. sau echipele interfuncționale: „Prin investiția în XAI, vom merge dincolo de construirea încrederii; vom accelera adoptarea utilizatorilor, vom reduce costurile de asistență dând utilizatorilor abilitati de înțelegere și vom atenua riscurile etice și de reglementare semnificative prin expunerea potențialelor părtiniri. Acesta este un design bun și o afacere inteligentă.”

Vocea ta, bazată pe înțelegerea practică, este crucială pentru a scoate AI din cutia neagră și într-un parteneriat de colaborare cu utilizatorii.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free