Dezajni por aŭtonomaj agentoj prezentas unikan frustriĝon. Ni transdonas kompleksan taskon al AI, ĝi malaperas dum 30 sekundoj (aŭ 30 minutoj), kaj poste ĝi revenas kun rezulto. Ni fiksrigardas la ekranon. Ĉu ĝi funkciis? Ĉu ĝi haluciniĝis? Ĉu ĝi kontrolis la konforman datumbazon aŭ preterlasis tiun paŝon? Ni kutime respondas al ĉi tiu angoro per unu el du ekstremoj. Ni aŭ konservas la sistemon Nigra Skatolo, kaŝante ĉion por konservi simplecon, aŭ ni panikiĝas kaj provizas Datuman Forĵeton, transdonante ĉiun protokollinion kaj API-vokon al la uzanto. Neniu aliro rekte traktas la nuancon bezonatan por provizi uzantojn per la ideala nivelo de travidebleco. La Nigra Skatolo lasas uzantojn senti senfortajn. La Daten-Ruĝejo kreas sciigan blindecon, detruante la efikecon, kiun la agento promesis disponigi. Uzantoj ignoras la konstantan fluon de informoj ĝis io rompiĝas, ĉe kiu punkto al ili mankas la kunteksto por ripari ĝin. Ni bezonas organizitan manieron trovi la ekvilibron. En mia antaŭa artikolo, "Designing For Agentic AI", ni rigardis interfacajn elementojn, kiuj konstruas fidon, kiel montri la celitan agon de la AI antaŭe (Intenco-Antaŭrigardoj) kaj doni al uzantoj kontrolon pri kiom multe la AI faras memstare (Autonomy Dials). Sed scii kiujn elementojn uzi estas nur parto de la defio. La pli malfacila demando por dezajnistoj estas scii kiam uzi ilin. Kiel vi scias, kiu specifa momento en 30-sekunda laborfluo postulas Intencan Antaŭrigardon kaj kiu povas esti pritraktata per simpla protokolo? Ĉi tiu artikolo provizas metodon por respondi tiun demandon. Ni promenos tra la Decida Nodo-Revizio. Ĉi tiu procezo ricevas dizajnistojn kaj inĝenierojn en la sama ĉambro por mapi backend logikon al la uzantinterfaco. Vi lernos kiel precizigi la precizajn momentojn, kiam uzanto bezonas ĝisdatigon pri tio, kion faras la AI. Ni ankaŭ kovros Efiko/Risko-matricon, kiu helpos prioritati, kiujn decidnodojn montri kaj ajnan rilatan dezajnpadronon pariĝi kun tiu decido. Travideblecoj Momentoj: Kaza Studa Ekzemplo Konsideru Meridian (ne reala nomo), asekurentrepreno, kiu uzas agentan AI por procesi komencajn akcidentojn. La uzanto alŝutas fotojn de veturilo-difekto kaj la polica raporto. La agento tiam malaperas dum minuto antaŭ reveni kun riska takso kaj proponita pagintervalo. Komence, la interfaco de Meridian simple montris Calculating Claim Status. Uzantoj frustriĝis. Ili prezentis plurajn detalajn dokumentojn kaj sentis necertaj ĉu la AI eĉ reviziis la policraporton, kiu enhavis mildigajn cirkonstancojn. La Nigra Skatolo kreis malfidon. Por ripari ĉi tion, la dezajnteamo faris Decidan Nodan Revizion. Ili trovis, ke la AI elfaris tri apartajn, verŝajnec-bazitajn ŝtupojn, kun multaj pli malgrandaj ŝtupoj enigitaj:
Bilda AnalizoLa agento komparis la damaĝajn fotojn kun datumbazo de tipaj aŭtokraŝaj scenaroj por taksi la riparkoston. Tio implikis fidpoentaron. Teksta RevizioĜi skanis la polican raporton por ŝlosilvortoj kiuj influas respondecon (ekz., kulpo, vetercirkonstancoj, sobreco). Tio implikis probablotakson de jura reputacio. Policy Cross ReferenceĜi kongruis la asertajn detalojn kun la specifaj politikaj terminoj de la uzanto, serĉante esceptojn aŭ kovrajn limojn. Tio ankaŭ implikis probabilistikan egaladon.
La teamo transformis ĉi tiujn paŝojn en travideblajn momentojn. La interfacsekvenco estis ĝisdatigita al:
Taksante Damaĝajn Fotojn: Komparante kontraŭ 500 veturilaj efikoprofiloj. Revizianta Polican Raporton: Analizante respondecvortojn kaj laŭleĝan precedencon. Kontrolante Politikan Kovradon: Kontrolante specifajn ekskludojn en via plano.
La sistemo ankoraŭ prenis la saman tempon, sed la eksplicita komunikado pri la interna funkciado de la agento restarigis la konfidon de la uzanto. Uzantoj komprenis, ke la AI plenumas la kompleksan taskon por kiu ĝi estis desegnita, kaj ili sciis precize kie enfokusigi sian atenton se la fina takso ŝajnis malpreciza. Ĉi tiu dezajna elekto transformis momenton de angoro en momenton de rilato kun la uzanto. Aplikado de la Efiko/Riska Matrico: Kion Ni Elektis Kaŝi Plej multaj AI-spertoj ne havas mankon de eventoj kaj decidnodoj, kiuj eble povus esti montritaj dum prilaborado. Unu el la plej kritikaj rezultoj de la revizio estis decidi kion teni nevidebla. En la ekzemplo de Meridian, la backend protokoloj generis 50+ eventojn per aserto. Ni povus esti defaŭlta montri ĉiun eventon kiel ili estis procesitaj kiel parto de la UI. Anstataŭe, ni aplikis la riskan matricon por pritondi ilin:
Ensalutu Okazaĵon: Pinga ServiloWest-2 por redunda kontrolo. Filtrila Verdikto: Kaŝi. (Malaltaj Interesoj, Alta Teknikeco).
Ensalutu Okazaĵon: Komparante riparan takson al BlueBook-valoro. Filtrila Verdikto: Montru. (Altaj Interesoj, efikas la pagon de uzanto).
Fortranĉante la nenecesajn detalojn, la gravaj informoj - kiel la priraporta konfirmo - estis pli efikaj. Ni kreis malferman interfacon kaj dizajnis malferman sperton. Ĉi tiu aliro uzas la ideon, ke homoj sentas sin pli bone pri servo kiam ili povas vidi la laboron faritan. Montrante la specifajn paŝojn (Taksado, Revizio, Kontrolado), ni ŝanĝis 30-sekundan atendon de tempo de maltrankvilo ("Ĉu ĝi estas rompita?") al tempo de sento, ke io valora estas kreita ("Ĝi pensas"). Ni nun rigardu pli detale kiel ni povas revizii la decidprocezon en niaj produktoj por identigi ŝlosilajn momentojn, kiuj postulas klaran informon. La Decida Nodo-Revizio Travidebleco malsukcesas kiam ni traktas ĝin kiel stilan elekton prefere ol funkcian postulon. Ni emas demandi: "Kia devus aspekti la UI?" antaŭ ol ni demandas, "Kion la agento efektive decidas?" La Decida Nodo-Revizio estas simpla maniero fari AI-sistemojn pli facile kompreneblaj. Ĝi funkcias zorge mapante la internan procezon de la sistemo. La ĉefa celo estas trovi kaj klare difini la precizajn momentojn kie la sistemo ĉesas sekvi siajn fiksitajn regulojn kaj anstataŭe faras elekton bazitan sur ŝanco aŭ takso. Mapante ĉi tiun strukturon, kreintoj povas montri ĉi tiujn punktojn de necerteco rekte al la homoj uzantaj la sistemon. Ĉi tio ŝanĝas sistemajn ĝisdatigojn de malprecizaj deklaroj al specifaj, fidindaj raportoj pri kiel la AI atingis sian konkludon. Krom la asekura kazesploro supre, mi lastatempe laboris kun teamo konstruanta aĉetagenton. La sistemo reviziis vendistajn kontraktojn kaj markis riskojn. Origine, la ekrano montris simplan progresstangon: "Reviziante kontraktojn." Uzantoj malamis ĝin. Nia esplorado indikis ke ili sentis maltrankvilon pri la juraj implicoj de mankanta klaŭzo. Ni riparis ĉi tion farante Decidan Nodan Revizion. Mi inkluzivis paŝon post paŝo por fari ĉi tiun revizion ĉe la konkludo de ĉi tiu artikolo. Ni okazigis kunsidon kun la inĝenieroj kaj skizis kiel funkcias la sistemo. Ni identigis "Decidpunktojn" - momentojn, kie la AI devis elekti inter du bonaj opcioj. En normaj komputilaj programoj, la procezo estas klara: se A okazas, tiam B ĉiam okazos. En AI-sistemoj, la procezo ofte baziĝas sur hazardo. La AI opinias, ke A estas verŝajne la plej bona elekto, sed ĝi eble estas nur 65% certa. En la kontrakta sistemo, ni trovis momenton, kiam la AI kontrolis la respondeckondiĉojn kontraŭ niaj kompaniaj reguloj. Ĝi malofte estis perfekta matĉo. La AI devis decidi ĉu 90% matĉo estis sufiĉe bona. Ĉi tio estis ŝlosila decida punkto.
Post kiam ni identigis ĉi tiun nodon, ni elmontris ĝin al la uzanto. Anstataŭ "Revizii kontraktojn," la interfaco ĝisdatiĝis por diri: "Kontribua klaŭzo varias de norma ŝablono. Analizante riskan nivelon." Ĉi tiu specifa ĝisdatigo donis al uzantoj konfidon. Ili sciis, ke la agento kontrolis la respondecklaŭzon. Ili komprenis la kialon de la prokrasto kaj akiris fidon, ke la dezirata ago okazas ĉe la malantaŭa fino. Ili ankaŭ sciis kie fosi pli profunde post kiam la agento generis la kontrakton. Por kontroli kiel la AI faras decidojn, vi devas labori proksime kun viaj inĝenieroj, produktaj administrantoj, komercaj analizistoj kaj ĉefaj homoj, kiuj faras la elektojn (ofte kaŝitajn) kiuj influas kiel funkcias la AI-ilo. Eltiru la paŝojn, kiujn la ilo faras. Marku ĉiun lokon kie la procezo ŝanĝas direkton ĉar probableco estas renkontita. Ĉi tiuj estas la lokoj, kie vi devus koncentriĝi pri esti pli travidebla. Kiel montrite en Figuro 2 malsupre, la Decida Nodo-Revizio implikas ĉi tiujn paŝojn:
Kunigu la teamon: Venigu la produktposedantojn, komercajn analizistojn, dizajnistojn, esencajn decidantojn kaj la inĝenierojn, kiuj konstruis la AI. Ekzemple, Pensu pri produkta teamo konstruanta AI-ilon desegnitan por revizii senordajn jurajn kontraktojn. La teamo inkluzivas la UX-dizajniston, la produktmanaĝeron, la UX-esploriston, praktikantan advokaton, kiu agas kiel la fakulo pri la temo, kaj la backend-inĝeniero, kiu skribis la tekst-analizan kodon.
Desegnu la tutan procezon: Dokumentu ĉiun paŝon, kiun faras AI, de la unua ago de la uzanto ĝis la fina rezulto. La teamo staras ĉe blanktabulo kaj skizas la tutan sekvencon por ŝlosila laborfluo, kiu implikas la AI serĉantan respondecklaŭzon en kompleksa kontrakto. La advokato alŝutaskvindek-paĝa PDF → La sistemo konvertas la dokumenton en legeblan tekston. → La AI skanas la paĝojn por respondaj klaŭzoj. → La uzanto atendas. → Momentojn aŭ minutojn poste, la ilo reliefigas la trovitajn alineojn flava sur la uzantinterfaco. Ili faras tion por multaj aliaj laborfluoj, kiujn la ilo ankaŭ akomodas.
Trovu kie aferoj estas neklaraj: Rigardu la procezmapon por iu ajn loko, kie la AI komparas opciojn aŭ enigaĵojn, kiuj ne havas unu perfektan kongruon. La teamo rigardas la blankestraron por ekvidi la ambiguajn paŝojn. Konverti bildon al teksto sekvas striktajn regulojn. Trovi specifan respondecan klaŭzon implikas divenon. Ĉiu firmao skribas ĉi tiujn klaŭzojn malsame, do la AI devas pesi plurajn eblojn kaj fari antaŭdiron anstataŭ trovi ĝustan vortkongruon.
Identigu la "plej bonajn divenojn" paŝojn: Por ĉiu neklara punkto, kontrolu ĉu la sistemo uzas konfidan poentaron (ekzemple, ĉu ĝi estas 85% certa?). Ĉi tiuj estas la punktoj, kie la AI faras finan elekton. La sistemo devas diveni (doni probablon) kiu(j) paragrafo(j) proksime similas norman respondecan klaŭzon. Ĝi asignas konfidan poentaron al sia plej bona diveno. Tiu supozo estas decida nodo. La interfaco devas diri al la advokato, ke ĝi elstarigas eblan kongruon, anstataŭ diri, ke ĝi trovis la definitivan klaŭzon.
Ekzamenu la elekton: Por ĉiu elektpunkto, eltrovu la specifan internan matematikon aŭ komparon faritan (ekz., kongruante parton de kontrakto kun politiko aŭ komparante bildon de rompita aŭto al biblioteko de difektitaj aŭtofotoj). La inĝeniero klarigas, ke la sistemo komparas la diversajn alineojn kontraŭ datumbazo de normaj respondecaj klaŭzoj de pasintaj firmaj kazoj. Ĝi kalkulas tekstan similecan poentaron por decidi pri matĉo bazita sur probabloj.
Skribu klarajn klarigojn: Kreu mesaĝojn por la uzanto, kiuj klare priskribas la specifan internan agon okazantan kiam la AI faras elekton. La enhavdezajnisto skribas specifan mesaĝon por ĉi tiu preciza momento. La teksto legas: Komparante dokumenttekston al normaj firmaaj klaŭzoj por identigi eblajn respondecriskojn.
Ĝisdatigu la ekranon: Metu ĉi tiujn novajn, klarajn klarigojn en la uzantinterfacon, anstataŭigante neklarajn mesaĝojn kiel "Revizii kontraktojn." La dezajnteamo forigas la senmarkan Processing PDF-ŝarĝan ŝpinilon. Ili enigas la novan klarigon en statusbreton situantan ĝuste super la dokumenta spektilo dum la AI pensas.
Kontrolu pri Fido: Certigu, ke la novaj ekranmesaĝoj donas al uzantoj simplan kialon por ajna atendotempo aŭ rezulto, kio devus igi ilin sentiĝi pli memfida kaj fidinda.
La Efiko/Riska Matrico Post kiam vi atente rigardas la procezon de la AI, vi verŝajne trovos multajn punktojn, kie ĝi elektas. AI povus fari dekduojn da malgrandaj elektoj por ununura kompleksa tasko. Montri ilin ĉiujn kreas tro da nenecesaj informoj. Vi devas grupigi ĉi tiujn elektojn. Vi povas uzi Efiko/Risko-Matricon por ordigi ĉi tiujn elektojn laŭ la tipoj de agoj, kiujn la AI faras. Jen ekzemploj de efiko/risko-matricoj: Unue, serĉu decidojn kun malaltaj interesoj kaj malaltaj efikoj. Malaltaj Interesoj / Malalta Efiko
Ekzemplo: Organizi dosierstrukturon aŭ renomi dokumenton. Travidebleco Bezono: Minimuma. Subtila tosta sciigo aŭ protokolo-eniro sufiĉas. Uzantoj povas malfari ĉi tiujn agojn facile.
Tiam identigu la altajn interesojn kaj alt-efikajn decidojn. Altaj Interesoj / Alta Efiko
Ekzemplo: Malakcepti pruntpeton aŭ efektivigi akcian komercon. Bezono de travidebleco: Alta. Ĉi tiuj agoj postulas Pruvon de Laboro. La sistemo devas pruvi la raciaĵon antaŭ aŭ tuj kiam ĝi agas.
Konsideru financan komercan roboton, kiu traktas ĉiujn aĉetajn/vendajn mendojn same. Ĝi efektivigas komercon de $5 kun la sama opakeco kiel komerco de $50,000. Uzantoj povus pridubi ĉu la ilo rekonas la eblan efikon de travidebleco sur komercado sur granda dolarkvanto. Ili bezonas la sistemon por paŭzi kaj montri ĝian laboron por la alt-interesaj komercoj. La solvo estas enkonduki staton de Revizia Logiko por ajna transakcio superanta specifan dolaran kvanton, permesante al la uzanto vidi la faktorojn pelantajn la decidon antaŭ ekzekuto. Mapado de Nodoj al Ŝablonoj: Rubriko por Elekto de Dezajno-Ŝablonoj Post kiam vi identigis la ŝlosilajn decidnodojn de via sperto, vi devas decidi, kiu UI-ŝablono validas por ĉiu, kiun vi montros. En Designing For Agentic AI, ni enkondukis ŝablonojn kiel la Intenca Antaŭrigardo (por altaj interesoj) kaj la Ago-Revizio (por retrospektiva sekureco). La decida faktoro por elekti inter ili estas inversigebleco. Ni filtras ĉiundecidnodo tra la efikmatrico por asigni la ĝustan padronon: High Stakes & Nereversable: Ĉi tiuj nodoj postulas Intencan Antaŭrigardon. Ĉar la uzanto ne povas facile malfari la agon (ekz., konstante forigante datumbazon), la travidebleco devas okazi antaŭ ekzekuto. La sistemo devas paŭzi, klarigi sian intencon kaj postuli konfirmon. Altaj Interesoj kaj Reversigeblaj: Ĉi tiuj nodoj povas fidi la Ago-Revizion kaj Malfari ŝablonon. Se la venda agento funkciigita de AI movas kondukon al malsama dukto, ĝi povas fari tion aŭtonome kondiĉe ke ĝi sciigas la uzanton kaj ofertas tujan Malfari butonon. Strikte kategoriigante nodojn tiamaniere, ni evitas "alertan lacecon". Ni rezervas la alt-frikcian Intencan Antaŭrigardon nur por la vere nemaligeblaj momentoj, dum ni dependas de la Ago-Revizio por konservi rapidecon por ĉio alia.
Reversigebla Nemaligebla Malalta Efiko Tajpu: Aŭtomate-ExecuteUI: Pasiva Toast / LogEx: Alinomado de dosiero Tajpu: KonfirmUI: Simpla Malfari opcionEks: Arkivante retpoŝton Alta Efiko Tajpu: ReviewUI: Sciigo + Revizio TrailEx: Sendante skizon al kliento Tipo: Intenca antaŭrigardoUI: Modala / Eksplicita PermesoEkz: Forigo de servilo
Tablo 1: La efiko kaj reigebla matrico tiam povas esti uzata por mapi viajn momentojn de travidebleco por desegni ŝablonojn. Kvalita Valumado: "La Atendu, Kial?" Testo Vi povas identigi eblajn nodojn sur blanktabulo, sed vi devas validigi ilin per homa konduto. Vi devas kontroli ĉu via mapo kongruas kun la mensa modelo de la uzanto. Mi uzas protokolon nomatan "Atendu, Kial?" Testo. Petu uzanton rigardi la agenton plenumi taskon. Instruu ilin paroli laŭte. Kiam ajn ili demandas, "Atendu, kial ĝi faris tion?" aŭ "Ĉu ĝi estas blokita?" aŭ "Ĉu ĝi aŭdis min?" — vi markas tempomarkon. Ĉi tiuj demandoj signalas konfuzon de la uzanto. La uzanto sentas, ke ilia kontrolo forglitas. Ekzemple, en studo por kuracista asistanto pri programado, uzantoj rigardis la agenton mendi rendevuon. La ekrano sidis senmova dum kvar sekundoj. Partoprenantoj konstante demandis, "Ĉu ĝi kontrolas mian kalendaron aŭ la kuraciston?"
Tiu demando malkaŝis mankantan Travideblan Momenton. La sistemo bezonis dividi tiun kvarsekundan atendon en du apartajn paŝojn: "Kontrolu vian haveblecon" sekvitan de "Sinkronigi kun provizanta horaro." Ĉi tiu malgranda ŝanĝo reduktis la esprimitajn nivelojn de angoro de uzantoj. Travidebleco malsukcesas kiam ĝi nur priskribas sisteman agon. La interfaco devas konekti la teknikan procezon al la specifa celo de la uzanto. Ekrano montranta "Kontrolante vian haveblecon" falas ebena ĉar mankas kunteksto. La uzanto komprenas, ke la AI rigardas kalendaron, sed ili ne scias kial. Ni devas parigi la agon kun la rezulto. La sistemo devas dividi tiun kvar-sekundan atendon en du apartajn paŝojn. Unue, la interfaco montras "Kontrolante vian kalendaron por trovi malfermajn horojn." Poste ĝi ĝisdatigas al "Sinkronado kun la horaro de la provizanto por certigi vian rendevuon." Ĉi tio fundamentas la teknikan procezon en la reala vivo de la uzanto. Konsideru AI-administran inventaron por loka kafejo. La sistemo renkontas provizomankon. Interfaco leganta "kontakti vendiston" aŭ "revizii opciojn" kreas maltrankvilon. La administranto demandas, ĉu la sistemo nuligas la mendon aŭ aĉetas multekostan alternativon. Pli bona aliro estas klarigi la celitan rezulton: "Taksante alternativajn provizantojn por konservi vian vendredan liveran horaron." Ĉi tio diras al la uzanto precize kion la AI provas atingi. Funkciado de la Revizio Vi kompletigis la Decidan Nodon-Revizion kaj filtris vian liston per la Efiko kaj Risko-Matrico. Vi nun havas liston de esencaj momentoj por esti travidebla. Poste, vi devas krei ilin en la UI. Ĉi tiu paŝo postulas teamlaboron trans malsamaj fakoj. Vi ne povas desegni travideblecon per vi mem uzante projektilon. Vi devas kompreni kiel la sistemo funkcias malantaŭ la scenoj. Komencu kun Logika Revizio. Renkontu vian gvidan sistemdezajniston. Alportu vian mapon de decidnodoj. Vi devas konfirmi, ke la sistemo efektive povas dividi ĉi tiujn statojn. Mi ofte trovas, ke la teknika sistemo ne malkaŝas la ĝustan staton, kiun mi volas montri. La inĝeniero povus diri, ke la sistemo nur resendas ĝeneralan "funkciantan" statuson. Vi devas premi por detala ĝisdatigo. Vi bezonas la sistemon por sendi specifan avizonkiam ĝi ŝanĝas de legado de teksto al kontrolado de reguloj. Sen tiu teknika konekto, via dezajno estas neeble konstrui. Poste, impliku la teamon pri Enhavo-Dezajno. Vi havas la teknikan kialon de la ago de la AI, sed vi bezonas klaran, homan amikan klarigon. Inĝenieroj provizas la suban procezon, sed enhavaj dizajnistoj provizas la manieron kiel ĝi estas komunikita. Ne skribu ĉi tiujn mesaĝojn sole. Programisto povus skribi "Ekzekutante funkcion 402", kiu estas teknike ĝusta sed sensignifa por la uzanto. Dizajnisto povus skribi "Pensado", kiu estas amika sed tro malklara. Kontenta strategiisto trovas la ĝustan mezan vojon. Ili kreas specifajn frazojn, kiel "Skanado por respondecaj riskoj", kiuj montras, ke la AI funkcias sen konfuzi la uzanton. Fine, provu la travideblecon de viaj mesaĝoj. Ne atendu ĝis la fina produkto estas konstruita por vidi ĉu la teksto funkcias. Mi faras kompartestojn sur simplaj prototipoj kie la sola aĵo kiu ŝanĝiĝas estas la statusmesaĝo. Ekzemple, mi montras al unu grupo (Grupo A) mesaĝon kiu diras "Konfirmante identecon" kaj al alia grupo (Grupo B) mesaĝon kiu diras "Kontrolado de registaraj datumbazoj" (ĉi tiuj estas faritaj ekzemploj, sed vi komprenas la aferon). Tiam mi demandas al ili, kiu AI sentas sin pli sekura. Vi ofte malkovros, ke iuj vortoj kaŭzas maltrankvilon, dum aliaj kreas fidon. Vi devas trakti la vortumon kiel ion, kion vi bezonas provi kaj pruvi efika. Kiel Ĉi tio Ŝanĝas la Dezajnan Procezon Fari ĉi tiujn reviziojn havas la potencialon plifortigi kiel teamo laboras kune. Ni ĉesas transdoni brilpoluritajn desegnajn dosierojn. Ni komencas uzi senordajn prototipojn kaj komunajn kalkultabelojn. La kerna ilo fariĝas travidebla matrico. Inĝenieroj kaj la enhavprojektistoj redaktas ĉi tiun kalkultabelon kune. Ili mapas la precizajn teknikajn kodojn al la vortoj, kiujn la uzanto legos. Teamoj spertos frotadon dum la logika revizio. Imagu, ke dizajnisto demandas al la inĝeniero, kiel la AI decidas malakcepti transakcion senditan sur elspezraporto. La inĝeniero povus diri, ke la backend nur eligas ĝeneralan statuskodon kiel "Eraro: Mankas Datumoj". La dezajnisto deklaras, ke ĉi tio ne estas agebla informo sur la ekrano. La dizajnisto negocas kun la inĝeniero por krei specifan teknikan hokon. La inĝeniero skribas novan regulon tiel la sistemo raportas precize kio mankas, kiel mankanta kvitanco bildo. Enhavaj projektistoj funkcias kiel tradukistoj dum ĉi tiu fazo. Programisto povus skribi teknike precizan ĉenon kiel "Kalkuli konfidan sojlon por vendisto-kongruo." Kontenta dizajnisto tradukas tiun ŝnuron en frazon, kiu kreas fidon por specifa rezulto. La strategiisto reverkas ĝin kiel "Komparante lokajn vendistajn prezojn por certigi vian vendredan liveron." La uzanto komprenas la agon kaj la rezulton. La tuta transfunkcia teamo sidas en uzantaj testaj sesioj. Ili rigardas realan personon reagi al malsamaj statusmesaĝoj. Vidante uzantan panikiĝon ĉar la ekrano diras "Efektivigo de komerco" devigas la teamon repripensi sian aliron. La inĝenieroj kaj dizajnistoj aliĝas al pli bona vortigo. Ili ŝanĝas la tekston al "Konfirmante sufiĉajn financojn" antaŭ aĉeti akciojn. Testado kune garantias, ke la fina interfaco servas kaj la sisteman logikon kaj la trankvilon de la uzanto. Ĝi postulas tempon por korpigi ĉi tiujn kromajn agadojn en la kalendaron de la teamo. Tamen, la fina rezulto devus esti teamo, kiu komunikas pli malkaŝe, kaj uzantoj, kiuj pli bone komprenas, kion iliaj AI-funkciigitaj iloj faras en sia nomo (kaj kial). Ĉi tiu integra aliro estas bazŝtono de desegnado de vere fidindaj AI-spertoj. Fido Estas Dezajna Elekto Ni ofte rigardas fidon kiel emocian kromprodukton de bona uzanta sperto. Estas pli facile rigardi fidon kiel mekanikan rezulton de antaŭvidebla komunikado. Ni konstruas fidon montrante la ĝustajn informojn en la ĝusta tempo. Ni detruas ĝin superfortante la uzanton aŭ kaŝante la maŝinaron tute. Komencu per la Decida Nodo-Revizio, precipe por agentaj AI-iloj kaj produktoj. Trovu la momentojn, kie la sistemo faras juĝan vokon. Mapu tiujn momentojn al la Riska Matrico. Se la palisoj estas altaj, malfermu la skatolon. Montru la laboron. En la sekva artikolo, ni rigardos kiel desegni ĉi tiujn momentojn: kiel skribi la kopion, strukturi la UI kaj trakti la neeviteblajn erarojn kiam la agento malĝuste. Apendico: La Kontrollisto de Decida Nodo-Revizio Fazo 1: Instalado kaj Mapado ✅ Kunigu la teamon: Venigu la produktposedantojn, komercajn analizistojn, dizajnistojn,esencaj deciduloj, kaj la inĝenieroj kiuj konstruis la AI. Sugesto: Vi bezonas la inĝenierojn por klarigi la realan backend logikon. Ne provu ĉi tiun paŝon sole. ✅ Desegnu la tutan procezon: Dokumentu ĉiun paŝon, kiun faras AI, de la unua ago de la uzanto ĝis la fina rezulto. Konsilo: Fizika blanktabulo-sesio ofte funkcias plej bone por eltiri ĉi tiujn komencajn paŝojn. Fazo 2: Lokante la Kaŝitan Logikon ✅ Trovu kie aferoj estas neklaraj: Rigardu la procezmapon por iu ajn loko, kie la AI komparas opciojn aŭ enigaĵojn, kiuj ne havas unu perfektan kongruon. ✅ Identigu la plej bonajn divenajn paŝojn: Por ĉiu neklara punkto, kontrolu ĉu la sistemo uzas konfidan poentaron. Ekzemple, demandu ĉu la sistemo estas certa 85 procentoj. Ĉi tiuj estas la punktoj, kie la AI faras finan elekton. ✅ Ekzamenu la elekton: Por ĉiu elektpunkto, eltrovu la specifan internan matematikon aŭ komparon faritan. Ekzemplo kongruas parton de kontrakto kun politiko. Alia ekzemplo implikas kompari bildon de rompita aŭto al biblioteko de difektitaj aŭtofotoj. Fazo 3: Krei la Uzantan Sperton ✅ Skribu klarajn klarigojn: Kreu mesaĝojn por la uzanto, kiuj klare priskribas la specifan internan agon okazantan kiam la AI faras elekton. Sugesto: Konstruu viajn mesaĝojn en konkreta realeco. Se AI rezervas renkontiĝon kun kliento ĉe loka kafejo, diru al la uzanto, ke la sistemo kontrolas la kafejon rezervadsistemon. ✅ Ĝisdatigu la ekranon: Metu ĉi tiujn novajn, klarajn klarigojn en la uzantinterfacon. Anstataŭigi neklarajn mesaĝojn kiel Revizio de kontraktoj per viaj specifaj klarigoj. ✅ Kontrolu pri Fido: Certigu, ke la novaj ekranmesaĝoj donas al uzantoj simplan kialon por ajna atendotempo aŭ rezulto. Ĉi tio devus igi ilin senti sin memfida kaj fidinda. Sugesto: Testu ĉi tiujn mesaĝojn kun realaj uzantoj por kontroli, ke ili komprenas la specifan rezulton atingitan.