Ang pagdidisenyo para sa mga autonomous na ahente ay nagpapakita ng kakaibang pagkabigo. Ibinibigay namin ang isang kumplikadong gawain sa isang AI, naglalaho ito sa loob ng 30 segundo (o 30 minuto), at pagkatapos ay babalik ito nang may resulta. Nakatitig kami sa screen. gumana ba? Nag hallucinate ba ito? Sinuri ba nito ang database ng pagsunod o nilaktawan ang hakbang na iyon? Karaniwan kaming tumutugon sa pagkabalisa na ito sa isa sa dalawang sukdulan. Maaari naming panatilihing Black Box ang system, itinatago ang lahat upang mapanatili ang pagiging simple, o kami ay nagpapanic at nagbibigay ng Data Dump, na nag-stream ng bawat log line at API na tawag sa user. Wala sa alinmang diskarte ang direktang tumutugon sa kakaibang kailangan upang mabigyan ang mga user ng perpektong antas ng transparency. Ang Black Box ay nag-iiwan sa mga gumagamit ng pakiramdam na walang kapangyarihan. Lumilikha ang Data Dump ng notification blindness, sinisira ang kahusayan na ipinangako ng ahente na ibibigay. Binabalewala ng mga user ang patuloy na daloy ng impormasyon hanggang sa masira ang isang bagay, kung saan kulang sila ng konteksto upang ayusin ito. Kailangan natin ng organisadong paraan upang mahanap ang balanse. Sa aking nakaraang artikulo, "Pagdidisenyo Para sa Ahente AI", tiningnan namin ang mga elemento ng interface na bumubuo ng tiwala, tulad ng pagpapakita ng nilalayon na pagkilos ng AI bago pa man (Mga Intent Preview) at pagbibigay sa mga user ng kontrol sa kung gaano kalaki ang ginagawa ng AI sa sarili nitong (Autonomy Dials). Ngunit ang pag-alam kung aling mga elemento ang gagamitin ay bahagi lamang ng hamon. Ang mas mahirap na tanong para sa mga designer ay ang pag-alam kung kailan gagamitin ang mga ito. Paano mo malalaman kung aling partikular na sandali sa isang 30-segundong workflow ang nangangailangan ng Intent Preview at alin ang maaaring pangasiwaan gamit ang isang simpleng log entry? Ang artikulong ito ay nagbibigay ng isang paraan upang masagot ang tanong na iyon. Tatalakayin natin ang Decision Node Audit. Ang prosesong ito ay nakakakuha ng mga designer at inhinyero sa parehong silid upang imapa ang backend logic sa user interface. Matututuhan mo kung paano matukoy ang mga eksaktong sandali na kailangan ng user ng update sa kung ano ang ginagawa ng AI. Sasaklawin din namin ang isang Impact/Risk matrix na makakatulong upang bigyang-priyoridad kung aling mga node ng desisyon ang ipapakita at anumang nauugnay na pattern ng disenyo na ipares sa desisyong iyon. Transparency Moments: Isang Halimbawa ng Pag-aaral ng Kaso Isaalang-alang ang Meridian (hindi tunay na pangalan), isang kompanya ng seguro na gumagamit ng isang ahenteng AI upang iproseso ang mga paunang claim sa aksidente. Ang gumagamit ay nag-upload ng mga larawan ng pinsala sa sasakyan at ang ulat ng pulisya. Ang ahente pagkatapos ay mawawala sa loob ng isang minuto bago bumalik na may kasamang pagtatasa ng panganib at isang iminungkahing hanay ng payout. Sa una, ipinakita lang ng interface ng Meridian ang Calculating Claim Status. Ang mga gumagamit ay naging bigo. Nagsumite sila ng ilang detalyadong dokumento at nakaramdam sila ng hindi sigurado tungkol sa kung nirepaso pa ng AI ang ulat ng pulisya, na naglalaman ng mga nagpapagaan na pangyayari. Ang Black Box ay lumikha ng kawalan ng tiwala. Para ayusin ito, nagsagawa ang design team ng Decision Node Audit. Nalaman nila na ang AI ay nagsagawa ng tatlong natatanging, batay sa posibilidad na mga hakbang, na may maraming mas maliliit na hakbang na naka-embed:

Pagsusuri ng Larawan Inihambing ng ahente ang mga larawan ng pinsala laban sa isang database ng mga karaniwang sitwasyon ng pagbangga ng sasakyan upang tantiyahin ang gastos sa pagkumpuni. Kasama dito ang isang marka ng kumpiyansa. Pagsusuri sa Tekstuwal Na-scan nito ang ulat ng pulisya para sa mga keyword na nakakaapekto sa pananagutan (hal., kasalanan, kundisyon ng panahon, kahinahunan). Kasama dito ang pagtatasa ng posibilidad ng legal na katayuan. Cross Reference ng PatakaranIto ay tumugma sa mga detalye ng claim laban sa mga partikular na tuntunin ng patakaran ng user, na naghahanap ng mga pagbubukod o limitasyon sa saklaw. Kasama rin dito ang probabilistic matching.

Ginawa ng team ang mga hakbang na ito sa mga sandali ng transparency. Ang pagkakasunud-sunod ng interface ay na-update sa:

Pagtatasa ng Mga Larawan sa Pinsala: Paghahambing laban sa 500 mga profile ng epekto ng sasakyan. Pagsusuri sa Ulat ng Pulisya: Pagsusuri ng mga keyword ng pananagutan at legal na pamarisan. Pag-verify ng Saklaw ng Patakaran: Pagsusuri para sa mga partikular na pagbubukod sa iyong plano.

Ang system ay tumagal pa rin ng parehong tagal ng oras, ngunit ang tahasang komunikasyon tungkol sa mga panloob na gawain ng ahente ay nagpanumbalik ng kumpiyansa ng user. Naunawaan ng mga user na ginagawa ng AI ang kumplikadong gawain kung saan ito idinisenyo, at alam nila kung saan itutuon ang kanilang pansin kung tila hindi tumpak ang huling pagtatasa. Binago ng pagpipiliang disenyo na ito ang sandali ng pagkabalisa sa isang sandali ng koneksyon sa user. Paglalapat ng Impact/Risk Matrix: Ang Pinili Naming Itago Karamihan sa mga karanasan sa AI ay walang kakulangan ng mga kaganapan at mga node ng desisyon na posibleng maipakita sa panahon ng pagproseso. Ang isa sa pinakamahalagang resulta ng pag-audit ay ang magpasya kung ano ang dapat panatilihing hindi nakikita. Sa halimbawa ng Meridian, ang mga backend log ay nakabuo ng 50+ event sa bawat claim. Maaaring na-default namin ang pagpapakita ng bawat kaganapan habang pinoproseso ang mga ito bilang bahagi ng UI. Sa halip, inilapat namin ang risk matrix para putulin ang mga ito:

Log Event: Pining ServerWest-2 para sa redundancy check. I-filter ang hatol: Itago. (Mababang Pusta, Mataas na Teknikal).

Log Event: Paghahambing ng pagtatantya ng pagkumpuni sa halaga ng BlueBook. I-filter ang hatol: Ipakita. (Mataas na Stakes, nakakaapekto sa payout ng user).

Sa pamamagitan ng pagputol sa mga hindi kinakailangang detalye, ang mahalagang impormasyon — tulad ng pag-verify sa saklaw — ay mas naapektuhan. Gumawa kami ng bukas na interface at nagdisenyo ng bukas na karanasan. Ginagamit ng diskarteng ito ang ideya na mas maganda ang pakiramdam ng mga tao tungkol sa isang serbisyo kapag nakikita nilang ginagawa ang gawain. Sa pamamagitan ng pagpapakita ng mga partikular na hakbang (Pagsusuri, Pagsusuri, Pag-verify), binago namin ang 30 segundong paghihintay mula sa panahon ng pag-aalala (“Nasira ba ito?”) tungo sa panahon ng pakiramdam na parang may ginagawang mahalagang bagay (“Nag-iisip ito”). Tingnan natin ngayon nang mas malapitan kung paano natin masusuri ang proseso ng paggawa ng desisyon sa ating mga produkto para matukoy ang mahahalagang sandali na nangangailangan ng malinaw na impormasyon. Ang Desisyon Node Audit Nabigo ang transparency kapag tinatrato namin ito bilang isang pagpipilian sa istilo sa halip na isang functional na kinakailangan. May posibilidad kaming magtanong, "Ano dapat ang hitsura ng UI?" bago natin itanong, "Ano ba talaga ang pagpapasya ng ahente?" Ang Decision Node Audit ay isang direktang paraan upang gawing mas madaling maunawaan ang mga AI system. Gumagana ito sa pamamagitan ng maingat na pagmamapa ng panloob na proseso ng system. Ang pangunahing layunin ay upang mahanap at malinaw na tukuyin ang mga eksaktong sandali kung saan huminto ang system sa pagsunod sa mga itinakdang panuntunan nito at sa halip ay gumawa ng isang pagpipilian batay sa pagkakataon o pagtatantya. Sa pamamagitan ng pagmamapa sa istrukturang ito, maipapakita ng mga tagalikha ang mga puntong ito ng kawalan ng katiyakan nang direkta sa mga taong gumagamit ng system. Binabago nito ang mga pag-update ng system mula sa pagiging hindi malinaw na mga pahayag patungo sa mga tiyak, maaasahang ulat tungkol sa kung paano naabot ng AI ang konklusyon nito. Bilang karagdagan sa pag-aaral ng kaso ng insurance sa itaas, kamakailan ay nagtrabaho ako sa isang pangkat na bumubuo ng isang ahente sa pagkuha. Sinuri ng system ang mga kontrata ng vendor at na-flag ang mga panganib. Sa orihinal, ang screen ay nagpakita ng isang simpleng progress bar: "Pagsusuri ng mga kontrata." Kinasusuklaman ito ng mga gumagamit. Ang aming pananaliksik ay nagpahiwatig na nakaramdam sila ng pagkabalisa tungkol sa mga legal na implikasyon ng isang nawawalang sugnay. Inayos namin ito sa pamamagitan ng pagsasagawa ng Decision Node Audit. Nagsama ako ng step-by-step na checklist para sa pagsasagawa ng audit na ito sa pagtatapos ng artikulong ito. Nagpatakbo kami ng isang session kasama ang mga inhinyero at binalangkas kung paano gumagana ang system. Natukoy namin ang "Mga Punto ng Desisyon" — mga sandali kung saan kailangang pumili ang AI sa pagitan ng dalawang magagandang opsyon. Sa karaniwang mga programa sa computer, malinaw ang proseso: kung mangyari ang A, palaging mangyayari ang B. Sa mga sistema ng AI, ang proseso ay kadalasang nakabatay sa pagkakataon. Iniisip ng AI na ang A ay marahil ang pinakamahusay na pagpipilian, ngunit maaari lamang itong 65% na tiyak. Sa sistema ng kontrata, nakakita kami ng sandali nang suriin ng AI ang mga tuntunin ng pananagutan laban sa mga panuntunan ng aming kumpanya. Ito ay bihirang isang perpektong tugma. Kinailangan ng AI na magpasya kung ang isang 90% na tugma ay sapat na. Ito ay isang mahalagang punto ng desisyon.

Kapag natukoy na namin ang node na ito, inilantad namin ito sa user. Sa halip na "Pagsusuri ng mga kontrata," na-update ang interface para sabihing: "Nag-iiba ang sugnay ng pananagutan sa karaniwang template. Pagsusuri sa antas ng panganib." Ang partikular na update na ito ay nagbigay ng kumpiyansa sa mga user. Alam nilang sinuri ng ahente ang sugnay ng pananagutan. Naunawaan nila ang dahilan ng pagkaantala at nakakuha ng tiwala na ang nais na aksyon ay nagaganap sa likurang bahagi. Alam din nila kung saan maghuhukay nang mas malalim kapag nabuo na ng ahente ang kontrata. Upang suriin kung paano gumagawa ng mga pagpapasya ang AI, kailangan mong makipagtulungan nang malapit sa iyong mga inhinyero, tagapamahala ng produkto, analyst ng negosyo, at mahahalagang tao na gumagawa ng mga pagpipilian (kadalasang nakatago) na nakakaapekto sa kung paano gumagana ang tool ng AI. Iguhit ang mga hakbang na ginagawa ng tool. Markahan ang bawat lugar kung saan nagbabago ang direksyon ng proseso dahil may posibilidad na matugunan. Ito ang mga lugar kung saan dapat kang tumuon sa pagiging mas transparent. Gaya ng ipinapakita sa Figure 2 sa ibaba, ang Decision Node Audit ay kinabibilangan ng mga hakbang na ito:

Pagsama-samahin ang team: Isama ang mga may-ari ng produkto, business analyst, designer, pangunahing gumagawa ng desisyon, at ang mga inhinyero na bumuo ng AI. Halimbawa, Mag-isip tungkol sa isang team ng produkto na bumubuo ng isang AI tool na idinisenyo upang suriin ang mga magulong legal na kontrata. Kasama sa team ang UX designer, ang product manager, ang UX researcher, isang praktikal na abogado na nagsisilbing subject-matter expert, at ang backend engineer na sumulat ng text-analysis code.

Iguhit ang buong proseso: Idokumento ang bawat hakbang na ginagawa ng AI, mula sa unang pagkilos ng user hanggang sa huling resulta. Nakatayo ang team sa isang whiteboard at ini-sketch ang buong sequence para sa isang pangunahing workflow na kinasasangkutan ng AI na naghahanap ng isang liability clause sa isang kumplikadong kontrata. Nag-upload ang abogadoisang limampung pahinang PDF → Kino-convert ng system ang dokumento sa nababasang teksto. → Ini-scan ng AI ang mga pahina para sa mga sugnay ng pananagutan. → Naghihintay ang gumagamit. → Makalipas ang ilang sandali o minuto, hina-highlight ng tool ang mga nahanap na talata sa dilaw sa interface ng gumagamit. Ginagawa nila ito para sa maraming iba pang mga daloy ng trabaho na tinatanggap din ng tool.

Hanapin kung saan hindi malinaw ang mga bagay: Tingnan ang mapa ng proseso para sa anumang lugar kung saan inihahambing ng AI ang mga opsyon o input na walang perpektong tugma. Ang koponan ay tumitingin sa whiteboard upang makita ang hindi maliwanag na mga hakbang. Ang pag-convert ng isang imahe sa teksto ay sumusunod sa mahigpit na mga panuntunan. Ang paghahanap ng isang partikular na sugnay ng pananagutan ay nagsasangkot ng hula. Isinulat ng bawat kumpanya ang mga clause na ito nang iba, kaya kailangang timbangin ng AI ang maraming mga opsyon at gumawa ng hula sa halip na maghanap ng eksaktong tugma ng salita.

Tukuyin ang mga hakbang na 'pinakamahusay na hula': Para sa bawat hindi malinaw na lugar, tingnan kung gumagamit ang system ng marka ng kumpiyansa (halimbawa, 85% bang sigurado?). Ito ang mga punto kung saan ang AI ay gumagawa ng isang pangwakas na pagpipilian. Kailangang hulaan ng system (magbigay ng probabilidad) kung aling (mga) talata ang malapit na kahawig ng isang karaniwang sugnay ng pananagutan. Nagtatalaga ito ng marka ng kumpiyansa sa pinakamahusay nitong hula. Ang hula na iyon ay isang decision node. Kailangang sabihin ng interface sa abogado na ito ay nagha-highlight ng isang potensyal na tugma, sa halip na sabihin na natagpuan nito ang tiyak na sugnay.

Suriin ang pagpipilian: Para sa bawat punto ng pagpili, alamin ang partikular na internal na matematika o paghahambing na ginagawa (hal., pagtutugma ng bahagi ng kontrata sa isang patakaran o paghahambing ng larawan ng sirang kotse sa library ng mga nasirang larawan ng kotse). Ipinaliwanag ng inhinyero na ikinukumpara ng system ang iba't ibang mga talata laban sa isang database ng mga standard liability clause mula sa mga nakaraang kaso ng kumpanya. Kinakalkula nito ang marka ng pagkakapareho ng teksto upang magpasya sa isang tugma batay sa mga probabilidad.

Sumulat ng malinaw na mga paliwanag: Lumikha ng mga mensahe para sa user na malinaw na naglalarawan sa partikular na panloob na pagkilos na nangyayari kapag gumawa ng pagpili ang AI. Nagsusulat ang taga-disenyo ng nilalaman ng isang partikular na mensahe para sa eksaktong sandaling ito. Ang teksto ay nagbabasa ng: Paghahambing ng teksto ng dokumento sa mga karaniwang sugnay ng kumpanya upang matukoy ang mga potensyal na panganib sa pananagutan.

I-update ang screen: Ilagay ang mga bago at malinaw na paliwanag na ito sa user interface, na pinapalitan ang mga hindi malinaw na mensahe tulad ng "Pagsusuri ng mga kontrata." Inaalis ng team ng disenyo ang generic na Pagproseso ng PDF loading spinner. Inilalagay nila ang bagong paliwanag sa isang status bar na nasa itaas mismo ng viewer ng dokumento habang iniisip ng AI.

Suriin ang Pagtitiwala: Tiyaking ang mga bagong mensahe sa screen ay nagbibigay sa mga user ng simpleng dahilan para sa anumang oras ng paghihintay o resulta, na dapat na maging mas kumpiyansa at nagtitiwala sa kanila.

Ang Impact/Risk Matrix Kapag tiningnan mo nang mabuti ang proseso ng AI, malamang na makakita ka ng maraming punto kung saan ito pipili. Ang isang AI ay maaaring gumawa ng dose-dosenang maliliit na pagpipilian para sa isang kumplikadong gawain. Ang pagpapakita sa kanila ng lahat ay lumilikha ng masyadong maraming hindi kinakailangang impormasyon. Kailangan mong pangkatin ang mga pagpipiliang ito. Maaari kang gumamit ng Impact/Risk Matrix para pagbukud-bukurin ang mga pagpipiliang ito batay sa (mga) uri ng pagkilos na ginagawa ng AI. Narito ang mga halimbawa ng mga impact/risk matrice: Una, maghanap ng mga desisyon na mababa ang stake at mababang epekto. Mababang Pusta / Mababang Epekto

Halimbawa: Pag-aayos ng istraktura ng file o pagpapalit ng pangalan ng isang dokumento. Kailangan ng Transparency: Minimal. Ang isang banayad na notification ng toast o isang log entry ay sapat na. Madaling i-undo ng mga user ang mga pagkilos na ito.

Pagkatapos ay tukuyin ang mga desisyon na may mataas na stake at may mataas na epekto. Mataas na Pusta / Mataas na Epekto

Halimbawa: Pagtanggi sa aplikasyon ng pautang o pagsasagawa ng stock trade. Kailangan ng Transparency: Mataas. Ang mga pagkilos na ito ay nangangailangan ng Katibayan ng Trabaho. Dapat ipakita ng system ang katwiran bago o kaagad habang ito ay kumikilos.

Isaalang-alang ang isang financial trading bot na pareho ang pagtrato sa lahat ng buy/sell order. Nagsasagawa ito ng $5 trade na may parehong opacity bilang isang $50,000 trade. Maaaring magtanong ang mga user kung kinikilala ng tool ang potensyal na epekto ng transparency sa pangangalakal sa malaking halaga ng dolyar. Kailangan nila ang system na i-pause at ipakita ang trabaho nito para sa mga trade na may mataas na stakes. Ang solusyon ay ang pagpapakilala ng isang Reviewing Logic na estado para sa anumang transaksyong lampas sa isang partikular na halaga ng dolyar, na nagpapahintulot sa user na makita ang mga salik na nagtutulak sa desisyon bago ang pagpapatupad. Pagmamapa ng mga Node sa Mga Pattern: Isang Rubric sa Pagpili ng Pattern ng Disenyo Kapag natukoy mo na ang mga pangunahing node ng pagpapasya ng iyong karanasan, dapat kang magpasya kung aling pattern ng UI ang nalalapat sa bawat isa na iyong ipapakita. Sa Designing For Agentic AI, ipinakilala namin ang mga pattern tulad ng Intent Preview (para sa high-stakes control) at Action Audit (para sa retrospective na kaligtasan). Ang mapagpasyang kadahilanan sa pagpili sa pagitan ng mga ito ay reversibility. Sinasala namin ang bawat isadesisyon node sa pamamagitan ng impact matrix upang maitalaga ang tamang pattern: Mataas na Stakes at Hindi Maibabalik: Ang mga node na ito ay nangangailangan ng isang Intent Preview. Dahil hindi madaling ma-undo ng user ang pagkilos (hal., permanenteng pagtanggal ng database), dapat mangyari ang transparency moment bago ang execution. Ang system ay dapat na i-pause, ipaliwanag ang layunin nito, at nangangailangan ng kumpirmasyon. High Stakes at Reversible: Ang mga node na ito ay maaaring umasa sa Action Audit & Undo pattern. Kung ang ahente ng pagbebenta na pinapagana ng AI ay naglilipat ng lead sa ibang pipeline, magagawa ito nang awtomatiko hangga't aabisuhan nito ang user at nag-aalok ng isang agarang I-undo na button. Sa pamamagitan ng mahigpit na pagkakategorya ng mga node sa ganitong paraan, maiiwasan namin ang "alerto na pagkapagod." Inilalaan namin ang high-friction Intent Preview para lang sa mga tunay na hindi maibabalik na sandali, habang umaasa sa Action Audit upang mapanatili ang bilis para sa lahat ng iba pa.

Nababaligtad Hindi maibabalik Mababang Epekto Uri: Auto-ExecuteUI: Passive Toast / LogEx: Pagpapalit ng pangalan ng file Uri: ConfirmUI: Simpleng opsyon sa Pag-undoHal: Pag-archive ng email Mataas na Epekto Uri: ReviewUI: Notification + Review TrailEx: Pagpapadala ng draft sa isang kliyente Uri: Intent previewUI: Modal / Explicit PermissionEx: Pagtanggal ng server

Talahanayan 1: Magagamit na ang impact at reversibility matrix para imapa ang iyong mga sandali ng transparency sa mga pattern ng disenyo. Qualitative Validation: "Ang Maghintay, Bakit?" Pagsubok Maaari mong tukuyin ang mga potensyal na node sa isang whiteboard, ngunit dapat mong patunayan ang mga ito sa pag-uugali ng tao. Kailangan mong i-verify kung tumutugma ang iyong mapa sa mental model ng user. Gumagamit ako ng protocol na tinatawag na "Teka, Bakit?" Pagsubok. Hilingin sa isang user na panoorin ang ahente sa pagkumpleto ng isang gawain. Turuan silang magsalita nang malakas. Sa tuwing magtatanong sila ng, "Teka, bakit niya ginawa iyon?" o "Natigil ba ito?" o “Narinig ba ako nito?” — markahan mo ang isang timestamp. Ang mga tanong na ito ay nagpapahiwatig ng pagkalito ng gumagamit. Nararamdaman ng user na nawawala ang kanilang kontrol. Halimbawa, sa isang pag-aaral para sa isang healthcare scheduling assistant, pinanood ng mga user ang ahente na nag-book ng appointment. Naka-static ang screen sa loob ng apat na segundo. Ang mga kalahok ay patuloy na nagtanong, "Tinusuri ba nito ang aking kalendaryo o ng doktor?"

Ang tanong na iyon ay nagsiwalat ng nawawalang Transparency Moment. Kailangang hatiin ng system ang apat na segundong paghihintay na iyon sa dalawang natatanging hakbang: "Pagsuri sa iyong availability" na sinusundan ng "Pag-sync sa iskedyul ng provider." Binawasan ng maliit na pagbabagong ito ang mga ipinahayag na antas ng pagkabalisa ng mga user. Nabigo ang transparency kapag naglalarawan lamang ito ng pagkilos ng system. Dapat ikonekta ng interface ang teknikal na proseso sa partikular na layunin ng user. Ang isang screen na nagpapakita ng "Pagsusuri sa iyong availability" ay nahuhulog dahil wala itong konteksto. Naiintindihan ng user na tumitingin ang AI sa isang kalendaryo, ngunit hindi nila alam kung bakit. Dapat nating ipares ang aksyon sa kinalabasan. Kailangang hatiin ng system ang apat na segundong paghihintay sa dalawang natatanging hakbang. Una, ipinapakita ng interface ang "Tinitingnan ang iyong kalendaryo upang makahanap ng mga bukas na oras." Pagkatapos ay mag-a-update ito sa "Pag-sync sa iskedyul ng provider para ma-secure ang iyong appointment." Pinagbabatayan nito ang teknikal na proseso sa aktwal na buhay ng user. Isaalang-alang ang isang AI na namamahala sa imbentaryo para sa isang lokal na cafe. Ang sistema ay nakakaranas ng kakulangan sa supply. Ang isang interface na nagbabasa ng "contacting vendor" o "reviewing options" ay lumilikha ng pagkabalisa. Nagtataka ang manager kung kinakansela ng system ang order o bibili ng mamahaling alternatibo. Ang isang mas mahusay na diskarte ay ipaliwanag ang nilalayong resulta: "Pagsusuri ng mga alternatibong supplier upang mapanatili ang iyong iskedyul ng paghahatid sa Biyernes." Sinasabi nito sa user kung ano mismo ang sinusubukang makamit ng AI. Pagpapatakbo ng Audit Nakumpleto mo na ang Decision Node Audit at na-filter ang iyong listahan sa pamamagitan ng Impact and Risk Matrix. Mayroon ka na ngayong listahan ng mahahalagang sandali para sa pagiging transparent. Susunod, kailangan mong likhain ang mga ito sa UI. Ang hakbang na ito ay nangangailangan ng pagtutulungan ng magkakasama sa iba't ibang departamento. Hindi ka makakapagdisenyo ng transparency nang mag-isa gamit ang isang tool sa disenyo. Kailangan mong maunawaan kung paano gumagana ang system sa likod ng mga eksena. Magsimula sa isang Logic Review. Makipagkita sa iyong lead system designer. Dalhin ang iyong mapa ng mga node ng desisyon. Kailangan mong kumpirmahin na talagang maibabahagi ng system ang mga estadong ito. Madalas kong makita na ang teknikal na sistema ay hindi nagbubunyag ng eksaktong estado na gusto kong ipakita. Maaaring sabihin ng inhinyero na ang sistema ay nagbabalik lamang ng pangkalahatang katayuang "nagtatrabaho". Dapat mong itulak para sa isang detalyadong update. Kailangan mo ang system na magpadala ng isang partikular na paunawakapag lumipat ito mula sa pagbabasa ng text patungo sa pagsuri ng mga panuntunan. Kung wala ang teknikal na koneksyon na iyon, imposibleng mabuo ang iyong disenyo. Susunod, isali ang pangkat ng Disenyo ng Nilalaman. Mayroon kang teknikal na dahilan para sa pagkilos ng AI, ngunit kailangan mo ng malinaw, magiliw na paliwanag ng tao. Ibinibigay ng mga inhinyero ang pinagbabatayan na proseso, ngunit ibinibigay ng mga taga-disenyo ng nilalaman ang paraan ng pakikipag-ugnayan nito. Huwag isulat ang mga mensaheng ito nang mag-isa. Maaaring isulat ng isang developer ang "Isinasagawa ang function 402," na teknikal na tama ngunit walang kahulugan sa user. Maaaring isulat ng isang taga-disenyo ang "Pag-iisip," na palakaibigan ngunit masyadong malabo. Nahanap ng isang content strategist ang tamang middle ground. Gumagawa sila ng mga partikular na parirala, gaya ng "Pag-scan para sa mga panganib sa pananagutan," na nagpapakita na gumagana ang AI nang hindi nalilito ang user. Panghuli, subukan ang transparency ng iyong mga mensahe. Huwag maghintay hanggang mabuo ang panghuling produkto upang makita kung gumagana ang teksto. Nagsasagawa ako ng mga pagsubok sa paghahambing sa mga simpleng prototype kung saan ang tanging bagay na nagbabago ay ang mensahe ng katayuan. Halimbawa, ipinapakita ko sa isang grupo (Group A) ang isang mensahe na nagsasabing "Pagpapatunay ng pagkakakilanlan" at isa pang grupo (Group B) isang mensahe na nagsasabing "Pagsusuri sa mga database ng pamahalaan" (ito ay mga gawa-gawang halimbawa, ngunit naiintindihan mo ang punto). Pagkatapos ay tatanungin ko sila kung aling AI ang mas ligtas. Madalas mong matuklasan na ang ilang mga salita ay nagdudulot ng pag-aalala, habang ang iba ay nagtatatag ng tiwala. Dapat mong ituring ang mga salita bilang isang bagay na kailangan mong subukan at patunayan na epektibo. Paano Nito Binabago ang Proseso ng Disenyo Ang pagsasagawa ng mga pag-audit na ito ay may potensyal na palakasin kung paano nagtutulungan ang isang pangkat. Huminto kami sa pagbibigay ng pinakintab na mga file ng disenyo. Nagsisimula kaming gumamit ng mga magugulong prototype at nakabahaging spreadsheet. Ang pangunahing tool ay nagiging isang transparency matrix. Ang mga inhinyero at ang mga taga-disenyo ng nilalaman ay magkasamang nag-e-edit sa spreadsheet na ito. Mapa nila ang eksaktong mga teknikal na code sa mga salitang babasahin ng user. Ang mga koponan ay makakaranas ng alitan sa panahon ng pagsusuri ng lohika. Isipin ang isang taga-disenyo na nagtatanong sa engineer kung paano nagpasya ang AI na tanggihan ang isang transaksyon na isinumite sa isang ulat ng gastos. Maaaring sabihin ng engineer na ang backend ay naglalabas lamang ng generic na code ng katayuan tulad ng "Error: Nawawalang Data." Sinabi ng taga-disenyo na hindi ito naaaksyunan na impormasyon sa screen. Ang taga-disenyo ay nakikipag-usap sa inhinyero upang lumikha ng isang partikular na teknikal na kawit. Ang inhinyero ay nagsusulat ng isang bagong panuntunan upang ang sistema ay eksaktong nag-uulat kung ano ang nawawala, tulad ng isang nawawalang larawan ng resibo. Ang mga taga-disenyo ng nilalaman ay kumikilos bilang mga tagasalin sa yugtong ito. Maaaring magsulat ang isang developer ng isang teknikal na tumpak na string tulad ng "Pagkalkula ng threshold ng kumpiyansa para sa pagtutugma ng vendor." Isinasalin ng isang taga-disenyo ng nilalaman ang string na iyon sa isang parirala na bumubuo ng tiwala para sa isang partikular na resulta. Isinulat muli ito ng strategist bilang "Paghahambing ng mga presyo ng lokal na vendor upang ma-secure ang iyong paghahatid sa Biyernes." Naiintindihan ng user ang aksyon at ang resulta. Ang buong cross-functional na koponan ay nakikibahagi sa mga sesyon ng pagsubok ng user. Pinapanood nila ang isang tunay na tao na nagre-react sa iba't ibang status message. Kapag nakakakita ng isang user na nataranta dahil ang screen ay nagsasabing "Pagsasagawa ng kalakalan" ay pinipilit ang team na pag-isipang muli ang kanilang diskarte. Ang mga inhinyero at taga-disenyo ay nakahanay sa mas mahusay na mga salita. Pinapalitan nila ang text sa "Pagpapatunay ng sapat na pondo" bago bumili ng stock. Ang sama-samang pagsubok ay ginagarantiyahan ang panghuling interface na nagsisilbi sa lohika ng system at sa kapayapaan ng isip ng user. Nangangailangan ito ng oras upang isama ang mga karagdagang aktibidad na ito sa kalendaryo ng koponan. Gayunpaman, ang resulta ay dapat na isang koponan na nakikipag-usap nang mas bukas, at ang mga user na may mas mahusay na pag-unawa sa kung ano ang ginagawa ng kanilang mga tool na pinapagana ng AI para sa kanila (at bakit). Ang pinagsamang diskarte na ito ay isang pundasyon ng pagdidisenyo ng tunay na mapagkakatiwalaang mga karanasan sa AI. Ang Pagtitiwala ay Isang Pagpipilian sa Disenyo Madalas naming tinitingnan ang tiwala bilang isang emosyonal na byproduct ng magandang karanasan ng user. Mas madaling tingnan ang tiwala bilang isang mekanikal na resulta ng predictable na komunikasyon. Bumubuo tayo ng tiwala sa pamamagitan ng pagpapakita ng tamang impormasyon sa tamang oras. Sinisira namin ito sa pamamagitan ng pagkabigla sa gumagamit o ganap na pagtatago sa makinarya. Magsimula sa Decision Node Audit, partikular para sa mga ahente at produkto ng AI. Hanapin ang mga sandali kung saan gumagawa ang system ng isang tawag sa paghatol. Imapa ang mga sandaling iyon sa Risk Matrix. Kung mataas ang pusta, buksan ang kahon. Ipakita ang gawa. Sa susunod na artikulo, titingnan natin kung paano idisenyo ang mga sandaling ito: kung paano isulat ang kopya, istraktura ang UI, at pangasiwaan ang mga hindi maiiwasang pagkakamali kapag nagkamali ang ahente. Appendix: Ang Checklist ng Pag-audit ng Node ng Desisyon Phase 1: Setup at Mapping ✅ Pagsama-samahin ang koponan: Dalhin ang mga may-ari ng produkto, analyst ng negosyo, designer,pangunahing gumagawa ng desisyon, at ang mga inhinyero na bumuo ng AI. Hint: Kailangan mo ng mga inhinyero na ipaliwanag ang aktwal na backend logic. Huwag subukan ang hakbang na ito nang mag-isa. ✅ Iguhit ang buong proseso: Idokumento ang bawat hakbang na ginagawa ng AI, mula sa unang pagkilos ng user hanggang sa huling resulta. Hint: Ang isang pisikal na whiteboard session ay kadalasang pinakamahusay na gumagana para sa pagguhit ng mga unang hakbang na ito. Phase 2: Paghanap ng Nakatagong Logic ✅ Hanapin kung saan hindi malinaw ang mga bagay: Tingnan ang mapa ng proseso para sa anumang lugar kung saan pinagkukumpara ng AI ang mga opsyon o input na walang isang perpektong tugma. ✅ Tukuyin ang pinakamahusay na mga hakbang sa paghula: Para sa bawat hindi malinaw na lugar, tingnan kung gumagamit ang system ng marka ng kumpiyansa. Halimbawa, tanungin kung 85 porsiyentong sigurado ang system. Ito ang mga punto kung saan ang AI ay gumagawa ng isang pangwakas na pagpipilian. ✅ Suriin ang pagpipilian: Para sa bawat pagpipiliang punto, alamin ang partikular na internal na matematika o paghahambing na ginagawa. Ang isang halimbawa ay ang pagtutugma ng bahagi ng isang kontrata sa isang patakaran. Ang isa pang halimbawa ay nagsasangkot ng paghahambing ng isang larawan ng isang sirang kotse sa isang library ng mga nasirang larawan ng kotse. Phase 3: Paglikha ng Karanasan ng User ✅ Sumulat ng malinaw na mga paliwanag: Gumawa ng mga mensahe para sa user na malinaw na naglalarawan sa partikular na panloob na pagkilos na nangyayari kapag gumawa ng pagpili ang AI. Hint: I-ground ang iyong mga mensahe sa konkretong katotohanan. Kung ang isang AI ay nag-book ng isang pulong sa isang kliyente sa isang lokal na cafe, sabihin sa user na sinusuri ng system ang sistema ng pagpapareserba sa cafe. ✅ I-update ang screen: Ilagay ang mga bago at malinaw na paliwanag sa user interface. Palitan ang mga hindi malinaw na mensahe tulad ng Pagsusuri sa mga kontrata ng iyong mga partikular na paliwanag. ✅ Suriin ang Tiwala: Tiyaking ang mga bagong mensahe sa screen ay nagbibigay sa mga user ng simpleng dahilan para sa anumang oras ng paghihintay o resulta. Ito ay dapat na maging tiwala at nagtitiwala sa kanila. Hint: Subukan ang mga mensaheng ito kasama ng mga aktwal na user para i-verify na nauunawaan nila ang partikular na kinalabasan na nakakamit.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free