Projektimi për agjentë autonome paraqet një zhgënjim unik. Ne i dorëzojmë një detyrë komplekse një AI, ajo zhduket për 30 sekonda (ose 30 minuta) dhe më pas kthehet me një rezultat. Ne shikojmë në ekran. A funksionoi? A kishte halucinacione? A e kontrolloi bazën e të dhënave të përputhshmërisë apo e kapërceu atë hap? Ne zakonisht i përgjigjemi këtij ankthi me një nga dy ekstremet. Ne ose e mbajmë sistemin një Kuti të Zezë, duke fshehur gjithçka për të ruajtur thjeshtësinë, ose ne kemi panik dhe sigurojmë një Deponim të të Dhënave, duke transmetuar çdo linjë log dhe thirrje API tek përdoruesi. Asnjëra nga këto qasje nuk adreson drejtpërdrejt nuancat e nevojshme për t'u ofruar përdoruesve nivelin ideal të transparencës. Kutia e Zezë i lë përdoruesit të ndihen të pafuqishëm. Data Dump krijon verbëri njoftimi, duke shkatërruar efikasitetin që agjenti premtoi të sigurojë. Përdoruesit injorojnë rrjedhën e vazhdueshme të informacionit derisa diçka të prishet, në këtë pikë atyre u mungon konteksti për ta rregulluar atë. Ne kemi nevojë për një mënyrë të organizuar për të gjetur ekuilibrin. Në artikullin tim të mëparshëm, "Dizajnimi për AI agjenturore", ne shikuam elementët e ndërfaqes që krijojnë besim, si p.sh. shfaqja e veprimit të synuar të AI paraprakisht (Parashikimet e qëllimit) dhe dhënia e përdoruesve kontroll mbi atë se sa bën AI më vete (Thirrjet autonome). Por të dish se cilët elementë të përdorësh është vetëm një pjesë e sfidës. Pyetja më e vështirë për projektuesit është të dinë se kur t'i përdorin ato. Si e dini se cili moment specifik në një rrjedhë pune prej 30 sekondash kërkon një Parapamje Synimi dhe cili mund të trajtohet me një hyrje të thjeshtë në regjistër? Ky artikull ofron një mënyrë për t'iu përgjigjur kësaj pyetjeje. Ne do të kalojmë përmes Auditimit të Nyjes së Vendimit. Ky proces i bën projektuesit dhe inxhinierët në të njëjtën dhomë për të hartuar logjikën e backend-it në ndërfaqen e përdoruesit. Do të mësoni se si të përcaktoni momentet e sakta që një përdorues ka nevojë për një përditësim mbi atë që po bën AI. Ne do të mbulojmë gjithashtu një matricë Ndikimi/Rreziku që do të ndihmojë në përcaktimin e prioriteteve se cilat nyje vendimi duhet të shfaqen dhe çdo model dizajni të lidhur për t'u çiftuar me atë vendim. Momentet e transparencës: Një shembull i studimit të rastit Konsideroni Meridian (jo emri i vërtetë), një kompani sigurimesh që përdor një AI agjenturore për të përpunuar pretendimet fillestare të aksidenteve. Përdoruesi ngarkon foto të dëmtimit të automjetit dhe raportin e policisë. Agjenti më pas zhduket për një minutë përpara se të kthehet me një vlerësim rreziku dhe një gamë të propozuar pagese. Fillimisht, ndërfaqja e Meridian thjesht tregoi Llogaritjen e Statusit të Kërkesës. Përdoruesit u zhgënjyen. Ata kishin dorëzuar disa dokumente të detajuara dhe ndiheshin të pasigurt nëse UA e kishte shqyrtuar edhe raportin e policisë, i cili përmbante rrethana lehtësuese. Kutia e Zezë krijoi mosbesim. Për të rregulluar këtë, ekipi i projektimit kreu një Auditim të Nyjeve të Vendimit. Ata zbuluan se AI kreu tre hapa të veçantë, të bazuar në probabilitet, me shumë hapa më të vegjël të përfshirë:

Analiza e imazhit Agjenti krahasoi fotot e dëmtimit me një bazë të dhënash të skenarëve tipikë të përplasjeve me makinë për të vlerësuar koston e riparimit. Kjo përfshinte një rezultat besimi. Rishikimi tekstual skanoi raportin e policisë për fjalë kyçe që ndikojnë në përgjegjësi (p.sh., defekt, kushtet e motit, maturi). Kjo përfshinte një vlerësim probabiliteti të pozitës ligjore. Politika Cross ReferenceAjo përputhet me detajet e pretendimit me kushtet specifike të politikës së përdoruesit, duke kërkuar për përjashtime ose kufij mbulimi. Kjo gjithashtu përfshinte përputhjen probabilistike.

Ekipi i ktheu këto hapa në momente transparence. Sekuenca e ndërfaqes u përditësua në:

Vlerësimi i fotografive të dëmtimit: Krahasimi me 500 profile të ndikimit të automjeteve. Rishikimi i Raportit të Policisë: Analizimi i fjalëve kyçe të përgjegjësisë dhe precedenti ligjor. Verifikimi i mbulimit të politikës: Kontrollimi për përjashtime specifike në planin tuaj.

Sistemi mori ende të njëjtën kohë, por komunikimi i qartë rreth funksionimit të brendshëm të agjentit riktheu besimin e përdoruesit. Përdoruesit e kuptuan se AI ishte duke kryer detyrën komplekse për të cilën ishte projektuar dhe ata e dinin saktësisht se ku ta përqendronin vëmendjen e tyre nëse vlerësimi përfundimtar dukej i pasaktë. Kjo zgjedhje dizajni e shndërroi një moment ankthi në një moment lidhjeje me përdoruesin. Zbatimi i matricës së ndikimit/rrezikut: çfarë zgjodhëm të fshehim Shumica e përvojave të AI nuk kanë mungesë të ngjarjeve dhe nyjeve të vendimit që potencialisht mund të shfaqen gjatë përpunimit. Një nga rezultatet më kritike të auditimit ishte vendosja e asaj që duhej mbajtur e padukshme. Në shembullin e Meridian, regjistrat e backend-it gjeneruan mbi 50 ngjarje për pretendim. Mund të kishim parazgjedhur për të shfaqur çdo ngjarje pasi ato përpunoheshin si pjesë e ndërfaqes së përdoruesit. Në vend të kësaj, ne aplikuam matricën e rrezikut për t'i krasitur ato:

Ngjarja e regjistrit: Pinging serverWest-2 për kontrollin e tepricës. Verdikti i filtrit: Fshihe. (Aksione të ulëta, teknikë e lartë).

Ngjarja e regjistrit: Krahasimi i vlerësimit të riparimit me vlerën e BlueBook. Verdikti i filtrit: Shfaq. (Aksione të larta, ndikon në pagesën e përdoruesit).

Duke hequr detajet e panevojshme, informacioni i rëndësishëm - si verifikimi i mbulimit - ishte më me ndikim. Ne krijuam një ndërfaqe të hapur dhe krijuam një përvojë të hapur. Kjo qasje përdor idenë se njerëzit ndihen më mirë për një shërbim kur mund të shohin punën që po bëhet. Duke treguar hapat specifikë (Vlerësimi, Rishikimi, Verifikimi), ne ndryshuam një pritje prej 30 sekondash nga një kohë shqetësimi (“A është prishur?”) në një kohë të ndjenjës se diçka e vlefshme po krijohet (“Po mendon”). Le të hedhim një vështrim më të afërt se si mund të rishikojmë procesin e vendimmarrjes në produktet tona për të identifikuar momentet kryesore që kërkojnë informacion të qartë. Auditimi i Nyjes së Vendimit Transparenca dështon kur e trajtojmë si një zgjedhje stili dhe jo si një kërkesë funksionale. Ne kemi një tendencë të pyesim: "Si duhet të duket UI?" përpara se të pyesim: "Çfarë është duke vendosur agjenti?" Auditimi i Nyjeve të Vendimit është një mënyrë e drejtpërdrejtë për t'i bërë sistemet e AI më të lehtë për t'u kuptuar. Ai funksionon duke hartuar me kujdes procesin e brendshëm të sistemit. Qëllimi kryesor është gjetja dhe përcaktimi i qartë i momenteve të sakta ku sistemi ndalon së ndjekuri rregullat e tij të përcaktuara dhe në vend të kësaj bën një zgjedhje bazuar në rastësi ose vlerësim. Duke hartuar këtë strukturë, krijuesit mund t'ua tregojnë këto pika pasigurie drejtpërdrejt njerëzve që përdorin sistemin. Kjo ndryshon përditësimet e sistemit nga të qenit deklarata të paqarta në raporte specifike dhe të besueshme se si AI arriti në përfundimin e saj. Përveç rastit studimor të sigurimeve të mësipërme, kohët e fundit kam punuar me një ekip që ndërton një agjent prokurimi. Sistemi rishikoi kontratat e shitësve dhe shënoi rreziqet. Fillimisht, ekrani shfaqte një shirit të thjeshtë progresi: "Rishikimi i kontratave". Përdoruesit e urrenin atë. Hulumtimi ynë tregoi se ata ndjeheshin të shqetësuar për implikimet ligjore të një klauzole që mungonte. Ne e rregulluam këtë duke kryer një Auditim të Nyjeve të Vendimit. Unë kam përfshirë një listë kontrolli hap pas hapi për kryerjen e këtij auditimi në përfundim të këtij artikulli. Ne zhvilluam një seancë me inxhinierët dhe përshkruam se si funksionon sistemi. Ne identifikuam "Pikat e Vendimit" - momentet kur AI duhej të zgjidhte midis dy opsioneve të mira. Në programet standarde kompjuterike, procesi është i qartë: nëse ndodh A, atëherë B do të ndodhë gjithmonë. Në sistemet e AI, procesi shpesh bazohet në rastësi. AI mendon se A është ndoshta zgjidhja më e mirë, por mund të jetë vetëm 65% e sigurt. Në sistemin e kontratave, ne gjetëm një moment kur AI kontrolloi kushtet e detyrimit kundër rregullave të kompanisë sonë. Rrallëherë ishte një ndeshje perfekte. AI duhej të vendoste nëse një ndeshje 90% ishte mjaft e mirë. Kjo ishte një pikë vendimtare kyçe.

Pasi e kemi identifikuar këtë nyje, ia ekspozuam atë përdoruesit. Në vend të "Rishikimit të kontratave", ndërfaqja u përditësua për të thënë: "Klauzola e përgjegjësisë ndryshon nga modeli standard. Duke analizuar nivelin e rrezikut." Ky përditësim specifik u dha përdoruesve besim. Ata e dinin që agjenti kontrolloi klauzolën e përgjegjësisë. Ata e kuptuan arsyen e vonesës dhe fituan besimin se veprimi i dëshiruar po ndodhte në anën e pasme. Ata gjithashtu dinin se ku të gërmonin më thellë pasi agjenti të krijonte kontratën. Për të kontrolluar se si AI merr vendime, ju duhet të punoni ngushtë me inxhinierët tuaj, menaxherët e produkteve, analistët e biznesit dhe njerëzit kryesorë që po bëjnë zgjedhjet (shpesh të fshehura) që ndikojnë në funksionimin e mjetit të AI. Vizatoni hapat që bën mjeti. Shënoni çdo vend ku procesi ndryshon drejtim sepse plotësohet një probabilitet. Këto janë vendet ku duhet të fokusoheni për të qenë më transparent. Siç tregohet në Figurën 2 më poshtë, Auditimi i Nyjeve të Vendimit përfshin këto hapa:

Mblidhni ekipin së bashku: Sillni pronarët e produkteve, analistët e biznesit, projektuesit, vendimmarrësit kryesorë dhe inxhinierët që ndërtuan AI. Për shembull, Mendoni për një ekip produkti që ndërton një mjet AI të krijuar për të rishikuar kontratat e çrregullta ligjore. Ekipi përfshin projektuesin UX, menaxherin e produktit, studiuesin UX, një avokat praktikues i cili vepron si ekspert i çështjes dhe inxhinierin mbështetës që shkroi kodin e analizës së tekstit.

Vizatoni të gjithë procesin: Dokumentoni çdo hap që bën AI, nga veprimi i parë i përdoruesit deri në rezultatin përfundimtar. Ekipi qëndron në një dërrasë të bardhë dhe skicon të gjithë sekuencën për një fluks pune kyç që përfshin AI kërkimin e një klauzole detyrimi në një kontratë komplekse. Avokati ngarkonnjë PDF me pesëdhjetë faqe → Sistemi e konverton dokumentin në tekst të lexueshëm. → AI skanon faqet për klauzola të përgjegjësisë. → Përdoruesi pret. → Momente ose minuta më vonë, mjeti nënvizon me të verdhë paragrafët e gjetur në ndërfaqen e përdoruesit. Ata e bëjnë këtë për shumë flukse të tjera pune që mjeti strehon gjithashtu.

Gjeni se ku gjërat janë të paqarta: Shikoni hartën e procesit për çdo vend ku AI krahason opsionet ose hyrjet që nuk kanë një përputhje të përsosur. Ekipi shikon në tabelën e bardhë për të dalluar hapat e paqartë. Konvertimi i një imazhi në tekst ndjek rregulla strikte. Gjetja e një klauzole specifike të detyrimit përfshin supozime. Çdo firmë i shkruan këto klauzola ndryshe, kështu që AI duhet të peshojë opsione të shumta dhe të bëjë një parashikim në vend që të gjejë një përputhje të saktë të fjalëve.

Identifikoni hapat e 'supozimit më të mirë': Për çdo vend të paqartë, kontrolloni nëse sistemi përdor një rezultat besimi (për shembull, a është 85% i sigurt?). Këto janë pikat ku AI bën një zgjedhje përfundimtare. Sistemi duhet të hamendësojë (të japë një probabilitet) cili paragraf (a) i ngjan shumë një klauzole standarde të detyrimit. Ai cakton një rezultat besimi për supozimin e tij më të mirë. Ky supozim është një nyje vendimi. Ndërfaqja duhet t'i tregojë avokatit se po nënvizon një përputhje të mundshme, në vend që të deklarojë se ka gjetur klauzolën përfundimtare.

Shqyrtoni zgjedhjen: Për çdo pikë zgjedhjeje, kuptoni matematikën ose krahasimin e brendshëm specifik që po bëhet (p.sh., përputhja e një pjese të një kontrate me një politikë ose krahasimi i një fotografie të një makine të prishur me një bibliotekë fotografish makinash të dëmtuara). Inxhinieri shpjegon se sistemi krahason paragrafët e ndryshëm me një bazë të dhënash të klauzolave ​​standarde të përgjegjësisë nga rastet e firmave të kaluara. Ai llogarit një rezultat të ngjashmërisë së tekstit për të vendosur për një përputhje bazuar në probabilitete.

Shkruani shpjegime të qarta: Krijoni mesazhe për përdoruesin që përshkruajnë qartë veprimin e brendshëm specifik që ndodh kur AI bën një zgjedhje. Projektuesi i përmbajtjes shkruan një mesazh specifik pikërisht për këtë moment. Teksti thotë: Krahasimi i tekstit të dokumentit me klauzola standarde të firmës për të identifikuar rreziqet e mundshme të detyrimit.

Përditësoni ekranin: Vendosni këto shpjegime të reja, të qarta në ndërfaqen e përdoruesit, duke zëvendësuar mesazhet e paqarta si "Rishikimi i kontratave". Ekipi i projektimit heq rrotulluesin gjenerik të ngarkimit të Përpunimit të PDF-së. Ata fusin shpjegimin e ri në një shirit statusi që ndodhet pikërisht mbi shikuesin e dokumentit ndërsa AI mendon.

Kontrolloni për besimin: Sigurohuni që mesazhet e reja të ekranit t'u japin përdoruesve një arsye të thjeshtë për çdo kohë pritjeje ose rezultati, gjë që duhet t'i bëjë ata të ndihen më të sigurt dhe më të besueshëm.

Matrica e ndikimit/rrezikut Pasi të shikoni nga afër procesin e AI, ka të ngjarë të gjeni shumë pika ku ajo bën një zgjedhje. Një AI mund të bëjë dhjetëra zgjedhje të vogla për një detyrë të vetme komplekse. Shfaqja e të gjithave krijon shumë informacione të panevojshme. Ju duhet t'i gruponi këto zgjedhje. Ju mund të përdorni një matricë ndikimi/rreziku për të renditur këto zgjedhje bazuar në llojet e veprimeve që po ndërmerr AI. Këtu janë shembuj të matricave të ndikimit/rrezikut: Së pari, shikoni për vendime të ulëta dhe me ndikim të ulët. Aksione të ulëta / Ndikim i ulët

Shembull: Organizimi i një strukture skedari ose riemërimi i një dokumenti. Nevoja për transparencë: Minimale. Mjafton një njoftim delikate për dolli ose një hyrje në regjistër. Përdoruesit mund t'i zhbëjnë këto veprime lehtësisht.

Më pas identifikoni vendimet me aksione të larta dhe me ndikim të lartë. Aksione të larta / Ndikim i lartë

Shembull: Refuzimi i një kërkese për kredi ose ekzekutimi i një tregtimi të aksioneve. Nevoja për transparencë: E lartë. Këto veprime kërkojnë Dëshmi Pune. Sistemi duhet të demonstrojë arsyetimin përpara ose menjëherë teksa vepron.

Konsideroni një robot tregtar financiar që i trajton të gjitha porositë e blerjes/shitjes njësoj. Ai kryen një tregti prej 5 dollarësh me të njëjtën paqartësi si një tregti prej 50,000 dollarësh. Përdoruesit mund të pyesin nëse mjeti njeh ndikimin e mundshëm të transparencës në tregtimin në një shumë të madhe dollarësh. Ata kanë nevojë që sistemi të ndalojë dhe të tregojë punën e tij për tregtitë me aksione të larta. Zgjidhja është të prezantohet një gjendje logjike e rishikimit për çdo transaksion që tejkalon një shumë të caktuar në dollarë, duke i lejuar përdoruesit të shohë faktorët që nxisin vendimin përpara ekzekutimit. Hartimi i nyjeve në modele: Një rubrikë e përzgjedhjes së modelit të projektimit Pasi të keni identifikuar nyjet kryesore të vendimit të përvojës suaj, duhet të vendosni se cili model i ndërfaqes së përdoruesit zbatohet për secilën prej tyre që do të shfaqni. Në Designing For Agentic AI, ne prezantuam modele si Parapamja e Qëllimit (për kontrollin e aksioneve të larta) dhe Auditimi i Veprimit (për sigurinë retrospektive). Faktori vendimtar në zgjedhjen midis tyre është kthyeshmëria. Ne filtrojmë çdonyja e vendimit përmes matricës së ndikimit për të caktuar modelin e saktë: Aksione të larta dhe të pakthyeshme: Këto nyje kërkojnë një pamje paraprake të qëllimit. Për shkak se përdoruesi nuk mund ta zhbëjë lehtësisht veprimin (p.sh., fshirja e përhershme e një baze të dhënash), momenti i transparencës duhet të ndodhë përpara ekzekutimit. Sistemi duhet të ndalojë, të shpjegojë qëllimin e tij dhe të kërkojë konfirmim. Aksione të larta dhe të kthyeshme: Këto nyje mund të mbështeten në modelin Action Audit & Undo. Nëse agjenti i shitjeve i fuqizuar nga AI zhvendos një drejtim në një tubacion tjetër, ai mund ta bëjë këtë në mënyrë autonome për sa kohë që njofton përdoruesin dhe ofron një buton të menjëhershëm Zhbërje. Duke i kategorizuar në mënyrë rigoroze nyjet në këtë mënyrë, ne shmangim "lodhjen vigjilent". Ne e rezervojmë Paraafishimin e Qëllimit me fërkim të lartë vetëm për momentet vërtet të pakthyeshme, ndërsa mbështetemi në Auditimin e Veprimit për të ruajtur shpejtësinë për çdo gjë tjetër.

E kthyeshme E pakthyeshme Ndikim i ulët Lloji: Auto-ExecuteUI: Passive Toast / LogEx: Riemërtimi i një skedari Lloji: Konfirmo UI: Opsioni i thjeshtë i zhbërjesEx: Arkivimi i një emaili Ndikim i lartë Lloji: ReviewUI: Njoftim + Rishikim TrailEx: Dërgimi i një drafti te një klient Lloji: Intent previewUI: Modal / Explicit PermissionEx: Fshirja e një serveri

Tabela 1: Matrica e ndikimit dhe e kthyeshmërisë mund të përdoret më pas për të hartuar momentet tuaja të transparencës në modelet e projektimit. Vërtetimi cilësor: "Pritja, pse?" Test Ju mund të identifikoni nyjet e mundshme në një tabelë të bardhë, por duhet t'i vërtetoni ato me sjelljen njerëzore. Duhet të verifikoni nëse harta juaj përputhet me modelin mendor të përdoruesit. Unë përdor një protokoll të quajtur "Prit, Pse?" Test. Kërkojini një përdoruesi të shikojë agjentin duke përfunduar një detyrë. Udhëzojini ata të flasin me zë të lartë. Sa herë që ata bëjnë një pyetje, "Prisni, pse e bëri këtë?" ose "A është ngecur?" ose "A më dëgjoi?" — ju shënoni një vulë kohore. Këto pyetje sinjalizojnë konfuzionin e përdoruesit. Përdoruesi ndjen se kontrolli i tij po ikën. Për shembull, në një studim për një asistent për planifikimin e kujdesit shëndetësor, përdoruesit panë që agjenti të rezervonte një takim. Ekrani qëndroi statik për katër sekonda. Pjesëmarrësit pyetën vazhdimisht: "A po kontrollon kalendarin tim apo atë të mjekut?"

Kjo pyetje zbuloi një moment transparence të munguar. Sistemi duhej ta ndante atë pritje prej katër sekondash në dy hapa të veçantë: "Kontrollimi i disponueshmërisë suaj" i ndjekur nga "Sinkronizimi me orarin e ofruesit". Ky ndryshim i vogël reduktoi nivelet e shprehura të ankthit të përdoruesve. Transparenca dështon kur përshkruan vetëm një veprim të sistemit. Ndërfaqja duhet të lidhë procesin teknik me qëllimin specifik të përdoruesit. Ekrani që shfaq "Kontrolloni disponueshmërinë tuaj" bie i sheshtë sepse i mungon konteksti. Përdoruesi e kupton që AI po shikon një kalendar, por ata nuk e dinë pse. Ne duhet të bashkojmë veprimin me rezultatin. Sistemi duhet ta ndajë atë pritje prej katër sekondash në dy hapa të veçantë. Së pari, ndërfaqja shfaq "Kontrolloni kalendarin tuaj për të gjetur oraret e hapura". Më pas përditësohet në "Sinkronizimi me orarin e ofruesit për të siguruar takimin tuaj". Kjo e mbështet procesin teknik në jetën aktuale të përdoruesit. Konsideroni një inventar menaxhues të AI për një kafene lokale. Sistemi ndeshet me mungesë furnizimi. Një ndërfaqe që lexon "kontaktimin e shitësit" ose "rishikimin e opsioneve" krijon ankth. Menaxheri pyet veten nëse sistemi po anulon porosinë ose po blen një alternativë të shtrenjtë. Një qasje më e mirë është të shpjegoni rezultatin e synuar: "Vlerësimi i furnizuesve alternativë për të ruajtur orarin tuaj të dorëzimit të së premtes." Kjo i tregon përdoruesit saktësisht se çfarë po përpiqet të arrijë AI. Operacionalizimi i Auditimit Ju keni përfunduar Auditimin e Nyjeve të Vendimit dhe keni filtruar listën tuaj përmes Matricës së Ndikimit dhe Riskut. Tani keni një listë të momenteve thelbësore për të qenë transparent. Tjetra, ju duhet t'i krijoni ato në UI. Ky hap kërkon punë ekipore nëpër departamente të ndryshme. Ju nuk mund të krijoni transparencë vetë duke përdorur një mjet dizajni. Ju duhet të kuptoni se si funksionon sistemi në prapaskenë. Filloni me një rishikim logjik. Takohuni me projektuesin tuaj kryesor të sistemit. Sillni hartën tuaj të nyjeve të vendimit. Ju duhet të konfirmoni që sistemi mund t'i ndajë këto gjendje. Shpesh zbuloj se sistemi teknik nuk zbulon gjendjen e saktë që dua të tregoj. Inxhinieri mund të thotë se sistemi thjesht kthen një status të përgjithshëm "punon". Ju duhet të shtyni për një përditësim të detajuar. Ju duhet sistemi për të dërguar një njoftim specifikkur kalon nga leximi i tekstit në rregullat e kontrollit. Pa atë lidhje teknike, dizajni juaj është i pamundur të ndërtohet. Më pas, përfshini ekipin e dizajnit të përmbajtjes. Ju keni arsyen teknike për veprimin e AI, por keni nevojë për një shpjegim të qartë, miqësor ndaj njeriut. Inxhinierët ofrojnë procesin themelor, por dizajnerët e përmbajtjes ofrojnë mënyrën se si komunikohet. Mos i shkruani vetëm këto mesazhe. Një zhvillues mund të shkruajë "Ekzekutimi i funksionit 402", i cili është teknikisht i saktë, por i pakuptimtë për përdoruesin. Një projektues mund të shkruajë "Të menduarit", e cila është miqësore, por shumë e paqartë. Një strateg i përmbajtjes gjen terrenin e duhur të mesëm. Ata krijojnë fraza specifike, të tilla si "Skanimi për rreziqet e përgjegjësisë", që tregojnë se AI po funksionon pa ngatërruar përdoruesin. Së fundi, provoni transparencën e mesazheve tuaja. Mos prisni derisa të ndërtohet produkti përfundimtar për të parë nëse teksti funksionon. Unë kryej teste krahasimi në prototipe të thjeshta ku e vetmja gjë që ndryshon është mesazhi i statusit. Për shembull, unë i tregoj një grupi (Grupi A) një mesazh që thotë "Verifikimi i identitetit" dhe një grupi tjetër (Grupi B) një mesazh që thotë "Kontrollimi i bazave të të dhënave të qeverisë" (këta janë shembuj të sajuar, por ju e kuptoni çështjen). Pastaj i pyes se cila AI ndihet më e sigurt. Shpesh do të zbuloni se disa fjalë shkaktojnë shqetësim, ndërsa të tjerat krijojnë besim. Ju duhet ta trajtoni formulimin si diçka që ju nevojitet për të provuar dhe provuar efektive. Si e ndryshon kjo procesin e projektimit Kryerja e këtyre auditimeve ka potencialin për të forcuar mënyrën se si një ekip punon së bashku. Ne ndalojmë dorëzimin e skedarëve të dizajnit të lëmuar. Ne fillojmë të përdorim prototipe të çrregullta dhe fletëllogaritëse të përbashkëta. Mjeti kryesor bëhet një matricë transparence. Inxhinierët dhe projektuesit e përmbajtjes e redaktojnë këtë tabelë së bashku. Ata hartojnë kodet e sakta teknike me fjalët që përdoruesi do të lexojë. Ekipet do të përjetojnë fërkime gjatë rishikimit logjik. Imagjinoni një projektues që pyet inxhinierin se si AI vendos të refuzojë një transaksion të paraqitur në një raport shpenzimesh. Inxhinieri mund të thotë se backend-i nxjerr vetëm një kod të përgjithshëm statusi si "Gabim: Mungojnë të dhënat". Projektuesi thotë se ky nuk është informacion i zbatueshëm në ekran. Projektuesi negocion me inxhinierin për të krijuar një goditje specifike teknike. Inxhinieri shkruan një rregull të ri në mënyrë që sistemi të raportojë saktësisht se çfarë mungon, si p.sh. një imazh që mungon dëftesa. Dizajnerët e përmbajtjes veprojnë si përkthyes gjatë kësaj faze. Një zhvillues mund të shkruajë një varg teknikisht të saktë si "Llogaritja e pragut të besimit për përputhjen e shitësit". Një projektues i përmbajtjes e përkthen atë varg në një frazë që krijon besim për një rezultat specifik. Strategu e rishkruan atë si "Krahasimi i çmimeve të shitësve lokalë për të siguruar dorëzimin tuaj të premten". Përdoruesi kupton veprimin dhe rezultatin. I gjithë ekipi ndërfunksional ulet në seancat e testimit të përdoruesve. Ata shikojnë një person real që reagon ndaj mesazheve të statusit të ndryshëm. Duke parë një panik përdoruesi sepse ekrani thotë "Ekzekutimi i tregtisë" e detyron ekipin të rimendojë qasjen e tij. Inxhinierët dhe projektuesit përputhen me formulimin më të mirë. Ata e ndryshojnë tekstin në "Verifikimi i fondeve të mjaftueshme" përpara se të blejnë aksione. Testimi së bashku garanton se ndërfaqja përfundimtare i shërben si logjikës së sistemit ashtu edhe qetësisë së përdoruesit. Kërkon kohë për të përfshirë këto aktivitete shtesë në kalendarin e ekipit. Sidoqoftë, rezultati përfundimtar duhet të jetë një ekip që komunikon më hapur dhe përdoruesit që kanë një kuptim më të mirë të asaj që mjetet e tyre të fuqizuara nga AI po bëjnë në emër të tyre (dhe pse). Kjo qasje e integruar është një gur themeli i dizajnimit të përvojave vërtet të besueshme të AI. Besimi është një zgjedhje e dizajnit Ne shpesh e shohim besimin si një nënprodukt emocional të një përvoje të mirë të përdoruesit. Është më e lehtë të shihet besimi si një rezultat mekanik i komunikimit të parashikueshëm. Ne ndërtojmë besim duke treguar informacionin e duhur në kohën e duhur. Ne e shkatërrojmë atë duke e mposhtur përdoruesin ose duke fshehur plotësisht makinerinë. Filloni me Auditimin e Nyjeve të Vendimit, veçanërisht për mjetet dhe produktet e AI agjenturore. Gjeni momentet kur sistemi bën një thirrje gjykimi. Harto ato momente në Matricën e Rrezikut. Nëse aksionet janë të larta, hapni kutinë. Trego punën. Në artikullin vijues, do të shikojmë se si t'i dizajnojmë këto momente: si të shkruajmë kopjen, të strukturojmë ndërfaqen e përdoruesit dhe të trajtojmë gabimet e pashmangshme kur agjenti gabon. Shtojca: Lista kontrolluese e kontrollit të nyjeve të vendimit Faza 1: Konfigurimi dhe Hartimi ✅ Mblidhni ekipin së bashku: Sillni pronarët e produkteve, analistët e biznesit, dizajnerët,vendimmarrësit kryesorë dhe inxhinierët që ndërtuan AI. Këshillë: Ju duhen inxhinierët që të shpjegojnë logjikën aktuale të backend. Mos e provoni këtë hap vetëm. ✅ Vizatoni të gjithë procesin: Dokumentoni çdo hap që bën AI, nga veprimi i parë i përdoruesit deri te rezultati përfundimtar. Këshillë: Një seancë fizike e tabelës së bardhë shpesh funksionon më së miri për nxjerrjen e këtyre hapave fillestarë. Faza 2: Gjetja e logjikës së fshehur ✅ Gjeni se ku gjërat janë të paqarta: Shikoni hartën e procesit për çdo vend ku AI krahason opsionet ose hyrjet që nuk kanë një përputhje të përsosur. ✅ Identifikoni hapat më të mirë të supozimit: Për çdo vend të paqartë, kontrolloni nëse sistemi përdor një pikë besimi. Për shembull, pyesni nëse sistemi është 85 për qind i sigurt. Këto janë pikat ku AI bën një zgjedhje përfundimtare. ✅ Shqyrtoni zgjedhjen: Për secilën pikë të zgjedhjes, kuptoni matematikën specifike të brendshme ose krahasimin që po bëhet. Një shembull është përputhja e një pjese të një kontrate me një politikë. Një shembull tjetër përfshin krahasimin e një fotografie të një makine të thyer me një bibliotekë fotografish të dëmtuara të makinave. Faza 3: Krijimi i përvojës së përdoruesit ✅ Shkruani shpjegime të qarta: Krijoni mesazhe për përdoruesin që përshkruajnë qartë veprimin e brendshëm specifik që ndodh kur AI bën një zgjedhje. Këshillë: Mbështetini mesazhet tuaja në realitet konkret. Nëse një AI rezervon një takim me një klient në një kafene lokale, tregojini përdoruesit se sistemi po kontrollon sistemin e rezervimit të kafenesë. ✅ Përditësoni ekranin: Vendosni këto shpjegime të reja, të qarta në ndërfaqen e përdoruesit. Zëvendësoni mesazhet e paqarta si Rishikimi i kontratave me shpjegimet tuaja specifike. ✅ Kontrolloni për besimin: Sigurohuni që mesazhet e reja të ekranit t'u japin përdoruesve një arsye të thjeshtë për çdo kohë pritjeje ose rezultat. Kjo duhet t'i bëjë ata të ndihen të sigurt dhe të besueshëm. Këshillë: Testoni këto mesazhe me përdoruesit aktualë për të verifikuar se ata e kuptojnë rezultatin specifik që po arrihet.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free