Agentic AI është gati për të transformuar përvojën e klientit dhe efikasitetin operacional, duke kërkuar një qasje të re strategjike nga udhëheqja. Ky evolucion në inteligjencën artificiale fuqizon sistemet të planifikojnë, ekzekutojnë dhe të vazhdojnë në detyra, duke shkuar përtej rekomandimeve të thjeshta në veprime proaktive. Për ekipet UX, menaxherët e produkteve dhe drejtuesit, të kuptuarit e këtij ndryshimi është thelbësor për zhbllokimin e mundësive në inovacion, për të përmirësuar rrjedhat e punës dhe për të ripërcaktuar se si teknologjia u shërben njerëzve. Është e lehtë të ngatërrohet AI Agjentike me Automatizimin e Procesit Robotik (RPA), e cila është teknologji që fokusohet në detyrat e bazuara në rregulla të kryera në kompjuterë. Dallimi qëndron në ngurtësinë kundrejt arsyetimit. RPA është e shkëlqyer në ndjekjen e një skenari të rreptë: nëse ndodh X, bëje Y. Ajo imiton duart e njeriut. AI agjenturore imiton arsyetimin njerëzor. Nuk ndjek një skenar linear; krijon një. Merrni parasysh një rrjedhë pune rekrutimi. Një bot RPA mund të skanojë një CV dhe ta ngarkojë atë në një bazë të dhënash. Kryen në mënyrë të përsosur një detyrë të përsëritur. Një sistem agjentësh shikon rezymenë, vëren se kandidati liston një certifikim specifik, e ndërlidh atë me një kërkesë të re të klientit dhe vendos të hartojë një email të personalizuar kontakti që thekson atë përputhje. RPA zbaton një plan të paracaktuar; AI agjenturore formulon planin bazuar në një qëllim. Kjo autonomi ndan agjentët nga mjetet parashikuese që kemi përdorur për dekadën e fundit. Një shembull tjetër është menaxhimi i konflikteve në takime. Një model parashikues i integruar në kalendarin tuaj mund të analizojë orarin tuaj të takimeve dhe oraret e kolegëve tuaj. Më pas mund të sugjerojë konflikte të mundshme, të tilla si dy takime të rëndësishme të planifikuara në të njëjtën kohë, ose një takim të planifikuar kur një pjesëmarrës kryesor është me pushime. Ai ju ofron informacione dhe tregon çështje të mundshme, por ju jeni përgjegjës për të ndërmarrë veprime. Një AI agjenturore, në të njëjtin skenar, do të shkonte përtej thjesht sugjerimit të konflikteve për të shmangur. Pas identifikimit të një konflikti me një pjesëmarrës kyç, agjenti mund të veprojë duke:
Kontrollimi i disponueshmërisë së të gjithë pjesëmarrësve të nevojshëm. Identifikimi i vendeve alternative kohore që funksionojnë për të gjithë. Dërgimi i ftesave të reja të propozuara për takime për të gjithë pjesëmarrësit. Nëse konflikti është me një pjesëmarrës të jashtëm, agjenti mund të hartojë dhe të dërgojë një email që shpjegon nevojën për të riplanifikuar dhe duke ofruar kohë alternative. Përditësimi i kalendarit tuaj dhe i kalendarëve të kolegëve tuaj me detajet e reja të takimit pasi të konfirmohen.
Kjo AI agjente e kupton qëllimin (zgjidhjen e konfliktit të takimit), planifikon hapat (kontrollimin e disponueshmërisë, gjetjen e alternativave, dërgimin e ftesave), i ekzekuton ato hapa dhe vazhdon derisa të zgjidhet konflikti, të gjitha me ndërhyrje minimale të drejtpërdrejtë të përdoruesit. Kjo tregon ndryshimin "agjent": sistemi ndërmerr hapa proaktivë për përdoruesin, në vend që thjesht t'i japë informacion përdoruesit. Sistemet agjente të AI kuptojnë një qëllim, planifikojnë një sërë hapash për ta arritur atë, ekzekutojnë ato hapa dhe madje përshtaten nëse gjërat shkojnë keq. Mendoni për atë si një asistent dixhital proaktiv. Teknologjia themelore shpesh kombinon modele të mëdha gjuhësore (LLM) për të kuptuar dhe arsyetuar, me algoritme planifikimi që zbërthejnë detyrat komplekse në veprime të menaxhueshme. Këta agjentë mund të ndërveprojnë me mjete të ndryshme, API dhe madje edhe modele të tjera të AI për të përmbushur objektivat e tyre, dhe në mënyrë kritike, ata mund të mbajnë një gjendje të qëndrueshme, që do të thotë se kujtojnë veprimet e mëparshme dhe vazhdojnë të punojnë drejt një qëllimi me kalimin e kohës. Kjo i bën ato thelbësisht të ndryshme nga AI tipike gjeneruese, e cila zakonisht plotëson një kërkesë të vetme dhe më pas rivendos. Një Taksonomi e Thjeshtë e Sjelljeve Agjentike Ne mund ta kategorizojmë sjelljen e agjentit në katër mënyra të dallueshme të autonomisë. Ndërsa këto shpesh duken si një progresion, ato funksionojnë si mënyra të pavarura funksionimi. Një përdorues mund t'i besojë një agjenti që të veprojë në mënyrë autonome për planifikimin, por ta mbajë atë në "modalitetin e sugjerimit" për transaksionet financiare. Ne i kemi nxjerrë këto nivele duke përshtatur standardet e industrisë për automjetet autonome (nivelet SAE) në kontekstet e përvojës dixhitale të përdoruesit. Vëzhgo-dhe-Sugjero Agjenti funksionon si monitor. Ai analizon rrjedhat e të dhënave dhe shënon anomali ose mundësi, por ndërmerr zero veprime. Diferencimi Ndryshe nga niveli tjetër, agjenti nuk gjeneron asnjë plan kompleks. Ajo tregon për një problem. ShembullNjë agjent DevOps vëren një rritje të CPU-së së serverit dhe sinjalizon inxhinierin në thirrje. Ai nuk e di se si ose nuk përpiqet ta rregullojë atë, por e di se diçka nuk është në rregull. Implikimet për projektimin dhe mbikëqyrjen Në këtë nivel,Dizajni dhe mbikëqyrja duhet të kenë prioritet njoftimet e qarta, jo ndërhyrëse dhe një proces të mirëpërcaktuar për përdoruesit për të vepruar sipas sugjerimeve. Fokusi është në fuqizimin e përdoruesit me informacion në kohë dhe të duhur pa marrë kontrollin. Praktikuesit e UX duhet të përqendrohen në bërjen e sugjerimeve të qarta dhe të lehta për t'u kuptuar, ndërsa menaxherët e produkteve duhet të sigurojnë që sistemi të sigurojë vlerë pa e dërrmuar përdoruesin. Plani-dhe-Propozo Agjenti identifikon një qëllim dhe gjeneron një strategji me shumë hapa për ta arritur atë. Ai paraqet planin e plotë për shqyrtim njerëzor. Diferencimi Agjenti vepron si strateg. Nuk ekzekutohet; ajo pret miratimin për të gjithë qasjen. ShembullI njëjti agjent DevOps vëren rritjen e CPU-së, analizon regjistrat dhe propozon një plan riparimi:
Rrotulloni dy raste shtesë. Rinisni balancuesin e ngarkesës. Arkivoni regjistrat e vjetër.
Njeriu rishikon logjikën dhe klikon "Aprovo planin". Implikimet për projektimin dhe mbikëqyrjenPër agjentët që planifikojnë dhe propozojnë, dizajni duhet të sigurojë që planet e propozuara të jenë lehtësisht të kuptueshme dhe që përdoruesit të kenë mënyra intuitive për t'i modifikuar ose refuzuar ato. Mbikëqyrja është thelbësore në monitorimin e cilësisë së propozimeve dhe logjikës së planifikimit të agjentit. Praktikuesit e UX duhet të hartojnë vizualizime të qarta të planeve të propozuara dhe menaxherët e produkteve duhet të krijojnë flukse pune të qarta rishikimi dhe miratimi. Vepro-me-Konfirmim Agjenti përfundon të gjithë punën përgatitore dhe e vendos veprimin përfundimtar në një gjendje të organizuar. Në mënyrë efektive e mban derën hapur, duke pritur për një dremitje. DiferencimiKjo ndryshon nga “Planifiko-dhe-Propozo” sepse puna është bërë tashmë dhe është vënë në skenë. Redukton fërkimin. Përdoruesi konfirmon rezultatin, jo strategjinë. ShembullNjë agjent rekrutimi harton pesë ftesa intervistash, gjen orare të hapura në kalendarë dhe krijon ngjarjet e kalendarit. Ai paraqet një buton "Dërgo të gjitha". Përdoruesi jep autorizimin përfundimtar për të aktivizuar veprimin e jashtëm. Implikimet për projektimin dhe mbikëqyrjen Kur agjentët veprojnë me konfirmim, dizajni duhet të sigurojë përmbledhje transparente dhe koncize të veprimit të synuar, duke përshkruar qartë pasojat e mundshme. Mbikëqyrja duhet të verifikojë që procesi i konfirmimit është i fortë dhe se përdoruesve nuk u kërkohet të miratojnë verbërisht veprimet. Praktikuesit e UX duhet të hartojnë kërkesat e konfirmimit që janë të qarta dhe të ofrojnë të gjithë informacionin e nevojshëm, dhe menaxherët e produkteve duhet të kenë prioritet një gjurmë të fortë auditimi për të gjitha veprimet e konfirmuara. Vepro-në mënyrë autonome Agjenti i ekzekuton detyrat në mënyrë të pavarur brenda kufijve të përcaktuar. DiferencimiPërdoruesi shqyrton historinë e veprimeve, jo vetë veprimet. ShembullAgjenti i rekrutimit sheh një konflikt, e zhvendos intervistën në një vend rezervë, përditëson kandidatin dhe njofton menaxherin e punësimit. Njeriu sheh vetëm një njoftim: Intervista u caktua për të martën. Implikimet për projektimin dhe mbikëqyrjen Për agjentët autonome, dizajni duhet të vendosë kufij të qartë të miratuar paraprakisht dhe të sigurojë mjete të fuqishme monitorimi. Mbikëqyrja kërkon vlerësim të vazhdueshëm të performancës së agjentit brenda këtyre kufijve, një nevojë kritike për regjistrime të fuqishme, mekanizma të qartë anashkalimi dhe ndërprerës të vrasjes të përcaktuara nga përdoruesi për të ruajtur kontrollin dhe besimin e përdoruesit. Praktikuesit e UX duhet të përqendrohen në hartimin e tabelave efektive për monitorimin e sjelljes autonome të agjentëve dhe menaxherët e produkteve duhet të sigurojnë se janë vendosur udhëzime të qarta qeverisjeje dhe etike.
Le të shohim një aplikacion të botës reale në teknologjinë HR për të parë këto mënyra në veprim. Konsideroni një "Agjent Koordinues të Intervistës" i krijuar për të trajtuar logjistikën e punësimit.
Në modalitetin e sugjerimit, agjenti vëren se një intervistues është rezervuar dy herë. Ai thekson konfliktin në pultin e rekrutuesit: "Kujdes: Sarah është rezervuar dy herë për intervistën në orën 14:00." Në modalitetin e planit, agjenti analizon kalendarin e Sarës dhe disponueshmërinë e kandidatit. Ai paraqet një zgjidhje: "Unë rekomandoj ta zhvendosni intervistën për të enjten në orën 10:00. Kjo kërkon zhvendosjen e 1:1 të Sarës me menaxherin e saj." Rekrutuesi rishikon këtë logjikë. Në modalitetin e konfirmimit, agjenti i harton emailet kandidatit dhe menaxherit. Ai plotëson ftesat e kalendarit. Rekrutuesi sheh një përmbledhje: "Gati për ta riplanifikuar për të enjten. Të dërgohen përditësimet?" Rekrutuesi klikon "Konfirmo". Në modalitetin autonom, agjenti trajton konfliktin në çast. Ai respekton një rregull të paracaktuar: "Gjithmonë jepni përparësi intervistave të kandidatëve mbi 1:1 të brendshme." Lëviz takimin dhe dërgon njoftimet. Rekrutuesi sheh një hyrje në regjistër: "U zgjidhkonflikti i orarit për Kandidatin B.”
Studim Primer: Çfarë duhet Hulumtuar dhe Si Zhvillimi efektiv i AI agjenturore kërkon një qasje të veçantë kërkimore në krahasim me softuerin tradicional apo edhe AI gjeneruese. Natyra autonome e agjentëve të AI, aftësia e tyre për të marrë vendime dhe potenciali i tyre për veprime proaktive kërkojnë metodologji të specializuara për të kuptuar pritshmëritë e përdoruesve, për të hartuar sjelljet komplekse të agjentëve dhe për të parashikuar dështimet e mundshme. Abetarja e mëposhtme e kërkimit përshkruan metodat kryesore për të matur dhe vlerësuar këto aspekte unike të AI agjenturore. Intervistat Mendore-Model Këto intervista zbulojnë nocionet e paramenduara të përdoruesve për mënyrën se si duhet të sillet një agjent i AI. Në vend që thjesht të pyesni se çfarë duan përdoruesit, fokusi është në të kuptuarit e modeleve të tyre të brendshme të aftësive dhe kufizimeve të agjentit. Ne duhet të shmangim përdorimin e fjalës “agjent” me pjesëmarrësit. Ai mbart bagazhe fantastiko-shkencore ose është një term që ngatërrohet shumë lehtë me një agjent njerëzor që ofron mbështetje ose shërbime. Në vend të kësaj, kuadrojeni diskutimin rreth "asistentëve" ose "sistemit". Ne duhet të zbulojmë se ku përdoruesit vendosin kufirin midis automatizimit të dobishëm dhe kontrollit ndërhyrës.
Metoda: Kërkojuni përdoruesve të përshkruajnë, vizatojnë ose rrëfejnë ndërveprimet e tyre të pritshme me agjentin në skenarë të ndryshëm hipotetikë. Sondat kryesore (që pasqyrojnë një sërë industrish): Për të kuptuar kufijtë e automatizimit të dëshiruar dhe ankthet e mundshme rreth mbi-automatizimit, pyesni: Nëse fluturimi juaj anulohet, çfarë do të dëshironit që sistemi të bënte automatikisht? Çfarë do t'ju shqetësonte nëse do ta bënte këtë pa udhëzimin tuaj të qartë?
Për të eksploruar kuptimin e përdoruesit për proceset e brendshme të agjentit dhe komunikimin e nevojshëm, pyesni: Imagjinoni që një asistent dixhital po menaxhon shtëpinë tuaj inteligjente. Nëse një paketë dorëzohet, çfarë hapash mendoni se do të marrë dhe çfarë informacioni do të prisnit të merrnit?
Për të zbuluar pritshmëritë rreth kontrollit dhe pëlqimit brenda një procesi me shumë hapa, pyesni: Nëse i kërkoni asistentit tuaj dixhital të caktojë një takim, çfarë hapash parashikoni të marrë ai? Në cilat pika do të dëshironit të konsultoheni ose t'ju jepeshin zgjedhje?
Përfitimet e metodës: Zbulon supozimet e nënkuptuara, nënvizon fushat ku sjellja e planifikuar e agjentit mund të ndryshojë nga pritshmëritë e përdoruesit dhe informon hartimin e kontrolleve të përshtatshme dhe mekanizmat e reagimit.
Harta e Udhëtimit të Agjentit: Ngjashëm me hartën tradicionale të udhëtimit të përdoruesit, harta e udhëtimit të agjentit fokusohet në mënyrë specifike në veprimet e parashikuara dhe pikat e vendimit të vetë agjentit të AI, së bashku me ndërveprimin e përdoruesit. Kjo ndihmon për të identifikuar në mënyrë proaktive kurthet e mundshme.
Metoda: Krijo një hartë vizuale që përshkruan fazat e ndryshme të funksionimit të një agjenti, nga fillimi deri në përfundim, duke përfshirë të gjitha veprimet, vendimet dhe ndërveprimet e mundshme me sistemet ose përdoruesit e jashtëm. Elementet kryesore në hartë: Veprimet e agjentit: Çfarë detyrash apo vendimesh specifike kryen agjenti? Inputet/Outputet e informacionit: Çfarë të dhënash i nevojiten agjentit dhe çfarë informacioni gjeneron ose komunikon ai? Pikat e Vendimit: Ku bën zgjedhje agjenti dhe cilat janë kriteret për ato zgjedhje? Pikat e ndërveprimit të përdoruesit: Ku jep përdoruesi të dhëna, rishikon ose miraton veprime? Pikat e dështimit: Në mënyrë thelbësore, identifikoni raste specifike ku agjenti mund të keqinterpretojë udhëzimet, të marrë një vendim të pasaktë ose të ndërveprojë me entitetin e gabuar. Shembuj: marrës i pasaktë (p.sh., dërgimi i informacionit të ndjeshëm te personi i gabuar), mbitërheqje (p.sh., një pagesë e automatizuar që tejkalon fondet e disponueshme), keqinterpretim i qëllimit (p.sh., rezervimi i një fluturimi për datën e gabuar për shkak të gjuhës së paqartë).
Rrugët e Rimëkëmbjes: Si mund të shërohet agjenti ose përdoruesi nga këto dështime? Çfarë mekanizmash ekzistojnë për korrigjim apo ndërhyrje?
Përfitimet e metodës: Ofron një pamje holistike të rrjedhës operacionale të agjentit, zbulon varësitë e fshehura dhe lejon hartimin proaktiv të masave mbrojtëse, trajtimin e gabimeve dhe pikat e ndërhyrjes së përdoruesit për të parandaluar ose zbutur rezultatet negative.
Testimi i simuluar i sjelljes së keqe: Kjo qasje është krijuar për të testuar stresin e sistemit dhe për të vëzhguar reagimet e përdoruesve kur agjenti i AI dështon ose devijon nga pritshmëritë. Ka të bëjë me të kuptuarit e riparimit të besimit dhe reagimeve emocionale në situata të pafavorshme.
Metoda: Në studimet e kontrolluara laboratorike, prezantoni qëllimisht skenarë ku agjenti bën një gabim, keqinterpreton një urdhër ose sillet në mënyrë të papritur. Llojet e "sjelljes së keqe" për të simuluar: KomandaKeqinterpretim: Agjenti kryen një veprim paksa të ndryshëm nga ai që synonte përdoruesi (p.sh., duke porositur dy artikuj në vend të njërit). Mbingarkesa/Nënngarkesë e informacionit: Agjenti ofron shumë informacione të parëndësishme ose detaje kritike të pamjaftueshme. Veprim i padëshiruar: Agjenti ndërmerr një veprim që përdoruesi në mënyrë eksplicite nuk e donte ose nuk e priste (p.sh., blerja e aksioneve pa miratim). Dështimi i sistemit: Agjenti rrëzohet, nuk përgjigjet ose jep një mesazh gabimi. Dilemat etike: Agjenti merr një vendim me implikime etike (p.sh., duke i dhënë përparësi një detyre mbi një tjetër, bazuar në një metrikë të paparashikuar).
Fokusi i vëzhgimit: Reagimet e përdoruesit: Si reagojnë përdoruesit emocionalisht (zhgënjimi, zemërimi, konfuzioni, humbja e besimit)? Përpjekjet për rikuperim: Çfarë hapash ndërmarrin përdoruesit për të korrigjuar sjelljen e agjentit ose për të zhbërë veprimet e tij? Mekanizmat e Riparimit të Mirëbesimit: A ndihmojnë mekanizmat e integruar të rikuperimit ose reagimit të sistemit në rivendosjen e besimit? Si duan përdoruesit të informohen për gabimet? Zhvendosja mendore e modelit: A e ndryshon sjellja e keqe kuptimin e përdoruesit për aftësitë ose kufizimet e agjentit?
Përfitimet e metodës: Thelbësore për identifikimin e boshllëqeve të projektimit që lidhen me rikuperimin e gabimeve, reagimet dhe kontrollin e përdoruesit. Ai ofron njohuri se sa rezistent janë përdoruesit ndaj dështimeve të agjentëve dhe çfarë nevojitet për të ruajtur ose rindërtuar besimin, duke çuar në sisteme agjentë më të fuqishme dhe falëse.
Duke integruar këto metodologji kërkimore, praktikuesit e UX mund të lëvizin përtej përdorimit të thjeshtë të sistemeve agjentë për t'i bërë ato të besueshme, të kontrollueshme dhe të përgjegjshme, duke nxitur një marrëdhënie pozitive dhe produktive midis përdoruesve dhe agjentëve të tyre të AI. Vini re se këto nuk janë metodat e vetme të rëndësishme për të eksploruar në mënyrë efektive AI agjenturore. Ekzistojnë shumë metoda të tjera, por ato janë më të arritshme për praktikuesit në një periudhë të afërt. Unë kam mbuluar më parë metodën Wizard of Oz, një metodë pak më e avancuar e testimit të konceptit, e cila është gjithashtu një mjet i vlefshëm për të eksploruar konceptet e AI agjenturore. Konsiderata Etike në Metodologjinë e Kërkimit Kur hulumtoni AI agjenturore, veçanërisht kur simuloni sjellje të pahijshme ose gabime, konsideratat etike janë thelbësore për t'u marrë parasysh. Ka shumë botime që fokusohen në kërkimin etik UX, duke përfshirë një artikull që kam shkruar për Revistën Smashing, këto udhëzime nga Instituti i Dizajnit UX dhe këtë faqe nga Paketa e Veglave të Dizajnit Gjithëpërfshirës. Metrikat kryesore për AI agjenturore Do t'ju duhet një grup gjithëpërfshirës metrikash kyçe për të vlerësuar në mënyrë efektive performancën dhe besueshmërinë e sistemeve agjentë të AI. Këto metrika ofrojnë njohuri për besimin e përdoruesit, saktësinë e sistemit dhe përvojën e përgjithshme të përdoruesit. Duke gjurmuar këta tregues, zhvilluesit dhe projektuesit mund të identifikojnë fushat për përmirësim dhe të sigurojnë që agjentët e AI të funksionojnë në mënyrë të sigurt dhe efikase. 1. Shkalla e ndërhyrjesPër agjentët autonome, ne matim suksesin me heshtje. Nëse një agjent ekzekuton një detyrë dhe përdoruesi nuk ndërhyn ose e kthen veprimin brenda një dritare të caktuar (p.sh., 24 orë), ne e llogarisim atë si pranim. Ne gjurmojmë shkallën e ndërhyrjes: sa shpesh kërcen një njeri për të ndaluar ose korrigjuar agjentin? Një shkallë e lartë e ndërhyrjes sinjalizon një mospërputhje në besim ose logjikë. 2. Frekuenca e veprimeve të paqëllimshme për 1000 detyra Kjo metrikë kritike përcakton numrin e veprimeve të kryera nga agjenti i AI që nuk ishin të dëshiruara ose të pritura nga përdoruesi, të normalizuara për 1000 detyra të përfunduara. Një frekuencë e ulët e veprimeve të paqëllimshme nënkupton një AI të harmonizuar mirë që interpreton me saktësi qëllimin e përdoruesit dhe vepron brenda kufijve të përcaktuar. Kjo metrikë është e lidhur ngushtë me të kuptuarit e kontekstit nga AI, aftësinë e saj për të zbërthyer komandat dhe qëndrueshmërinë e protokolleve të saj të sigurisë. 3. Shkalla e rikthimit ose zhbërjes Kjo metrikë gjurmon se sa shpesh përdoruesit duhet të kthejnë ose zhbëjnë një veprim të kryer nga AI. Shkalla e lartë e rikthimit sugjeron që AI po bën gabime të shpeshta, po keqinterpreton udhëzimet ose po vepron në mënyra që nuk përputhen me pritjet e përdoruesit. Analizimi i arsyeve pas këtyre rikthimeve mund të ofrojë reagime të vlefshme për përmirësimin e algoritmeve të AI, kuptimin e preferencave të përdoruesve dhe aftësinë e tij për të parashikuar rezultatet e dëshirueshme. Për të kuptuar pse, duhet të zbatoni një mikro-anketë mbi veprimin e zhbërjes. Për shembull, kur një përdorues anulon një ndryshim planifikimi, një kërkesë e thjeshtë mund të pyesë: "Kohë e gabuar? Personi i gabuar? Apo thjesht donit ta bënit vetë?" Lejimi i përdoruesit të klikojë në opsionin që përputhet më mirë me arsyetimin e tij. 4. Koha për zgjidhjen pas një gabimi Kjo metrikëmat kohëzgjatjen që i duhet një përdoruesi për të korrigjuar një gabim të bërë nga AI ose që vetë sistemi i AI të rikuperohet nga një gjendje e gabuar. Një kohë e shkurtër deri në zgjidhje tregon një proces efikas dhe miqësor për përdoruesit e rikuperimit të gabimeve, i cili mund të zbusë zhgënjimin e përdoruesit dhe të ruajë produktivitetin. Kjo përfshin lehtësinë e identifikimit të gabimit, aksesin e mekanizmave të zhbërjes ose korrigjimit dhe qartësinë e mesazheve të gabimit të ofruara nga AI.
Mbledhja e këtyre metrikave kërkon instrumentizimin e sistemit tuaj për të gjurmuar ID-të e veprimit të agjentëve. Çdo veprim i veçantë që kryen agjenti, si p.sh. propozimi i një orari ose rezervimi i një fluturimi, duhet të gjenerojë një ID unike që vazhdon në regjistra. Për të matur shkallën e ndërhyrjes, ne nuk kërkojmë një reagim të menjëhershëm të përdoruesit. Ne kërkojmë mungesën e një kundërveprimi brenda një dritareje të përcaktuar. Nëse një ID Veprimi krijohet në orën 9:00 të mëngjesit dhe asnjë përdorues njerëzor nuk e modifikon ose e kthen atë ID specifike deri në orën 9:00 të mëngjesit të ditës tjetër, sistemi logjikisht e etiketon atë si Pranohet. Kjo na lejon të përcaktojmë sasinë e suksesit bazuar në heshtjen e përdoruesit dhe jo në konfirmimin aktiv. Për normat e rikthimit, numërimet e papërpunuara janë të pamjaftueshme sepse nuk kanë kontekst. Për të kapur arsyen themelore, duhet të zbatoni logjikën e ndërprerjes në funksionet Zhbër ose Rikthe të aplikacionit tuaj. Kur një përdorues anulon një veprim të nisur nga agjenti, aktivizoni një mikro-anketë të lehtë. Ky mund të jetë një modal i thjeshtë me tre opsione që i kërkon përdoruesit të kategorizojë gabimin si faktikisht të pasaktë, me mungesë konteksti ose një preferencë të thjeshtë për të trajtuar detyrën me dorë. Kjo kombinon telemetrinë sasiore me depërtimin cilësor. Ai u mundëson ekipeve inxhinierike të bëjnë dallimin midis një algoritmi të prishur dhe një mospërputhjeje të preferencave të përdoruesit. Këto metrika, kur gjurmohen në mënyrë të vazhdueshme dhe analizohen në mënyrë holistike, ofrojnë një kornizë të fortë për vlerësimin e performancës së sistemeve agjentë të AI, duke lejuar përmirësim të vazhdueshëm në kontroll, pëlqim dhe llogaridhënie. Projektimi kundër mashtrimit Ndërsa agjentët bëhen gjithnjë e më të aftë, ne përballemi me një rrezik të ri: Llum Agjent. Llumi tradicional krijon fërkime që e bëjnë të vështirë anulimin e një abonimi ose fshirjen e një llogarie. Llumi agjentik vepron në të kundërt. Ai heq fërkimin ndaj një defekti, duke e bërë shumë të lehtë për një përdorues që të pranojë një veprim që i sjell përfitim biznesit dhe jo interesave të tij. Konsideroni një agjent që ndihmon me rezervimin e udhëtimit. Pa parmakë të qartë, sistemi mund t'i japë përparësi një kompanie ajrore partnere ose një hoteli me marzh më të lartë. Ai e paraqet këtë zgjedhje si rrugën optimale. Përdoruesi, duke i besuar autoritetit të sistemit, e pranon rekomandimin pa shqyrtim. Kjo krijon një model mashtrues ku sistemi optimizon për të ardhurat nën maskën e komoditetit. Rreziku i kompetencës së imagjinuar në mënyrë të rreme Mashtrimi mund të mos rrjedhë nga qëllimi keqdashës. Shpesh manifestohet në AI si kompetencë e imagjinuar. Modelet e mëdha gjuhësore shpesh tingëllojnë autoritative edhe kur janë të pasakta. Ata paraqesin një konfirmim të rremë rezervimi ose një përmbledhje të pasaktë me të njëjtin besim si një fakt i verifikuar. Përdoruesit mund t'i besojnë natyrshëm këtij toni të sigurt. Kjo mospërputhje krijon një hendek të rrezikshëm midis aftësisë së sistemit dhe pritjeve të përdoruesit. Ne duhet të projektojmë në mënyrë specifike për të kapërcyer këtë hendek. Nëse një agjent nuk arrin të përfundojë një detyrë, ndërfaqja duhet të sinjalizojë qartë atë dështim. Nëse sistemi është i pasigurt, ai duhet të shprehë pasiguri në vend që ta maskojë atë me prozë të lëmuar. Transparenca nëpërmjet Primitivëve Antidoti si për llumin ashtu edhe për halucinacionet është prejardhja. Çdo veprim autonom kërkon një etiketë specifike meta të dhënash që shpjegon origjinën e vendimit. Përdoruesit kanë nevojë për aftësinë për të inspektuar zinxhirin logjik pas rezultatit. Për ta arritur këtë, ne duhet t'i përkthejmë primitivet në përgjigje praktike. Në inxhinierinë e softuerit, primitivët i referohen njësive thelbësore të informacionit ose veprimeve që kryen një agjent. Për inxhinierin, kjo duket si një thirrje API ose një portë logjike. Për përdoruesit, ai duhet të shfaqet si një shpjegim i qartë. Sfida e projektimit qëndron në hartimin e këtyre hapave teknikë me arsyetime të lexueshme nga njeriu. Nëse një agjent rekomandon një fluturim specifik, përdoruesi duhet të dijë pse. Ndërfaqja nuk mund të fshihet pas një sugjerimi të përgjithshëm. Duhet të ekspozojë primitivin themelor: Logic: Cheapest_Direct_Flight ose Logic: Partner_Airline_Priority. Figura 4 ilustron këtë rrjedhë përkthimi. Ne marrim primitiven e sistemit të papërpunuar - logjikën aktuale të kodit - dhe e vendosim atë në një varg të drejtuar nga përdoruesi. Për shembull, një kontroll primitiv i një orari kalendar të një takimi bëhet një deklaratë e qartë: Unë kam propozuar një orën 16:00takim. Ky nivel transparence siguron që veprimet e agjentit të duken logjike dhe të dobishme. Ai i lejon përdoruesit të verifikojë që agjenti ka vepruar në interesin e tij më të mirë. Duke ekspozuar primitivët, ne transformojmë një kuti të zezë në një kuti xhami, duke siguruar që përdoruesit të mbeten autoriteti përfundimtar në jetën e tyre dixhitale.
Vendosja e skenës për dizajn Ndërtimi i një sistemi agjenturor kërkon një nivel të ri të të kuptuarit psikologjik dhe të sjelljes. Na detyron të kalojmë përtej testimit të përdorshmërisë konvencionale dhe në fushën e besimit, pëlqimit dhe llogaridhënies. Metodat e kërkimit që kemi diskutuar, nga kërkimi i modeleve mendore te simulimi i sjelljes së keqe dhe krijimi i metrikave të reja, ofrojnë një bazë të nevojshme. Këto praktika janë mjetet thelbësore për të identifikuar në mënyrë proaktive se ku mund të dështojë një sistem autonom dhe, më e rëndësishmja, si të riparohet marrëdhënia përdorues-agjent kur kjo ndodh. Zhvendosja në AI agjenturore është një ripërcaktim i marrëdhënies përdorues-sistem. Ne nuk po dizajnojmë më për mjete që thjesht u përgjigjen komandave; ne jemi duke projektuar për partnerë që veprojnë në emrin tonë. Kjo ndryshon imperativin e dizajnit nga efikasiteti dhe lehtësia e përdorimit në transparencë, parashikueshmëri dhe kontroll. Kur një AI mund të rezervojë një fluturim ose të tregtojë një aksion pa një klikim përfundimtar, dizajni i "nga rampa" dhe "jashtë rampave" të tij bëhet parësor. Është përgjegjësia jonë të sigurojmë që përdoruesit të ndiejnë se janë në sediljen e shoferit, edhe kur të kenë dorëzuar timonin. Ky realitet i ri ngre gjithashtu rolin e studiuesit UX. Ne bëhemi kujdestarët e besimit të përdoruesve, duke punuar në bashkëpunim me inxhinierët dhe menaxherët e produkteve për të përcaktuar dhe testuar parmakët e autonomisë së një agjenti. Përtej të qenit studiues, ne bëhemi avokatë për kontrollin e përdoruesit, transparencën dhe masat mbrojtëse etike brenda procesit të zhvillimit. Duke i përkthyer primitivet në pyetje praktike dhe duke simuluar skenarët e rasteve më të këqija, ne mund të ndërtojmë sisteme të fuqishme që janë të fuqishme dhe të sigurta. Ky artikull ka përshkruar "çfarë" dhe "pse" të kërkimit të AI agjenturore. Ajo ka treguar se mjetet tona tradicionale janë të pamjaftueshme dhe se ne duhet të adoptojmë metodologji të reja, me shikim përpara. Artikulli tjetër do të bazohet mbi këtë bazë, duke ofruar modele specifike të projektimit dhe praktika organizative që e bëjnë shërbimin e një agjenti transparent për përdoruesit, duke siguruar që ata të mund të shfrytëzojnë fuqinë e AI agjenturore me besim dhe kontroll. E ardhmja e UX ka të bëjë me bërjen e sistemeve të besueshme. Për një kuptim shtesë të AI agjenturore, mund të eksploroni burimet e mëposhtme:
Blog i Google AI në AI agjenturore Hulumtimi i Microsoft mbi agjentët e AI