Agenta AI pretas transformi klientan sperton kaj operacian efikecon, necesigante novan strategian aliron de gvidado. Ĉi tiu evoluo en artefarita inteligenteco rajtigas sistemojn plani, efektivigi kaj persisti en taskoj, preterpasante simplajn rekomendojn al iniciatema agado. Por UX-teamoj, produktaj administrantoj kaj oficuloj, kompreni ĉi tiun ŝanĝon estas kerna por malŝlosi ŝancojn en novigado, simpligi laborfluojn kaj redifini kiel teknologio servas homojn. Estas facile konfuzi Agentic AI kun Robotic Process Automation (RPA), kiu estas teknologio, kiu fokusiĝas al regul-bazitaj taskoj faritaj sur komputiloj. La distingo kuŝas en rigideco kontraŭ rezonado. RPA estas bonega sekvante striktan skripton: se X okazas, faru Y. Ĝi imitas homajn manojn. Agenta AI imitas homan rezonadon. Ĝi ne sekvas linearan skripton; ĝi kreas unu. Konsideru varban laborfluon. RPA-robotisto povas skani rekomencon kaj alŝuti ĝin al datumbazo. Ĝi plenumas perfekte ripetan taskon. Agentic-sistemo rigardas la vivresumon, rimarkas, ke la kandidato listigas specifan atestadon, krucreferencas tion kun nova klienta postulo, kaj decidas redakti personigitan disvastigan retpoŝton elstarigante tiun matĉon. RPA efektivigas antaŭdifinitan planon; Agenta AI formulas la planon surbaze de celo. Ĉi tiu aŭtonomeco apartigas agentojn de la antaŭdiraj iloj, kiujn ni uzis dum la lasta jardeko. Alia ekzemplo estas administri renkontiĝajn konfliktojn. Antaŭvida modelo integrita en via kalendaro povus analizi vian kunvenhoraron kaj la horarojn de viaj kolegoj. Ĝi tiam povus sugesti eblajn konfliktojn, kiel du gravaj renkontiĝoj planitaj samtempe, aŭ renkontiĝo planita kiam ŝlosila partoprenanto estas en ferio. Ĝi provizas al vi informojn kaj markas eblajn problemojn, sed vi respondecas pri agado. Agenta AI, en la sama scenaro, irus preter nur sugestado de konfliktoj por eviti. Sur identigado de konflikto kun ŝlosila partoprenanto, la agento povus agi per:

Kontrolante la haveblecon de ĉiuj necesaj partoprenantoj. Identigi alternativajn tempoperiodojn kiuj funkcias por ĉiuj. Sendante proponitajn novajn kunveninvitojn al ĉiuj ĉeestantoj. Se la konflikto estas kun ekstera partoprenanto, la agento povus redakti kaj sendi retmesaĝon klarigante la bezonon replanigi kaj proponante alternativajn tempojn. Ĝisdatigi vian kalendaron kaj la kalendarojn de viaj kolegoj kun la novaj renkontiĝodetaloj unufoje konfirmitaj.

Ĉi tiu agenta AI komprenas la celon (solvi la renkontiĝan konflikton), planas la paŝojn (kontroli haveblecon, trovi alternativojn, sendi invitojn), efektivigas tiujn paŝojn kaj daŭras ĝis la konflikto estas solvita, ĉio kun minimuma rekta uzantinterveno. Ĉi tio montras la "agentan" diferencon: la sistemo prenas iniciatemajn paŝojn por la uzanto, prefere ol nur provizi informojn al la uzanto. Agentaj AI-sistemoj komprenas celon, planas serion da paŝoj por atingi ĝin, plenumas tiujn paŝojn kaj eĉ adaptiĝas se aferoj misfunkcias. Pensu pri ĝi kiel iniciatema cifereca asistanto. La subesta teknologio ofte kombinas grandajn lingvomodelojn (LLM) por kompreno kaj rezonado, kun planaj algoritmoj kiuj malkonstruas kompleksajn taskojn en regeblajn agojn. Ĉi tiuj agentoj povas interagi kun diversaj iloj, APIoj, kaj eĉ aliaj AI-modeloj por plenumi siajn celojn, kaj kritike, ili povas konservi konstantan staton, tio signifas, ke ili memoras antaŭajn agojn kaj daŭre laboras al celo laŭlonge de la tempo. Ĉi tio igas ilin esence malsamaj de tipa generativa AI, kiu kutime kompletigas ununuran peton kaj poste rekomencigas. Simpla Taksonomio de Agentaj Kondutoj Ni povas klasifiki agentkonduton en kvar apartajn reĝimojn de aŭtonomio. Dum ĉi tiuj ofte aspektas kiel progresado, ili funkcias kiel sendependaj operaciumoj. Uzanto povus fidi agenton por agi aŭtonome por planado, sed konservu ĝin en "sugesta reĝimo" por financaj transakcioj. Ni derivis ĉi tiujn nivelojn adaptante industriajn normojn por aŭtonomaj veturiloj (SAE-niveloj) al ciferecaj uzant-spertaj kuntekstoj. Observu-kaj-Sugestu La agento funkcias kiel monitoro. Ĝi analizas datumfluojn kaj markas anomaliojn aŭ ŝancojn, sed faras nulan agon. DiferencigoMalkiel la sekva nivelo, la agento generas neniun kompleksan planon. Ĝi montras problemon. EkzemploDevOps-agento rimarkas servilan CPU-pikilon kaj avertas la alvokan inĝenieron. Ĝi ne scias kiel aŭ provas ripari ĝin, sed ĝi scias ke io estas malĝusta. Implicoj por dezajno kaj superrigardoSur ĉi tiu nivelo,dezajno kaj superrigardo devas prioritati klarajn, ne-trudemajn sciigojn kaj bone difinitan procezon por ke uzantoj agu laŭ sugestoj. La fokuso estas rajtigi la uzanton kun ĝustatempaj kaj rilataj informoj sen preni kontrolon. UX-praktikistoj devas koncentriĝi pri fari sugestojn klaraj kaj facile kompreneblaj, dum produktaj administrantoj devas certigi, ke la sistemo provizas valoron sen superforti la uzanton. Plano-kaj-Proponi La agento identigas celon kaj generas plurpaŝan strategion por atingi ĝin. Ĝi prezentas la plenan planon por homa revizio. DiferencigoLa agento agas kiel strategiisto. Ĝi ne ekzekutas; ĝi atendas aprobon pri la tuta alproksimiĝo. EkzemploLa sama agento DevOps rimarkas la CPU-pikilon, analizas la protokolojn kaj proponas solvan planon:

Ŝpinu du kromajn okazojn. Rekomencu la ŝarĝbalancilon. Arkivu malnovajn protokolojn.

La homo revizias la logikon kaj klakas "Aprobi Planon". Implicoj por dezajno kaj superrigardoPor agentoj kiuj planas kaj proponas, dezajno devas certigi ke la proponitaj planoj estas facile kompreneblaj kaj ke uzantoj havas intuiciajn manierojn modifi aŭ malakcepti ilin. Superrigardo estas decida en monitorado de la kvalito de proponoj kaj la planadlogiko de la agento. UX-praktikistoj devas desegni klarajn bildigojn de la proponitaj planoj, kaj produktaj administrantoj devas establi klarajn reviziajn kaj aprobajn laborfluojn. Ago-kun-Konfirmo La agento kompletigas ĉiujn preparlaborojn kaj metas la finan agon en enscenigitan staton. Ĝi efike tenas la pordon malfermita, atendante kapjeson. DiferencigoTio diferencas de "Plan-kaj-Proponi" ĉar la laboro estas jam farita kaj enscenigita. Ĝi reduktas frotadon. La uzanto konfirmas la rezulton, ne la strategion. EkzemploRekruta agento redaktas kvin intervjuonvitojn, trovas malfermajn tempojn en kalendaroj kaj kreas la kalendarajn eventojn. Ĝi prezentas butonon "Sendu Ĉion". La uzanto donas la finan rajtigon por ekigi la eksteran agon. Implicoj por dezajno kaj superrigardoKiam agentoj agas kun konfirmo, la dezajno devus disponigi travideblajn kaj koncizajn resumojn de la celita ago, klare skizante eblajn sekvojn. Superrigardo devas kontroli, ke la konfirma procezo estas fortika kaj ke uzantoj ne estas petataj blinde aprobi agojn. UX-praktikistoj devas desegni konfirmajn instrukciojn, kiuj estas klaraj kaj provizas ĉiujn necesajn informojn, kaj produktaj administrantoj devas prioritati fortikan revizian spuron por ĉiuj konfirmitaj agoj. Ago-Aŭtonome La agento efektivigas taskojn sendepende ene de difinitaj limoj. DiferencigoLa uzanto revizias la historion de agoj, ne la agojn mem. EkzemploLa rekruta agento vidas konflikton, movas la intervjuon al rezerva fendo, ĝisdatigas la kandidaton kaj sciigas la kontraktan administranton. La homo vidas nur sciigon: Intervjuo postdatigita al mardo. Implicoj por dezajno kaj superrigardoPor aŭtonomaj agentoj, la dezajno devas establi klarajn antaŭaprobitajn limojn kaj disponigi fortigajn monitorajn ilojn. Superrigardo postulas kontinuan taksadon de la agado de la agento ene de ĉi tiuj limoj, kritika bezono de fortika arbodehakado, klaraj superregaj mekanismoj kaj uzant-difinitaj mortigaj ŝaltiloj por konservi uzantkontrolon kaj fidon. UX-praktikistoj devas koncentriĝi pri dezajnado de efikaj paneloj por monitorado de aŭtonoma agento-konduto, kaj produktaj administrantoj devas certigi, ke klaraj regado kaj etikaj gvidlinioj estas en la loko.

Ni rigardu realan aplikaĵon en HR-teknologio por vidi ĉi tiujn reĝimojn en ago. Konsideru "Intervjuan Kunordigan Agenton" desegnitan por trakti la loĝistikon de dungado.

En Sugesta ReĝimoLa agento rimarkas, ke intervjuanto estas duoble mendita. Ĝi reliefigas la konflikton sur la panelo de la rekrutanto: "Averto: Sarah estas duoble rezervita por la intervjuo de la 14-a horo." En Plana ReĝimoLa agento analizas la kalendaron de Sarah kaj la haveblecon de la kandidato. Ĝi prezentas solvon: "Mi rekomendas movi la intervjuon al ĵaŭdo je la 10-a horo. Ĉi tio postulas movi la 1:1 de Sarah kun ŝia administranto." La rekrutisto recenzas ĉi tiun logikon. En Konfirma ReĝimoLa agento redaktas la retpoŝtojn al la kandidato kaj la administranto. Ĝi popolas la kalendarajn invitojn. La rekrutisto vidas resumon: "Ĉu vi pretas replani al ĵaŭdo. Ĉu sendi ĝisdatigojn?" La rekrutanto alklakas "Konfirmu". En Aŭtonoma ReĝimoLa agento traktas la konflikton tuj. Ĝi respektas antaŭfiksitan regulon: "Ĉiam prioritatu kandidatintervjuojn super internaj 1:1s." Ĝi movas la kunvenon kaj sendas la sciigojn. La rekrutisto vidas protokolan enskribon: “Solvitaplankonflikto por Kandidato B."

Esplorado: Kion Esplori Kaj Kiel Disvolvi efikan agentan AI postulas klaran esploran aliron kompare kun tradicia programaro aŭ eĉ genera AI. La aŭtonomia naturo de AI-agentoj, ilia kapablo fari decidojn, kaj ilia potencialo por iniciatema agado necesigas specialigitajn metodarojn por kompreni uzantajn atendojn, mapi kompleksajn agentkondutojn kaj anticipi eblajn fiaskojn. La sekva esplora enkonduko skizas ŝlosilajn metodojn por mezuri kaj taksi ĉi tiujn unikajn aspektojn de agenta AI. Mens-Modelaj Intervjuoj Ĉi tiuj intervjuoj malkovras antaŭkonceptitajn nociojn de uzantoj pri kiel AI-agento devus konduti. Anstataŭ simple demandi kion uzantoj volas, la fokuso estas kompreni iliajn internajn modelojn de la kapabloj kaj limigoj de la agento. Ni evitu uzi la vorton "agento" kun partoprenantoj. Ĝi portas sciencfikcian bagaĝon aŭ estas termino tro facile konfuzebla kun homa agento ofertanta subtenon aŭ servojn. Anstataŭe, kadru la diskuton ĉirkaŭ "asistantoj" aŭ "la sistemo". Ni devas malkovri kie uzantoj tiras la limon inter helpema aŭtomatigo kaj trudema kontrolo.

Metodo: Petu uzantojn priskribi, desegni aŭ rakonti siajn atendatajn interagojn kun la agento en diversaj hipotezaj scenaroj. Ŝlosilaj Sondoj (reflektante diversajn industriojn): Por kompreni la limojn de dezirata aŭtomatigo kaj eblajn angorojn ĉirkaŭ troaŭtomatigo, demandu: Se via flugo estas nuligita, kion vi ŝatus, ke la sistemo faru aŭtomate? Kio maltrankviligus vin se ĝi farus tion sen via eksplicita instrukcio?

Por esplori la komprenon de la uzanto pri la internaj procezoj de la agento kaj necesa komunikado, demandu: Imagu, ke cifereca asistanto administras vian inteligentan hejmon. Se pakaĵo estas liverita, kiajn paŝojn vi imagas, ke ĝi prenas, kaj kiajn informojn vi atendus ricevi?

Por malkovri atendojn pri kontrolo kaj konsento ene de plurpaŝa procezo, demandu: Se vi petas vian ciferecan asistanton plani renkontiĝon, kiajn paŝojn vi antaŭvidas ĝin fari? Je kiuj punktoj vi volus esti konsultita aŭ havita elektojn?

Avantaĝoj de la metodo: Rivelas implicajn supozojn, elstarigas areojn kie la laŭplana konduto de la agento povus deturni de uzantatendoj, kaj informas la dezajnon de konvenaj kontroloj kaj religmekanismoj.

Agenta Vojaĝa Mapado: Simile al tradicia uzantvojaĝmapado, agentvojaĝmapado specife temigas la anticipitajn agojn kaj decidpunktojn de la AI-agento mem, kune kun la interagado de la uzanto. Ĉi tio helpas aktive identigi eblajn faŭltojn.

Metodo: Kreu vidan mapon kiu skizas la diversajn stadiojn de la operacio de agento, de inico ĝis kompletigo, inkluzive de ĉiuj eblaj agoj, decidoj kaj interagoj kun eksteraj sistemoj aŭ uzantoj. Ŝlosilaj Elementoj por Mapi: Agentaj Agoj: Kiajn specifajn taskojn aŭ decidojn la agento plenumas? Informaj Enigaĵoj/Eligoj: Kiajn datumojn la agento bezonas, kaj kiajn informojn ĝi generas aŭ komunikas? Decidaj Punktoj: Kie la agento faras elektojn, kaj kiuj estas la kriterioj por tiuj elektoj? Uzantaj Interagaj Punktoj: Kie la uzanto provizas enigon, revizion aŭ aprobas agojn? Punktoj de Fiasko: Esence, identigu specifajn kazojn kie la agento povus misinterpreti instrukciojn, fari malĝustan decidon aŭ interagi kun la malĝusta ento. Ekzemploj: Malĝusta ricevanto (ekz., sendado de sentemaj informoj al la malĝusta persono), troŝpruco (ekz., aŭtomatigita pago superante disponeblajn financon), misinterpreto de intenco (ekz., rezervi flugon por malĝusta dato pro ambigua lingvo).

Reakiro-Padoj: Kiel la agento aŭ uzanto povas resaniĝi post ĉi tiuj fiaskoj? Kiuj mekanismoj ekzistas por korekto aŭ interveno?

Avantaĝoj de la metodo: Provizas holisman vidon de la funkcia fluo de la agento, malkovras kaŝitajn dependecojn kaj permesas la iniciateman dezajnon de sekurigiloj, erartraktado kaj uzantintervenpunktoj por malhelpi aŭ mildigi negativajn rezultojn.

Simulita Miskonduta Testado: Ĉi tiu aliro estas dizajnita por streĉi la sistemon kaj observi la reagojn de la uzanto kiam la AI-agento malsukcesas aŭ devias de atendoj. Temas pri komprenado de fido-riparo kaj emociaj respondoj en malfavoraj situacioj.

Metodo: En kontrolitaj laboratoriostudoj, intence enkonduku scenarojn kie la agento faras eraron, misinterpretas ordonon aŭ kondutas neatendite. Specoj de "Miskonduto" por Simuli: KomandoMisinterpreto: La agento faras agon iomete malsaman de tio, kion la uzanto celis (ekz., ordigante du erojn anstataŭe de unu). Informa Troŝarĝo/Subŝarĝo: La agento disponigas tro multe da sensignifaj informoj aŭ ne sufiĉe da kritikaj detaloj. Nepetita Ago: La agento faras agon, kiun la uzanto eksplicite ne deziris aŭ atendis (ekz., aĉetante akciojn sen aprobo). Sistema Fiasko: La agento kraŝas, fariĝas neresponda aŭ provizas erarmesaĝon. Etikaj Dilemoj: La agento faras decidon kun etikaj implicoj (ekz., prioritatante unu taskon super alia bazita sur neantaŭvidita metriko).

Observa Fokuso: Uzantreagoj: Kiel uzantoj reagas emocie (frustriĝo, kolero, konfuzo, perdo de fido)? Provoj de Reakiro: Kiajn paŝojn faras uzantoj por korekti la konduton de la agento aŭ malfari ĝiajn agojn? Fidaj Riparaj Mekanismoj: Ĉu la enkonstruitaj reakiro aŭ sugestaj mekanismoj de la sistemo helpas restarigi fidon? Kiel uzantoj volas esti informitaj pri eraroj? Mensa Modelŝanĝo: Ĉu la miskonduto ŝanĝas la komprenon de la uzanto de la kapabloj aŭ limigoj de la agento?

Avantaĝoj de la metodo: Decida por identigi dezajnajn mankojn ligitajn al eraro-reakiro, sugestoj kaj uzantkontrolo. Ĝi disponigas sciojn pri kiom rezistemaj uzantoj estas al agentaj fiaskoj kaj kio estas necesa por konservi aŭ rekonstrui fidon, kondukante al pli fortikaj kaj pardonemaj agentaj sistemoj.

Integrante ĉi tiujn esplormetodarojn, UX-praktikistoj povas preterpasi simple igi agentajn sistemojn uzeblaj por fari ilin fidindaj, kontroleblaj kaj respondecaj, kreskigante pozitivan kaj produktivan rilaton inter uzantoj kaj iliaj AI-agentoj. Rimarku, ke ĉi tiuj ne estas la solaj metodoj signifaj por esplori agentan AI efike. Multaj aliaj metodoj ekzistas, sed ĉi tiuj estas plej alireblaj por praktikistoj baldaŭ. Mi antaŭe kovris la metodon de Sorĉisto de Oz, iom pli altnivelan metodon de konceptotestado, kiu ankaŭ estas valora ilo por esplori agentajn AI-konceptojn. Ethical Considerations In Research Methodology Dum esplorado de agenta AI, precipe dum simulado de miskonduto aŭ eraroj, etikaj konsideroj estas ŝlosilaj por konsideri. Estas multaj publikaĵoj fokusantaj pri etika UX-esplorado, inkluzive de artikolo, kiun mi skribis por Smashing Magazine, ĉi tiuj gvidlinioj de la UX-Dezajna Instituto, kaj ĉi tiu paĝo de la Inkluziva Dezajna Ilaro. Ŝlosilaj Metrikoj Por Agenta AI Vi bezonos ampleksan aron de ŝlosilaj mezuroj por efike taksi la rendimenton kaj fidindecon de agentaj AI-sistemoj. Ĉi tiuj metrikoj disponigas sciojn pri uzantfido, sistemprecizeco kaj la ĝenerala uzantsperto. Sekvante ĉi tiujn indikilojn, programistoj kaj projektistoj povas identigi areojn por plibonigo kaj certigi, ke AI-agentoj funkcias sekure kaj efike. 1. Intervena ImpostoPor aŭtonomaj agentoj, ni mezuras sukceson per silento. Se agento efektivigas taskon kaj la uzanto ne intervenas aŭ renversas la agon ene de fiksita fenestro (ekz., 24 horoj), ni kalkulas tion kiel akcepton. Ni spuras la Intervenan Indicon: kiom ofte homo saltas por haltigi aŭ korekti la agenton? Alta intervena indico signalas misprezenton en fido aŭ logiko. 2. Ofteco de Neintencitaj Agoj por 1,000 Taskoj Ĉi tiu kritika metriko kvantigas la nombron da agoj faritaj de la AI-agento, kiuj ne estis deziritaj aŭ atenditaj de la uzanto, normaligitaj per 1,000 plenumitaj taskoj. Malalta ofteco de neintencitaj agoj signifas bone vicigitan AI, kiu precize interpretas uzantan intencon kaj funkcias ene de difinitaj limoj. Ĉi tiu metriko estas proksime ligita al la kompreno de la AI pri kunteksto, ĝia kapablo malambiguigi komandojn kaj la fortikeco de ĝiaj sekurecaj protokoloj. 3. Redakti aŭ Malfari TarifojnĈi tiu metriko spuras kiom ofte uzantoj bezonas inversigi aŭ malfari agon faritan de la AI. Altaj retroprocentoj sugestas, ke la AI faras oftajn erarojn, misinterpretas instrukciojn aŭ agas en manieroj kiuj ne kongruas kun la atendoj de la uzanto. Analizi la kialojn de ĉi tiuj malfunkcioj povas doni valorajn sugestojn por plibonigi la algoritmojn de AI, komprenon de uzantpreferoj kaj ĝia kapablo antaŭdiri dezirindajn rezultojn. Por kompreni kial, vi devas efektivigi mikroenketon pri la malfari ago. Ekzemple, kiam uzanto renversas programan ŝanĝon, simpla prompto povas demandi: "Malĝusta tempo? Ĉu malĝusta persono? Aŭ ĉu vi nur volis fari ĝin mem?" Permesante al la uzanto alklaki la opcion kiu plej bone respondas al ilia rezonado. 4. Tempo al Rezolucio Post EraroĈi tiu metrikomezuras la daŭron, kiun ĝi bezonas por uzanto por korekti eraron faritan de la AI aŭ por la AI-sistemo mem resaniĝi de erara stato. Mallonga tempo al rezolucio indikas efikan kaj amikan eraran reakivan procezon, kiu povas mildigi uzantan frustriĝon kaj konservi produktivecon. Ĉi tio inkluzivas la facilecon identigi la eraron, la alireblecon de malfaraj aŭ korektaj mekanismoj, kaj la klarecon de erarmesaĝoj provizitaj de la AI.

Kolekti ĉi tiujn metrikojn postulas instrumentigi vian sistemon por spuri Agent Action ID-ojn. Ĉiu aparta ago kiun la agento faras, kiel proponi horaron aŭ rezervi flugon, devas generi unikan identigilon kiu daŭras en la protokoloj. Por mezuri la Intervenan Indicon, ni ne serĉas tujan uzantan reagon. Ni serĉas la foreston de kontraŭago ene de difinita fenestro. Se Ago-ID estas generita je 9:00 AM kaj neniu homa uzanto modifas aŭ revertas tiun specifan ID antaŭ 9:00 AM la sekvan tagon, la sistemo logike markas ĝin kiel Akceptita. Ĉi tio ebligas al ni kvantigi sukceson bazitan sur uzanta silento prefere ol aktiva konfirmo. Por Rollback Tarifoj, krudaj kalkuloj estas nesufiĉaj ĉar mankas al ili kunteksto. Por kapti la suban kialon, vi devas efektivigi interkaptan logikon sur la funkcioj Malfari aŭ Reverti de via aplikaĵo. Kiam uzanto inversigas agon iniciatitan de agento, ekigu malpezan mikroenketon. Tio povas esti simpla tri-opcia modalo petante la uzanton klasifiki la eraron kiel fakte malĝustan, malhavante kuntekston, aŭ simplan preferon pritrakti la taskon permane. Ĉi tio kombinas kvantan telemetrion kun kvalita kompreno. Ĝi ebligas al inĝenieraj teamoj distingi inter rompita algoritmo kaj miskongruo de uzanta prefero. Ĉi tiuj metrikoj, se spuritaj konstante kaj analizitaj holisme, provizas fortikan kadron por taksi la agadon de agentaj AI-sistemoj, ebligante kontinuan plibonigon en kontrolo, konsento kaj respondeco. Desegni Kontraŭ Trompo Ĉar agentoj iĝas ĉiam pli kapablaj, ni alfrontas novan riskon: Agentic Sludge. Tradicia ŝlimo kreas frikcion, kiu malfaciligas nuligi abonon aŭ forigi konton. Agenta ŝlimo agas inverse. Ĝi forigas frikcion al faŭlto, igante ĝin tro facila por uzanto konsenti pri ago kiu profitigas la komercon prefere ol siaj propraj interesoj. Konsideru agenton helpantan kun vojaĝrezervado. Sen klaraj bariloj, la sistemo eble prioritatos partneran aviadkompanion aŭ pli altan marĝenan hotelon. Ĝi prezentas ĉi tiun elekton kiel la optimuman vojon. La uzanto, fidante la aŭtoritaton de la sistemo, akceptas la rekomendon sen ekzamenado. Ĉi tio kreas trompan ŝablonon, kie la sistemo optimumigas por enspezo sub la alivestiĝo de oportuno. La Risko De False Imagita Kompetenteco Trompo eble ne devenas de malica intenco. Ĝi ofte manifestiĝas en AI kiel Imagita Kompetenteco. Grandaj Lingvaj Modeloj ofte sonas aŭtoritataj eĉ se malĝustaj. Ili prezentas falsan rezervan konfirmon aŭ malprecizan resumon kun la sama fido kiel kontrolita fakto. Uzantoj povas nature fidi ĉi tiun memfidan tonon. Ĉi tiu miskongruo kreas danĝeran interspacon inter sistema kapablo kaj uzant-atendoj. Ni devas desegni specife por limi ĉi tiun breĉon. Se agento ne sukcesas plenumi taskon, la interfaco devas klare signali tiun malsukceson. Se la sistemo estas necerta, ĝi devas esprimi necertecon prefere ol maski ĝin per polurita prozo. Travidebleco per primitivuloj La antidoto al kaj ŝlimo kaj alucino estas deveno. Ĉiu aŭtonoma ago postulas specifan metadatuman etikedon klarigante la originon de la decido. Uzantoj bezonas la kapablon inspekti la logikan ĉenon malantaŭ la rezulto. Por atingi ĉi tion, ni devas traduki primitivulojn en praktikajn respondojn. En softvarinĝenierado, primitivuloj rilatas al la kernunuoj de informoj aŭ agoj kiujn agento elfaras. Por la inĝeniero, ĉi tio aspektas kiel API-voko aŭ logika pordego. Al la uzanto, ĝi devas aperi kiel klara klarigo. La dezajnodefio kuŝas en mapado de ĉi tiuj teknikaj paŝoj al homlegeblaj raciaĵoj. Se agento rekomendas specifan flugon, la uzanto devas scii kial. La interfaco ne povas kaŝi sin malantaŭ ĝenerala sugesto. Ĝi devas elmontri la suban primitivon: Logiko: Plej Malkara_Rekta_Flugo aŭ Logiko: Partnero_Aviadkompanio_Prioritato. Figuro 4 ilustras ĉi tiun tradukfluon. Ni prenas la krudan sistemon primitivan - la realan kodlogikon - kaj mapon ĝin al uzanto-frunta ĉeno. Ekzemple, primitiva kontrolado de kalendara horaro de kunveno fariĝas klara deklaro: mi proponis 16:00.kunveno. Ĉi tiu nivelo de travidebleco certigas, ke la agoj de la agento ŝajnas logikaj kaj utilaj. Ĝi permesas al la uzanto kontroli ke la agento agis en ilia plej bona avantaĝo. Eksponante la primitivulojn, ni transformas nigran skatolon en vitran skatolon, certigante ke uzantoj restas la fina aŭtoritato pri siaj propraj ciferecaj vivoj.

Agordi La Scenejon Por Dezajno Konstrui agentan sistemon postulas novan nivelon de psikologia kaj kondutisma kompreno. Ĝi devigas nin iri preter konvencia uzeblotestado kaj en la sferon de fido, konsento kaj respondeco. La esplormetodoj, kiujn ni diskutis, de sondado de mensaj modeloj ĝis simulado de miskonduto kaj establado de novaj metrikoj, provizas necesan fundamenton. Ĉi tiuj praktikoj estas la esencaj iloj por iniciateme identigi kie aŭtonoma sistemo povus malsukcesi kaj, pli grave, kiel ripari la uzant-agentan rilaton kiam ĝi faras. La ŝanĝo al agenta AI estas redifino de la uzant-sistema rilato. Ni ne plu desegnas por iloj kiuj simple respondas al komandoj; ni desegnas por partneroj kiuj agas en nia nomo. Ĉi tio ŝanĝas la projektan imperativon de efikeco kaj facileco de uzo al travidebleco, antaŭvidebleco kaj kontrolo. Kiam AI povas rezervi flugon aŭ komerci akciojn sen fina klako, la dezajno de ĝiaj "sur-deklivoj" kaj "for-deklivoj" fariĝas plej grava. Estas nia respondeco certigi, ke uzantoj sentas, ke ili estas en la ŝoforo, eĉ kiam ili transdonis la stilon. Ĉi tiu nova realaĵo ankaŭ altigas la rolon de la UX-esploristo. Ni fariĝas la gardantoj de uzantfido, laborante kunlabore kun inĝenieroj kaj produktaj administrantoj por difini kaj testi la gardadojn de la aŭtonomio de agento. Preter esti esploristoj, ni iĝas rekomendantoj por uzantkontrolo, travidebleco kaj la etikaj sekurigiloj ene de la evoluprocezo. Tradukante primitivulojn en praktikajn demandojn kaj simulante plej malbonajn scenarojn, ni povas konstrui fortigajn sistemojn, kiuj estas kaj potencaj kaj sekuraj. Ĉi tiu artikolo skizis la "kio" kaj "kial" esplori agentan AI. Ĝi montris, ke niaj tradiciaj ilaro estas nesufiĉaj kaj ke ni devas adopti novajn, antaŭrigardajn metodarojn. La sekva artikolo konstruos sur ĉi tiu fundamento, provizante la specifajn desegnajn ŝablonojn kaj organizajn praktikojn, kiuj igas la utilecon de agento travidebla al uzantoj, certigante ke ili povas utiligi la potencon de agenta AI kun fido kaj kontrolo. La estonteco de UX temas pri igi sistemojn fidindajn. Por plia kompreno pri agenta AI, vi povas esplori la jenajn rimedojn:

Google AI Blogo pri Agenta AI La esplorado de Mikrosofto pri AI-Agentoj

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free