Agentic AI je spreman da transformiše korisničko iskustvo i operativnu efikasnost, zahtevajući novi strateški pristup od strane rukovodstva. Ova evolucija u umjetnoj inteligenciji osnažuje sisteme da planiraju, izvršavaju i istraju u zadacima, prelazeći dalje od jednostavnih preporuka do proaktivne akcije. Za UX timove, menadžere proizvoda i rukovodioce, razumijevanje ove promjene je ključno za otključavanje mogućnosti u inovacijama, pojednostavljivanje radnih tokova i redefiniranje načina na koji tehnologija služi ljudima. Lako je pobrkati Agentic AI sa robotskom automatizacijom procesa (RPA), što je tehnologija koja se fokusira na zadatke zasnovane na pravilima koji se izvode na računarima. Razlika leži u krutosti naspram rasuđivanja. RPA je odličan u praćenju strogog scenarija: ako se desi X, uradi Y. Imitira ljudske ruke. Agentska AI oponaša ljudsko razmišljanje. Ne prati linearno pismo; stvara jedno. Razmislite o toku rada za zapošljavanje. RPA bot može skenirati životopis i učitati ga u bazu podataka. Savršeno obavlja zadatak koji se ponavlja. Agentski sistem pregleda životopis, primjećuje da kandidat navodi određenu sertifikaciju, upoređuje ih s novim zahtjevima klijenta i odlučuje da sastavi personalizirani e-mail za kontakt koji ističe tu utakmicu. RPA izvršava unapred definisani plan; Agentska AI formuliše plan na osnovu cilja. Ova autonomija odvaja agente od prediktivnih alata koje smo koristili u posljednjoj deceniji. Drugi primjer je upravljanje sukobima na sastancima. Prediktivni model integrisan u vaš kalendar može analizirati vaš raspored sastanaka i rasporede vaših kolega. To bi onda moglo predložiti potencijalne sukobe, kao što su dva važna sastanka zakazana u isto vrijeme, ili sastanak zakazan kada je ključni učesnik na odmoru. Pruža vam informacije i označava potencijalne probleme, ali vi ste odgovorni za poduzimanje radnji. Agentska AI bi, u istom scenariju, išla dalje od samo sugeriranja sukoba koje treba izbjegavati. Nakon što identifikuje sukob sa ključnim učesnikom, agent može djelovati na sljedeći način:
Provjera dostupnosti svih potrebnih učesnika. Prepoznavanje alternativnih vremenskih intervala koji odgovaraju svima. Slanje predloženih poziva za nove sastanke svim učesnicima. Ako je sukob s vanjskim učesnikom, agent bi mogao nacrtati i poslati e-poruku s objašnjenjem potrebe za ponovnim rasporedom i ponuditi alternativna vremena. Ažuriranje vašeg kalendara i kalendara vaših kolega novim detaljima sastanka nakon potvrde.
Ovaj agentski AI razumije cilj (rješavanje sukoba sastanka), planira korake (provjera dostupnosti, pronalaženje alternativa, slanje pozivnica), izvršava te korake i traje dok se sukob ne riješi, sve uz minimalnu direktnu intervenciju korisnika. Ovo pokazuje „agentsku“ razliku: sistem preduzima proaktivne korake za korisnika, a ne samo pruža informacije korisniku. Agentski AI sistemi razumiju cilj, planiraju niz koraka kako bi ga postigli, izvršavaju te korake, pa čak i prilagođavaju se ako stvari krenu po zlu. Razmišljajte o tome kao o proaktivnom digitalnom asistentu. Osnovna tehnologija često kombinuje velike jezičke modele (LLM) za razumevanje i rezonovanje, sa algoritmima za planiranje koji razlažu složene zadatke u radnje kojima se može upravljati. Ovi agenti mogu stupiti u interakciju s različitim alatima, API-jima, pa čak i drugim modelima umjetne inteligencije kako bi postigli svoje ciljeve, a što je kritično, mogu održavati trajno stanje, što znači da pamte prethodne radnje i nastavljaju raditi prema cilju tokom vremena. To ih čini fundamentalno drugačijim od tipične generativne AI, koja obično dovršava jedan zahtjev, a zatim se resetuje. Jednostavna taksonomija ponašanja agenata Možemo kategorizirati ponašanje agenata u četiri različita načina autonomije. Iako oni često izgledaju kao progresija, funkcionišu kao nezavisni načini rada. Korisnik može vjerovati agentu da djeluje samostalno za zakazivanje, ali ga drži u „režimu sugestije“ za finansijske transakcije. Ove nivoe smo izveli prilagođavanjem industrijskih standarda za autonomna vozila (SAE nivoi) kontekstu digitalnog korisničkog iskustva. Posmatrajte-i-predložite Agent funkcionira kao monitor. Analizira tokove podataka i označava anomalije ili prilike, ali ništa ne preduzima. Diferencijacija Za razliku od sljedećeg nivoa, agent ne generiše složeni plan. To ukazuje na problem. Primjer DevOps agent primjećuje skok CPU-a na serveru i upozorava inženjera na poziv. Ne zna kako i ne pokušava to popraviti, ali zna da nešto nije u redu. Implikacije za dizajn i nadzor Na ovom nivou,dizajn i nadzor treba da daju prioritet jasnim, nenametljivim obavještenjima i dobro definiranom procesu za korisnike da postupe po prijedlozima. Fokus je na osnaživanju korisnika pravovremenim i relevantnim informacijama bez preuzimanja kontrole. UX praktičari bi se trebali fokusirati na to da sugestije budu jasne i lako razumljive, dok menadžeri proizvoda moraju osigurati da sistem pruža vrijednost bez preopterećenja korisnika. Planiraj i predloži Agent identificira cilj i generiše strategiju u više koraka kako bi ga postigao. Predstavlja potpuni plan za ljudski pregled. Diferencijacija Agent djeluje kao strateg. Ne izvršava se; čeka odobrenje za cijeli pristup. Primjer Isti DevOps agent primjećuje skok CPU-a, analizira evidencije i predlaže plan sanacije:
Zakreni dvije dodatne instance. Ponovo pokrenite balansator opterećenja. Arhivirajte stare dnevnike.
Čovjek pregleda logiku i klikne na "Odobri plan". Implikacije za dizajn i nadzor Za agente koji planiraju i predlažu, dizajn mora osigurati da su predloženi planovi lako razumljivi i da korisnici imaju intuitivne načine da ih modificiraju ili odbace. Nadzor je ključan u praćenju kvaliteta prijedloga i agentove logike planiranja. UX praktičari bi trebali dizajnirati jasne vizualizacije predloženih planova, a menadžeri proizvoda moraju uspostaviti jasne tokove pregleda i odobravanja. Postupite sa potvrdom Agent završava sve pripremne radove i postavlja završnu radnju u fazno stanje. Efikasno drži vrata otvorena, čekajući klimanje. Diferencijacija Ovo se razlikuje od “Planiraj-i-predloži” jer je posao već obavljen i izveden. Smanjuje trenje. Korisnik potvrđuje ishod, a ne strategiju. PrimjerAgent za zapošljavanje sastavlja pet pozivnica za intervjue, pronalazi otvorena vremena u kalendarima i kreira događaje u kalendaru. Predstavlja dugme „Pošalji sve“. Korisnik daje konačnu autorizaciju za pokretanje vanjske akcije. Implikacije za dizajn i nadzor Kada agenti djeluju s potvrdom, dizajn treba da pruži transparentne i koncizne sažetke namjeravane akcije, jasno navodeći potencijalne posljedice. Nadzor treba da potvrdi da je proces potvrde robustan i da se od korisnika ne traži da slijepo odobravaju radnje. UX praktičari bi trebali dizajnirati upite za potvrdu koji su jasni i pružaju sve potrebne informacije, a menadžeri proizvoda bi trebali dati prioritet robusnom revizorskom tragu za sve potvrđene radnje. Djelujte autonomno Agent izvršava zadatke nezavisno unutar definisanih granica. DiferencijacijaKorisnik pregleda istoriju radnji, a ne same akcije. Primjer: Agent za zapošljavanje uočava sukob, premješta intervju u rezervno mjesto, ažurira kandidata i obavještava menadžera za zapošljavanje. Čovjek vidi samo obavijest: Intervju je pomjeren za utorak. Implikacije za dizajn i nadzor Za autonomne agente, dizajn treba da uspostavi jasne unapred odobrene granice i obezbedi robusne alate za praćenje. Nadzor zahtijeva kontinuiranu procjenu performansi agenta unutar ovih granica, kritičnu potrebu za robusnim evidentiranjem, jasnim mehanizmima nadjačavanja i korisnički definiranim prekidačima za ukidanje kako bi se održala kontrola i povjerenje korisnika. UX praktičari treba da se usredsrede na dizajniranje efikasnih kontrolnih tabli za praćenje ponašanja autonomnih agenata, a menadžeri proizvoda moraju da obezbede jasno upravljanje i etičke smernice.
Pogledajmo stvarnu aplikaciju u HR tehnologiji da vidimo ove načine rada. Razmislite o “Agentu za koordinaciju intervjua” dizajniranom da se bavi logistikom zapošljavanja.
U režimu predlaganja agent primjećuje da je anketar dvostruko rezerviran. Ističe konflikt na kontrolnoj tabli regrutera: „Upozorenje: Sarah je duplo rezervisana za intervju u 14:00.” U režimu plana agent analizira Sarin kalendar i dostupnost kandidata. Predstavlja rješenje: "Preporučujem da intervju premjestite za četvrtak u 10 ujutro. Ovo zahtijeva premještanje Sarinih 1:1 sa njenim menadžerom." Regruter razmatra ovu logiku. U načinu potvrde agent sastavlja e-poruke kandidatu i menadžeru. Popunjava pozivnice kalendara. Regruter vidi sažetak: "Spremni za ponovno zakazivanje za četvrtak. Slanje ažuriranja?" Regruter klikne na "Potvrdi". U autonomnom načinu rada agent trenutno rješava konflikt. Poštuje unaprijed postavljeno pravilo: “Uvijek dajte prioritet intervjuima s kandidatima u odnosu na interne 1:1.” Pomiče sastanak i šalje obavještenja. Regruter vidi zapis u dnevniku: „RiješenoRaspored sukoba za kandidata B.”
Istraživački primer: Šta istraživati i kako Razvijanje efikasne agentičke AI zahtijeva poseban istraživački pristup u poređenju sa tradicionalnim softverom ili čak generativnom umjetnom inteligencijom. Autonomna priroda AI agenata, njihova sposobnost da donose odluke i njihov potencijal za proaktivno djelovanje zahtijevaju specijalizirane metodologije za razumijevanje očekivanja korisnika, mapiranje složenih ponašanja agenata i predviđanje potencijalnih neuspjeha. Sljedeći priručnik za istraživanje opisuje ključne metode za mjerenje i evaluaciju ovih jedinstvenih aspekata agentske AI. Intervjui mentalnog modela Ovi intervjui otkrivaju unaprijed stvorene predodžbe korisnika o tome kako bi se AI agent trebao ponašati. Umjesto jednostavnog pitanja šta korisnici žele, fokus je na razumijevanju njihovih internih modela sposobnosti i ograničenja agenta. Trebalo bi izbjegavati korištenje riječi “agent” sa učesnicima. Nosi naučno-fantastični prtljag ili je termin koji se previše lako pobrka sa ljudskim agentom koji nudi podršku ili usluge. Umjesto toga, uokvirite diskusiju oko “pomoćnika” ili “sistema”. Moramo otkriti gdje korisnici povlače granicu između korisne automatizacije i nametljive kontrole.
Metoda: Zamolite korisnike da opišu, nacrtaju ili ispričaju svoje očekivane interakcije s agentom u različitim hipotetičkim scenarijima. Ključne sonde (koje odražavaju različite industrije): Da biste razumjeli granice željene automatizacije i potencijalne anksioznosti oko pretjerane automatizacije, pitajte: Ako je vaš let otkazan, šta želite da sistem radi automatski? Šta bi vas zabrinjavalo da je to uradilo bez vašeg izričitog uputstva?
Da biste istražili korisničko razumijevanje internih procesa agenta i potrebne komunikacije, pitajte: Zamislite da digitalni asistent upravlja vašim pametnim domom. Ako je paket isporučen, koje korake mislite da će poduzeti i koje informacije biste očekivali da dobijete?
Da biste otkrili očekivanja u vezi s kontrolom i pristankom unutar procesa u više koraka, pitajte: Ako zamolite svog digitalnog asistenta da zakaže sastanak, koje korake mislite da poduzima? U kojim trenucima biste željeli da vas konsultuju ili da vam daju izbor?
Prednosti metode: Otkriva implicitne pretpostavke, ističe područja u kojima bi planirano ponašanje agenta moglo odstupiti od očekivanja korisnika i informira dizajn odgovarajućih kontrola i mehanizama povratnih informacija.
Mapiranje putovanja agenta: Slično tradicionalnom mapiranju puta korisnika, mapiranje putovanja agenta se posebno fokusira na očekivane radnje i tačke odlučivanja samog AI agenta, uz interakciju korisnika. Ovo pomaže da se proaktivno identificiraju potencijalne zamke.
Metoda: Napravite vizualnu mapu koja prikazuje različite faze agentove operacije, od pokretanja do završetka, uključujući sve potencijalne radnje, odluke i interakcije s vanjskim sustavima ili korisnicima. Ključni elementi za mapu: Akcije agenta: Koje specifične zadatke ili odluke agent obavlja? Informacioni ulazi/izlazi: Koji podaci su potrebni agentu i koje informacije generiše ili komunicira? Tačke odluke: Gdje agent bira i koji su kriteriji za te izbore? Tačke interakcije korisnika: Gdje korisnik daje unos, pregleda ili odobrava radnje? Tačke neuspjeha: Najvažnije je identificirati specifične slučajeve u kojima bi agent mogao pogrešno protumačiti upute, donijeti pogrešnu odluku ili stupiti u interakciju s pogrešnim entitetom. Primjeri: netačan primalac (npr. slanje osjetljivih informacija pogrešnoj osobi), prekoračenje (npr. automatska uplata koja premašuje raspoloživa sredstva), pogrešno tumačenje namjere (npr. rezervacija leta za pogrešan datum zbog dvosmislenog jezika).
Putevi oporavka: Kako se agent ili korisnik mogu oporaviti od ovih grešaka? Koji mehanizmi postoje za korekciju ili intervenciju?
Prednosti metode: Pruža holistički pogled na operativni tok agenta, otkriva skrivene ovisnosti i omogućava proaktivni dizajn mjera zaštite, rukovanja greškama i korisničkih intervencijskih tačaka kako bi se spriječili ili ublažili negativni ishodi.
Simulirano testiranje lošeg ponašanja: Ovaj pristup je dizajniran da testira sistem na stres i posmatra reakcije korisnika kada AI agent ne uspije ili odstupi od očekivanja. Radi se o razumijevanju popravljanja povjerenja i emocionalnih reakcija u nepovoljnim situacijama.
Metoda: U kontroliranim laboratorijskim studijama, namjerno uvedite scenarije u kojima agent čini grešku, pogrešno tumači naredbu ili se ponaša neočekivano. Vrste "neprikladnog ponašanja" za simulaciju: ZapovjediPogrešno tumačenje: Agent izvodi radnju malo drugačiju od onoga što je korisnik namjeravao (npr. naručivanje dvije stavke umjesto jedne). Preopterećenje/podopterećenje informacijama: agent pruža previše nebitnih informacija ili nedovoljno kritičnih detalja. Nezatražena radnja: agent poduzima radnju koju korisnik izričito nije želio ili očekivao (npr. kupuje dionice bez odobrenja). Greška sistema: Agent ruši, prestaje da reaguje ili daje poruku o grešci. Etičke dileme: agent donosi odluku s etičkim implikacijama (npr. davanje prioriteta jednom zadatku u odnosu na drugi na osnovu nepredviđene metrike).
Fokus posmatranja: Reakcije korisnika: Kako korisnici emocionalno reagiraju (frustracija, ljutnja, zbunjenost, gubitak povjerenja)? Pokušaji oporavka: Koje korake korisnici poduzimaju kako bi ispravili ponašanje agenta ili poništili njegove radnje? Mehanizmi za popravku povjerenja: Da li ugrađeni mehanizmi oporavka ili povratnih informacija u sistemu pomažu vraćanju povjerenja? Kako korisnici žele biti obaviješteni o greškama? Promjena mentalnog modela: Da li loše ponašanje mijenja korisničko razumijevanje sposobnosti ili ograničenja agenta?
Prednosti metode: Ključno za identifikaciju nedostataka u dizajnu koji se odnose na oporavak od greške, povratne informacije i kontrolu korisnika. Pruža uvid u to koliko su korisnici otporni na kvarove agenta i šta je potrebno za održavanje ili obnovu povjerenja, što dovodi do robusnijih i popustljivijih agentskih sistema.
Integracijom ovih istraživačkih metodologija, UX praktičari mogu ići dalje od jednostavnog činjenja agentskih sistema upotrebljivim i učiniti ih pouzdanim, podložnim kontroli i odgovornosti, podstičući pozitivan i produktivan odnos između korisnika i njihovih AI agenata. Imajte na umu da ovo nisu jedine metode relevantne za efikasno istraživanje agentske AI. Postoje mnoge druge metode, ali one su najdostupnije praktičarima u bliskoj budućnosti. Ranije sam pokrio metodu Čarobnjaka iz Oza, nešto napredniju metodu testiranja koncepta, koja je također vrijedan alat za istraživanje agentskih koncepata AI. Etička razmatranja u metodologiji istraživanja Prilikom istraživanja agentske AI, posebno kada se simulira loše ponašanje ili greške, ključna su etička razmatranja koja treba uzeti u obzir. Postoje mnoge publikacije koje se fokusiraju na etičko UX istraživanje, uključujući članak koji sam napisao za Smashing Magazine, ove smjernice UX Design Institutea i ovu stranicu iz Inclusive Design Toolkita. Ključne metrike za Agentic AI Trebat će vam sveobuhvatan skup ključnih metrika za efikasnu procjenu performansi i pouzdanosti agentskih AI sistema. Ove metrike pružaju uvid u povjerenje korisnika, tačnost sistema i cjelokupno korisničko iskustvo. Praćenjem ovih indikatora, programeri i dizajneri mogu identificirati područja za poboljšanje i osigurati da AI agenti rade sigurno i efikasno. 1. Stopa intervencije Za autonomne agente uspjeh mjerimo šutnjom. Ako agent izvrši zadatak, a korisnik ne interveniše ili ne poništi radnju unutar postavljenog prozora (npr. 24 sata), to računamo kao prihvatanje. Pratimo stopu intervencije: koliko često čovjek uskače da zaustavi ili ispravi agenta? Visoka stopa intervencije signalizira neusklađenost u povjerenju ili logici. 2. Učestalost nenamjernih radnji na 1.000 zadataka Ova kritična metrika kvantificira broj radnji koje je izvršio AI agent, a koje korisnik nije želio ili očekivao, normalizirano na 1.000 dovršenih zadataka. Niska učestalost nenamjernih radnji označava dobro usklađen AI koji precizno tumači namjeru korisnika i djeluje unutar definiranih granica. Ova metrika je usko povezana s AI-ovim razumijevanjem konteksta, njegovom sposobnošću da razjasni naredbe i robusnošću njegovih sigurnosnih protokola. 3. Stope vraćanja ili poništavanja Ova metrika prati koliko često korisnici trebaju poništiti ili poništiti radnju koju izvodi AI. Visoke stope vraćanja sugeriraju da AI pravi česte greške, pogrešno tumači upute ili djeluje na načine koji nisu usklađeni s očekivanjima korisnika. Analiziranje razloga iza ovih vraćanja može pružiti vrijedne povratne informacije za poboljšanje algoritama AI, razumijevanje korisničkih preferencija i njegove sposobnosti da predvidi poželjne rezultate. Da biste razumjeli zašto, morate provesti mikroispitivanje akcije poništavanja. Na primjer, kada korisnik poništi promjenu rasporeda, jednostavan upit može pitati: "Pogrešno vrijeme? Pogrešna osoba? Ili ste samo htjeli to učiniti sami?" Omogućavanje korisniku da klikne na opciju koja najbolje odgovara njegovom mišljenju. 4. Vrijeme za rješavanje nakon ErrorThis metrikemjeri vrijeme koje je potrebno korisniku da ispravi grešku koju je načinila AI ili da se sam AI sistem oporavi od pogrešnog stanja. Kratko vrijeme do rješavanja ukazuje na efikasan i korisniku-prijatan proces oporavka od greške, koji može ublažiti frustraciju korisnika i održati produktivnost. Ovo uključuje lakoću identifikacije greške, dostupnost mehanizama za poništavanje ili ispravljanje i jasnoću poruka o grešci koje daje AI.
Prikupljanje ovih metrika zahtijeva instrumentiranje vašeg sistema za praćenje ID-ova radnji agenta. Svaka posebna radnja koju agent poduzima, kao što je predlaganje rasporeda ili rezervacija leta, mora generirati jedinstveni ID koji ostaje u evidenciji. Da bismo izmjerili stopu intervencije, ne tražimo trenutnu reakciju korisnika. Tražimo odsustvo kontra-akcije unutar definisanog prozora. Ako se ID akcije generira u 9:00 ujutro i nijedan ljudski korisnik ne izmijeni ili vrati taj specifični ID do 9:00 ujutro sljedećeg dana, sistem ga logički označava kao Prihvaćen. Ovo nam omogućava da kvantifikujemo uspeh na osnovu šutnje korisnika, a ne aktivne potvrde. Za stope vraćanja, neobrađeni brojevi su nedovoljni jer im nedostaje kontekst. Da biste uhvatili temeljni razlog, morate implementirati logiku presretanja u funkcije Poništi ili Vrati u aplikaciju. Kada korisnik poništi akciju koju je pokrenuo agent, pokrenite laganu mikroispitivanje. Ovo može biti jednostavan modal s tri opcije koji traži od korisnika da kategorizira grešku kao činjenično netačnu, bez konteksta, ili jednostavno preferiranje da se zadatkom obradi ručno. Ovo kombinuje kvantitativnu telemetriju sa kvalitativnim uvidom. Omogućava inženjerskim timovima da razlikuju neispravan algoritam i neusklađenost korisničkih preferencija. Ove metrike, kada se prate dosljedno i holistički analiziraju, pružaju robustan okvir za procjenu učinka agentskih AI sistema, omogućavajući kontinuirano poboljšanje kontrole, pristanka i odgovornosti. Dizajniranje protiv obmane Kako agenti postaju sve sposobniji, suočavamo se s novim rizikom: agentskim muljem. Tradicionalni mulj stvara trenje koje otežava otkazivanje pretplate ili brisanje naloga. Agentski mulj djeluje obrnuto. Uklanja trenje do greške, čineći korisniku previše lakim da pristane na radnju koja koristi poslu, a ne njegovim vlastitim interesima. Razmislite o agentu koji pomaže pri rezervaciji putovanja. Bez jasnih zaštitnih ograda, sistem bi mogao dati prioritet partnerskoj avio-kompaniji ili hotelu sa većom maržom. Predstavlja ovaj izbor kao optimalan put. Korisnik, vjerujući autoritetu sistema, prihvata preporuku bez provjere. Ovo stvara obmanjujući obrazac u kojem sistem optimizira prihod pod krinkom pogodnosti. Rizik od lažno zamišljene kompetencije Prevara ne može proizaći iz zle namjere. Često se manifestuje u AI kao zamišljena kompetencija. Veliki jezički modeli često zvuče autoritativno čak i kada su netačni. Predstavljaju lažnu potvrdu rezervacije ili netačan sažetak s istom pouzdanošću kao i provjerena činjenica. Korisnici mogu prirodno vjerovati ovom samouvjerenom tonu. Ova neusklađenost stvara opasan jaz između sposobnosti sistema i očekivanja korisnika. Moramo dizajnirati posebno da premostimo ovaj jaz. Ako agent ne uspije da dovrši zadatak, sučelje mora jasno signalizirati taj neuspjeh. Ako sistem nije siguran, mora izraziti nesigurnost umjesto da je maskira uglađenom prozom. Transparentnost preko Primitive Protuotrov i za mulj i za halucinacije je porijeklo. Svaka autonomna radnja zahtijeva specifičnu oznaku metapodataka koja objašnjava porijeklo odluke. Korisnicima je potrebna mogućnost da pregledaju logički lanac iza rezultata. Da bismo to postigli, moramo primitivne prevesti u praktične odgovore. U softverskom inženjerstvu, primitivi se odnose na osnovne jedinice informacija ili radnji koje agent izvodi. Inženjeru ovo izgleda kao API poziv ili logička kapija. Korisniku se mora pojaviti kao jasno objašnjenje. Izazov dizajna leži u mapiranju ovih tehničkih koraka u obrazloženje koje je razumljivo ljudima. Ako agent preporuči određeni let, korisnik mora znati zašto. Interfejs se ne može sakriti iza generičkog prijedloga. Mora otkriti osnovni primitiv: Logic: Cheapest_Direct_Flight ili Logic: Partner_Airline_Priority. Slika 4 ilustruje ovaj tok prevođenja. Uzimamo sirovi sistemski primitiv — stvarnu logiku koda — i mapiramo ga u string okrenut korisniku. Na primjer, primitivna provjera kalendarskog zakazivanja sastanka postaje jasna izjava: Predložio sam 16:00sastanak. Ovaj nivo transparentnosti osigurava da akcije agenta izgledaju logično i korisno. Omogućava korisniku da potvrdi da je agent djelovao u njihovom najboljem interesu. Izlažući primitive, pretvaramo crnu kutiju u staklenu kutiju, osiguravajući da korisnici ostanu konačni autoritet u njihovim vlastitim digitalnim životima.
Postavljanje pozornice za dizajn Izgradnja agentskog sistema zahtijeva novi nivo psihološkog i bihevioralnog razumijevanja. To nas tjera da se pomaknemo dalje od konvencionalnog testiranja upotrebljivosti i pređemo na područje povjerenja, pristanka i odgovornosti. Metode istraživanja o kojima smo razgovarali, od ispitivanja mentalnih modela do simulacije lošeg ponašanja i uspostavljanja novih metrika, pružaju neophodnu osnovu. Ove prakse su osnovni alati za proaktivno utvrđivanje gdje bi autonomni sistem mogao otkazati i, što je još važnije, kako popraviti odnos korisnik-agent kada do toga dođe. Prelazak na agentsku AI je redefinisanje odnosa korisnik-sistem. Više ne dizajniramo alate koji jednostavno odgovaraju na komande; dizajniramo za partnere koji djeluju u naše ime. Ovo mijenja imperativ dizajna od efikasnosti i lakoće korištenja do transparentnosti, predvidljivosti i kontrole. Kada AI može rezervirati let ili trgovati dionicama bez konačnog klika, dizajn njegovih „on-ramps“ i „off-ramps“ postaje najvažniji. Naša je odgovornost osigurati da korisnici imaju osjećaj da su na vozačevom mjestu, čak i kada predaju volan. Ova nova realnost takođe podiže ulogu UX istraživača. Postajemo čuvari povjerenja korisnika, radeći u suradnji s inženjerima i menadžerima proizvoda na definiranju i testiranju zaštitnih ograda autonomije agenta. Osim što smo istraživači, postajemo zagovornici kontrole korisnika, transparentnosti i etičkih mjera zaštite unutar procesa razvoja. Prevodeći primitive u praktična pitanja i simulirajući najgore scenarije, možemo izgraditi robusne sisteme koji su i moćni i sigurni. Ovaj članak je ocrtao "šta" i "zašto" istraživanja agentske AI. Pokazalo se da su naši tradicionalni alati nedovoljni i da moramo usvojiti nove, napredne metodologije. Sljedeći članak će se nadovezati na ovu osnovu, pružajući specifične obrasce dizajna i organizacijske prakse koje čine korisnost agenta transparentnom za korisnike, osiguravajući da mogu iskoristiti moć agentske AI s povjerenjem i kontrolom. Budućnost UX-a je u tome da sisteme učinite pouzdanim. Za dodatno razumijevanje agentske AI, možete istražiti sljedeće resurse:
Google AI blog o Agentic AI Microsoftovo istraživanje o AI agentima