Agentic AI je pripravljen preoblikovati uporabniško izkušnjo in operativno učinkovitost, kar zahteva nov strateški pristop vodstva. Ta razvoj umetne inteligence omogoča sistemom, da načrtujejo, izvajajo in vztrajajo pri nalogah, pri čemer presegajo preprosta priporočila k proaktivnemu delovanju. Za ekipe uporabniškega vmesnika, produktne vodje in vodstvene delavce je razumevanje tega premika ključnega pomena za sprostitev priložnosti v inovacijah, racionalizacijo delovnih tokov in ponovno opredelitev, kako tehnologija služi ljudem. Agentic AI je enostavno zamenjati z robotsko avtomatizacijo procesov (RPA), ki je tehnologija, ki se osredotoča na naloge, ki temeljijo na pravilih in se izvajajo v računalnikih. Razlika je v togosti proti sklepanju. RPA odlično sledi strogemu scenariju: če se zgodi X, naredi Y. Posnema človeške roke. Agentic AI posnema človeško razmišljanje. Ne sledi linearni pisavi; ustvari enega. Razmislite o delovnem procesu zaposlovanja. RPA bot lahko skenira življenjepis in ga naloži v bazo podatkov. Popolnoma opravlja ponavljajoče se naloge. Sistem Agentic pregleda življenjepis, opazi, da je kandidat navedel določeno potrdilo, ga primerja z novo zahtevo stranke in se odloči pripraviti prilagojeno e-poštno sporočilo za ozaveščanje, ki poudarja to ujemanje. RPA izvaja vnaprej določen načrt; Agentic AI oblikuje načrt na podlagi cilja. Ta avtonomija ločuje agente od orodij za napovedovanje, ki smo jih uporabljali zadnje desetletje. Drug primer je obvladovanje konfliktov na sestankih. Prediktivni model, integriran v vaš koledar, lahko analizira vaš urnik sestankov in urnike vaših sodelavcev. Nato lahko predlaga morebitne konflikte, kot sta dva pomembna sestanka, načrtovana ob istem času, ali sestanek, načrtovan, ko je ključni udeleženec na dopustu. Zagotavlja vam informacije in označuje morebitne težave, vendar ste odgovorni za ukrepanje. Agentska umetna inteligenca bi po istem scenariju presegla le predlaganje konfliktov, ki se jim je treba izogniti. Po prepoznavanju konflikta s ključnim udeležencem lahko agent ukrepa tako:

Preverjanje razpoložljivosti vseh potrebnih udeležencev. Prepoznavanje alternativnih terminov, ki ustrezajo vsem. Pošiljanje predlaganih novih vabil na sestanke vsem udeležencem. Če je spor z zunanjim udeležencem, lahko posrednik pripravi osnutek in pošlje e-poštno sporočilo, v katerem pojasni potrebo po prestavitvi in ​​ponudi alternativne čase. Posodabljanje vašega koledarja in koledarjev vaših sodelavcev z novimi podrobnostmi o sestanku, ko so potrjeni.

Ta posredniški AI razume cilj (reševanje konflikta srečanja), načrtuje korake (preverjanje razpoložljivosti, iskanje alternativ, pošiljanje povabil), izvede te korake in vztraja, dokler konflikt ni razrešen, vse z minimalnim neposrednim posredovanjem uporabnika. To dokazuje "agentsko" razliko: sistem izvaja proaktivne korake za uporabnika, namesto da bi le posredoval informacije uporabniku. Agentski sistemi umetne inteligence razumejo cilj, načrtujejo vrsto korakov za njegovo dosego, izvedejo te korake in se celo prilagodijo, če gre kaj narobe. Pomislite na to kot na proaktivnega digitalnega pomočnika. Osnovna tehnologija pogosto združuje velike jezikovne modele (LLM) za razumevanje in sklepanje z algoritmi načrtovanja, ki kompleksne naloge razčlenijo na obvladljiva dejanja. Ti agenti lahko komunicirajo z različnimi orodji, API-ji in celo drugimi modeli umetne inteligence, da dosežejo svoje cilje, kritično pa je, da lahko vzdržujejo trajno stanje, kar pomeni, da si zapomnijo prejšnja dejanja in si čez čas prizadevajo za dosego cilja. Zaradi tega se bistveno razlikujejo od tipičnega generativnega AI, ki običajno dokonča eno samo zahtevo in se nato ponastavi. Enostavna taksonomija agentskih vedenj Vedenje agentov lahko razvrstimo v štiri različne načine avtonomije. Čeprav so ti pogosto videti kot napredek, delujejo kot neodvisni načini delovanja. Uporabnik lahko zaupa agentu, da deluje avtonomno pri načrtovanju, vendar ga ohrani v "načinu predlogov" za finančne transakcije. Te ravni smo izpeljali s prilagajanjem industrijskih standardov za avtonomna vozila (ravni SAE) kontekstu digitalne uporabniške izkušnje. Opazuj-in-predlagaj Agent deluje kot nadzornik. Analizira podatkovne tokove in označuje anomalije ali priložnosti, vendar ne ukrepa. Diferenciacija Za razliko od naslednje stopnje agent ne ustvari zapletenega načrta. Kaže na problem. PrimerAgent DevOps opazi skok CPE strežnika in o tem opozori dežurnega inženirja. Ne ve, kako ali poskuša popraviti, vendar ve, da je nekaj narobe. Posledice za načrtovanje in nadzor Na tej ravni,načrtovanje in nadzor morata dati prednost jasnim, nevsiljivim obvestilom in natančno opredeljenim postopkom, da uporabniki ukrepajo na podlagi predlogov. Poudarek je na opolnomočenju uporabnika s pravočasnimi in relevantnimi informacijami brez prevzemanja nadzora. Strokovnjaki UX se morajo osredotočiti na to, da so predlogi jasni in lahko razumljivi, medtem ko morajo vodje izdelkov zagotoviti, da sistem zagotavlja vrednost, ne da bi preobremenili uporabnika. Načrtuj in predlagaj Agent identificira cilj in ustvari večstopenjsko strategijo za njegovo dosego. Predstavlja celoten načrt za človeški pregled. DiferenciacijaAgent deluje kot strateg. Ne izvaja se; čaka na odobritev celotnega pristopa. Primer Isti agent DevOps opazi skok CPE, analizira dnevnike in predlaga sanacijski načrt:

Zavrtite dva dodatna primerka. Znova zaženite izravnalnik obremenitve. Arhivirajte stare dnevnike.

Človek pregleda logiko in klikne »Odobri načrt«. Posledice za zasnovo in nadzor Za agente, ki načrtujejo in predlagajo, mora zasnova zagotoviti, da so predlagani načrti lahko razumljivi in ​​da imajo uporabniki intuitivne načine, da jih spremenijo ali zavrnejo. Nadzor je ključnega pomena pri spremljanju kakovosti predlogov in agentove logike načrtovanja. Strokovnjaki UX bi morali oblikovati jasne vizualizacije predlaganih načrtov, vodje izdelkov pa morajo vzpostaviti jasne poteke dela za pregled in odobritev. Akt-s-Potrditvijo Agent zaključi vsa pripravljalna dela in postavi končno akcijo v inscenirano stanje. Učinkovito drži vrata odprta in čaka na pokimanje. Diferenciacija To se razlikuje od »Načrtuj in predlagaj«, ker je delo že opravljeno in načrtovano. Zmanjšuje trenje. Uporabnik potrdi rezultat, ne strategije. Primer Agent za zaposlovanje pripravi pet vabil na razgovor, poišče odprte čase na koledarjih in ustvari dogodke v koledarju. Predstavlja gumb »Pošlji vse«. Uporabnik zagotovi končno avtorizacijo za sprožitev zunanjega dejanja. Posledice za zasnovo in nadzor Ko agenti delujejo s potrditvijo, mora zasnova zagotavljati pregledne in jedrnate povzetke načrtovanih dejanj, ki jasno opisujejo možne posledice. Nadzor mora preveriti, ali je postopek potrditve robusten in ali uporabniki niso pozvani k slepo odobritvi dejanj. Strokovnjaki UX bi morali oblikovati potrditvene pozive, ki so jasni in zagotavljajo vse potrebne informacije, produktni vodje pa bi morali dati prednost zanesljivi revizijski sledi za vsa potrjena dejanja. Deluj-Samostojno Agent izvaja naloge neodvisno znotraj definiranih meja. Razlikovanje Uporabnik pregleda zgodovino dejanj, ne dejanj samih. Primer: Agent za zaposlovanje opazi konflikt, premakne razgovor na rezervno mesto, posodobi kandidata in obvesti vodjo zaposlovanja. Človek vidi samo obvestilo: Intervju prestavljen na torek. Posledice za zasnovo in nadzor Za avtonomne agente mora zasnova vzpostaviti jasne vnaprej odobrene meje in zagotoviti robustna orodja za spremljanje. Nadzor zahteva stalno ocenjevanje delovanja agenta znotraj teh meja, kritično potrebo po robustnem beleženju, jasnih preglasitvenih mehanizmih in uporabniško določenih prekinitvenih stikalih za ohranitev nadzora in zaupanja uporabnikov. Strokovnjaki UX se morajo osredotočiti na oblikovanje učinkovitih nadzornih plošč za spremljanje vedenja avtonomnih agentov, produktni vodje pa morajo zagotoviti jasno upravljanje in vzpostavitev etičnih smernic.

Oglejmo si aplikacijo v resničnem svetu v tehnologiji HR, da vidimo te načine v akciji. Razmislite o "agentu za usklajevanje intervjujev", ki je zasnovan za logistiko zaposlovanja.

V načinu predlaganja agent opazi, da je anketar dvojno rezerviran. Poudarja konflikt na nadzorni plošči zaposlovalca: "Opozorilo: Sarah je dvojno rezervirana za intervju ob 14. uri." V načinu načrtovanja agent analizira Sarin koledar in kandidatovo razpoložljivost. Predstavlja rešitev: "Priporočam, da intervju prestavite na četrtek ob 10. uri. To zahteva premik Sarahinega 1:1 z njenim vodjem." Rekruter pregleda to logiko. V potrditvenem načinu agent pripravi osnutke e-poštnih sporočil kandidatu in vodji. Zapolni vabila v koledarju. Zaposlovalec vidi povzetek: "Ste pripravljeni na prestavitev na četrtek. Želite poslati posodobitve?" Zaposlovalec klikne »Potrdi«. V avtonomnem načinu agent takoj obravnava spor. Spoštuje vnaprej določeno pravilo: »Vedno daj prednost razgovorom s kandidati pred internimi 1:1.« Premakne sestanek in pošlje obvestila. Zaposlovalec vidi vnos v dnevnik: »Rešenokonflikt razporeda za kandidata B.«

Primer raziskovanja: kaj raziskati in kako Razvoj učinkovite agentske umetne inteligence zahteva poseben raziskovalni pristop v primerjavi s tradicionalno programsko opremo ali celo generativno umetno inteligenco. Avtonomna narava agentov AI, njihova sposobnost sprejemanja odločitev in njihov potencial za proaktivno ukrepanje zahtevajo specializirane metodologije za razumevanje pričakovanj uporabnikov, preslikavo kompleksnega vedenja agentov in predvidevanje morebitnih napak. Naslednji raziskovalni začetnik opisuje ključne metode za merjenje in vrednotenje teh edinstvenih vidikov agentske umetne inteligence. Intervjuji mentalnega modela Ti intervjuji razkrivajo vnaprejšnje predstave uporabnikov o tem, kako naj se agent AI obnaša. Namesto preprostega vprašanja, kaj si uporabniki želijo, je poudarek na razumevanju njihovih notranjih modelov agentovih zmožnosti in omejitev. Pri udeležencih se moramo izogibati uporabi besede »agent«. Nosi znanstvenofantastično prtljago ali pa je izraz, ki ga je preveč enostavno zamenjati s človeškim posrednikom, ki ponuja podporo ali storitve. Namesto tega zaokrožite razpravo okoli "pomočnikov" ali "sistema". Odkriti moramo, kje uporabniki potegnejo mejo med koristno avtomatizacijo in vsiljivim nadzorom.

Metoda: prosite uporabnike, naj opišejo, narišejo ali pripovedujejo svoje pričakovane interakcije z agentom v različnih hipotetičnih scenarijih. Ključne sonde (ki odražajo različne industrije): Če želite razumeti meje želene avtomatizacije in morebitne skrbi glede pretirane avtomatizacije, vprašajte: Če je vaš let odpovedan, kaj želite, da sistem naredi samodejno? Kaj bi vas skrbelo, če bi to storil brez vašega izrecnega navodila?

Če želite raziskati uporabnikovo razumevanje agentovih notranjih procesov in potrebne komunikacije, vprašajte: Predstavljajte si, da digitalni pomočnik upravlja vaš pametni dom. Če je paket dostavljen, kakšne korake si predstavljate in katere informacije pričakujete?

Če želite odkriti pričakovanja v zvezi z nadzorom in soglasjem v večstopenjskem procesu, vprašajte: Če svojega digitalnega pomočnika prosite, da načrtuje sestanek, kakšne korake predvidevate? Pri katerih točkah bi želeli, da se z vami posvetujemo ali damo izbiro?

Prednosti metode: razkrije implicitne predpostavke, poudari področja, kjer bi agentovo načrtovano vedenje lahko odstopalo od pričakovanj uporabnikov, in daje informacije o oblikovanju ustreznih kontrol in povratnih mehanizmov.

Preslikava potovanj agenta: Podobno kot tradicionalno preslikavo poti uporabnika se preslikava poti agenta posebej osredotoča na pričakovana dejanja in odločitvene točke samega agenta AI, poleg interakcije uporabnika. To pomaga proaktivno prepoznati morebitne pasti.

Metoda: ustvarite vizualni zemljevid, ki opisuje različne stopnje agentovega delovanja, od začetka do zaključka, vključno z vsemi možnimi dejanji, odločitvami in interakcijami z zunanjimi sistemi ali uporabniki. Ključni elementi za zemljevid: Dejanja agenta: Katere posebne naloge ali odločitve izvaja agent? Vhodi/izhodi informacij: Katere podatke potrebuje agent in katere informacije ustvarja ali sporoča? Točke odločanja: kje zastopnik izbira in kakšna so merila za te odločitve? Točke interakcije z uporabnikom: Kje uporabnik poda vnos, pregled ali odobri dejanja? Točke neuspeha: Bistveno je, da identificirate posebne primere, kjer bi agent lahko napačno razlagal navodila, sprejel napačno odločitev ali sodeloval z napačno entiteto. Primeri: napačen prejemnik (npr. pošiljanje občutljivih informacij napačni osebi), prekoračitev (npr. samodejno plačilo, ki presega razpoložljiva sredstva), napačna razlaga namena (npr. rezervacija leta za napačen datum zaradi dvoumnega jezika).

Poti obnovitve: Kako lahko agent ali uporabnik obnovi po teh napakah? Kateri mehanizmi so na voljo za popravek ali intervencijo?

Prednosti metode: Zagotavlja celovit pogled na agentov operativni tok, odkriva skrite odvisnosti in omogoča proaktivno načrtovanje zaščitnih ukrepov, obravnavo napak in uporabniških intervencijskih točk za preprečevanje ali ublažitev negativnih rezultatov.

Simulirano testiranje napačnega vedenja: Ta pristop je zasnovan za stresno testiranje sistema in opazovanje odzivov uporabnikov, ko agent AI odpove ali odstopa od pričakovanj. Gre za razumevanje popravljanja zaupanja in čustvenih odzivov v neugodnih situacijah.

Metoda: V nadzorovanih laboratorijskih študijah namerno uvedite scenarije, v katerih agent naredi napako, si napačno razlaga ukaz ali se vede nepričakovano. Vrste "neprimernega vedenja" za simulacijo: UkazNapačna razlaga: Agent izvede dejanje, ki se nekoliko razlikuje od tistega, kar je uporabnik nameraval (npr. naroči dva artikla namesto enega). Preobremenitev/premajhna obremenitev z informacijami: agent zagotovi preveč nepomembnih informacij ali premalo kritičnih podrobnosti. Neželeno dejanje: Agent izvede dejanje, ki ga uporabnik izrecno ni želel ali pričakoval (npr. nakup delnic brez odobritve). Sistemska napaka: agent se zruši, postane neodziven ali prikaže sporočilo o napaki. Etične dileme: agent sprejme odločitev z etičnimi posledicami (npr. dajanje prednosti eni nalogi pred drugo na podlagi nepredvidene metrike).

Fokus opazovanja: Odzivi uporabnikov: Kako se uporabniki čustveno odzivajo (razočaranje, jeza, zmedenost, izguba zaupanja)? Poskusi obnovitve: Katere korake naredijo uporabniki, da popravijo agentovo vedenje ali razveljavijo njegova dejanja? Mehanizmi za popravilo zaupanja: ali vgrajeni mehanizmi za obnovitev ali povratne informacije pomagajo obnoviti zaupanje? Kako uporabniki želijo biti obveščeni o napakah? Sprememba miselnega modela: Ali napačno vedenje spremeni uporabnikovo razumevanje zmožnosti ali omejitev agenta?

Prednosti metode: ključnega pomena za odkrivanje vrzeli v načrtovanju, povezanih z odpravo napak, povratnimi informacijami in nadzorom uporabnikov. Zagotavlja vpogled v to, kako odporni so uporabniki na napake agentov in kaj je potrebno za ohranitev ali ponovno vzpostavitev zaupanja, kar vodi do bolj robustnih in prizanesljivih agentskih sistemov.

Z integracijo teh raziskovalnih metodologij lahko strokovnjaki UX presežejo preprosto uporabo agentskih sistemov in jih naredijo zaupanja vredne, nadzorovane in odgovorne ter spodbujajo pozitiven in produktiven odnos med uporabniki in njihovimi agenti AI. Upoštevajte, da to niso edine metode, ki so pomembne za učinkovito raziskovanje agentske umetne inteligence. Obstaja veliko drugih metod, vendar so te najbolj dostopne izvajalcem v bližnji prihodnosti. Prej sem obravnaval metodo Čarovnika iz Oza, nekoliko naprednejšo metodo testiranja konceptov, ki je tudi dragoceno orodje za raziskovanje agentskih konceptov umetne inteligence. Etični vidiki raziskovalne metodologije Pri raziskovanju agentske umetne inteligence, zlasti pri simulaciji napačnega vedenja ali napak, je treba upoštevati etične vidike. Obstaja veliko publikacij, ki se osredotočajo na etično raziskavo UX, vključno s člankom, ki sem ga napisal za revijo Smashing Magazine, temi smernicami UX Design Institute in to stranjo Inclusive Design Toolkit. Ključne meritve za Agentic AI Potrebovali boste obsežen nabor ključnih meritev za učinkovito oceno delovanja in zanesljivosti agentskih sistemov umetne inteligence. Te meritve zagotavljajo vpogled v zaupanje uporabnikov, natančnost sistema in splošno uporabniško izkušnjo. S sledenjem tem indikatorjem lahko razvijalci in oblikovalci prepoznajo področja za izboljšave in zagotovijo, da agenti AI delujejo varno in učinkovito. 1. Stopnja posredovanja. Za avtonomne agente uspeh merimo s tišino. Če agent izvede nalogo in uporabnik ne posreduje ali obrne dejanja v nastavljenem oknu (npr. 24 ur), to štejemo kot sprejem. Sledimo stopnji posredovanja: kako pogosto človek skoči, da ustavi ali popravi agenta? Visoka stopnja posredovanja signalizira neusklajenost v zaupanju ali logiki. 2. Pogostost nenamernih dejanj na 1.000 opravil. Ta kritična metrika kvantificira število dejanj, ki jih izvede agent AI, ki jih uporabnik ni želel ali pričakoval, normalizirano na 1.000 zaključenih opravil. Nizka pogostost nenamernih dejanj pomeni dobro usklajeno umetno inteligenco, ki natančno interpretira namero uporabnika in deluje znotraj opredeljenih meja. Ta metrika je tesno povezana z AI-jevim razumevanjem konteksta, njegovo sposobnostjo razločevanja ukazov in robustnostjo njegovih varnostnih protokolov. 3. Stopnje povrnitve ali razveljavitve Ta metrika spremlja, kako pogosto morajo uporabniki razveljaviti ali razveljaviti dejanje, ki ga izvede AI. Visoke stopnje povrnitve kažejo, da AI pogosto dela napake, si napačno razlaga navodila ali deluje na načine, ki niso v skladu s pričakovanji uporabnikov. Analiza razlogov za te povrnitve lahko zagotovi dragocene povratne informacije za izboljšanje algoritmov umetne inteligence, razumevanje uporabniških preferenc in njegove sposobnosti napovedovanja želenih rezultatov. Če želite razumeti, zakaj, morate izvesti mikroraziskavo o dejanju razveljavitve. Na primer, ko uporabnik razveljavi spremembo razporeda, lahko preprost poziv vpraša: "Napačen čas? Napačna oseba? Ali pa ste to samo želeli narediti sami?" Omogočanje uporabniku, da klikne možnost, ki najbolj ustreza njegovemu razmišljanju. 4. Čas do rešitve po napaki. Ta metrikameri trajanje, ki je potrebno, da uporabnik popravi napako, ki jo je naredil umetna inteligenca, ali da se sistem umetne inteligence sam povrne iz napačnega stanja. Kratek čas do rešitve kaže na učinkovit in uporabniku prijazen postopek odpravljanja napak, ki lahko ublaži frustracije uporabnikov in ohrani produktivnost. To vključuje preprosto prepoznavanje napake, dostopnost mehanizmov za razveljavitev ali popravljanje in jasnost sporočil o napakah, ki jih zagotavlja AI.

Zbiranje teh meritev zahteva instrumentiranje vašega sistema za sledenje ID-jem dejanj posrednika. Vsako ločeno dejanje agenta, kot je predlaganje urnika ali rezervacija leta, mora ustvariti edinstven ID, ki ostane v dnevnikih. Za merjenje stopnje intervencije ne pričakujemo takojšnjega odziva uporabnika. Iščemo odsotnost protiukrepa znotraj definiranega okna. Če je ID dejanja ustvarjen ob 9:00 zjutraj in noben človeški uporabnik ne spremeni ali razveljavi tega specifičnega ID-ja do 9:00 zjutraj naslednjega dne, ga sistem logično označi kot Sprejeto. To nam omogoča kvantificiranje uspeha na podlagi molka uporabnika in ne aktivne potrditve. Za stopnje povrnitve neobdelana števila ne zadoščajo, ker nimajo konteksta. Če želite zajeti osnovni razlog, morate implementirati logiko prestrezanja v funkcijah Razveljavi ali Povrni v aplikaciji. Ko uporabnik razveljavi dejanje, ki ga sproži agent, sproži lahek mikroanketo. To je lahko preprost modal s tremi možnostmi, ki od uporabnika zahteva, da napako kategorizira kot dejansko nepravilno, brez konteksta ali preprosta želja, da nalogo opravi ročno. To združuje kvantitativno telemetrijo s kvalitativnim vpogledom. Inženirskim ekipam omogoča razlikovanje med pokvarjenim algoritmom in neskladjem uporabniških preferenc. Te metrike, če jim dosledno sledimo in jih celovito analiziramo, zagotavljajo trden okvir za ocenjevanje delovanja agentskih sistemov umetne inteligence, kar omogoča nenehno izboljševanje nadzora, soglasja in odgovornosti. Oblikovanje proti prevari Ker agenti postajajo vedno bolj sposobni, se soočamo z novim tveganjem: agentsko blato. Tradicionalno blato ustvarja trenja, zaradi katerih je težko preklicati naročnino ali izbrisati račun. Sredstveno blato deluje obratno. Odstrani trenje do napake, zaradi česar se uporabnik prelahko strinja z dejanjem, ki koristi podjetju in ne njegovim lastnim interesom. Razmislite o agentu, ki vam pomaga pri rezervaciji potovanja. Brez jasnih zaščitnih ograj bo sistem morda dal prednost partnerski letalski družbi ali hotelu z višjo maržo. To izbiro predstavlja kot optimalno pot. Uporabnik, ki zaupa avtoriteti sistema, sprejme priporočilo brez pregleda. To ustvarja zavajajoč vzorec, kjer sistem optimizira za prihodek pod krinko priročnosti. Tveganje lažno umišljene kompetence Prevara ne sme izhajati iz zlonamernega namena. V AI se pogosto kaže kot namišljena kompetenca. Veliki jezikovni modeli pogosto zvenijo avtoritativno, tudi če so napačni. Predstavljajo lažno potrditev rezervacije ali netočen povzetek z enako samozavestjo kot preverjeno dejstvo. Uporabniki lahko seveda zaupajo temu samozavestnemu tonu. To neskladje ustvarja nevarno vrzel med zmogljivostjo sistema in pričakovanji uporabnikov. Oblikovati moramo posebej, da premostimo to vrzel. Če agent ne uspe dokončati naloge, mora vmesnik to napako jasno sporočiti. Če sistem ni prepričan, mora izraziti negotovost, namesto da bi jo prikril z uglajeno prozo. Preglednost prek primitivov Protistrup za blato in halucinacije je izvor. Vsako avtonomno dejanje zahteva posebno metapodatkovno oznako, ki pojasnjuje izvor odločitve. Uporabniki potrebujejo možnost pregledovanja logične verige za rezultatom. Da bi to dosegli, moramo primitive prevesti v praktične odgovore. V programskem inženirstvu se primitivi nanašajo na osrednje enote informacij ali dejanj, ki jih izvaja agent. Inženirju je to videti kot klic API ali logična vrata. Uporabniku se mora prikazati kot jasna razlaga. Izziv oblikovanja je v preslikavi teh tehničnih korakov v človeku berljive utemeljitve. Če agent priporoči določen let, mora uporabnik vedeti, zakaj. Vmesnik se ne more skriti za splošnim predlogom. Izpostaviti mora temeljni primitiv: Logic: Cheapest_Direct_Flight ali Logic: Partner_Airline_Priority. Slika 4 prikazuje ta tok prevajanja. Vzamemo neobdelano sistemsko primitivo – dejansko logiko kode – in jo preslikamo v niz, ki ga vidi uporabnik. Na primer, primitivno preverjanje koledarskega razporeda sestanka postane jasna izjava: Predlagal sem 16.00.srečanje. Ta raven preglednosti zagotavlja, da so agentova dejanja videti logična in koristna. Uporabniku omogoča, da preveri, ali je agent deloval v njegovem najboljšem interesu. Z razkrivanjem primitivcev spremenimo črno skrinjico v stekleno škatlo, s čimer zagotovimo, da uporabniki ostanejo končna avtoriteta v svojih digitalnih življenjih.

Postavitev odra za oblikovanje Izgradnja agentskega sistema zahteva novo raven psihološkega in vedenjskega razumevanja. Prisili nas, da presežemo konvencionalno testiranje uporabnosti in preidemo na področje zaupanja, soglasja in odgovornosti. Raziskovalne metode, o katerih smo razpravljali, od preizkušanja miselnih modelov do simulacije napačnega vedenja in vzpostavitve novih meritev, zagotavljajo potrebno podlago. Te prakse so bistvena orodja za proaktivno prepoznavanje, kje bi lahko avtonomni sistem odpovedal, in, kar je še pomembneje, kako popraviti razmerje uporabnik-agent, ko se to zgodi. Prehod na agentsko umetno inteligenco je redefinicija odnosa med uporabnikom in sistemom. Ne načrtujemo več za orodja, ki se preprosto odzivajo na ukaze; oblikujemo za partnerje, ki delujejo v našem imenu. To spremeni imperativ oblikovanja iz učinkovitosti in enostavnosti uporabe v preglednost, predvidljivost in nadzor. Ko lahko umetna inteligenca rezervira let ali trguje z delnico brez zadnjega klika, postane zasnova njegovih "on-ramps" in "off-ramps" najpomembnejša. Naša odgovornost je zagotoviti, da uporabniki čutijo, da so na voznikovem sedežu, tudi ko predajo volan. Ta nova realnost dviguje tudi vlogo raziskovalca UX. Postanemo skrbniki zaupanja uporabnikov, sodelujemo z inženirji in produktnimi vodji, da definiramo in preizkusimo ograje avtonomije agenta. Poleg tega, da smo raziskovalci, postanemo zagovorniki nadzora uporabnikov, preglednosti in etičnih zaščitnih ukrepov v razvojnem procesu. S prevajanjem primitivov v praktična vprašanja in simulacijo najslabših možnih scenarijev lahko zgradimo robustne sisteme, ki so zmogljivi in ​​varni. Ta članek je orisal "kaj" in "zakaj" raziskovanja agentske umetne inteligence. Pokazalo se je, da naši tradicionalni kompleti orodij ne zadostujejo in da moramo sprejeti nove, v prihodnost usmerjene metodologije. Naslednji članek bo gradil na tej podlagi in zagotavljal posebne vzorce oblikovanja in organizacijske prakse, zaradi katerih je pripomoček agenta pregleden za uporabnike, kar jim bo zagotovilo, da lahko z zaupanjem in nadzorom izkoristijo moč agentske umetne inteligence. Prihodnost uporabniškega vmesnika je v tem, da naredimo sisteme vredne zaupanja. Za dodatno razumevanje agentske umetne inteligence lahko raziščete naslednje vire:

Google AI Blog o Agentic AI Microsoftova raziskava o agentih AI

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free