Agentic AI er klar til at transformere kundeoplevelse og operationel effektivitet, hvilket nødvendiggør en ny strategisk tilgang fra ledelsen. Denne udvikling inden for kunstig intelligens sætter systemer i stand til at planlægge, udføre og fortsætte i opgaver, og bevæger sig ud over simple anbefalinger til proaktiv handling. For UX-teams, produktchefer og ledere er forståelsen af dette skift afgørende for at frigøre muligheder inden for innovation, strømline arbejdsgange og omdefinere, hvordan teknologien tjener mennesker. Det er nemt at forveksle Agentic AI med Robotic Process Automation (RPA), som er teknologi, der fokuserer på regelbaserede opgaver, der udføres på computere. Forskellen ligger i rigiditet versus ræsonnement. RPA er fremragende til at følge et strengt script: hvis X sker, gør Y. Det efterligner menneskehænder. Agentisk AI efterligner menneskelig ræsonnement. Det følger ikke et lineært skrift; det skaber en. Overvej en rekrutteringsarbejdsgang. En RPA-bot kan scanne et CV og uploade det til en database. Den udfører en gentagen opgave perfekt. Et Agentic-system ser på CV'et, bemærker, at kandidaten oplister en specifik certificering, krydshenviser til det med et nyt kundekrav og beslutter sig for at udarbejde en personlig outreach-e-mail, der fremhæver det match. RPA udfører en foruddefineret plan; Agentisk AI formulerer planen ud fra et mål. Denne autonomi adskiller agenter fra de forudsigende værktøjer, vi har brugt i det sidste årti. Et andet eksempel er håndtering af mødekonflikter. En forudsigelsesmodel integreret i din kalender kan analysere din mødeplan og dine kollegers tidsplaner. Det kunne så foreslå potentielle konflikter, såsom to vigtige møder planlagt på samme tid, eller et møde planlagt, når en nøgledeltager er på ferie. Det giver dig information og markerer potentielle problemer, men du er ansvarlig for at handle. En agent AI ville i samme scenarie gå ud over blot at foreslå konflikter, der skal undgås. Ved at identificere en konflikt med en nøgledeltager kunne agenten handle ved at:
Kontrol af tilgængeligheden af alle nødvendige deltagere. Identificering af alternative tidsintervaller, der fungerer for alle. Udsender forslag til nye mødeinvitationer til alle deltagere. Hvis konflikten er med en ekstern deltager, kan agenten udarbejde og sende en e-mail, der forklarer behovet for at omplanlægge og tilbyde alternative tidspunkter. Opdatering af din kalender og dine kollegers kalendere med de nye mødedetaljer, når de er bekræftet.
Denne agent AI forstår målet (løsning af mødekonflikten), planlægger trinene (tjekker tilgængelighed, finder alternativer, sender invitationer), udfører disse trin og fortsætter, indtil konflikten er løst, alt sammen med minimal direkte brugerintervention. Dette viser den "agentiske" forskel: Systemet tager proaktive skridt for brugeren i stedet for blot at give information til brugeren. Agentiske AI-systemer forstår et mål, planlægger en række trin for at nå det, udfører disse trin og tilpasser sig endda, hvis tingene går galt. Tænk på det som en proaktiv digital assistent. Den underliggende teknologi kombinerer ofte store sprogmodeller (LLM'er) til forståelse og ræsonnement, med planlægningsalgoritmer, der nedbryder komplekse opgaver til håndterbare handlinger. Disse agenter kan interagere med forskellige værktøjer, API'er og endda andre AI-modeller for at nå deres mål, og kritisk kan de opretholde en vedvarende tilstand, hvilket betyder, at de husker tidligere handlinger og fortsætter med at arbejde hen imod et mål over tid. Dette gør dem fundamentalt forskellige fra typisk generativ AI, som normalt fuldfører en enkelt anmodning og derefter nulstilles. En simpel taksonomi af agentisk adfærd Vi kan kategorisere agentadfærd i fire forskellige former for autonomi. Selvom disse ofte ligner en progression, fungerer de som uafhængige driftstilstande. En bruger kan have tillid til, at en agent handler selvstændigt til planlægning, men holder den i "forslagstilstand" for finansielle transaktioner. Vi udledte disse niveauer ved at tilpasse industristandarder for autonome køretøjer (SAE-niveauer) til digitale brugeroplevelseskontekster. Observer-og-foreslå Agenten fungerer som monitor. Den analyserer datastrømme og markerer uregelmæssigheder eller muligheder, men tager ingen handling. DifferentieringI modsætning til det næste niveau genererer agenten ingen kompleks plan. Det peger på et problem. Eksempel En DevOps-agent bemærker en server-CPU-spids og advarer den vagthavende tekniker. Den ved ikke, hvordan eller forsøger at rette det, men den ved, at der er noget galt. Implikationer for design og tilsyn på dette niveau,design og tilsyn bør prioritere klare, ikke-påtrængende meddelelser og en veldefineret proces for brugerne til at handle på forslag. Fokus er på at give brugeren rettidig og relevant information uden at tage kontrol. UX-udøvere bør fokusere på at komme med forslag, der er klare og nemme at forstå, mens produktchefer skal sikre, at systemet giver værdi uden at overvælde brugeren. Plan-og-forslag Agenten identificerer et mål og genererer en flertrinsstrategi for at nå det. Den præsenterer den fulde plan for menneskelig gennemgang. Differentiering Agenten fungerer som en strateg. Det udføres ikke; den venter på godkendelse af hele tilgangen. Eksempel Den samme DevOps-agent bemærker CPU-spidsen, analyserer logfilerne og foreslår en afhjælpningsplan:
Drej to ekstra tilfælde op. Genstart belastningsbalanceren. Arkiver gamle logfiler.
Mennesket gennemgår logikken og klikker på "Godkend plan". Implikationer for design og tilsyn For agenter, der planlægger og foreslår, skal design sikre, at de foreslåede planer er lette at forstå, og at brugerne har intuitive måder at ændre eller afvise dem på. Overvågning er afgørende for at overvåge kvaliteten af forslag og agentens planlægningslogik. UX praktikere bør designe klare visualiseringer af de foreslåede planer, og produktchefer skal etablere klare gennemgang og godkendelse arbejdsgange. Handle-med-Bekræftelse Agenten fuldfører alt forberedelsesarbejde og placerer den endelige handling i etapevis tilstand. Den holder effektivt døren åben og venter på et nik. Differentiering Dette adskiller sig fra "Plan-og-forslag", fordi arbejdet allerede er udført og iscenesat. Det reducerer friktionen. Brugeren bekræfter resultatet, ikke strategien. Eksempel En rekrutteringsagent udarbejder fem interviewinvitationer, finder åbningstider i kalendere og opretter kalenderbegivenheder. Den præsenterer en "Send alle"-knap. Brugeren giver den endelige autorisation til at udløse den eksterne handling. Konsekvenser for design og tilsyn Når agenter handler med bekræftelse, bør designet give gennemsigtige og kortfattede resuméer af den påtænkte handling, der klart skitserer potentielle konsekvenser. Tilsyn skal verificere, at bekræftelsesprocessen er robust, og at brugerne ikke bliver bedt om blindt at godkende handlinger. UX praktikere bør designe bekræftelsesprompter, der er klare og giver alle nødvendige oplysninger, og produktchefer bør prioritere et robust revisionsspor for alle bekræftede handlinger. Handle-autonomt Agenten udfører opgaver uafhængigt inden for definerede grænser. DifferentieringBrugeren gennemgår handlingernes historie, ikke selve handlingerne. EksempelRekrutteringsagenten ser en konflikt, flytter interviewet til en backup-plads, opdaterer kandidaten og underretter ansættelseschefen. Mennesket ser kun en notifikation: Interview flyttet til tirsdag. Implikationer for design og tilsyn For autonome agenter skal designet etablere klare forhåndsgodkendte grænser og levere robuste overvågningsværktøjer. Tilsyn kræver kontinuerlig evaluering af agentens ydeevne inden for disse grænser, et kritisk behov for robust logning, klare tilsidesættelsesmekanismer og brugerdefinerede kill-switches for at bevare brugerkontrol og tillid. UX-udøvere bør fokusere på at designe effektive dashboards til overvågning af autonom agentadfærd, og produktchefer skal sikre, at der er klar styring og etiske retningslinjer på plads.
Lad os se på en applikation i den virkelige verden inden for HR-teknologi for at se disse tilstande i aktion. Overvej en "Interview Coordination Agent" designet til at håndtere logistikken ved ansættelse.
I Suggest Mode Agenten bemærker, at en interviewer er dobbeltbooket. Det fremhæver konflikten på rekruttererens dashboard: "Advarsel: Sarah er dobbeltbooket til interviewet kl. 14.00." I plantilstand analyserer agenten Sarahs kalender og kandidatens tilgængelighed. Det præsenterer en løsning: "Jeg anbefaler at flytte interviewet til torsdag kl. 10. Dette kræver, at Sarahs 1:1 flyttes med sin leder." Rekruttereren gennemgår denne logik. I bekræftelsestilstanden udarbejder agenten e-mails til kandidaten og lederen. Den udfylder kalenderinvitationerne. Rekruttereren ser en oversigt: "Klar til at omlægge tidsplanen til torsdag. Sende opdateringer?" Rekruttereren klikker på "Bekræft". I Autonom Mode Agenten håndterer konflikten øjeblikkeligt. Det respekterer en forudbestemt regel: "Prioriter altid kandidatsamtaler frem for interne 1:1s." Det flytter mødet og sender meddelelserne. Rekruttereren ser en logpost: "Løsttidsplankonflikt for kandidat B."
Research Primer: Hvad skal man forske og hvordan Udvikling af effektiv agent AI kræver en særskilt forskningstilgang sammenlignet med traditionel software eller endda generativ AI. AI-agenters autonome natur, deres evne til at træffe beslutninger og deres potentiale for proaktiv handling nødvendiggør specialiserede metoder til at forstå brugernes forventninger, kortlægge kompleks agentadfærd og forudse potentielle fejl. Følgende forskningsprimer skitserer nøglemetoder til at måle og evaluere disse unikke aspekter af agent AI. Mental-model interviews Disse interviews afdækker brugernes forudfattede forestillinger om, hvordan en AI-agent bør opføre sig. I stedet for blot at spørge, hvad brugerne ønsker, er fokus på at forstå deres interne modeller for agentens muligheder og begrænsninger. Vi bør undgå at bruge ordet "agent" med deltagere. Det bærer sci-fi-bagage eller er et begreb, der for let kan forveksles med en menneskelig agent, der tilbyder support eller tjenester. Indram i stedet diskussionen omkring "assistenter" eller "systemet." Vi skal afdække, hvor brugerne trækker grænsen mellem hjælpsom automatisering og påtrængende kontrol.
Metode: Bed brugerne om at beskrive, tegne eller fortælle deres forventede interaktioner med agenten i forskellige hypotetiske scenarier. Nøglesonder (som afspejler en række forskellige industrier): For at forstå grænserne for ønsket automatisering og potentielle bekymringer omkring overautomatisering, spørg: Hvis dit fly bliver aflyst, hvad vil du så have systemet til at gøre automatisk? Hvad ville bekymre dig, hvis det gjorde det uden din eksplicitte instruktion?
For at udforske brugerens forståelse af agentens interne processer og nødvendige kommunikation, spørg: Forestil dig, at en digital assistent styrer dit smarte hjem. Hvis en pakke bliver leveret, hvilke skridt forestiller du dig, at den tager, og hvilken information ville du forvente at modtage?
For at afdække forventninger omkring kontrol og samtykke inden for en flertrinsproces, spørg: Hvis du beder din digitale assistent om at planlægge et møde, hvilke skridt forestiller du dig, at den tager? På hvilke tidspunkter ville du ønske at blive hørt eller givet valg?
Fordele ved metoden: Afslører implicitte antagelser, fremhæver områder, hvor agentens planlagte adfærd kan afvige fra brugernes forventninger, og informerer designet af passende kontroller og feedbackmekanismer.
Kortlægning af agentrejser: I lighed med traditionel kortlægning af brugerrejser, fokuserer agentrejsekortlægning specifikt på de forventede handlinger og beslutningspunkter for AI-agenten selv sammen med brugerens interaktion. Dette hjælper til proaktivt at identificere potentielle faldgruber.
Metode: Opret et visuelt kort, der skitserer de forskellige stadier af en agents drift, fra initiering til afslutning, inklusive alle potentielle handlinger, beslutninger og interaktioner med eksterne systemer eller brugere. Nøgleelementer at kortlægge: Agenthandlinger: Hvilke specifikke opgaver eller beslutninger udfører agenten? Informationsinput/-output: Hvilke data har agenten brug for, og hvilken information genererer eller kommunikerer den? Beslutningspunkter: Hvor træffer agenten valg, og hvad er kriterierne for disse valg? Brugerinteraktionspunkter: Hvor giver brugeren input, gennemgår eller godkender handlinger? Fejlpunkter: Det er afgørende, at identificere specifikke tilfælde, hvor agenten kunne fejlfortolke instruktioner, træffe en forkert beslutning eller interagere med den forkerte enhed. Eksempler: Forkert modtager (f.eks. at sende følsomme oplysninger til den forkerte person), overtræk (f.eks. en automatiseret betaling, der overstiger de disponible midler), fejlfortolkning af hensigten (f.eks. booking af en flyvning til den forkerte dato på grund af tvetydigt sprog).
Gendannelsesstier: Hvordan kan agenten eller brugeren komme sig efter disse fejl? Hvilke mekanismer er på plads for korrektion eller intervention?
Fordele ved metoden: Giver et holistisk overblik over agentens operationelle flow, afdækker skjulte afhængigheder og giver mulighed for proaktivt design af sikkerhedsforanstaltninger, fejlhåndtering og brugerinterventionspunkter for at forhindre eller afbøde negative resultater.
Simuleret fejlopførselstest: Denne tilgang er designet til at stressteste systemet og observere brugerreaktioner, når AI-agenten fejler eller afviger fra forventningerne. Det handler om at forstå tillidsreparation og følelsesmæssige reaktioner i ugunstige situationer.
Metode: I kontrollerede laboratorieundersøgelser skal du bevidst introducere scenarier, hvor agenten laver en fejl, misfortolker en kommando eller opfører sig uventet. Typer af "fejl opførsel" til at simulere: KommandoFejlfortolkning: Agenten udfører en handling, der er lidt anderledes end hvad brugeren havde til hensigt (f.eks. bestiller to varer i stedet for én). Information Overload/Underload: Agenten giver for meget irrelevant information eller ikke nok kritiske detaljer. Uopfordret handling: Agenten foretager en handling, som brugeren udtrykkeligt ikke ønskede eller forventede (f.eks. køb af aktier uden godkendelse). Systemfejl: Agenten går ned, reagerer ikke eller giver en fejlmeddelelse. Etiske dilemmaer: Agenten træffer en beslutning med etiske implikationer (f.eks. prioritering af en opgave frem for en anden baseret på en uforudset metrik).
Observationsfokus: Brugerreaktioner: Hvordan reagerer brugere følelsesmæssigt (frustration, vrede, forvirring, tab af tillid)? Gendannelsesforsøg: Hvilke skridt tager brugerne for at rette op på agentens adfærd eller fortryde dens handlinger? Tillidsreparationsmekanismer: Hjælper systemets indbyggede gendannelses- eller feedbackmekanismer med at genoprette tilliden? Hvordan ønsker brugerne at blive informeret om fejl? Mental modelskifte: Ændrer den forkerte opførsel brugerens forståelse af agentens evner eller begrænsninger?
Fordele ved metoden: Afgørende for at identificere designhuller relateret til fejlgendannelse, feedback og brugerkontrol. Det giver indsigt i, hvor modstandsdygtige brugere er over for agentfejl, og hvad der er nødvendigt for at bevare eller genopbygge tillid, hvilket fører til mere robuste og tilgivende agentsystemer.
Ved at integrere disse forskningsmetodologier kan UX-udøvere bevæge sig ud over blot at gøre agentsystemer anvendelige til at gøre dem pålidelige, kontrollerbare og ansvarlige, hvilket fremmer et positivt og produktivt forhold mellem brugere og deres AI-agenter. Bemærk, at dette ikke er de eneste metoder, der er relevante for at udforske agent AI effektivt. Der findes mange andre metoder, men disse er mest tilgængelige for praktiserende læger på kort sigt. Jeg har tidligere dækket Wizard of Oz-metoden, en lidt mere avanceret metode til koncepttestning, som også er et værdifuldt værktøj til at udforske agentiske AI-koncepter. Etiske overvejelser i forskningsmetodologi Når man forsker i agent AI, især når man simulerer forkert opførsel eller fejl, er etiske overvejelser nøglen at tage i betragtning. Der er mange publikationer med fokus på etisk UX-forskning, herunder en artikel, jeg skrev til Smashing Magazine, disse retningslinjer fra UX Design Institute og denne side fra Inclusive Design Toolkit. Nøglemålinger for Agentic AI Du har brug for et omfattende sæt nøglemålinger for effektivt at vurdere ydeevnen og pålideligheden af agentiske AI-systemer. Disse metrics giver indsigt i brugertillid, systemnøjagtighed og den overordnede brugeroplevelse. Ved at spore disse indikatorer kan udviklere og designere identificere områder for forbedring og sikre, at AI-agenter fungerer sikkert og effektivt. 1. InterventionsrateFor autonome agenter måler vi succes ved stilhed. Hvis en agent udfører en opgave, og brugeren ikke griber ind eller fortryder handlingen inden for et fastsat tidsrum (f.eks. 24 timer), tæller vi det som accept. Vi sporer interventionsraten: hvor ofte hopper et menneske ind for at stoppe eller korrigere agenten? En høj interventionsrate signalerer en fejljustering i tillid eller logik. 2. Hyppighed af utilsigtede handlinger pr. 1.000 opgaver. Denne kritiske metrik kvantificerer antallet af handlinger udført af AI-agenten, som ikke var ønsket eller forventet af brugeren, normaliseret pr. 1.000 fuldførte opgaver. En lav frekvens af utilsigtede handlinger betyder en velafstemt AI, der nøjagtigt fortolker brugerhensigter og opererer inden for definerede grænser. Denne metrik er tæt knyttet til AI's forståelse af kontekst, dens evne til at udelukke kommandoer og robustheden af dens sikkerhedsprotokoller. 3. Tilbageførings- eller Fortryd-hastigheder Denne metrik sporer, hvor ofte brugere skal vende eller fortryde en handling udført af AI. Høje tilbagerulningsrater tyder på, at AI laver hyppige fejl, fejlfortolker instruktioner eller handler på måder, der ikke er i overensstemmelse med brugernes forventninger. At analysere årsagerne bag disse tilbagerulninger kan give værdifuld feedback til at forbedre AI's algoritmer, forståelse af brugerpræferencer og dens evne til at forudsige ønskelige resultater. For at forstå hvorfor, skal du implementere en mikroundersøgelse af fortryd-handlingen. For eksempel, når en bruger fortryder en planlægningsændring, kan en simpel prompt spørge: "Forkert tidspunkt? Forkert person? Eller ville du bare gøre det selv?" Giver brugeren mulighed for at klikke på den mulighed, der bedst svarer til deres ræsonnement. 4. Tid til løsning efter en fejlThis metricmåler den varighed, det tager for en bruger at rette en fejl begået af AI'en eller for AI-systemet selv at genoprette fra en fejlagtig tilstand. En kort tid til løsning indikerer en effektiv og brugervenlig fejlgendannelsesproces, som kan afbøde brugerfrustration og opretholde produktiviteten. Dette inkluderer letheden ved at identificere fejlen, tilgængeligheden af fortryd- eller rettelsesmekanismer og klarheden af fejlmeddelelser leveret af AI.
Indsamling af disse metrics kræver instrumentering af dit system til at spore agenthandlings-id'er. Enhver særskilt handling, som agenten foretager sig, såsom at foreslå en tidsplan eller booke en flyrejse, skal generere et unikt ID, der forbliver i logfilerne. For at måle interventionsraten leder vi ikke efter en øjeblikkelig brugerreaktion. Vi ser efter fraværet af en modaktion inden for et defineret vindue. Hvis et handlings-id er genereret kl. 9.00, og ingen menneskelig bruger ændrer eller vender tilbage det specifikke id senest kl. 9.00 næste dag, mærker systemet det logisk som accepteret. Dette giver os mulighed for at kvantificere succes baseret på brugerens tavshed frem for aktiv bekræftelse. For tilbagerulningssatser er råtal utilstrækkelige, fordi de mangler kontekst. For at fange den underliggende årsag skal du implementere opsnapningslogik på din applikations Fortryd- eller Tilbagedan-funktioner. Når en bruger fortryder en agent-initieret handling, skal du udløse en letvægtsmikroundersøgelse. Dette kan være en simpel modal med tre muligheder, der beder brugeren om at kategorisere fejlen som faktuelt forkert, manglende kontekst eller en simpel præference for at håndtere opgaven manuelt. Dette kombinerer kvantitativ telemetri med kvalitativ indsigt. Det gør det muligt for ingeniørteams at skelne mellem en brudt algoritme og en uoverensstemmelse mellem brugerpræferencer. Disse målinger, når de spores konsekvent og analyseres holistisk, giver en robust ramme for evaluering af ydeevnen af agentiske AI-systemer, hvilket muliggør kontinuerlig forbedring af kontrol, samtykke og ansvarlighed. Design mod bedrag Efterhånden som agenter bliver stadig dygtigere, står vi over for en ny risiko: Agentslam. Traditionelt slam skaber friktion, der gør det svært at opsige et abonnement eller slette en konto. Agentslam virker omvendt. Det fjerner friktion til en fejl, hvilket gør det for nemt for en bruger at acceptere en handling, der gavner virksomheden frem for deres egne interesser. Overvej en agent, der hjælper med rejsebestilling. Uden tydelige autoværn vil systemet måske prioritere et partnerflyselskab eller et hotel med højere marginer. Det præsenterer dette valg som den optimale vej. Brugeren, der stoler på systemets autoritet, accepterer anbefalingen uden granskning. Dette skaber et vildledende mønster, hvor systemet optimerer for omsætning under dække af bekvemmelighed. Risikoen for fejlagtigt forestillet kompetence Bedrag kan ikke stamme fra ondsindet hensigt. Det manifesterer sig ofte i AI som Imagined Competence. Store sprogmodeller lyder ofte autoritative, selv når de er forkerte. De præsenterer en falsk reservationsbekræftelse eller en unøjagtig oversigt med samme tillid som et verificeret faktum. Brugere kan naturligvis stole på denne selvsikre tone. Dette misforhold skaber en farlig kløft mellem systemkapacitet og brugernes forventninger. Vi skal designe specifikt for at bygge bro over denne kløft. Hvis en agent undlader at fuldføre en opgave, skal grænsefladen signalere denne fejl tydeligt. Hvis systemet er usikkert, skal det udtrykke usikkerhed i stedet for at maskere det med poleret prosa. Gennemsigtighed via primitiver Modgiften mod både slam og hallucinationer er herkomst. Enhver autonom handling kræver et specifikt metadata-tag, der forklarer oprindelsen af beslutningen. Brugere har brug for evnen til at inspicere den logiske kæde bag resultatet. For at opnå dette må vi omsætte primitiver til praktiske svar. Inden for softwareudvikling refererer primitiver til de centrale enheder af information eller handlinger, som en agent udfører. For ingeniøren ligner dette et API-kald eller en logisk gate. For brugeren skal det fremstå som en klar forklaring. Designudfordringen ligger i at kortlægge disse tekniske trin til menneskelæselige rationaler. Hvis en agent anbefaler en bestemt flyvning, skal brugeren vide hvorfor. Grænsefladen kan ikke gemme sig bag et generisk forslag. Den skal afsløre den underliggende primitive: Logic: Cheapest_Direct_Flight eller Logic: Partner_Airline_Priority. Figur 4 illustrerer dette translationsflow. Vi tager det rå system primitive - den faktiske kodelogik - og kortlægger det til en brugervendt streng. For eksempel bliver en primitiv kontrol af en kalenderplan for et møde en klar erklæring: Jeg har foreslået en kl.møde. Dette niveau af gennemsigtighed sikrer, at agentens handlinger fremstår logiske og gavnlige. Det giver brugeren mulighed for at verificere, at agenten handlede i deres bedste interesse. Ved at afsløre primitivet forvandler vi en sort boks til en glasboks, hvilket sikrer, at brugerne forbliver den endelige autoritet i deres eget digitale liv.
Sætter scenen for design Opbygning af et agentsystem kræver et nyt niveau af psykologisk og adfærdsmæssig forståelse. Det tvinger os til at bevæge os ud over konventionel usability-testning og ind i området for tillid, samtykke og ansvarlighed. De forskningsmetoder, vi har diskuteret, fra at undersøge mentale modeller til at simulere dårlig opførsel og etablere nye målinger, giver et nødvendigt grundlag. Disse praksisser er de væsentlige værktøjer til proaktivt at identificere, hvor et autonomt system kan fejle, og endnu vigtigere, hvordan man reparerer bruger-agent-forholdet, når det gør det. Skiftet til agent AI er en redefinering af forholdet mellem bruger og system. Vi designer ikke længere til værktøjer, der blot reagerer på kommandoer; vi designer til partnere, der handler på vores vegne. Dette ændrer det imperative design fra effektivitet og brugervenlighed til gennemsigtighed, forudsigelighed og kontrol. Når en AI kan booke en flyvning eller handle med en aktie uden et sidste klik, bliver designet af dens "på-ramper" og "af-ramper" altafgørende. Det er vores ansvar at sikre, at brugerne føler, at de sidder i førersædet, selv når de har overgivet rattet. Denne nye virkelighed løfter også UX-forskerens rolle. Vi bliver vogtere af brugertillid og arbejder sammen med ingeniører og produktchefer for at definere og teste rækværket for en agents autonomi. Ud over at være forskere bliver vi fortalere for brugerkontrol, gennemsigtighed og de etiske sikkerhedsforanstaltninger i udviklingsprocessen. Ved at omsætte primitiver til praktiske spørgsmål og simulere worst-case scenarier kan vi bygge robuste systemer, der er både kraftfulde og sikre. Denne artikel har skitseret "hvad" og "hvorfor" ved at forske i agent AI. Det har vist, at vores traditionelle værktøjssæt er utilstrækkelige, og at vi skal tage nye, fremadrettede metoder i brug. Den næste artikel vil bygge videre på dette grundlag og give de specifikke designmønstre og organisatoriske praksisser, der gør en agents nytte gennemsigtig for brugerne, hvilket sikrer, at de kan udnytte kraften i agent AI med tillid og kontrol. Fremtiden for UX handler om at gøre systemer troværdige. For yderligere forståelse af agent AI kan du udforske følgende ressourcer:
Google AI-blog om Agentic AI Microsofts forskning om AI-agenter