Agentic AI er klar til å transformere kundeopplevelse og operasjonell effektivitet, noe som krever en ny strategisk tilnærming fra ledelsen. Denne utviklingen innen kunstig intelligens setter systemer i stand til å planlegge, utføre og vedvare i oppgaver, og går fra enkle anbefalinger til proaktiv handling. For UX-team, produktledere og ledere er forståelsen av dette skiftet avgjørende for å frigjøre muligheter innen innovasjon, strømlinjeforme arbeidsflyter og redefinere hvordan teknologien tjener mennesker. Det er lett å forveksle Agentic AI med Robotic Process Automation (RPA), som er teknologi som fokuserer på regelbaserte oppgaver utført på datamaskiner. Skillet ligger i rigiditet versus resonnement. RPA er utmerket til å følge et strengt manus: hvis X skjer, gjør Y. Det etterligner menneskelige hender. Agentisk AI etterligner menneskelig resonnement. Den følger ikke et lineært skript; det skaper en. Vurder en arbeidsflyt for rekruttering. En RPA-bot kan skanne en CV og laste den opp til en database. Den utfører en repeterende oppgave perfekt. Et Agentic-system ser på CV-en, legger merke til at kandidaten viser en spesifikk sertifisering, kryssreferanser til dette med et nytt kundekrav, og bestemmer seg for å utarbeide en personlig oppsøkende e-post som fremhever den matchen. RPA utfører en forhåndsdefinert plan; Agentisk AI formulerer planen basert på et mål. Denne autonomien skiller agenter fra de prediktive verktøyene vi har brukt det siste tiåret. Et annet eksempel er håndtering av møtekonflikter. En prediktiv modell integrert i kalenderen din kan analysere møteplanen og timeplanene til kollegene dine. Det kan da foreslå potensielle konflikter, for eksempel to viktige møter planlagt samtidig, eller et møte planlagt når en nøkkeldeltaker er på ferie. Den gir deg informasjon og flagger potensielle problemer, men du er ansvarlig for å iverksette tiltak. En agent AI, i samme scenario, ville gå lenger enn å bare foreslå konflikter som skal unngås. Ved å identifisere en konflikt med en nøkkeldeltaker, kan agenten handle ved å:
Sjekke tilgjengeligheten til alle nødvendige deltakere. Identifisere alternative tidsluker som fungerer for alle. Sender ut forslag til nye møteinvitasjoner til alle deltakere. Hvis konflikten er med en ekstern deltaker, kan agenten skrive utkast og sende en e-post som forklarer behovet for å endre tidsplanen og tilby alternative tidspunkter. Oppdatering av kalenderen din og kalenderne til kollegene dine med de nye møtedetaljene når de er bekreftet.
Denne agentiske AI forstår målet (løse møtekonflikten), planlegger trinnene (sjekker tilgjengelighet, finner alternativer, sender invitasjoner), utfører disse trinnene og vedvarer til konflikten er løst, alt med minimal direkte brukerintervensjon. Dette demonstrerer den "agentiske" forskjellen: Systemet tar proaktive skritt for brukeren, i stedet for bare å gi informasjon til brukeren. Agentiske AI-systemer forstår et mål, planlegger en rekke trinn for å oppnå det, utfører disse trinnene og tilpasser seg til og med hvis ting går galt. Tenk på det som en proaktiv digital assistent. Den underliggende teknologien kombinerer ofte store språkmodeller (LLM) for forståelse og resonnement, med planleggingsalgoritmer som bryter ned komplekse oppgaver til håndterbare handlinger. Disse agentene kan samhandle med ulike verktøy, APIer og til og med andre AI-modeller for å oppnå målene sine, og kritisk kan de opprettholde en vedvarende tilstand, noe som betyr at de husker tidligere handlinger og fortsetter å jobbe mot et mål over tid. Dette gjør dem fundamentalt forskjellige fra typisk generativ AI, som vanligvis fullfører en enkelt forespørsel og deretter tilbakestilles. En enkel taksonomi av agentatferd Vi kan kategorisere agentatferd i fire distinkte moduser for autonomi. Selv om disse ofte ser ut som en progresjon, fungerer de som uavhengige driftsmoduser. En bruker kan stole på at en agent handler autonomt for planlegging, men holder den i "forslagsmodus" for økonomiske transaksjoner. Vi utledet disse nivåene ved å tilpasse industristandarder for autonome kjøretøy (SAE-nivåer) til digitale brukeropplevelseskontekster. Observer-og-foreslå Agenten fungerer som en monitor. Den analyserer datastrømmer og flagger uregelmessigheter eller muligheter, men tar null handling. DifferensieringI motsetning til neste nivå, genererer agenten ingen kompleks plan. Det peker på et problem. Eksempel En DevOps-agent legger merke til en server-CPU-spike og varsler den tilkallende teknikeren. Den vet ikke hvordan eller prøver å fikse det, men den vet at noe er galt. Implikasjoner for design og tilsyn på dette nivået,design og tilsyn bør prioritere klare, ikke-påtrengende varsler og en veldefinert prosess for brukere å handle på forslag. Fokuset er å gi brukeren aktuelt og relevant informasjon uten å ta kontroll. UX-utøvere bør fokusere på å lage forslag klare og enkle å forstå, mens produktledere må sikre at systemet gir verdi uten å overvelde brukeren. Planlegg og foreslå Agenten identifiserer et mål og genererer en flertrinnsstrategi for å oppnå det. Den presenterer hele planen for menneskelig vurdering. Differensiering Agenten fungerer som en strateg. Den utføres ikke; den venter på godkjenning av hele tilnærmingen. Eksempel Den samme DevOps-agenten legger merke til CPU-toppen, analyserer loggene og foreslår en utbedringsplan:
Spinn opp to ekstra instanser. Start lastbalanseren på nytt. Arkiver gamle logger.
Mennesket vurderer logikken og klikker på "Godkjenn plan". Implikasjoner for design og tilsyn For agenter som planlegger og foreslår, må design sikre at de foreslåtte planene er lett forståelige og at brukerne har intuitive måter å endre eller avvise dem på. Tilsyn er avgjørende for å overvåke kvaliteten på forslagene og agentens planleggingslogikk. UX-utøvere bør utforme klare visualiseringer av de foreslåtte planene, og produktledere må etablere klare gjennomgangs- og godkjenningsarbeidsflyter. Handle-med-bekreftelse Agenten fullfører alt forberedelsesarbeid og plasserer den endelige handlingen i en iscenesatt tilstand. Den holder effektivt døren åpen og venter på et nikk. Differensiering Dette skiller seg fra "Plan-og-forslag" fordi arbeidet allerede er gjort og iscenesatt. Det reduserer friksjonen. Brukeren bekrefter resultatet, ikke strategien. Eksempel En rekrutteringsagent utarbeider fem intervjuinvitasjoner, finner åpningstider i kalendere og lager kalenderhendelsene. Den presenterer en "Send alle"-knapp. Brukeren gir den endelige autorisasjonen for å utløse den eksterne handlingen. Implikasjoner for design og tilsyn Når agenter handler med bekreftelse, bør designet gi transparente og konsise oppsummeringer av den tiltenkte handlingen, og tydelig skissere potensielle konsekvenser. Tilsyn må verifisere at bekreftelsesprosessen er robust og at brukere ikke blir bedt om blindt å godkjenne handlinger. UX-utøvere bør utforme bekreftelsesforespørsler som er klare og gir all nødvendig informasjon, og produktledere bør prioritere et robust revisjonsspor for alle bekreftede handlinger. Handle-autonomt Agenten utfører oppgaver uavhengig innenfor definerte grenser. Differensiering Brukeren vurderer historien til handlinger, ikke handlingene i seg selv. EksempelRekrutteringsagenten ser en konflikt, flytter intervjuet til en reserveplass, oppdaterer kandidaten og varsler ansettelseslederen. Mennesket ser bare et varsel: Intervju flyttet til tirsdag. Implikasjoner for design og tilsyn For autonome agenter må designet etablere klare forhåndsgodkjente grenser og gi robuste overvåkingsverktøy. Tilsyn krever kontinuerlig evaluering av agentens ytelse innenfor disse grensene, et kritisk behov for robust logging, klare overstyringsmekanismer og brukerdefinerte kill-switcher for å opprettholde brukerkontroll og tillit. UX-utøvere bør fokusere på å designe effektive dashboards for å overvåke autonom agentatferd, og produktledere må sørge for at klare styrings- og etiske retningslinjer er på plass.
La oss se på en virkelig applikasjon innen HR-teknologi for å se disse modusene i aksjon. Vurder en "Intervjukoordineringsagent" designet for å håndtere logistikken ved ansettelse.
I Suggest Mode Agenten merker at en intervjuer er dobbeltbooket. Det fremhever konflikten på rekruttererens dashbord: "Advarsel: Sarah er dobbeltbooket for 14.00-intervjuet." I planmodus analyserer agenten Sarahs kalender og kandidatens tilgjengelighet. Det presenterer en løsning: «Jeg anbefaler å flytte intervjuet til torsdag kl. 10.00. Dette krever at Sarahs 1:1 flyttes med lederen hennes.» Rekruttereren vurderer denne logikken. I bekreftelsesmodus skriver agenten e-postene til kandidaten og lederen. Den fyller ut kalenderinvitasjonene. Rekruttereren ser en oppsummering: "Klar du til å flytte tidsplanen til torsdag. Sende oppdateringer?" Rekruttereren klikker på "Bekreft". I autonom modus Agenten håndterer konflikten umiddelbart. Den respekterer en forhåndsinnstilt regel: "Prioriter alltid kandidatintervjuer fremfor interne 1:1s." Den flytter møtet og sender varslene. Rekruttereren ser en loggoppføring: «Løsttidsplankonflikt for kandidat B."
Research Primer: Hva du skal undersøke og hvordan Å utvikle effektiv agent AI krever en distinkt forskningstilnærming sammenlignet med tradisjonell programvare eller til og med generativ AI. AI-agenters autonome natur, deres evne til å ta beslutninger og deres potensial for proaktiv handling nødvendiggjør spesialiserte metoder for å forstå brukernes forventninger, kartlegge kompleks agentatferd og forutse potensielle feil. Følgende forskningsgrunnlag skisserer nøkkelmetoder for å måle og evaluere disse unike aspektene ved agent AI. Mental-modellintervjuer Disse intervjuene avdekker brukernes forutinntatte forestillinger om hvordan en AI-agent bør oppføre seg. I stedet for bare å spørre hva brukerne vil ha, er fokuset på å forstå deres interne modeller for agentens muligheter og begrensninger. Vi bør unngå å bruke ordet "agent" med deltakere. Det bærer sci-fi-bagasje eller er et begrep som for lett kan forveksles med en menneskelig agent som tilbyr støtte eller tjenester. Ramme heller diskusjonen rundt «assistenter» eller «systemet». Vi må avdekke hvor brukerne trekker grensen mellom nyttig automatisering og påtrengende kontroll.
Metode: Be brukere om å beskrive, tegne eller fortelle deres forventede interaksjoner med agenten i ulike hypotetiske scenarier. Nøkkelsonder (som gjenspeiler en rekke bransjer): For å forstå grensene for ønsket automatisering og potensielle bekymringer rundt overautomatisering, spør: Hvis flyet ditt blir kansellert, hva vil du at systemet skal gjøre automatisk? Hva ville bekymre deg hvis den gjorde det uten din eksplisitte instruksjon?
For å utforske brukerens forståelse av agentens interne prosesser og nødvendige kommunikasjon, spør: Tenk deg at en digital assistent administrerer ditt smarte hjem. Hvis en pakke blir levert, hvilke skritt ser du for deg at den tar, og hvilken informasjon forventer du å motta?
For å avdekke forventninger rundt kontroll og samtykke i en flertrinnsprosess, spør: Hvis du ber din digitale assistent om å planlegge et møte, hvilke skritt ser du for deg at den tar? På hvilke punkter ønsker du å bli konsultert eller gitt valg?
Fordeler med metoden: Avslører implisitte antakelser, fremhever områder der agentens planlagte atferd kan avvike fra brukernes forventninger, og informerer utformingen av passende kontroller og tilbakemeldingsmekanismer.
Kartlegging av agentreiser: I likhet med tradisjonell kartlegging av brukerreiser, fokuserer kartlegging av agentreiser spesifikt på de forventede handlingene og beslutningspunktene til AI-agenten selv, sammen med brukerens interaksjon. Dette bidrar til proaktivt å identifisere potensielle fallgruver.
Metode: Lag et visuelt kart som skisserer de ulike stadiene i en agents operasjon, fra initiering til fullføring, inkludert alle potensielle handlinger, beslutninger og interaksjoner med eksterne systemer eller brukere. Nøkkelelementer å kartlegge: Agenthandlinger: Hvilke spesifikke oppgaver eller beslutninger utfører agenten? Informasjonsinnganger/utganger: Hvilke data trenger agenten, og hvilken informasjon genererer eller kommuniserer den? Beslutningspunkter: Hvor tar agenten valg, og hva er kriteriene for disse valgene? Brukerinteraksjonspunkter: Hvor gir brukeren innspill, gjennomgår eller godkjenner handlinger? Feilpunkter: Identifiser spesifikke tilfeller der agenten kan feiltolke instruksjoner, ta en feil beslutning eller samhandle med feil enhet. Eksempler: Feil mottaker (f.eks. sending av sensitiv informasjon til feil person), kassekreditt (f.eks. en automatisert betaling som overstiger tilgjengelige midler), feiltolkning av hensikt (f.eks. bestilling av flyreise til feil dato på grunn av tvetydig språk).
Gjenopprettingsbaner: Hvordan kan agenten eller brukeren komme seg etter disse feilene? Hvilke mekanismer er på plass for korreksjon eller intervensjon?
Fordeler med metoden: Gir et helhetlig syn på agentens operasjonelle flyt, avdekker skjulte avhengigheter og gir mulighet for proaktiv utforming av sikkerhetstiltak, feilhåndtering og brukerintervensjonspunkter for å forhindre eller redusere negative utfall.
Simulert feiloppførselstesting: Denne tilnærmingen er designet for å stressteste systemet og observere brukerreaksjoner når AI-agenten svikter eller avviker fra forventningene. Det handler om å forstå tillitsreparasjon og emosjonelle reaksjoner i ugunstige situasjoner.
Metode: I kontrollerte laboratoriestudier, introduser bevisst scenarier der agenten gjør en feil, feiltolker en kommando eller oppfører seg uventet. Typer "feil oppførsel" for å simulere: KommandoFeiltolkning: Agenten utfører en handling som er litt annerledes enn hva brukeren hadde til hensikt (f.eks. bestiller to varer i stedet for én). Informasjon Overbelastning/Underbelastning: Agenten gir for mye irrelevant informasjon eller ikke nok kritiske detaljer. Uoppfordret handling: Agenten utfører en handling brukeren eksplisitt ikke ønsket eller forventet (f.eks. kjøpe aksjer uten godkjenning). Systemfeil: Agenten krasjer, slutter å reagere eller gir en feilmelding. Etiske dilemmaer: Agenten tar en beslutning med etiske implikasjoner (f.eks. prioritere en oppgave fremfor en annen basert på en uforutsett beregning).
Observasjonsfokus: Brukerreaksjoner: Hvordan reagerer brukere følelsesmessig (frustrasjon, sinne, forvirring, tap av tillit)? Gjenopprettingsforsøk: Hvilke skritt tar brukere for å korrigere agentens oppførsel eller angre handlingene? Reparasjonsmekanismer for tillit: Bidrar systemets innebygde gjenopprettings- eller tilbakemeldingsmekanismer til å gjenopprette tilliten? Hvordan ønsker brukere å bli informert om feil? Mental modellskifte: Endrer feil oppførsel brukerens forståelse av agentens evner eller begrensninger?
Fordeler med metoden: Avgjørende for å identifisere designhull knyttet til feilgjenoppretting, tilbakemelding og brukerkontroll. Den gir innsikt i hvor motstandsdyktige brukere er overfor agentfeil og hva som trengs for å opprettholde eller gjenoppbygge tillit, noe som fører til mer robuste og tilgivende agentsystemer.
Ved å integrere disse forskningsmetodikkene kan UX-utøvere gå lenger enn å bare gjøre agentsystemer brukbare til å gjøre dem pålitelige, kontrollerbare og ansvarlige, og fremme et positivt og produktivt forhold mellom brukere og deres AI-agenter. Merk at dette ikke er de eneste metodene som er relevante for å utforske agent AI effektivt. Mange andre metoder finnes, men disse er mest tilgjengelige for utøvere på kort sikt. Jeg har tidligere dekket Wizard of Oz-metoden, en litt mer avansert metode for konsepttesting, som også er et verdifullt verktøy for å utforske agentiske AI-konsepter. Etiske betraktninger i forskningsmetodikk Når man forsker på agent AI, spesielt når man simulerer feil oppførsel eller feil, er etiske hensyn nøkkelen til å ta i betraktning. Det er mange publikasjoner som fokuserer på etisk UX-forskning, inkludert en artikkel jeg skrev for Smashing Magazine, disse retningslinjene fra UX Design Institute og denne siden fra Inclusive Design Toolkit. Nøkkeltall for agent AI Du trenger et omfattende sett med nøkkeltall for å effektivt vurdere ytelsen og påliteligheten til agentiske AI-systemer. Disse beregningene gir innsikt i brukertillit, systemnøyaktighet og den generelle brukeropplevelsen. Ved å spore disse indikatorene kan utviklere og designere identifisere områder for forbedring og sikre at AI-agenter opererer trygt og effektivt. 1. IntervensjonsrateFor autonome agenter måler vi suksess ved stillhet. Hvis en agent utfører en oppgave og brukeren ikke griper inn eller reverserer handlingen innenfor et fastsatt vindu (f.eks. 24 timer), regner vi det som aksept. Vi sporer intervensjonsraten: hvor ofte hopper et menneske inn for å stoppe eller korrigere agenten? En høy intervensjonsrate signaliserer en feiljustering i tillit eller logikk. 2. Frekvens av utilsiktede handlinger per 1000 oppgaver Denne kritiske beregningen kvantifiserer antall handlinger utført av AI-agenten som ikke var ønsket eller forventet av brukeren, normalisert per 1000 fullførte oppgaver. En lav frekvens av utilsiktede handlinger betyr en godt justert AI som nøyaktig tolker brukerens hensikt og opererer innenfor definerte grenser. Denne beregningen er nært knyttet til AIs forståelse av kontekst, dens evne til å disambiguere kommandoer og robustheten til sikkerhetsprotokollene. 3. Tilbakeførings- eller angrehastigheter Denne beregningen sporer hvor ofte brukere trenger å reversere eller angre en handling utført av AI. Høy tilbakerullingsfrekvens antyder at AI gjør hyppige feil, feiltolker instruksjoner eller handler på måter som ikke er i samsvar med brukernes forventninger. Å analysere årsakene bak disse tilbakeføringene kan gi verdifull tilbakemelding for å forbedre AIs algoritmer, forståelse av brukerpreferanser og dens evne til å forutsi ønskelige utfall. For å forstå hvorfor, må du implementere en mikroundersøkelse på angrehandlingen. For eksempel, når en bruker reverserer en planleggingsendring, kan en enkel melding spørre: "Feil tidspunkt? Feil person? Eller ville du bare gjøre det selv?" Lar brukeren klikke på alternativet som best samsvarer med deres resonnement. 4. Tid til løsning etter en feilDenne beregningenmåler varigheten det tar for en bruker å korrigere en feil gjort av AI eller for AI-systemet selv å gjenopprette fra en feilaktig tilstand. En kort tid til løsning indikerer en effektiv og brukervennlig feilgjenopprettingsprosess, som kan dempe brukerfrustrasjon og opprettholde produktiviteten. Dette inkluderer enkel identifisering av feilen, tilgjengeligheten til angre- eller korrigeringsmekanismer, og klarheten til feilmeldinger levert av AI.
Innsamling av disse beregningene krever instrumentering av systemet ditt for å spore agenthandlings-IDer. Hver særskilte handling agenten tar, som å foreslå en tidsplan eller bestille en flyreise, må generere en unik ID som vedvarer i loggene. For å måle intervensjonsraten ser vi ikke etter en umiddelbar brukerreaksjon. Vi ser etter fraværet av en motaksjon innenfor et definert vindu. Hvis en handlings-ID genereres kl. 9.00 og ingen menneskelig bruker endrer eller tilbakestiller den spesifikke ID-en innen kl. 09.00 neste dag, merker systemet den logisk som Godkjent. Dette lar oss kvantifisere suksess basert på brukerstillhet i stedet for aktiv bekreftelse. For tilbakeføringspriser er råtall utilstrekkelig fordi de mangler kontekst. For å fange opp den underliggende årsaken, må du implementere avskjæringslogikk på applikasjonens Angre- eller Tilbakestill-funksjoner. Når en bruker reverserer en agent-initiert handling, utløs en lett mikroundersøkelse. Dette kan være en enkel modal med tre alternativer som ber brukeren om å kategorisere feilen som faktisk feil, manglende kontekst eller en enkel preferanse for å håndtere oppgaven manuelt. Dette kombinerer kvantitativ telemetri med kvalitativ innsikt. Det gjør det mulig for ingeniørteam å skille mellom en ødelagt algoritme og et misforhold mellom brukerpreferanser. Disse beregningene, når de spores konsekvent og analyseres helhetlig, gir et robust rammeverk for å evaluere ytelsen til agentiske AI-systemer, og tillater kontinuerlig forbedring av kontroll, samtykke og ansvarlighet. Designing mot bedrag Etter hvert som agenter blir stadig dyktigere, står vi overfor en ny risiko: Agentslam. Tradisjonelt slam skaper friksjon som gjør det vanskelig å kansellere et abonnement eller slette en konto. Agentslam virker omvendt. Det fjerner friksjon til en feil, noe som gjør det for enkelt for en bruker å godta en handling som gagner virksomheten i stedet for deres egne interesser. Vurder en agent som hjelper til med reisebestilling. Uten klare rekkverk kan systemet prioritere et partnerflyselskap eller et hotell med høyere marginer. Det presenterer dette valget som den optimale veien. Brukeren, som stoler på systemets autoritet, godtar anbefalingen uten gransking. Dette skaper et villedende mønster der systemet optimerer for inntekter under dekke av bekvemmelighet. Risikoen for feilaktig innbilt kompetanse Bedrag kan ikke stamme fra ondsinnet hensikt. Det manifesterer seg ofte i AI som Imagined Competence. Store språkmodeller høres ofte autoritative ut selv når de er feil. De presenterer en falsk bestillingsbekreftelse eller et unøyaktig sammendrag med samme tillit som et verifisert faktum. Brukere kan naturligvis stole på denne selvsikre tonen. Dette misforholdet skaper et farlig gap mellom systemkapasitet og brukerforventninger. Vi må designe spesielt for å bygge bro over dette gapet. Hvis en agent ikke klarer å fullføre en oppgave, må grensesnittet signalisere denne feilen tydelig. Hvis systemet er usikkert, må det uttrykke usikkerhet i stedet for å maskere det med polert prosa. Åpenhet via Primitives Motgiften mot både slam og hallusinasjoner er herkomst. Hver autonom handling krever en spesifikk metadata-tag som forklarer opprinnelsen til beslutningen. Brukere trenger muligheten til å inspisere logikkkjeden bak resultatet. For å oppnå dette må vi omsette primitiver til praktiske svar. I programvareteknikk refererer primitiver til kjerneenhetene av informasjon eller handlinger en agent utfører. For ingeniøren ser dette ut som et API-kall eller en logisk port. For brukeren skal det fremstå som en tydelig forklaring. Designutfordringen ligger i å kartlegge disse tekniske trinnene til menneskelesbare begrunnelser. Hvis en agent anbefaler en bestemt flyreise, må brukeren vite hvorfor. Grensesnittet kan ikke skjule seg bak et generisk forslag. Den må avsløre den underliggende primitive: Logic: Cheapest_Direct_Flight eller Logic: Partner_Airline_Priority. Figur 4 illustrerer denne translasjonsflyten. Vi tar det rå systemets primitive – selve kodelogikken – og kartlegger den til en brukervendt streng. For eksempel, en primitiv sjekk av en kalenderplan for et møte blir en klar uttalelse: Jeg har foreslått en 16:00møte. Dette nivået av åpenhet sikrer at agentens handlinger fremstår som logiske og fordelaktige. Det lar brukeren bekrefte at agenten handlet i deres beste interesse. Ved å avsløre primitivene forvandler vi en svart boks til en glassboks, og sikrer at brukerne forblir den endelige autoriteten i deres egne digitale liv.
Setter scenen for design Å bygge et agentsystem krever et nytt nivå av psykologisk og atferdsmessig forståelse. Det tvinger oss til å gå forbi konvensjonell brukervennlighetstesting og inn i riket av tillit, samtykke og ansvarlighet. Forskningsmetodene vi har diskutert, fra å undersøke mentale modeller til å simulere feil oppførsel og etablere nye beregninger, gir et nødvendig grunnlag. Disse praksisene er de essensielle verktøyene for proaktivt å identifisere hvor et autonomt system kan svikte og, enda viktigere, hvordan man kan reparere bruker-agent-forholdet når det gjør det. Skiftet til agent AI er en redefinering av bruker-system-forholdet. Vi designer ikke lenger for verktøy som bare reagerer på kommandoer; vi designer for partnere som handler på våre vegne. Dette endrer designimperativiteten fra effektivitet og brukervennlighet til åpenhet, forutsigbarhet og kontroll. Når en AI kan bestille en flyreise eller handle en aksje uten et siste klikk, blir utformingen av dens "på-ramper" og "av-ramper" avgjørende. Det er vårt ansvar å sørge for at brukerne føler at de sitter i førersetet, selv når de har overlatt rattet. Denne nye virkeligheten løfter også rollen til UX-forskeren. Vi blir voktere av brukertillit, og jobber sammen med ingeniører og produktledere for å definere og teste rekkverkene til en agents autonomi. Utover å være forskere, blir vi talsmenn for brukerkontroll, åpenhet og de etiske sikkerhetstiltakene i utviklingsprosessen. Ved å oversette primitiver til praktiske spørsmål og simulere verste scenarioer, kan vi bygge robuste systemer som er både kraftige og sikre. Denne artikkelen har skissert "hva" og "hvorfor" ved å forske på agent AI. Det har vist at våre tradisjonelle verktøysett er utilstrekkelige og at vi må ta i bruk nye, fremtidsrettede metoder. Den neste artikkelen vil bygge på dette grunnlaget, og gi de spesifikke designmønstrene og organisatoriske praksisene som gjør en agents verktøy gjennomsiktig for brukere, og sikrer at de kan utnytte kraften til agent AI med selvtillit og kontroll. Fremtiden til UX handler om å gjøre systemene pålitelige. For ytterligere forståelse av agent AI, kan du utforske følgende ressurser:
Google AI-blogg om Agentic AI Microsofts forskning på AI-agenter