Agentic AI on valmis muuttamaan asiakaskokemusta ja toiminnan tehokkuutta, mikä edellyttää uutta strategista lähestymistapaa johtajilta. Tämä tekoälyn kehitys antaa järjestelmille mahdollisuuden suunnitella, toteuttaa ja pysyä tehtävissä, siirtyen yksinkertaisten suositusten lisäksi ennakoiviin toimiin. UX-tiimeille, tuotepäälliköille ja johtajille tämän muutoksen ymmärtäminen on ratkaisevan tärkeää innovaatiomahdollisuuksien avaamiseksi, työnkulkujen virtaviivaistamiseksi ja teknologian ihmisten palvelemisen uudelleenmäärittämiseksi. On helppo sekoittaa Agentic AI ja Robotic Process Automation (RPA), joka on tekniikka, joka keskittyy tietokoneilla suoritettaviin sääntöihin perustuviin tehtäviin. Ero on jäykkyys vs. päättely. RPA on erinomainen noudattamaan tiukkaa käsikirjoitusta: jos X tapahtuu, tee Y. Se jäljittelee ihmiskäsiä. Agentti tekoäly jäljittelee ihmisen päättelyä. Se ei noudata lineaarista komentosarjaa; se luo sellaisen. Harkitse rekrytointityönkulkua. RPA-botti voi skannata ansioluettelon ja ladata sen tietokantaan. Se suorittaa toistuvan tehtävän täydellisesti. Agenttijärjestelmä tarkastelee ansioluetteloa, huomaa, että ehdokas listaa tietyn sertifikaatin, viittaa siihen uusien asiakasvaatimusten kanssa ja päättää laatia henkilökohtaisen tiedotussähköpostin, jossa korostetaan kyseistä vastaavuutta. RPA suorittaa ennalta määritellyn suunnitelman; Agentic AI muotoilee suunnitelman tavoitteen perusteella. Tämä autonomia erottaa agentit viime vuosikymmenen aikana käyttämistämme ennakointityökaluista. Toinen esimerkki on kokouskonfliktin hallinta. Kalenteriin integroitu ennakoiva malli saattaa analysoida kokousaikataulusi ja kollegojesi aikataulut. Se voi sitten ehdottaa mahdollisia ristiriitoja, kuten kahta tärkeää kokousta, jotka on suunniteltu samaan aikaan, tai tapaamista, joka on ajoitettu, kun keskeinen osallistuja on lomalla. Se tarjoaa sinulle tietoa ja ilmoittaa mahdollisista ongelmista, mutta olet vastuussa toimista. Agenttinen tekoäly samassa skenaariossa menisi pidemmälle kuin vain ehdottaa vältettäviä konflikteja. Kun agentti havaitsee konfliktin avainosanottajan kanssa, hän voi toimia seuraavasti:

Tarkistaa kaikkien tarvittavien osallistujien saatavuus. Vaihtoehtoisten aikavälien tunnistaminen, jotka sopivat kaikille. Ehdotetut uudet kokouskutsut lähetetään kaikille osallistujille. Jos ristiriita on ulkopuolisen osallistujan kanssa, agentti voi laatia ja lähettää sähköpostin, jossa selitetään tarvetta aikatauluttaa uudelleen ja tarjotaan vaihtoehtoisia aikoja. Kalenterisi ja kollegojesi kalentereiden päivittäminen uusilla kokoustiedoilla, kun se on vahvistettu.

Tämä agentti-AI ymmärtää tavoitteen (kokousristiriidan ratkaiseminen), suunnittelee vaiheet (saatavuuden tarkistaminen, vaihtoehtojen etsiminen, kutsujen lähettäminen), suorittaa nämä vaiheet ja jatkaa, kunnes ristiriita on ratkaistu, kaikki ilman käyttäjän suoraa väliintuloa. Tämä osoittaa "agentin" eron: järjestelmä ryhtyy ennakoiviin toimiin käyttäjän puolesta sen sijaan, että tarjoaisi vain tietoja käyttäjälle. Agentti tekoälyjärjestelmät ymmärtävät tavoitteen, suunnittelevat sarjan vaiheita sen saavuttamiseksi, suorittavat ne ja jopa mukautuvat, jos asiat menevät pieleen. Ajattele sitä ennakoivana digitaalisena avustajana. Taustalla oleva tekniikka yhdistää usein suuria kielimalleja (LLM) ymmärrystä ja päättelyä varten suunnittelualgoritmeihin, jotka jakavat monimutkaiset tehtävät hallittaviksi toiminnoiksi. Nämä agentit voivat olla vuorovaikutuksessa erilaisten työkalujen, sovellusliittymien ja jopa muiden tekoälymallien kanssa saavuttaakseen tavoitteensa, ja kriittisesti he voivat säilyttää jatkuvan tilan, mikä tarkoittaa, että he muistavat aiemmat toimet ja jatkavat työskentelyä tavoitteen saavuttamiseksi ajan myötä. Tämä tekee niistä pohjimmiltaan erilaisia ​​kuin tyypillinen luova tekoäly, joka yleensä suorittaa yhden pyynnön ja nollaa sitten. Yksinkertainen agenttikäyttäytymisen taksonomia Voimme luokitella agenttien käyttäytymisen neljään erilliseen autonomian muotoon. Vaikka nämä näyttävät usein etenemiseltä, ne toimivat itsenäisinä toimintatiloina. Käyttäjä voi luottaa agenttiin toimimaan itsenäisesti aikataulutuksessa, mutta pitää sen "ehdotustilassa" rahoitustapahtumia varten. Saimme nämä tasot mukauttamalla alan standardeja autonomisille ajoneuvoille (SAE-tasot) digitaalisen käyttökokemuksen konteksteihin. Tarkkaile ja ehdota Agentti toimii monitorina. Se analysoi tietovirtoja ja merkitsee poikkeavuuksia tai mahdollisuuksia, mutta ei tee mitään. Eriyttäminen Toisin kuin seuraavalla tasolla, agentti ei luo monimutkaista suunnitelmaa. Se viittaa ongelmaan. EsimerkkiA DevOps-agentti huomaa palvelimen CPU-piikin ja hälyttää päivystävälle insinöörille. Se ei tiedä miten tai yritä korjata sitä, mutta se tietää, että jotain on vialla. Vaikutukset suunnitteluun ja valvontaan Tällä tasollaSuunnittelussa ja valvonnassa tulisi asettaa etusijalle selkeät, ei-tunkeilevat ilmoitukset ja hyvin määritelty prosessi, jonka avulla käyttäjät voivat toimia ehdotusten perusteella. Pääpaino on antaa käyttäjälle oikea-aikaista ja olennaista tietoa ilman, että hän ottaisi hallintaansa. UX-harjoittajien tulisi keskittyä tekemään ehdotuksista selkeitä ja helposti ymmärrettäviä, kun taas tuotepäälliköiden on varmistettava, että järjestelmä tarjoaa lisäarvoa ilman, että käyttäjä ylikuormitetaan. Suunnittele ja ehdota Agentti tunnistaa tavoitteen ja luo monivaiheisen strategian sen saavuttamiseksi. Se esittelee täydellisen suunnitelman ihmisen arvioinnista. Eriyttäminen Agentti toimii strategina. Se ei suorita; se odottaa hyväksyntää koko lähestymistavalle. EsimerkkiSama DevOps-agentti huomaa CPU-piikin, analysoi lokit ja ehdottaa korjaussuunnitelmaa:

Pyöritä kaksi ylimääräistä esiintymää. Käynnistä kuormantasauslaite uudelleen. Arkistoi vanhat lokit.

Ihminen tarkistaa logiikan ja napsauttaa "Hyväksy suunnitelma". Suunnittelun ja valvonnan vaikutukset Suunnitteleville ja ehdottaville agenteille suunnittelun on varmistettava, että ehdotetut suunnitelmat ovat helposti ymmärrettäviä ja että käyttäjillä on intuitiivisia tapoja muokata tai hylätä niitä. Valvonta on ratkaisevan tärkeää ehdotusten laadun ja agentin suunnittelulogiikan seurannassa. UX-harjoittajien tulee suunnitella selkeät visualisoinnit ehdotetuista suunnitelmista, ja tuotepäälliköiden on luotava selkeät tarkistus- ja hyväksymistyönkulut. Toimi vahvistuksen kanssa Agentti suorittaa kaikki valmistelutyöt ja asettaa lopullisen toiminnon lavastettuun tilaan. Se pitää oven tehokkaasti auki odottaen nyökkäysä. EriyttäminenTämä eroaa "Suunnittele ja ehdota" -toiminnosta, koska työ on jo tehty ja lavastettu. Se vähentää kitkaa. Käyttäjä vahvistaa tuloksen, ei strategiaa. Esimerkki Rekrytointiagentti laatii viisi haastattelukutsua, etsii kalentereista avoimet ajat ja luo kalenteritapahtumat. Siinä on "Lähetä kaikki" -painike. Käyttäjä antaa lopullisen valtuutuksen ulkoisen toiminnon käynnistämiseen. Suunnittelun ja valvonnan vaikutukset Kun edustajat toimivat varmistuksella, suunnittelun tulee tarjota läpinäkyvä ja ytimekäs yhteenveto suunnitellusta toiminnasta ja hahmotella selkeästi mahdolliset seuraukset. Valvonnan on varmistettava, että vahvistusprosessi on vankka ja että käyttäjiä ei pyydetä sokeasti hyväksymään toimia. UX-harjoittajien tulee suunnitella selkeitä vahvistuskehotteita, joissa on kaikki tarvittavat tiedot, ja tuotepäälliköiden tulee asettaa etusijalle vankka kirjausketju kaikille vahvistetuille toimille. Toimi itsenäisesti Agentti suorittaa tehtäviä itsenäisesti määritellyissä rajoissa. EriyttäminenKäyttäjä tarkistaa toimintojen historian, ei itse toimintoja. EsimerkkiRekrytointiagentti näkee ristiriidan, siirtää haastattelun varapaikkaan, päivittää ehdokkaan ja ilmoittaa asiasta rekrytointipäällikölle. Ihminen näkee vain ilmoituksen: Haastattelu siirretty tiistaille. Vaikutukset suunnitteluun ja valvontaan Autonomisten agenttien osalta suunnittelun on määritettävä selkeät ennalta hyväksytyt rajat ja tarjottava vankat valvontatyökalut. Valvonta edellyttää agentin suorituskyvyn jatkuvaa arviointia näissä rajoissa, kriittistä tarvetta vankille kirjauksille, selkeille ohitusmekanismeille ja käyttäjän määrittämille pysäytyskytkimille käyttäjien hallinnan ja luottamuksen ylläpitämiseksi. UX-harjoittajien tulisi keskittyä tehokkaiden kojelautaiden suunnitteluun autonomisten agenttien käyttäytymisen seurantaa varten, ja tuotepäälliköiden on varmistettava, että selkeä hallinto ja eettiset ohjeet ovat käytössä.

Katsotaanpa todellista HR-teknologian sovellusta nähdäksesi nämä tilat toiminnassa. Harkitse "haastattelukoordinointiagenttia", joka on suunniteltu hoitamaan palkkaamisen logistiikka.

Ehdotustilassa Agentti huomaa, että haastattelija on varattu kahteen kertaan. Se korostaa ristiriitaa rekrytoijan kojelaudassa: "Varoitus: Sarahille on varattu tuplavaraus klo 14:00 haastatteluun." Suunnittelutilassa Agentti analysoi Saaran kalenterin ja ehdokkaan saatavuuden. Se esittelee ratkaisun: "Suosittelen siirtämään haastattelun torstaihin klo 10. Tämä edellyttää Saaran 1:1 siirtämistä esimiehensä kanssa." Rekrytoija arvioi tätä logiikkaa. Vahvistustilassa Agentti laatii sähköpostit ehdokkaalle ja johtajalle. Se täyttää kalenterin kutsut. Rekrytoija näkee yhteenvedon: "Valmis siirtymään torstaihin. Lähetetäänkö päivityksiä?" Rekrytoija napsauttaa "Vahvista". Autonomisessa tilassa Agentti käsittelee konfliktin välittömästi. Se noudattaa ennalta asetettua sääntöä: "Anna aina ehdokashaastattelut etusijalle sisäisten 1:1-haastattelujen edelle." Se siirtää kokousta ja lähettää ilmoitukset. Rekrytoija näkee lokimerkinnän: "Ratkaistuaikatauluristiriita ehdokkaalle B."

Tutkimuspohja: Mitä tutkia ja miten Tehokkaan agenttitekoälyn kehittäminen vaatii erillistä tutkimusta verrattuna perinteisiin ohjelmistoihin tai jopa generatiiviseen tekoälyyn. Tekoälyagenttien autonominen luonne, heidän kykynsä tehdä päätöksiä ja mahdollisuudet ennakoiviin toimiin edellyttävät erityisiä menetelmiä käyttäjien odotusten ymmärtämiseksi, monimutkaisten agenttien käyttäytymisen kartoittamiseksi ja mahdollisten epäonnistumisten ennakoimiseksi. Seuraavassa tutkimusalustassa hahmotellaan keskeisiä menetelmiä, joilla mitataan ja arvioidaan näitä ainutlaatuisia tekoälyn ominaisuuksia. Henkisen mallin haastattelut Nämä haastattelut paljastavat käyttäjien ennakkokäsitykset siitä, miten tekoälyagentin tulisi käyttäytyä. Sen sijaan, että vain kysyisit, mitä käyttäjät haluavat, keskitytään ymmärtämään heidän sisäisiä mallejaan agentin kyvyistä ja rajoituksista. Meidän tulisi välttää sanan "agentti" käyttämistä osallistujien kanssa. Se kuljettaa sci-fi-matkatavaroita tai on termi, joka sekoittuu liian helposti tukea tai palveluita tarjoavaan ihmisagenttiin. Piirrä keskustelu sen sijaan "avustajien" tai "järjestelmän" ympärille. Meidän on selvitettävä, mihin käyttäjät vetävät rajan hyödyllisen automaation ja häiritsevän ohjauksen välillä.

Menetelmä: Pyydä käyttäjiä kuvaamaan, piirtämään tai kertomaan odotettua vuorovaikutusta agentin kanssa erilaisissa hypoteettisissa skenaarioissa. Keskeiset koettimet (jotka heijastavat useita toimialoja): Ymmärtääksesi halutun automaation rajat ja mahdolliset yliautomaatioon liittyvät huolenaiheet kysy: Jos lentosi peruuntuu, mitä haluaisit järjestelmän tekevän automaattisesti? Mikä huolestuisi, jos se tekisi sen ilman sinun nimenomaista ohjettasi?

Voit tutkia käyttäjän ymmärrystä agentin sisäisistä prosesseista ja tarvittavasta viestinnästä kysymällä: Kuvittele, että digitaalinen avustaja hallitsee älykästä kotiasi. Jos paketti toimitetaan, mitä vaiheita kuvittelet sen tekevän ja mitä tietoja odotat saavasi?

Voit selvittää valvontaa ja suostumusta koskevat odotukset monivaiheisessa prosessissa kysymällä: Jos pyydät digitaalista avustajaasi suunnittelemaan tapaamisen, mitä toimenpiteitä kuvittelet sen tekevän? Missä kohdissa haluaisit, että sinua kuullaan tai sinulle annetaan vaihtoehtoja?

Menetelmän hyödyt: Paljastaa implisiittisiä oletuksia, korostaa alueita, joilla agentin suunniteltu käyttäytyminen saattaa poiketa käyttäjien odotuksista, ja antaa tietoa asianmukaisten ohjaus- ja palautemekanismien suunnittelusta.

Agentin matkan kartoitus: Perinteisen käyttäjän matkakartoituksen tapaan agentin matkakartoitus keskittyy erityisesti tekoälyagentin odotettuihin toimiin ja päätöspisteisiin käyttäjän vuorovaikutuksen rinnalla. Tämä auttaa tunnistamaan ennakoivasti mahdolliset sudenkuopat.

Menetelmä: Luo visuaalinen kartta, joka hahmottelee agentin toiminnan eri vaiheet aloittamisesta loppuun, mukaan lukien kaikki mahdolliset toimet, päätökset ja vuorovaikutus ulkoisten järjestelmien tai käyttäjien kanssa. Kartan tärkeimmät elementit: Agentin toiminnot: Mitä erityistehtäviä tai päätöksiä agentti suorittaa? Tietojen syötteet/lähdöt: Mitä tietoja agentti tarvitsee ja mitä tietoja se tuottaa tai välittää? Päätöskohdat: Missä agentti tekee valintoja ja mitkä ovat näiden valintojen kriteerit? Käyttäjän vuorovaikutuspisteet: Missä käyttäjä syöttää, tarkistaa tai hyväksyy toimintoja? Epäonnistumiskohdat: On tärkeää tunnistaa tietyt tapaukset, joissa agentti voi tulkita ohjeita väärin, tehdä väärän päätöksen tai olla vuorovaikutuksessa väärän kokonaisuuden kanssa. Esimerkkejä: Väärä vastaanottaja (esim. arkaluontoisten tietojen lähettäminen väärälle henkilölle), tilinylitys (esim. automaattinen maksu, joka ylittää käytettävissä olevat varat), tarkoituksen väärintulkinta (esim. lennon varaus väärälle päivälle epäselvän kielenkäytön vuoksi).

Palautuspolut: Miten agentti tai käyttäjä voi toipua näistä virheistä? Mitä mekanismeja on olemassa korjaamiseksi tai puuttumiseksi?

Menetelmän edut: Tarjoaa kokonaisvaltaisen kuvan agentin toimintakulusta, paljastaa piilotetut riippuvuudet ja mahdollistaa suojatoimien ennakoivan suunnittelun, virheiden käsittelyn ja käyttäjän interventiopisteet negatiivisten tulosten estämiseksi tai lieventämiseksi.

Simuloitu väärinkäytösten testaus: Tämä lähestymistapa on suunniteltu stressitestaamaan järjestelmää ja tarkkailemaan käyttäjien reaktioita, kun tekoälyagentti epäonnistuu tai poikkeaa odotuksista. Kyse on luottamuksen korjaamisen ja emotionaalisten reaktioiden ymmärtämisestä epäsuotuisissa tilanteissa.

Menetelmä: Ohjatuissa laboratoriotutkimuksissa ota tarkoituksella käyttöön skenaarioita, joissa agentti tekee virheen, tulkitsee komennon väärin tai käyttäytyy odottamattomasti. Simuloitavien "virheen" tyypit: komentoVäärintulkinta: Agentti suorittaa toiminnon, joka on hieman erilainen kuin mitä käyttäjä aikoi (esim. tilaa kaksi tuotetta yhden sijaan). Tietojen yli-/alikuormitus: Agentti tarjoaa liikaa epäolennaista tietoa tai ei tarpeeksi tärkeitä yksityiskohtia. Ei-toivottu toiminta: Agentti suorittaa toiminnon, jota käyttäjä ei nimenomaisesti halunnut tai odottanut (esim. ostaa osakkeita ilman lupaa). Järjestelmävirhe: Agentti kaatuu, lakkaa vastaamasta tai antaa virheilmoituksen. Eettiset ongelmat: Agentti tekee päätöksen, jolla on eettisiä vaikutuksia (esim. priorisoi yhden tehtävän toiseen nähden odottamattoman mittarin perusteella).

Tarkkailun painopiste: Käyttäjien reaktiot: Miten käyttäjät reagoivat emotionaalisesti (turhautuneisuus, viha, hämmennys, luottamuksen menetys)? Palautusyritykset: Mihin toimiin käyttäjät ryhtyvät korjatakseen agentin toiminnan tai kumotakseen sen toimet? Luottamuksen korjausmekanismit: Auttavatko järjestelmän sisäänrakennetut palautus- tai palautemekanismit luottamuksen palauttamisessa? Miten käyttäjät haluavat saada tietoa virheistä? Henkinen mallin muutos: Muuttaako huono käytös käyttäjän käsitystä agentin kyvyistä tai rajoituksista?

Menetelmän edut: Ratkaisevaa virheenpalautukseen, palautteeseen ja käyttäjän ohjaukseen liittyvien suunnittelun puutteiden tunnistamisessa. Se tarjoaa oivalluksia siitä, kuinka joustavat käyttäjät reagoivat agenttien epäonnistumiseen ja mitä tarvitaan luottamuksen ylläpitämiseksi tai uudelleenrakentamiseksi, mikä johtaa vahvempiin ja anteeksiantavampiin agenttijärjestelmiin.

Integroimalla nämä tutkimusmetodologiat käyttökokemuksen harjoittajat voivat siirtyä agenttijärjestelmien käyttökelpoisuuden lisäksi luotettaviksi, hallittaviksi ja vastuullisiksi, mikä edistää positiivista ja tuottavaa suhdetta käyttäjien ja heidän tekoälyagenttiensa välillä. Huomaa, että nämä eivät ole ainoita menetelmiä, joilla voidaan tutkia tehokasta tekoälyä. On olemassa monia muita menetelmiä, mutta ne ovat lähitulevaisuudessa ammattilaisten käytettävissä parhaiten. Olen aiemmin käsitellyt Wizard of Oz -menetelmää, hieman edistyneempää käsitteiden testausmenetelmää, joka on myös arvokas työkalu agenttien tekoälykonseptien tutkimiseen. Eettiset näkökohdat tutkimusmetodologiassa Agentista tekoälyä tutkittaessa, etenkin kun simuloidaan väärinkäytöksiä tai virheitä, eettiset näkökohdat ovat avainasemassa otettava huomioon. On monia julkaisuja, jotka keskittyvät eettiseen UX-tutkimukseen, mukaan lukien artikkeli, jonka kirjoitin Smashing Magazinelle, nämä UX Design Instituten ohjeet ja tämä sivu Inclusive Design Toolkitista. Agentin tekoälyn keskeiset mittarit Tarvitset kattavan joukon keskeisiä mittareita, jotta voit arvioida tehokkaasti agenttien tekoälyjärjestelmien suorituskykyä ja luotettavuutta. Nämä mittarit antavat tietoa käyttäjien luottamuksesta, järjestelmän tarkkuudesta ja yleisestä käyttökokemuksesta. Seuraamalla näitä indikaattoreita kehittäjät ja suunnittelijat voivat tunnistaa kehittämiskohteita ja varmistaa, että tekoälyagentit toimivat turvallisesti ja tehokkaasti. 1. Interventioprosentti Itsenäisten agenttien menestystä mitataan hiljaisuudella. Jos agentti suorittaa tehtävän ja käyttäjä ei puutu tai peruuta toimintoa tietyn ikkunan (esim. 24 tunnin) sisällä, laskemme sen hyväksynnäksi. Seuraamme puuttumisnopeutta: kuinka usein ihminen hyppää paikalle pysäyttääkseen tai korjatakseen agentin? Korkea interventioprosentti on merkki virheestä luottamuksessa tai logiikassa. 2. Ei-toivottujen toimintojen taajuus 1 000 tehtävää kohtiTämä kriittinen mittari määrittää AI-agentin suorittamien toimien määrän, joita käyttäjä ei halunnut tai odottanut, normalisoituna 1 000 suoritettua tehtävää kohti. Ei-toivottujen toimien alhainen esiintymistiheys tarkoittaa hyvin kohdistettua tekoälyä, joka tulkitsee tarkasti käyttäjän aikomukset ja toimii määriteltyjen rajojen sisällä. Tämä mittari on tiiviisti sidoksissa tekoälyn kontekstin ymmärtämiseen, sen kykyyn erottaa komennot ja sen turvallisuusprotokollien kestävyyteen. 3. Palautus- tai kumoamisnopeudetTämä mittari seuraa, kuinka usein käyttäjien on peruutettava tai kumottava tekoälyn suorittama toiminto. Korkeat palautusluvut viittaavat siihen, että tekoäly tekee usein virheitä, tulkitsee ohjeita väärin tai toimii tavoilla, jotka eivät vastaa käyttäjien odotuksia. Näiden peruutusten syiden analysointi voi antaa arvokasta palautetta tekoälyn algoritmien parantamiseen, käyttäjien mieltymysten ymmärtämiseen ja sen kykyyn ennustaa toivottuja tuloksia. Ymmärtääksesi miksi, sinun on otettava käyttöön mikrokysely kumoamistoiminnosta. Kun käyttäjä esimerkiksi peruuttaa aikataulumuutoksen, yksinkertainen kehote voi kysyä: "Väärä aika? Väärä henkilö? Vai halusitko vain tehdä sen itse?" Antaa käyttäjän napsauttaa vaihtoehtoa, joka parhaiten vastaa hänen päättelyään. 4. Aika ratkaisuun virheen jälkeenTämä mittarimittaa aikaa, joka kuluu käyttäjältä tekoälyn tekemän virheen korjaamiseen tai tekoälyjärjestelmän itsensä palautumiseen virheellisestä tilasta. Lyhyt aika ratkaisuun osoittaa tehokkaan ja käyttäjäystävällisen virheenpalautusprosessin, joka voi vähentää käyttäjien turhautumista ja ylläpitää tuottavuutta. Tämä sisältää virheen tunnistamisen helppouden, peruutus- tai korjausmekanismien käytettävyyden ja tekoälyn tarjoamien virheviestien selkeyden.

Näiden mittareiden kerääminen vaatii järjestelmän instrumentoinnin seuraamaan agentin toimintotunnuksia. Jokaisen edustajan erillisen toimenpiteen, kuten aikataulun ehdottamisen tai lennon varauksen, on luotava yksilöllinen tunnus, joka säilyy lokeissa. Mittaaksemme väliintulonopeutta emme etsi välitöntä käyttäjän reaktiota. Etsimme vastatoimen puuttumista määritetystä ikkunasta. Jos toimintotunnus luodaan kello 9.00 eikä kukaan ihminen muuta tai palauta kyseistä tunnusta seuraavana päivänä klo 9.00 mennessä, järjestelmä merkitsee sen loogisesti hyväksytyksi. Tämän avulla voimme kvantifioida menestyksen käyttäjän vaikenemisen perusteella aktiivisen vahvistuksen sijaan. Palautusasteiden osalta raakamäärät eivät ole riittäviä, koska niiltä puuttuu konteksti. Taustalla olevan syyn selvittämiseksi sinun on otettava käyttöön sieppauslogiikka sovelluksesi Kumoa- tai Peruuta-toiminnoissa. Kun käyttäjä peruuttaa agentin käynnistämän toiminnon, käynnistä kevyt mikrokysely. Tämä voi olla yksinkertainen kolmen vaihtoehdon modaali, jossa käyttäjää pyydetään luokittelemaan virhe tosiasiallisesti virheelliseksi, puutteelliseksi kontekstiksi tai yksinkertaiseksi mieltymykseksi käsitellä tehtävä manuaalisesti. Tämä yhdistää kvantitatiivisen telemetrian laadulliseen näkemykseen. Sen avulla suunnittelutiimit voivat erottaa rikkinäisen algoritmin ja käyttäjän mieltymysten yhteensopimattomuuden. Nämä mittarit, kun niitä seurataan johdonmukaisesti ja analysoidaan kokonaisvaltaisesti, tarjoavat vankan kehyksen agenttien tekoälyjärjestelmien suorituskyvyn arvioimiseen, mikä mahdollistaa jatkuvan hallinnan, suostumuksen ja vastuullisuuden parantamisen. Suunnittelu petosta vastaan Kun aineet muuttuvat yhä kyvykkäämmiksi, kohtaamme uuden riskin: Agentic Sludgen. Perinteinen liete aiheuttaa kitkaa, joka vaikeuttaa tilauksen peruuttamista tai tilin poistamista. Agenttiliete toimii päinvastoin. Se poistaa kitkan vioista, jolloin käyttäjän on liian helppoa suostua toimintaan, joka hyödyttää liiketoimintaa omien etujensa sijaan. Harkitse agenttia, joka auttaa matkan varaamisessa. Ilman selkeitä suojakaiteita järjestelmä saattaa priorisoida kumppanilentoyhtiön tai korkeamman marginaalin hotellin. Se esittää tämän valinnan optimaalisena poluna. Käyttäjä, joka luottaa järjestelmän valtuutukseen, hyväksyy suosituksen ilman tarkastelua. Tämä luo petollisen mallin, jossa järjestelmä optimoi tulot mukavuuden varjolla. Valheellisesti kuvitellun pätevyyden riski Petos ei saa johtua pahantahtoisesta tarkoituksesta. Se ilmenee usein tekoälyssä kuvitteellisena osaamisena. Suuret kielimallit kuulostavat usein arvovaltaisilta, vaikka ne olisivatkin vääriä. He esittävät väärän varausvahvistuksen tai epätarkan yhteenvedon samalla varmuudella kuin varmennettu tosiasia. Käyttäjät voivat luonnollisesti luottaa tähän luottavaiseen sävyyn. Tämä epäsuhta luo vaarallisen aukon järjestelmän ominaisuuksien ja käyttäjien odotusten välille. Meidän on suunniteltava erityisesti tämän kuilun kuromiseksi. Jos agentti ei suorita tehtävää, käyttöliittymän on ilmoitettava virheestä selvästi. Jos järjestelmä on epävarma, sen on ilmaistava epävarmuus sen sijaan, että se peitetään hiotulla proosalla. Läpinäkyvyys Primitivesin kautta Vastalääke sekä lieteelle että hallusinaatioille on alkuperä. Jokainen itsenäinen toiminta vaatii erityisen metatietotunnisteen, joka selittää päätöksen alkuperän. Käyttäjät tarvitsevat mahdollisuuden tarkastaa tuloksen takana oleva logiikkaketju. Tämän saavuttamiseksi meidän on muutettava primitiivit käytännön vastauksiksi. Ohjelmistosuunnittelussa primitiivit viittaavat agentin suorittamiin tiedon tai toimintojen ydinyksikköihin. Insinöörille tämä näyttää API-kutsulta tai logiikkaportilta. Käyttäjälle sen on oltava selkeä selitys. Suunnittelun haaste on näiden teknisten vaiheiden kartoittaminen ihmisen luettavissa oleviin perusteluihin. Jos agentti suosittelee tiettyä lentoa, käyttäjän on tiedettävä miksi. Käyttöliittymä ei voi piiloutua yleisen ehdotuksen taakse. Sen tulee paljastaa taustalla oleva primitiivi: Logiikka: Halvin_Suora lento tai Logiikka: Partner_Airline_Priority. Kuva 4 havainnollistaa tätä translaatiovirtaa. Otamme raakajärjestelmän primitiivin – varsinaisen koodilogiikan – ja yhdistämme sen käyttäjäkohtaiseen merkkijonoon. Esimerkiksi alkeellisesta kokouksen kalenteriaikataulun tarkistamisesta tulee selvä lausunto: Olen ehdottanut klo 16.kokous. Tämä läpinäkyvyyden taso varmistaa, että agentin toimet vaikuttavat loogiselta ja hyödylliseltä. Sen avulla käyttäjä voi varmistaa, että agentti toimi hänen parhaansa mukaisesti. Paljastamalla primitiivit muutamme mustan laatikon lasilaatikoksi ja varmistamme, että käyttäjät pysyvät lopullisena auktoriteettina omassa digitaalisessa elämässään.

Suunnittelun näyttämön asettaminen Agenttijärjestelmän rakentaminen vaatii uuden tason psykologista ja käyttäytymiseen liittyvää ymmärrystä. Se pakottaa meidät siirtymään tavanomaisen käytettävyystestauksen ulkopuolelle ja siirtymään luottamuksen, suostumuksen ja vastuullisuuden piiriin. Keskustelemamme tutkimusmenetelmät mielenterveysmallien tutkimisesta huonon käytöksen simuloimiseen ja uusien mittareiden luomiseen tarjoavat tarpeellisen perustan. Nämä käytännöt ovat välttämättömiä työkaluja, joiden avulla voidaan ennakoivasti tunnistaa, missä autonominen järjestelmä saattaa epäonnistua, ja mikä tärkeintä, kuinka korjata käyttäjä-agenttisuhde, kun se epäonnistuu. Siirtyminen agenttiseen tekoälyyn on käyttäjän ja järjestelmän välisen suhteen uudelleenmäärittely. Emme enää suunnittele työkaluja, jotka vain vastaavat komentoihin; suunnittelemme kumppaneille, jotka toimivat puolestamme. Tämä muuttaa suunnittelun välttämättömyyden tehokkuudesta ja helppokäyttöisyydestä läpinäkyvyyteen, ennustettavuuteen ja hallintaan. Kun tekoäly voi varata lennon tai vaihtaa osakkeita ilman viimeistä napsautusta, sen "on-ramppien" ja "off-ramppien" suunnittelusta tulee ensiarvoisen tärkeää. Meidän vastuullamme on varmistaa, että käyttäjät tuntevat olevansa kuljettajan paikalla, vaikka he olisivat luovuttaneet ratin. Tämä uusi todellisuus nostaa myös UX-tutkijan roolia. Meistä tulee käyttäjien luottamuksen säilyttäjiä, jotka työskentelevät yhteistyössä insinöörien ja tuotepäälliköiden kanssa määrittääksemme ja testataksemme edustajan autonomian suojakaiteet. Tutkijoiden lisäksi meistä tulee käyttäjien hallinnan, läpinäkyvyyden ja kehitysprosessin eettisten takeiden puolestapuhujia. Muuntamalla primitiivit käytännön kysymyksiksi ja simuloimalla pahimpia skenaarioita voimme rakentaa kestäviä järjestelmiä, jotka ovat sekä tehokkaita että turvallisia. Tässä artikkelissa on hahmoteltu "mitä" ja "miksi" agentti-AI-tutkimuksessa. Se on osoittanut, että perinteiset työkalupakkimme ovat riittämättömiä ja että meidän on omaksuttava uusia, tulevaisuuteen suuntautuvia menetelmiä. Seuraava artikkeli rakentuu tälle perustalle ja tarjoaa erityisiä suunnittelumalleja ja organisaatiokäytäntöjä, jotka tekevät agentin hyödyn läpinäkyväksi käyttäjille ja varmistavat, että he voivat valjastaa agentti-AI:n voiman luottavaisesti ja hallinnassa. UX:n tulevaisuus on järjestelmien luotettavuuden tekeminen. Saat lisätietoa agentti-AI:stä tutustumalla seuraaviin resursseihin:

Agentista tekoälyä käsittelevä Google AI -blogi Microsoftin tutkimus tekoälyagenteista

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free