Agentic AI on valmis muutma kliendikogemust ja tegevuse tõhusust, mistõttu on juhtkonnalt vaja uut strateegilist lähenemist. See tehisintellekti areng annab süsteemidele võimaluse kavandada, ellu viia ja ülesandeid täita, liikudes lihtsatest soovitustest proaktiivse tegevuseni. UX-meeskondade, tootejuhtide ja juhtide jaoks on selle nihke mõistmine ülioluline innovatsioonivõimaluste avamiseks, töövoogude sujuvamaks muutmiseks ja tehnoloogia inimeste teenistuse ümberdefineerimiseks. Agenti AI-d on lihtne segi ajada robotprotsesside automatiseerimisega (RPA), mis on tehnoloogia, mis keskendub arvutites tehtavatele reeglipõhistele ülesannetele. Erinevus seisneb jäikuses ja arutluskäigus. RPA järgib suurepäraselt ranget skripti: kui juhtub X, tehke Y. See jäljendab inimese käsi. Agent AI jäljendab inimese arutluskäiku. See ei järgi lineaarset skripti; see loob ühe. Kaaluge värbamise töövoogu. RPA-bot suudab CV-d skannida ja selle andmebaasi üles laadida. See täidab korduvat ülesannet suurepäraselt. Agendi süsteem vaatab CV-d, märkab, et kandidaat loetleb konkreetse sertifikaadi, viitab sellele uue kliendi nõudega ja otsustab koostada isikupärastatud teavitusmeili, milles see vaste esile tõstab. RPA täidab etteantud plaani; Agent AI koostab plaani eesmärgist lähtuvalt. See autonoomia eraldab agendid ennustusvahenditest, mida oleme viimase kümnendi jooksul kasutanud. Teine näide on koosolekukonfliktide haldamine. Teie kalendrisse integreeritud ennustav mudel võib analüüsida teie koosolekute ajakava ja kolleegide ajakavasid. Seejärel võib see soovitada võimalikke konflikte, näiteks kahte samaaegselt kavandatud olulist koosolekut või koosolekut, mis on kavandatud ajal, mil üks oluline osaleja on puhkusel. See annab teile teavet ja märgib võimalikud probleemid, kuid teie vastutate meetmete võtmise eest. Agentne tehisintellekt läheks sama stsenaariumi korral kaugemale, kui soovitaks vältida konflikte. Konflikti tuvastamisel võtmeosalejaga võib agent tegutseda järgmiselt:

Kõigi vajalike osalejate saadavuse kontrollimine. Kõigi jaoks sobivate alternatiivsete ajavahemike tuvastamine. Pakutud uute koosolekukutsete saatmine kõigile osalejatele. Kui konflikt on välise osalejaga, võib agent koostada ja saata meili, milles selgitatakse ajakava muutmise vajadust ja pakutakse alternatiivseid aegu. Pärast kinnitamist värskendage oma kalendrit ja kolleegide kalendreid uute koosolekute üksikasjadega.

See agent-AI mõistab eesmärki (kohtumise konflikti lahendamine), kavandab sammud (kättesaadavuse kontrollimine, alternatiivide otsimine, kutsete saatmine), viib need toimingud läbi ja jätkab kuni konflikti lahendamiseni ning seda kõike minimaalse otsese kasutaja sekkumisega. See näitab "agendi" erinevust: süsteem teeb kasutaja jaoks ennetavaid samme, mitte ei paku kasutajale lihtsalt teavet. Agentsed AI-süsteemid mõistavad eesmärki, kavandavad selle saavutamiseks samme, viivad need ellu ja isegi kohanduvad, kui asjad lähevad valesti. Mõelge sellele kui ennetavale digitaalsele assistendile. Selle aluseks olev tehnoloogia ühendab sageli mõistmiseks ja arutlemiseks suuri keelemudeleid (LLM) planeerimisalgoritmidega, mis jaotavad keerulised ülesanded juhitavateks toiminguteks. Need agendid saavad oma eesmärkide saavutamiseks suhelda erinevate tööriistade, API-de ja isegi muude tehisintellekti mudelitega ning kriitiliselt võttes suudavad nad säilitada püsiva oleku, mis tähendab, et nad mäletavad varasemaid tegevusi ja jätkavad aja jooksul eesmärgi nimel töötamist. See muudab need põhimõtteliselt erinevaks tüüpilisest generatiivsest AI-st, mis tavaliselt täidab ühe päringu ja seejärel lähtestab. Lihtne agendikäitumise taksonoomia Me võime agendi käitumise liigitada nelja erinevasse autonoomia režiimi. Kuigi need näevad sageli välja nagu progresseeruvad, toimivad nad iseseisvate töörežiimidena. Kasutaja võib usaldada agenti tegutsema ajakava koostamisel autonoomselt, kuid hoida seda finantstehingute jaoks soovitusrežiimis. Tuletasime need tasemed, kohandades autonoomsete sõidukite (SAE tasemed) tööstusstandardeid digitaalse kasutajakogemuse kontekstiga. Jälgi ja soovita Agent toimib monitorina. See analüüsib andmevooge ja märgib kõrvalekaldeid või võimalusi, kuid ei võta midagi ette. Eristamine Erinevalt järgmisest tasemest ei koosta agent keerulist plaani. See viitab probleemile. NäideA DevOpsi agent märkab serveri CPU naelu ja hoiatab valveinseneri. Ta ei tea, kuidas või üritab seda parandada, kuid teab, et midagi on valesti. Mõju projekteerimisele ja järelevalvele Sellel tasemelkujundus ja järelevalve peaksid seadma esikohale selged, mittepealetükkivad teatised ja täpselt määratletud protsessi, mille abil kasutajad saavad soovituste alusel tegutseda. Keskendutakse kasutajale õigeaegse ja asjakohase teabe andmisel ilma kontrolli üle võtmata. UX-i praktikud peaksid keskenduma soovituste selgeks ja hõlpsasti arusaadavaks tegemisele, samas kui tootejuhid peavad tagama, et süsteem pakuks väärtust ilma kasutajat üle koormamata. Planeerige ja tehke ettepanek Agent tuvastab eesmärgi ja loob selle saavutamiseks mitmeastmelise strateegia. See esitab inimeste läbivaatamise täieliku plaani. EristumineAgent tegutseb strateegina. See ei täida; see ootab kogu lähenemisviisi heakskiitu. Näide Sama DevOpsi agent märkab CPU naelu, analüüsib logisid ja pakub välja parandusplaani:

Keerake üles kaks lisajuhtumit. Taaskäivitage koormuse tasakaalustaja. Arhiivige vanu palke.

Inimene vaatab loogika üle ja klõpsab "Kinnita plaan". Mõju projekteerimisele ja järelevalvele Planeerivate ja ettepanekuid tegevate agentide jaoks peab disain tagama, et kavandatavad plaanid on kergesti arusaadavad ja et kasutajatel oleks intuitiivsed viisid nende muutmiseks või tagasilükkamiseks. Järelevalve on ettepanekute kvaliteedi ja agendi planeerimisloogika jälgimisel ülioluline. UX-i praktikud peaksid kavandama kavandatud plaanidest selged visualiseeringud ning tootejuhid peavad looma selged ülevaatamise ja kinnitamise töövood. Kinnitusega tegutsemine Agent viib lõpule kõik ettevalmistustööd ja asetab viimase tegevuse lavastatud olekusse. See hoiab ust tõhusalt lahti, oodates noogutust. EristamineSee erineb funktsioonist „Planeeri ja paku välja“, kuna töö on juba tehtud ja lavastatud. See vähendab hõõrdumist. Kasutaja kinnitab tulemust, mitte strateegiat. Näide Värbamisagent koostab viis intervjuukutset, leiab kalendritest lahtiolekuajad ja loob kalendrisündmused. Sellel on nupp "Saada kõik". Kasutaja annab lõpliku loa välistegevuse käivitamiseks. Mõju projekteerimisele ja järelevalvele Kui esindajad tegutsevad kinnitusega, peaks kava pakkuma kavandatud tegevuse läbipaistvaid ja lühikesi kokkuvõtteid, tuues selgelt välja võimalikud tagajärjed. Järelevalve peab kontrollima, kas kinnitusprotsess on jõuline ja et kasutajatel ei paluta toiminguid pimesi heaks kiita. UX-i praktikud peaksid koostama kinnitusviibad, mis on selged ja sisaldavad kogu vajalikku teavet, ning tootejuhid peaksid seadma esikohale kõigi kinnitatud toimingute tugeva kontrolljälje. Tegutse-autonoomselt Agent täidab ülesandeid määratletud piirides iseseisvalt. EristamineKasutaja vaatab üle toimingute ajaloo, mitte toiminguid ise. Näide Värbamisagent näeb konflikti, viib vestluse varukohta, värskendab kandidaati ja teavitab värbamisjuhti. Inimene näeb ainult märguannet: intervjuu on muudetud teisipäevale. Mõju projekteerimisele ja järelevalvele Autonoomsete agentide jaoks peab disain kehtestama selged eelnevalt kinnitatud piirid ja pakkuma tugevaid jälgimistööriistu. Järelevalve nõuab pidevat agendi jõudluse hindamist nendes piirides, kriitilist vajadust tugeva logimise, selgete alistamismehhanismide ja kasutaja määratletud tapmislülitite järele, et säilitada kasutaja kontroll ja usaldus. UX-i praktikud peaksid keskenduma tõhusate armatuurlaudade kujundamisele autonoomse agendi käitumise jälgimiseks ning tootejuhid peavad tagama selgete juhtimis- ja eetikajuhiste olemasolu.

Vaatame HR-tehnoloogia reaalset rakendust, et näha neid režiime töös. Mõelge "intervjuude koordineerimisagendile", mis on loodud töölevõtmise logistikaga tegelema.

Soovitusrežiimis Agent märkab, et intervjueerija on topelt broneeritud. See tõstab esile konflikti värbaja armatuurlaual: "Hoiatus: Sarah on kell 14.00 intervjuu jaoks topelt broneeritud." Plaanirežiimis Agent analüüsib Saara kalendrit ja kandidaadi saadavust. See esitab lahenduse: "Soovitan viia intervjuu neljapäevale kell 10.00. Selleks on vaja Sarah'i 1:1 üle viia." Värbaja vaatab selle loogika üle. Kinnitusrežiimis Agent koostab kandidaadile ja juhile saadetavad meilid. See täidab kalendrikutsed. Värbaja näeb kokkuvõtet: "Kas olete valmis neljapäevaks ümber ajama. Kas saada värskendusi?" Värbaja klõpsab "Kinnita". Autonoomses režiimis käsitleb agent konflikti koheselt. See austab eelseadistatud reeglit: "Eelistage alati kandidaatide vestlusi sisemiste 1:1 intervjuude ees." See liigutab koosolekut ja saadab teateid. Värbaja näeb logikirjet: „Lahendatudajakava konflikt kandidaadi B jaoks.

Uurimisaabits: mida ja kuidas uurida Tõhusa agent-AI väljatöötamine nõuab traditsioonilise tarkvara või isegi generatiivse tehisintellektiga võrreldes erinevat uurimismeetodit. Tehisintellekti agentide autonoomne olemus, nende võime teha otsuseid ja potentsiaal ennetavaks tegutsemiseks nõuavad spetsiaalseid metoodikaid kasutajate ootuste mõistmiseks, agentide keeruka käitumise kaardistamiseks ja võimalike tõrgete ennetamiseks. Järgmine uurimistöö aabits toob välja peamised meetodid agentilise AI nende ainulaadsete aspektide mõõtmiseks ja hindamiseks. Vaimse mudeli intervjuud Need intervjuud paljastavad kasutajate eelarvamused selle kohta, kuidas tehisintellekti agent peaks käituma. Selle asemel, et lihtsalt küsida, mida kasutajad tahavad, keskendutakse nende sisemiste mudelite mõistmisele agendi võimaluste ja piirangute kohta. Peaksime vältima sõna "agent" kasutamist osalejate puhul. See kannab ulmelist pagasit või on termin, mida on liiga lihtne segi ajada tuge või teenuseid pakkuva inimagendiga. Selle asemel kujundage arutelu "assistentide" või "süsteemi" ümber. Peame välja selgitama, kuhu tõmbavad kasutajad joone kasuliku automatiseerimise ja pealetükkiva juhtimise vahel.

Meetod: paluge kasutajatel kirjeldada, joonistada või jutustada oma eeldatavat suhtlust agendiga erinevate hüpoteetiliste stsenaariumide korral. Võtmeuuringud (mis peegeldab erinevaid tööstusharusid): Soovitud automatiseerimise piiride ja liigse automatiseerimisega seotud võimalike murede mõistmiseks küsige: Kui teie lend tühistatakse, mida soovite, et süsteem teeks automaatselt? Mis teeks teile muret, kui see teeks seda ilma teie selgesõnalise juhiseta?

Et uurida, kuidas kasutaja mõistab agendi sisemisi protsesse ja vajalikku suhtlust, küsige: Kujutage ette, et teie nutikat kodu haldab digiassistent. Kui pakk toimetatakse kohale, siis milliseid samme see teie arvates ette võtab ja millist teavet ootate?

Kontrolli ja nõusolekuga seotud ootuste avastamiseks mitmeastmelise protsessi käigus küsige: Kui palute oma digiassistendil kohtumise ajastada, milliseid samme teie ette kujutate? Millistes punktides sooviksite, et teiega konsulteeritaks või teile antaks valikuvõimalusi?

Meetodi eelised: paljastab kaudsed eeldused, tõstab esile valdkonnad, kus agendi kavandatud käitumine võib erineda kasutaja ootustest, ning annab teavet sobivate kontrolli- ja tagasisidemehhanismide kavandamisel.

Agendi teekonna kaardistamine: Sarnaselt tavapärasele kasutaja teekonna kaardistamisele keskendub agendi teekonna kaardistamine konkreetselt tehisintellekti agendi enda eeldatavatele toimingutele ja otsustuspunktidele koos kasutaja suhtlusega. See aitab ennetavalt tuvastada võimalikke lõkse.

Meetod: looge visuaalne kaart, mis kirjeldab agendi toimimise erinevaid etappe alates algatamisest kuni lõpetamiseni, sealhulgas kõik võimalikud toimingud, otsused ja interaktsioonid välissüsteemide või kasutajatega. Kaardi põhielemendid: Agendi toimingud: milliseid konkreetseid ülesandeid või otsuseid agent täidab? Teabe sisendid/väljundid: milliseid andmeid agent vajab ja millist teavet see genereerib või edastab? Otsustavad punktid: kus agent teeb valikuid ja millised on nende valikute kriteeriumid? Kasutajate suhtluspunktid: kus kasutaja sisestab, vaatab üle või kinnitab toiminguid? Ebaõnnestumise punktid: määrake kindlaks konkreetsed juhtumid, kus agent võib juhiseid valesti tõlgendada, teha vale otsuse või suhelda vale üksusega. Näited: vale saaja (nt tundliku teabe saatmine valele isikule), arvelduskrediit (nt automaatmakse, mis ületab olemasolevaid rahalisi vahendeid), kavatsuse väär tõlgendus (nt lennu broneerimine valele kuupäevale mitmetähendusliku keelekasutuse tõttu).

Taasteteed: kuidas saab agent või kasutaja nendest tõrgetest taastuda? Millised mehhanismid on korrigeerimiseks või sekkumiseks paigas?

Meetodi eelised: annab tervikliku ülevaate agendi töövoost, paljastab varjatud sõltuvused ja võimaldab ennetavalt kavandada kaitsemeetmeid, vigade käsitlemist ja kasutaja sekkumispunkte, et vältida või leevendada negatiivseid tulemusi.

Simuleeritud väärkäitumise testimine: See lähenemisviis on loodud süsteemi stressitestimiseks ja kasutaja reaktsioonide jälgimiseks, kui tehisintellekti agent ebaõnnestub või kaldub ootustest kõrvale. See puudutab usalduse parandamise ja emotsionaalsete reaktsioonide mõistmist ebasoodsates olukordades.

Meetod: kontrollitud laboriuuringutes tutvustage tahtlikult stsenaariume, kus agent teeb vea, tõlgendab käsku valesti või käitub ootamatult. Simuleeritava väärkäitumise tüübid: KäskVäärtõlgendus: agent sooritab kasutaja kavandatust veidi erineva toimingu (nt tellib ühe kauba asemel kaks). Teabe üle-/alakoormus: agent pakub liiga palju ebaolulist teavet või ei anna piisavalt kriitilisi üksikasju. Soovimatu toiming: agent teeb toimingu, mida kasutaja selgesõnaliselt ei soovinud ega oodanud (nt ostab aktsiaid ilma heakskiiduta). Süsteemitõrge: agent jookseb kokku, ei reageeri või kuvab veateate. Eetilised dilemmad: agent teeb eetiliste mõjudega otsuse (nt eelistab üht ülesannet teisele ettenägematu mõõdiku alusel).

Vaatluse fookus: Kasutajate reaktsioonid: kuidas kasutajad emotsionaalselt reageerivad (frustratsioon, viha, segadus, usalduse kaotus)? Taastekatsed: milliseid samme kasutajad võtavad agendi käitumise parandamiseks või tegevuse tühistamiseks? Usalduse parandamise mehhanismid: kas süsteemi sisseehitatud taastamise või tagasiside mehhanismid aitavad usaldust taastada? Kuidas soovivad kasutajad vigadest teada saada? Vaimse mudeli nihe: kas väärkäitumine muudab kasutaja arusaama agendi võimalustest või piirangutest?

Meetodi eelised: ülioluline vigade taastamise, tagasiside ja kasutajakontrolliga seotud disainilünkade tuvastamisel. See annab ülevaate sellest, kui vastupidavad on kasutajad agentide tõrgete suhtes ja mida on vaja usalduse säilitamiseks või taastamiseks, mis viib tugevamate ja andestavamate agentsüsteemideni.

Neid uurimismetoodikaid integreerides saavad UX-i praktikud liikuda kaugemale lihtsalt agentsüsteemide kasutatavaks muutmisest, vaid muuta need usaldusväärseks, kontrollitavaks ja vastutustundlikuks, edendades positiivset ja produktiivset suhet kasutajate ja nende tehisintellekti agentide vahel. Pange tähele, et need pole ainsad meetodid, mis on olulised agentide tehisintellekti tõhusaks uurimiseks. On palju muid meetodeid, kuid need on lähiajal kõige paremini kättesaadavad. Olen varem käsitlenud meetodit Wizard of Oz, mis on veidi arenenum kontseptsioonide testimise meetod, mis on samuti väärtuslik tööriist agentide tehisintellekti kontseptsioonide uurimiseks. Uurimismetoodika eetilised kaalutlused Agentse tehisintellekti uurimisel, eriti väärkäitumise või vigade simuleerimisel, on võtmetähtsusega arvesse võtta eetilisi kaalutlusi. On palju väljaandeid, mis keskenduvad eetilisele kasutajakogemuse uurimisele, sealhulgas artikkel, mille kirjutasin ajakirjale Smashing Magazine, need juhised UX disainiinstituudilt ja see leht kaasava disaini tööriistakomplektist. Agentilise AI põhimõõdikud Agentsete AI-süsteemide toimivuse ja töökindluse tõhusaks hindamiseks vajate põhjalikku võtmemõõdikute komplekti. Need mõõdikud annavad ülevaate kasutajate usaldusest, süsteemi täpsusest ja üldisest kasutuskogemusest. Neid näitajaid jälgides saavad arendajad ja disainerid kindlaks teha parendusvaldkonnad ning tagada tehisintellekti agentide ohutu ja tõhusa töö. 1. Sekkumise määr Autonoomsete agentide puhul mõõdame edukust vaikimise järgi. Kui agent täidab ülesande ja kasutaja määratud akna (nt 24 tunni) jooksul ei sekku ega toimingut tagasi ei pööra, arvestame seda aktsepteerimisena. Jälgime sekkumissagedust: kui sageli hüppab inimene agenti peatama või parandama? Kõrge sekkumismäär annab märku usalduse või loogika väärast. 2. Soovimatute toimingute sagedus 1000 ülesande kohta See kriitiline mõõdik kvantifitseerib AI agendi tehtud toimingute arvu, mida kasutaja ei soovinud ega oodanud, normaliseerituna 1000 täidetud ülesande kohta. Soovimatute toimingute madal sagedus tähendab hästi joondatud tehisintellekti, mis tõlgendab täpselt kasutaja kavatsusi ja tegutseb kindlaksmääratud piirides. See mõõdik on tihedalt seotud tehisintellekti arusaamisega kontekstist, võimega käske eristada ja ohutusprotokollide töökindlusega. 3. Tagastamise või tagasivõtmise määradSee mõõdik jälgib, kui sageli peavad kasutajad tehisintellekti tehtud toimingut tagasi pöörama või tagasi võtma. Kõrged tagasivõtmise määrad viitavad sellele, et AI teeb sageli vigu, tõlgendab juhiseid valesti või tegutseb viisil, mis ei vasta kasutaja ootustele. Nende tagasipööramiste põhjuste analüüsimine võib anda väärtuslikku tagasisidet tehisintellekti algoritmide täiustamiseks, kasutajate eelistuste mõistmiseks ja selle võimeks ennustada soovitud tulemusi. Põhjuse mõistmiseks peate tagasivõtmise toimingu kohta rakendama mikrouuringu. Näiteks kui kasutaja tühistab ajakava muutmise, võib lihtne viip küsida: "Vale aeg? Vale inimene? Või tahtsite seda lihtsalt ise teha?" Võimaldades kasutajal klõpsata valikul, mis vastab kõige paremini tema arutluskäigule. 4. Lahendamise aeg pärast vigaSee mõõdikmõõdab aega, mis kulub kasutajal tehisintellekti tehtud vea parandamiseks või AI-süsteemil endal vigasest olekust taastumiseks. Lühike aeg lahendamiseni viitab tõhusale ja kasutajasõbralikule vea taastamise protsessile, mis võib leevendada kasutajate frustratsiooni ja säilitada tootlikkust. See hõlmab vea tuvastamise lihtsust, tagasivõtmis- või parandusmehhanismide ligipääsetavust ning tehisintellekti pakutavate veateadete selgust.

Nende mõõdikute kogumiseks on vaja oma süsteemi instrumenteerida, et jälgida agendi toimingu ID-sid. Iga agendi eristatav toiming, näiteks ajakava pakkumine või lennu broneerimine, peab looma kordumatu ID, mis säilib logides. Sekkumissageduse mõõtmiseks ei otsi me kasutaja vahetut reaktsiooni. Otsime määratletud aknas vastutegevuse puudumist. Kui toimingu ID luuakse kell 9.00 ja ükski inimkasutaja ei muuda ega ennista seda konkreetset ID-d järgmise päeva kella 9.00-ks, märgib süsteem selle loogiliselt kui Aktsepteeritud. See võimaldab meil edu kvantifitseerida pigem kasutaja vaikimise kui aktiivse kinnituse põhjal. Tagastamismäärade puhul pole töötlemata arvandmed ebapiisavad, kuna neil puudub kontekst. Aluspõhjuse tuvastamiseks peate rakendama oma rakenduse tagasivõtmis- või ennistamisfunktsioonides pealtkuulamisloogika. Kui kasutaja tühistab agendi algatatud toimingu, käivitage kerge mikroküsitlus. See võib olla lihtne kolme valikuga modaal, mis palub kasutajal kategoriseerida viga faktiliselt ebaõigeks, konteksti puudumiseks või lihtsa eelistusena ülesandega käsitsi tegeleda. See ühendab kvantitatiivse telemeetria kvalitatiivse ülevaatega. See võimaldab insenerimeeskondadel teha vahet katkisel algoritmil ja kasutaja eelistuste mittevastavusel. Need mõõdikud, kui neid järjepidevalt jälgitakse ja terviklikult analüüsitakse, loovad tugeva raamistiku agentide AI-süsteemide toimivuse hindamiseks, võimaldades pidevalt täiustada kontrolli, nõusolekut ja vastutust. Disain pettuse vastu Kuna ained muutuvad üha võimekamaks, seisame silmitsi uue riskiga: Agentic Sludge. Traditsiooniline muda tekitab hõõrdumist, mis muudab tellimuse tühistamise või konto kustutamise keeruliseks. Agentne muda toimib vastupidiselt. See eemaldab hõõrdumise rikkeni, muutes kasutajal liiga lihtsaks nõustuda tegevusega, mis toob kasu pigem ettevõttele kui tema enda huvidele. Kaaluge agenti, kes abistab reiside broneerimisel. Ilma selgete kaitsepiireteta võib süsteem eelistada partnerlennufirmat või kõrgema marginaaliga hotelli. See esitab selle valiku optimaalse teena. Kasutaja, kes usaldab süsteemi volitusi, nõustub soovitusega ilma kontrollita. See loob petliku mustri, kus süsteem optimeerib mugavuse varjus tulusid. Valesti väljamõeldud pädevuse oht Pettus ei tohi tuleneda pahatahtlikust kavatsusest. See väljendub tehisintellektis sageli väljamõeldud pädevusena. Suured keelemudelid kõlavad sageli autoriteetselt isegi siis, kui need on valed. Nad esitavad vale broneeringukinnituse või ebatäpse kokkuvõtte sama kindlalt kui kontrollitud fakti. Kasutajad võivad seda enesekindlat tooni loomulikult usaldada. See mittevastavus loob ohtliku lõhe süsteemi võimekuse ja kasutaja ootuste vahel. Peame kavandama spetsiaalselt selle lõhe ületamiseks. Kui agent ei suuda ülesannet täita, peab liides sellest veast selgelt märku andma. Kui süsteem pole kindel, peab see pigem väljendama ebakindlust kui maskeerima seda lihvitud proosaga. Läbipaistvus primitiivide kaudu Nii muda kui ka hallutsinatsioonide vastumürk on päritolu. Iga autonoomne toiming nõuab konkreetset metaandmete silti, mis selgitab otsuse päritolu. Kasutajad vajavad võimet kontrollida tulemuse taga olevat loogikat. Selle saavutamiseks peame tõlkima primitiivid praktilisteks vastusteks. Tarkvaratehnikas viitavad primitiivid teabe või toimingute põhiüksustele, mida agent teeb. Insenerile tundub see API-kõne või loogikaväravana. Kasutajale peab see paistma selge selgitusena. Disaini väljakutse seisneb nende tehniliste sammude kaardistamises inimloetavate põhjendustega. Kui agent soovitab konkreetset lendu, peab kasutaja teadma, miks. Liides ei saa peituda üldise soovituse taha. See peab paljastama aluseks oleva primitiivi: loogika: odavaim_otsene lend või loogika: partner_lennuliini_prioriteet. Joonis 4 illustreerib seda translatsioonivoogu. Võtame toorsüsteemi primitiivse – tegeliku koodiloogika – ja vastendame selle kasutajale suunatud stringiga. Näiteks koosoleku kalendriplaani primitiivne kontrollimine muutub selgeks väiteks: olen pakkunud välja kell 16.00.koosolekul. Selline läbipaistvuse tase tagab, et agendi tegevus näib loogiline ja kasulik. See võimaldab kasutajal kontrollida, kas agent tegutses nende huvides. Primitiivide paljastamisega muudame musta kasti klaaskastiks, tagades, et kasutajad jäävad oma digitaalse elu lõplikuks autoriteediks.

Disaini lava loomine Agensisüsteemi loomine nõuab psühholoogilise ja käitumusliku mõistmise uut taset. See sunnib meid liikuma tavapärasest kasutatavuse testimisest kaugemale ja minema usalduse, nõusoleku ja vastutuse valdkonda. Uurimismeetodid, mida oleme arutanud, alates vaimsete mudelite uurimisest kuni väärkäitumise simuleerimise ja uute mõõdikute loomiseni, loovad vajaliku aluse. Need tavad on olulised tööriistad, et ennetavalt tuvastada, kus autonoomne süsteem võib ebaõnnestuda, ja mis veelgi olulisem, kuidas parandada kasutaja-agendi suhet, kui see juhtub. Üleminek agentsele AI-le on kasutaja ja süsteemi suhte ümberdefineerimine. Me ei kavanda enam tööriistu, mis lihtsalt reageerivad käskudele; kujundame partneritele, kes tegutsevad meie nimel. See muudab disaini nõuet tõhususest ja kasutuslihtsusest läbipaistvuse, prognoositavuse ja kontrollini. Kui tehisintellekt saab broneerida lennu või kaubelda aktsiatega ilma viimase klõpsuta, muutub selle kaldteede ja kaldteede kujundus ülimalt oluliseks. Meie kohustus on tagada, et kasutajad tunneksid end juhiistmel isegi siis, kui nad on rooli üle andnud. See uus reaalsus tõstab ka UX-i uurija rolli. Meist saavad kasutajate usalduse hoidjad, tehes koostööd inseneride ja tootejuhtidega, et määratleda ja testida agendi autonoomia piirdeid. Lisaks teadlastele on meist arendusprotsessis kasutajakontrolli, läbipaistvuse ja eetiliste kaitsemeetmete eestkõneleja. Tõlkides primitiivid praktilisteks küsimusteks ja simuleerides halvimaid stsenaariume, saame luua tugevaid süsteeme, mis on nii võimsad kui ka ohutud. Selles artiklis on kirjeldatud agentide tehisintellekti uurimise „mida” ja „miks”. See on näidanud, et meie traditsioonilised tööriistakomplektid on ebapiisavad ja me peame kasutusele võtma uued tulevikku suunatud metoodikad. Järgmine artikkel tugineb sellele alusele, pakkudes konkreetseid disainimustreid ja organisatsioonilisi tavasid, mis muudavad agendi utiliidi kasutajatele läbipaistvaks, tagades, et nad saavad agentide tehisintellekti jõudu enesekindlalt ja kontrollitult kasutada. UX-i tulevik seisneb süsteemide usaldusväärseks muutmises. Agendist tehisintellekti täiendavaks mõistmiseks võite uurida järgmisi ressursse.

Google'i AI ajaveeb Agent AI kohta Microsofti uurimustöö AI agentide kohta

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free