Aģentiskais AI ir gatavs pārveidot klientu pieredzi un darbības efektivitāti, tāpēc vadībai ir nepieciešama jauna stratēģiska pieeja. Šī mākslīgā intelekta evolūcija dod sistēmām iespēju plānot, izpildīt un neatlaidīgi veikt uzdevumus, pārejot no vienkāršiem ieteikumiem uz proaktīvu rīcību. UX komandām, produktu vadītājiem un vadītājiem šīs pārmaiņas ir ļoti svarīgas, lai atraisītu inovācijas iespējas, racionalizētu darbplūsmas un no jauna definētu, kā tehnoloģija kalpo cilvēkiem. Aģentisko AI ir viegli sajaukt ar robotu procesu automatizāciju (RPA), kas ir tehnoloģija, kas koncentrējas uz datoros veiktiem uz noteikumiem balstītiem uzdevumiem. Atšķirība slēpjas stingrībā pret argumentāciju. RPA lieliski spēj ievērot stingru skriptu: ja notiek X, dariet Y. Tas atdarina cilvēka rokas. Aģentiskais AI atdarina cilvēka domāšanu. Tas neseko lineāram skriptam; tas rada vienu. Apsveriet personāla atlases darbplūsmu. RPA robots var skenēt CV un augšupielādēt to datu bāzē. Tas lieliski izpilda atkārtotu uzdevumu. Aģentu sistēma izskata CV, pamana, ka kandidāts uzskaita konkrētu sertifikātu, veic savstarpējas atsauces uz to ar jaunu klienta prasību un nolemj izveidot personalizētu informatīvo e-pasta ziņojumu, kurā uzsvērta šī atbilstība. RPA izpilda iepriekš noteiktu plānu; Aģentiskais AI formulē plānu, pamatojoties uz mērķi. Šī autonomija atdala aģentus no prognozēšanas rīkiem, ko esam izmantojuši pēdējo desmit gadu laikā. Vēl viens piemērs ir sapulču konfliktu pārvaldība. Kalendārā integrēts prognozēšanas modelis var analizēt jūsu sapulču grafiku un kolēģu grafikus. Pēc tam tas varētu ieteikt iespējamos konfliktus, piemēram, divas svarīgas sanāksmes, kas ieplānotas vienlaikus, vai tikšanās, kas ieplānota, kad galvenais dalībnieks ir atvaļinājumā. Tas sniedz jums informāciju un norāda uz iespējamām problēmām, taču jūs esat atbildīgs par darbību veikšanu. Aģents AI tādā pašā scenārijā ne tikai ieteiktu konfliktus, no kuriem jāizvairās. Identificējot konfliktu ar galveno dalībnieku, aģents var rīkoties šādi:

Visu nepieciešamo dalībnieku pieejamības pārbaude. Alternatīvu laika nišu noteikšana, kas der visiem. Ierosināto jauno sapulču ielūgumu izsūtīšana visiem dalībniekiem. Ja konflikts ir ar ārēju dalībnieku, aģents var izveidot un nosūtīt e-pasta ziņojumu, paskaidrojot nepieciešamību pārcelt grafiku un piedāvāt alternatīvus laikus. Kalendāra un kolēģu kalendāru atjaunināšana ar jauno sapulces informāciju pēc apstiprināšanas.

Šis aģents AI saprot mērķi (atrisina sapulces konfliktu), plāno darbības (pieejamības pārbaude, alternatīvu meklēšana, uzaicinājumu nosūtīšana), izpilda šīs darbības un turpina darboties, līdz konflikts tiek atrisināts, un tas viss notiek ar minimālu tiešu lietotāja iejaukšanos. Tas parāda “aģentu” atšķirību: sistēma veic proaktīvas darbības lietotāja labā, nevis tikai sniedz lietotājam informāciju. Aģentiskās AI sistēmas saprot mērķi, plāno darbību virkni, lai to sasniegtu, veic šīs darbības un pat pielāgojas, ja kaut kas noiet greizi. Padomājiet par to kā par proaktīvu digitālo palīgu. Pamattehnoloģija bieži apvieno lielus valodu modeļus (LLM) izpratnei un argumentācijai ar plānošanas algoritmiem, kas sarežģītus uzdevumus sadala pārvaldāmās darbībās. Šie aģenti var mijiedarboties ar dažādiem rīkiem, API un pat citiem AI modeļiem, lai sasniegtu savus mērķus, un kritiski, tie var saglabāt pastāvīgu stāvokli, kas nozīmē, ka viņi atceras iepriekšējās darbības un laika gaitā turpina strādāt, lai sasniegtu mērķi. Tādējādi tie būtiski atšķiras no tipiskā ģeneratīvā AI, kas parasti pabeidz vienu pieprasījumu un pēc tam tiek atiestatīts. Vienkārša aģentu uzvedības taksonomija Mēs varam iedalīt aģentu uzvedību četros atšķirīgos autonomijas veidos. Lai gan tie bieži izskatās kā progresija, tie darbojas kā neatkarīgi darbības režīmi. Lietotājs var uzticēties aģentam, kas plāno veikt autonomu darbību, bet paturēt to “ieteikuma režīmā” finanšu darījumiem. Mēs atvasinājām šos līmeņus, pielāgojot nozares standartus autonomajiem transportlīdzekļiem (SAE līmeņi) digitālo lietotāju pieredzes kontekstiem. Novērot un ieteikt Aģents darbojas kā monitors. Tā analizē datu straumes un atzīmē anomālijas vai iespējas, bet neveic nekādas darbības. Atšķirība Atšķirībā no nākamā līmeņa aģents nerada sarežģītu plānu. Tas norāda uz problēmu. Piemērs DevOps aģents pamana servera CPU smaili un brīdina izsaukuma inženieri. Tā nezina, kā vai nemēģina to labot, bet zina, ka kaut kas nav kārtībā. Ietekme uz dizainu un uzraudzību Šajā līmenīIzstrādē un pārraudzībā par prioritāti būtu jānosaka skaidri, neuzbāzīgi paziņojumi un labi definēts process, lai lietotāji varētu rīkoties, pamatojoties uz ieteikumiem. Galvenā uzmanība tiek pievērsta tam, lai lietotājam nodrošinātu savlaicīgu un atbilstošu informāciju, nepārņemot kontroli. UX praktiķiem jākoncentrējas uz to, lai ieteikumi būtu skaidri un viegli saprotami, savukārt produktu vadītājiem ir jānodrošina, ka sistēma nodrošina vērtību, neapgrūtinot lietotāju. Plānojiet un ierosiniet Aģents identificē mērķi un ģenerē daudzpakāpju stratēģiju tā sasniegšanai. Tajā ir sniegts pilns cilvēku pārskatīšanas plāns. Diferenciācija Aģents darbojas kā stratēģis. Tas neizpildās; tā gaida apstiprinājumu visai pieejai. PiemērsTas pats DevOps aģents pamana CPU smaili, analizē žurnālus un ierosina atlīdzināšanas plānu:

Izveidojiet divus papildu gadījumus. Restartējiet slodzes balansētāju. Arhivējiet vecos žurnālus.

Cilvēks pārskata loģiku un noklikšķina uz “Apstiprināt plānu”. Ietekme uz izstrādi un uzraudzību Aģentiem, kas plāno un ierosina, dizainam ir jānodrošina, lai ierosinātie plāni būtu viegli saprotami un lai lietotājiem būtu intuitīvi veidi, kā tos mainīt vai noraidīt. Pārraudzībai ir izšķiroša nozīme, lai uzraudzītu priekšlikumu kvalitāti un aģenta plānošanas loģiku. UX praktiķiem ir jāizstrādā skaidras piedāvāto plānu vizualizācijas, un produktu vadītājiem ir jāizveido skaidras pārskatīšanas un apstiprināšanas darbplūsmas. Rīkojieties ar apstiprinājumu Aģents pabeidz visus sagatavošanās darbus un ievieto pēdējo darbību inscenētā stāvoklī. Tas efektīvi notur durvis vaļā, gaidot mājienu. DiferencēšanaTas atšķiras no “Plānojiet un ierosiniet”, jo darbs jau ir paveikts un iestudēts. Tas samazina berzi. Lietotājs apstiprina rezultātu, nevis stratēģiju. Piemērs Personāla atlases aģents sagatavo piecus interviju uzaicinājumus, atrod kalendāros atvērtos laikus un izveido kalendāra notikumus. Tas parāda pogu "Sūtīt visu". Lietotājs nodrošina galīgo atļauju ārējās darbības aktivizēšanai. Ietekme uz izstrādi un uzraudzībuKad aģenti rīkojas ar apstiprinājumu, projektā jāsniedz pārredzami un kodolīgi plānotās darbības kopsavilkumi, skaidri izklāstot iespējamās sekas. Uzraudzībai ir jāpārbauda, ​​vai apstiprināšanas process ir stabils un vai lietotājiem netiek lūgts akli apstiprināt darbības. UX praktiķiem ir jāizstrādā skaidras apstiprinājuma uzvednes, kurās ir sniegta visa nepieciešamā informācija, un produktu vadītājiem par prioritāti ir jānosaka stabila audita izsekošana visām apstiprinātajām darbībām. Rīkojies-Autonomi Aģents veic uzdevumus neatkarīgi noteiktās robežās. Atšķirība Lietotājs pārskata darbību vēsturi, nevis pašas darbības. Piemērs Personāla atlases aģents redz konfliktu, pārceļ interviju uz rezerves vietu, atjaunina kandidātu un informē darbā pieņemšanas vadītāju. Cilvēks redz tikai paziņojumu: intervija pārcelta uz otrdienu. Ietekme uz projektēšanu un uzraudzību Autonomajiem aģentiem projektēšanai ir jānosaka skaidras iepriekš apstiprinātas robežas un jānodrošina stabili uzraudzības rīki. Uzraudzībai ir nepieciešams nepārtraukts aģenta veiktspējas novērtējums šajās robežās, būtiska nepieciešamība pēc spēcīgas reģistrēšanas, skaidriem ignorēšanas mehānismiem un lietotāja definētiem iznīcināšanas slēdžiem, lai saglabātu lietotāja kontroli un uzticēšanos. UX praktiķiem jākoncentrējas uz efektīvu informācijas paneļu izstrādi autonomo aģentu uzvedības uzraudzībai, un produktu vadītājiem ir jānodrošina skaidra pārvaldība un ētikas vadlīnijas.

Apskatīsim reālu HR tehnoloģiju lietojumprogrammu, lai redzētu šos režīmus darbībā. Apsveriet iespēju izvēlēties “interviju koordinācijas aģentu”, kas paredzēts darbā pieņemšanas loģistikas nodrošināšanai.

Ieteikuma režīmā Aģents pamana, ka intervētājs ir divreiz rezervēts. Tas izceļ konfliktu vervētāja informācijas panelī: "Brīdinājums: Sāra ir divreiz rezervēta intervijai plkst. 14:00." Plāna režīmā aģents analizē Sāras kalendāru un kandidāta pieejamību. Tajā ir piedāvāts risinājums: "Es iesaku pārcelt interviju uz ceturtdienu plkst. 10:00. Tam nepieciešams pārcelt Sāras attiecību 1:1 ar viņas menedžeri." Personāla atlases speciālists pārskata šo loģiku. Apstiprinājuma režīmā aģents sagatavo e-pasta ziņojumus kandidātam un vadītājam. Tas aizpilda kalendāra ielūgumus. Personāla atlases speciālists redz kopsavilkumu: "Vai esat gatavs pārcelt uz ceturtdienu. Sūtīt atjauninājumus?" Personāla atlases speciālists noklikšķina uz “Apstiprināt”. Autonomajā režīmā aģents nekavējoties apstrādā konfliktu. Tajā tiek ievērots iepriekš noteikts noteikums: "Vienmēr piešķiriet prioritāti kandidātu intervijām, nevis iekšējām 1:1." Tas pārvieto sapulci un nosūta paziņojumus. Vervētājs redz žurnāla ierakstu: “Atrisinātsgrafika konflikts kandidātam B.

Pētījumu pamats: ko pētīt un kā Lai izstrādātu efektīvu aģentu AI, ir nepieciešama atšķirīga pētniecības pieeja salīdzinājumā ar tradicionālo programmatūru vai pat ģeneratīvo AI. AI aģentu autonomais raksturs, to spēja pieņemt lēmumus un proaktīvas darbības potenciāls nosaka, ka ir nepieciešamas specializētas metodoloģijas, lai izprastu lietotāju cerības, kartētu sarežģītu aģentu uzvedību un paredzētu iespējamās kļūmes. Tālāk sniegtajā pētījuma pamatprincipā ir izklāstītas galvenās metodes, lai izmērītu un novērtētu šos unikālos aģenta AI aspektus. Garīgās modeļa intervijas Šīs intervijas atklāj lietotāju aizspriedumus par to, kā AI aģentam vajadzētu uzvesties. Tā vietā, lai vienkārši jautātu, ko lietotāji vēlas, galvenā uzmanība tiek pievērsta viņu iekšējo modeļu izpratnei par aģenta iespējām un ierobežojumiem. Mums vajadzētu izvairīties no vārda “aģents” lietošanas ar dalībniekiem. Tas pārvadā zinātniskās fantastikas bagāžu vai ir pārāk viegli sajaucams ar cilvēku aģentu, kas piedāvā atbalstu vai pakalpojumus. Tā vietā diskusiju veidojiet par "asistentiem" vai "sistēmu". Mums ir jāatklāj, kur lietotāji novelk robežu starp noderīgu automatizāciju un uzmācīgu vadību.

Metode: palūdziet lietotājiem aprakstīt, uzzīmēt vai pastāstīt viņu paredzamo mijiedarbību ar aģentu dažādos hipotētiskos scenārijos. Galvenās zondes (atspoguļojot dažādas nozares): Lai saprastu vēlamās automatizācijas robežas un iespējamās bažas saistībā ar pārmērīgu automatizāciju, jautājiet: Ja jūsu lidojums tiek atcelts, ko jūs vēlētos, lai sistēma darītu automātiski? Kas jūs satrauktu, ja tas tiktu darīts bez jūsu skaidras instrukcijas?

Lai izpētītu lietotāja izpratni par aģenta iekšējiem procesiem un nepieciešamo komunikāciju, jautājiet: Iedomājieties, ka digitālais palīgs pārvalda jūsu viedo māju. Ja paka tiek piegādāta, kādas darbības, jūsuprāt, tā veic, un kādu informāciju jūs vēlētos saņemt?

Lai atklātu cerības saistībā ar kontroli un piekrišanu daudzpakāpju procesā, jautājiet: Ja lūdzat savam digitālajam asistentam ieplānot sapulci, kādas darbības jūs to paredzat veikt? Kuros punktos jūs vēlētos, lai ar jums konsultētu vai tiktu dotas izvēles iespējas?

Metodes priekšrocības: atklāj netiešus pieņēmumus, izceļ jomas, kurās aģenta plānotā rīcība var atšķirties no lietotāja cerībām, un sniedz informāciju par atbilstošu kontroles un atgriezeniskās saites mehānismu izstrādi.

Aģenta ceļojuma kartēšana: Līdzīgi kā tradicionālajā lietotāja ceļojumu kartēšanā, aģenta ceļojumu kartēšana īpaši koncentrējas uz paša AI aģenta paredzamajām darbībām un lēmuma pieņemšanas punktiem, kā arī lietotāja mijiedarbību. Tas palīdz proaktīvi noteikt iespējamās nepilnības.

Metode: izveidojiet vizuālu karti, kas iezīmē dažādus aģenta darbības posmus no uzsākšanas līdz pabeigšanai, tostarp visas iespējamās darbības, lēmumus un mijiedarbības ar ārējām sistēmām vai lietotājiem. Galvenie kartes elementi: Aģenta darbības: kādus konkrētus uzdevumus vai lēmumus aģents veic? Informācijas ievades/izvades: kādi dati aģentam ir nepieciešami un kādu informāciju tas ģenerē vai paziņo? Lēmuma punkti: Kur aģents izdara izvēli, un kādi ir šīs izvēles kritēriji? Lietotāju mijiedarbības punkti: kur lietotājs sniedz ievadi, pārskata vai apstiprina darbības? Neveiksmes punkti: ir svarīgi identificēt konkrētus gadījumus, kad aģents var nepareizi interpretēt norādījumus, pieņemt nepareizu lēmumu vai mijiedarboties ar nepareizo entītiju. Piemēri: nepareizs adresāts (piemēram, sensitīvas informācijas nosūtīšana nepareizai personai), overdrafts (piemēram, automatizēts maksājums, kas pārsniedz pieejamos līdzekļus), nodoma nepareiza interpretācija (piemēram, lidojuma rezervēšana uz nepareizu datumu neskaidras valodas dēļ).

Atkopšanas ceļi: kā aģents vai lietotājs var atgūties no šīm kļūmēm? Kādi mehānismi ir ieviesti korekcijai vai intervencei?

Metodes priekšrocības: sniedz holistisku skatījumu uz aģenta darbības plūsmu, atklāj slēptās atkarības un ļauj proaktīvi izstrādāt aizsardzības pasākumus, kļūdu apstrādi un lietotāja iejaukšanās punktus, lai novērstu vai mazinātu negatīvos rezultātus.

Imitēta nepareizas uzvedības pārbaude: Šī pieeja ir paredzēta, lai pārbaudītu sistēmu un novērotu lietotāju reakcijas, ja AI aģents neizdodas vai novirzās no gaidītā. Tas ir par izpratni par uzticības atjaunošanu un emocionālām reakcijām nelabvēlīgās situācijās.

Metode: kontrolētos laboratorijas pētījumos apzināti ieviesiet scenārijus, kad aģents pieļauj kļūdu, nepareizi interpretē komandu vai uzvedas negaidīti. Simulējamās “nepareizas uzvedības” veidi: PavēliNepareiza interpretācija: aģents veic darbību, kas nedaudz atšķiras no lietotāja iecerētā (piemēram, pasūta divas preces, nevis vienu). Informācijas pārslodze/nepietiekama slodze: aģents sniedz pārāk daudz nebūtiskas informācijas vai nepietiekami svarīgas detaļas. Nelūgta darbība: aģents veic darbību, ko lietotājs nepārprotami nevēlējās vai negaidīja (piemēram, pērk akcijas bez apstiprinājuma). Sistēmas kļūme: aģents avarē, nereaģē vai parāda kļūdas ziņojumu. Ētiskās dilemmas: aģents pieņem lēmumu ar ētiskām sekām (piemēram, vienam uzdevumam piešķir prioritāti salīdzinājumā ar citu, pamatojoties uz neparedzētu metriku).

Novērošanas fokuss: Lietotāju reakcijas: kā lietotāji reaģē emocionāli (vilšanās, dusmas, apjukums, uzticības zudums)? Atkopšanas mēģinājumi: kādas darbības lietotāji veic, lai labotu aģenta uzvedību vai atsauktu tās darbības? Uzticības labošanas mehānismi: vai sistēmā iebūvētie atkopšanas vai atgriezeniskās saites mehānismi palīdz atjaunot uzticību? Kā lietotāji vēlas būt informēti par kļūdām? Garīgās modeļa maiņa: vai nepareiza uzvedība maina lietotāja izpratni par aģenta iespējām vai ierobežojumiem?

Metodes priekšrocības: būtiska, lai identificētu dizaina nepilnības, kas saistītas ar kļūdu atkopšanu, atgriezenisko saiti un lietotāja kontroli. Tas sniedz ieskatu par to, cik noturīgi lietotāji ir pret aģenta kļūmēm un kas ir nepieciešams, lai saglabātu vai atjaunotu uzticību, tādējādi radot izturīgākas un piedodošākas aģentu sistēmas.

Integrējot šīs pētniecības metodoloģijas, UX praktiķi var ne tikai padarīt aģentu sistēmas lietojamas, bet arī padarīt tās uzticamas, kontrolējamas un atbildīgas, veicinot pozitīvas un produktīvas attiecības starp lietotājiem un viņu AI aģentiem. Ņemiet vērā, ka šīs nav vienīgās metodes, kas ir piemērotas efektīvai aģentu AI izpētei. Pastāv daudzas citas metodes, taču tās ir vispieejamākās praktizētājiem tuvākajā laikā. Iepriekš esmu apskatījis metodi Wizard of Oz — nedaudz progresīvāku koncepciju testēšanas metodi, kas ir arī vērtīgs rīks aģentu AI koncepciju izpētei. Ētiskie apsvērumi pētniecības metodoloģijā Pētot aģentu mākslīgo intelektu, jo īpaši imitējot nepareizu uzvedību vai kļūdas, ir svarīgi ņemt vērā ētiskus apsvērumus. Ir daudz publikāciju, kas koncentrējas uz ētisku UX izpēti, tostarp raksts, ko rakstīju Smashing Magazine, šīs vadlīnijas no UX dizaina institūta un šī lapa no Iekļaujoša dizaina rīkkopas. Aģentiskā AI galvenie rādītāji Jums būs nepieciešams visaptverošs galveno rādītāju kopums, lai efektīvi novērtētu aģentu AI sistēmu veiktspēju un uzticamību. Šie rādītāji sniedz ieskatu lietotāju uzticībā, sistēmas precizitātē un vispārējā lietotāja pieredzē. Izsekojot šiem rādītājiem, izstrādātāji un dizaineri var noteikt jomas, kurās jāveic uzlabojumi, un nodrošināt, ka AI aģenti darbojas droši un efektīvi. 1. Iejaukšanās rādītājs Autonomiem aģentiem panākumus mēra pēc klusēšanas. Ja aģents izpilda uzdevumu un lietotājs neiejaucas vai neatgriež darbību noteiktā logā (piemēram, 24 stundu laikā), mēs to uzskatām par akceptu. Mēs izsekojam iejaukšanās ātrumu: cik bieži cilvēks pielec, lai apturētu vai labotu aģentu? Augsts iejaukšanās līmenis norāda uz neatbilstību uzticībai vai loģikai. 2. Neparedzētu darbību biežums uz 1000 uzdevumiem. Šis kritiskais rādītājs nosaka AI aģenta veikto darbību skaitu, kuras lietotājs nav vēlējies vai negaidījis, normalizējot uz 1000 izpildītiem uzdevumiem. Zems neparedzētu darbību biežums norāda uz labi saskaņotu AI, kas precīzi interpretē lietotāja nodomus un darbojas noteiktās robežās. Šis rādītājs ir cieši saistīts ar AI izpratni par kontekstu, spēju atšķirt komandas un drošības protokolu noturību. 3. Atcelšanas vai atsaukšanas rādītājiŠī metrika izseko, cik bieži lietotājiem ir jāatceļ vai jāatsauc AI veiktā darbība. Augstie atcelšanas rādītāji liecina, ka AI bieži pieļauj kļūdas, nepareizi interpretē norādījumus vai rīkojas tā, lai tas neatbilst lietotāja vēlmēm. Šo atcelšanas iemeslu analīze var sniegt vērtīgu atgriezenisko saiti, lai uzlabotu AI algoritmus, izpratni par lietotāju vēlmēm un tās spēju paredzēt vēlamos rezultātus. Lai saprastu, kāpēc, jums ir jāievieš mikroaptauja par atsaukšanas darbību. Piemēram, kad lietotājs atceļ plānošanas izmaiņas, vienkārša uzvedne var jautāt: “Nepareizs laiks? Nepareiza persona? Vai arī jūs vienkārši gribējāt to izdarīt pats?” Ļauj lietotājam noklikšķināt uz opcijas, kas vislabāk atbilst viņa argumentācijai. 4. Laiks līdz atrisinājumam pēc kļūdasŠī metrikamēra laiku, kas nepieciešams lietotājam, lai izlabotu AI pieļauto kļūdu vai lai pati AI sistēma atkoptos no kļūdaina stāvokļa. Īss laiks līdz atrisinājumam norāda uz efektīvu un lietotājam draudzīgu kļūdu atkopšanas procesu, kas var mazināt lietotāju neapmierinātību un uzturēt produktivitāti. Tas ietver kļūdas identificēšanas vieglumu, atsaukšanas vai labošanas mehānismu pieejamību un AI nodrošināto kļūdu ziņojumu skaidrību.

Lai apkopotu šos rādītājus, sistēmai ir jāaprīko instrumenti, lai izsekotu aģenta darbību ID. Katrai atsevišķai aģenta darbībai, piemēram, grafika ierosināšanai vai lidojuma rezervēšanai, ir jāģenerē unikāls ID, kas saglabājas žurnālos. Lai izmērītu iejaukšanās ātrumu, mēs nemeklējam tūlītēju lietotāja reakciju. Mēs meklējam pretdarbības neesamību noteiktā logā. Ja darbības ID tiek ģenerēts plkst. 9:00 un neviens lietotājs nepārveido vai neatjauno šo konkrēto ID līdz nākamās dienas plkst. 9:00, sistēma to loģiski atzīmē kā Pieņemts. Tas ļauj mums kvantitatīvi noteikt panākumus, pamatojoties uz lietotāja klusēšanu, nevis aktīvu apstiprinājumu. Atcelšanas kursiem neapstrādāti skaitļi nav pietiekami, jo tiem trūkst konteksta. Lai fiksētu pamatiemeslu, lietojumprogrammas atsaukšanas vai atsaukšanas funkcijās ir jāievieš pārtveršanas loģika. Kad lietotājs maina aģenta uzsākto darbību, aktivizējiet vieglu mikroaptauju. Tas var būt vienkāršs trīs opciju veids, kurā lietotājam tiek lūgts klasificēt kļūdu kā faktiski nepareizu, bez konteksta vai vienkārša izvēle uzdevumu apstrādāt manuāli. Tas apvieno kvantitatīvo telemetriju ar kvalitatīvu ieskatu. Tas ļauj inženieru komandām atšķirt bojātu algoritmu un lietotāja preferenču neatbilstību. Ja šie rādītāji tiek konsekventi izsekoti un analizēti holistiski, tie nodrošina stabilu sistēmu aģentu AI sistēmu veiktspējas novērtēšanai, ļaujot nepārtraukti uzlabot kontroli, piekrišanu un atbildību. Projektēšana pret maldināšanu Tā kā aģenti kļūst arvien spējīgāki, mēs saskaramies ar jaunu risku: aģentu dūņas. Tradicionālās dūņas rada berzi, kas apgrūtina abonementa atcelšanu vai konta dzēšanu. Aģentiskās dūņas darbojas pretēji. Tas novērš berzi līdz vainai, padarot lietotājam pārāk viegli piekrišanu darbībai, kas dod labumu uzņēmumam, nevis viņu pašu interesēm. Apsveriet aģenta pakalpojumus, kas palīdz rezervēt ceļojumu. Bez skaidriem aizsargmargām sistēma var noteikt prioritāti partnera aviokompānijai vai viesnīcai ar augstāku peļņu. Tā piedāvā šo izvēli kā optimālo ceļu. Lietotājs, uzticoties sistēmas autoritātei, pieņem ieteikumu bez pārbaudes. Tas rada maldinošu modeli, kurā sistēma optimizē ieņēmumus, aizsedzot ērtības. Nepareizi iedomātas kompetences risks Maldināšana nedrīkst rasties ļaunprātīgu nolūku dēļ. AI tas bieži izpaužas kā iedomātā kompetence. Lielo valodu modeļi bieži izklausās autoritatīvi pat tad, ja tie ir nepareizi. Viņi iesniedz nepatiesu rezervācijas apstiprinājumu vai neprecīzu kopsavilkumu ar tādu pašu pārliecību kā pārbaudīts fakts. Lietotāji, protams, var uzticēties šim pārliecinātajam tonim. Šī neatbilstība rada bīstamu plaisu starp sistēmas iespējām un lietotāju vēlmēm. Mums ir īpaši jāizstrādā, lai pārvarētu šo plaisu. Ja aģents nespēj pabeigt uzdevumu, saskarnei ir skaidri jāsignalizē šī kļūme. Ja sistēma nav pārliecināta, tai ir jāpauž nenoteiktība, nevis jāslēpj tā ar slīpētu prozu. Caurspīdība, izmantojot primitīvus Pretlīdzeklis gan dūņām, gan halucinācijām ir izcelsme. Katrai autonomai darbībai ir nepieciešams īpašs metadatu tags, kas izskaidro lēmuma izcelsmi. Lietotājiem ir nepieciešama iespēja pārbaudīt loģisko ķēdi aiz rezultāta. Lai to panāktu, mums ir jāpārvērš primitīvi praktiskās atbildēs. Programmatūras inženierijā primitīvi attiecas uz informācijas vai darbību galvenajām vienībām, ko veic aģents. Inženierim tas izskatās kā API izsaukums vai loģikas vārti. Lietotājam tam ir jābūt skaidram skaidrojumam. Projektēšanas izaicinājums ir šo tehnisko soļu samērošana ar cilvēkiem saprotamu pamatojumu. Ja aģents iesaka konkrētu lidojumu, lietotājam ir jāzina, kāpēc. Saskarne nevar paslēpties aiz vispārīga ieteikuma. Tam ir jāatklāj pamatā esošais primitīvs: Loģika: Lētākais_tiešais_lidojums vai Loģika: Partner_Airline_Priority. 4. attēlā ir parādīta šī tulkošanas plūsma. Mēs ņemam neapstrādātu sistēmas primitīvu — faktisko koda loģiku — un kartējam to ar lietotājam paredzētu virkni. Piemēram, primitīva sapulces kalendāra grafika pārbaude kļūst par skaidru paziņojumu: esmu ierosinājis plkst. 16.00.tikšanās. Šis pārredzamības līmenis nodrošina, ka aģenta darbības šķiet loģiskas un izdevīgas. Tas ļauj lietotājam pārbaudīt, vai aģents ir rīkojies viņu interesēs. Atklājot primitīvus, mēs pārveidojam melno kasti par stikla kasti, nodrošinot, ka lietotāji joprojām ir galīgā autoritāte savā digitālajā dzīvē.

Posma iestatīšana dizainam Veidojot aģentu sistēmu, ir nepieciešams jauns psiholoģiskās un uzvedības izpratnes līmenis. Tas liek mums pāriet no parastās lietojamības pārbaudes un pāriet uz uzticības, piekrišanas un atbildības sfēru. Mūsu apspriestās izpētes metodes, sākot no garīgo modeļu pārbaudes līdz nepareizas uzvedības simulācijai un jaunu rādītāju noteikšanai, nodrošina nepieciešamo pamatu. Šīs prakses ir būtiski rīki, lai proaktīvi noteiktu, kur autonomā sistēma var neizdoties, un, vēl svarīgāk, kā labot lietotāja un aģenta attiecības, kad tā notiek. Pāreja uz aģentu AI ir lietotāja un sistēmas attiecību pārdefinēšana. Mēs vairs neplānojam rīkus, kas vienkārši reaģē uz komandām; mēs izstrādājam partneriem, kas darbojas mūsu vārdā. Tas maina dizaina prasību no efektivitātes un lietošanas vienkāršības uz caurspīdīgumu, paredzamību un kontroli. Ja mākslīgais intelekts var rezervēt lidojumu vai tirgot akcijas bez pēdējā klikšķa, tā “uzbrauktuves” un “nobrauktuves” dizains kļūst par vissvarīgāko. Mēs esam atbildīgi par to, lai lietotāji justos vadītāja sēdeklī pat tad, kad ir nodevuši stūri. Šī jaunā realitāte paaugstina arī UX pētnieka lomu. Mēs kļūstam par lietotāju uzticības sargātājiem, sadarbojoties ar inženieriem un produktu vadītājiem, lai noteiktu un pārbaudītu aģenta autonomijas margas. Mēs esam ne tikai pētnieki, bet arī kļūstam par lietotāju kontroles, pārredzamības un ētisko garantiju aizstāvjiem izstrādes procesā. Pārvēršot primitīvus praktiskos jautājumos un simulējot sliktākos scenārijus, mēs varam izveidot stabilas sistēmas, kas ir gan spēcīgas, gan drošas. Šajā rakstā ir izklāstīts aģentu AI izpētes “kas” un “kāpēc”. Tas ir parādījis, ka mūsu tradicionālie instrumentu kopumi ir nepietiekami un ka mums ir jāpieņem jaunas, uz nākotni vērstas metodoloģijas. Nākamais raksts tiks balstīts uz šo pamatu, nodrošinot īpašus dizaina modeļus un organizatorisko praksi, kas padara aģenta lietderību lietotājiem pārredzamu, nodrošinot, ka viņi var droši un kontrolēti izmantot aģenta AI spēku. UX nākotne ir saistīta ar sistēmu uzticamību. Lai iegūtu papildu izpratni par aģentu AI, varat izpētīt šādus resursus:

Google AI emuārs par aģentu AI Microsoft pētījums par AI aģentiem

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free