Агентска АИ је спремна да трансформише корисничко искуство и оперативну ефикасност, што захтева нови стратешки приступ од стране руководства. Ова еволуција у вештачкој интелигенцији оснажује системе да планирају, извршавају и истрају у задацима, прелазећи даље од једноставних препорука до проактивне акције. За УКС тимове, менаџере производа и руководиоце, разумевање ове промене је кључно за откључавање могућности у иновацијама, поједностављење токова посла и редефинисање начина на који технологија служи људима. Лако је помешати агентску вештачку интелигенцију са роботском аутоматизацијом процеса (РПА), што је технологија која се фокусира на задатке засноване на правилима који се обављају на рачунарима. Разлика лежи у крутости наспрам расуђивања. РПА је одличан у праћењу строгог сценарија: ако се деси Кс, урадите И. Имитира људске руке. Агентска АИ опонаша људско размишљање. Не прати линеарно писмо; ствара један. Размислите о току рада регрутовања. РПА бот може скенирати животопис и отпремити га у базу података. Савршено обавља задатак који се понавља. Агентски систем прегледа животопис, примећује да кандидат наводи одређену сертификацију, упоређује их са новим захтевима клијента и одлучује да састави персонализовану е-поруку за контакт у којој се истиче тај меч. РПА извршава унапред дефинисани план; Агентска АИ формулише план на основу циља. Ова аутономија одваја агенте од предиктивних алата које смо користили у последњој деценији. Други пример је управљање сукобима на састанцима. Предиктивни модел интегрисан у ваш календар може анализирати ваш распоред састанака и распореде ваших колега. Тада би могао да предложи потенцијалне сукобе, као што су два важна састанка заказана у исто време, или састанак заказан када је кључни учесник на одмору. Пружа вам информације и означава потенцијалне проблеме, али ви сте одговорни за предузимање радњи. Агентска АИ би, у истом сценарију, ишла даље од само сугерисања сукоба које треба избегавати. Након што идентификује сукоб са кључним учесником, агент може деловати на следећи начин:
Провера доступности свих потребних учесника. Идентификовање алтернативних временских интервала који раде за све. Слање предложених позива за нове састанке свим учесницима. Ако је сукоб са спољним учесником, агент би могао да нацрта и пошаље е-поруку у којој објашњава потребу за померањем и нуди алтернативна времена. Ажурирање вашег календара и календара ваших колега новим детаљима састанка након потврде.
Овај агентски АИ разуме циљ (решавање конфликта састанка), планира кораке (провера доступности, проналажење алтернатива, слање позивница), извршава те кораке и траје док се конфликт не реши, све уз минималну директну интервенцију корисника. Ово показује „агентску“ разлику: систем предузима проактивне кораке за корисника, а не само пружа информације кориснику. Агентски АИ системи разумеју циљ, планирају низ корака да га постигну, извршавају те кораке, па чак и прилагођавају се ако ствари крену наопако. Размислите о томе као о проактивном дигиталном асистенту. Основна технологија често комбинује велике језичке моделе (ЛЛМ) за разумевање и резоновање, са алгоритмима за планирање који разлажу сложене задатке у акције којима се може управљати. Ови агенти могу да комуницирају са различитим алатима, АПИ-јима, па чак и другим моделима вештачке интелигенције да би постигли своје циљеве, и критички, могу да одржавају трајно стање, што значи да памте претходне радње и настављају да раде ка циљу током времена. Ово их чини фундаментално другачијим од типичне генеративне АИ, која обично испуњава један захтев, а затим се ресетује. Једноставна таксономија понашања агената Можемо категоризовати понашање агената у четири различита начина аутономије. Иако ови често изгледају као прогресија, функционишу као независни режими рада. Корисник може вјеровати агенту да дјелује самостално за заказивање, али га држи у „режиму сугестије“ за финансијске трансакције. Ове нивое смо извели прилагођавањем индустријских стандарда за аутономна возила (САЕ нивои) контексту дигиталног корисничког искуства. Посматрај-и-предложи Агент функционише као монитор. Анализира токове података и означава аномалије или прилике, али ништа не предузима. Диференцијација За разлику од следећег нивоа, агент не генерише сложен план. То указује на проблем. Пример ДевОпс агент примећује скок ЦПУ сервера и упозорава дежурног инжењера. Не зна како и не покушава да то поправи, али зна да нешто није у реду. Импликације за дизајн и надзор На овом нивоу,дизајн и надзор треба да дају приоритет јасним, ненаметљивим обавештењима и добро дефинисаном процесу за кориснике да реагују на сугестије. Фокус је на оснаживању корисника правовременим и релевантним информацијама без преузимања контроле. УКС практичари треба да се усредсреде на то да сугестије буду јасни и лаки за разумевање, док менаџери производа морају да обезбеде да систем пружа вредност без преоптерећења корисника. Планирај-и-предложи Агент идентификује циљ и генерише стратегију у више корака како би га постигао. Представља пун план за људски преглед. ДиференцијацијаАгент делује као стратег. Не извршава се; чека одобрење за цео приступ. Пример Исти ДевОпс агент примећује скок ЦПУ-а, анализира евиденције и предлаже план санације:
Закрените две додатне инстанце. Поново покрените балансатор оптерећења. Архивирајте старе дневнике.
Човек прегледа логику и кликне на „Одобри план“. Импликације за дизајн и надзор За агенте који планирају и предлажу, дизајн мора да обезбеди да су предложени планови лако разумљиви и да корисници имају интуитивне начине да их модификују или одбаце. Надзор је кључан у праћењу квалитета предлога и логике планирања агента. УКС практичари треба да дизајнирају јасне визуализације предложених планова, а менаџери производа морају успоставити јасне токове прегледа и одобравања. Ацт-витх-Цонфирматион Агент завршава све припремне радове и поставља завршну акцију у фазно стање. Ефикасно држи врата отворена, чекајући климање. Диференцијација Ово се разликује од „Планирај-и-предложи“ јер је посао већ урађен и постављен. Смањује трење. Корисник потврђује исход, а не стратегију. ПримерАгент за запошљавање саставља пет позивница за интервјуе, проналази отворена времена у календарима и креира догађаје у календару. Представља дугме „Пошаљи све“. Корисник даје коначно овлашћење за покретање спољне акције. Импликације за дизајн и надзор Када агенти делују са потврдом, дизајн треба да обезбеди транспарентне и концизне резиме намераване акције, јасно наводећи потенцијалне последице. Надзор треба да потврди да је процес потврде робустан и да се од корисника не тражи да слепо одобравају радње. УКС практичари би требало да дизајнирају упите за потврду који су јасни и да пружају све потребне информације, а менаџери производа би требало да дају приоритет чврстом ревизорском трагу за све потврђене радње. Делујте аутономно Агент извршава задатке независно унутар дефинисаних граница. ДиференцијацијаКорисник прегледа историју радњи, а не саме акције. Пример: Агент за регрутовање види конфликт, премешта интервју у резервно место, ажурира кандидата и обавештава менаџера за запошљавање. Човек види само обавештење: Интервју је померен за уторак. Импликације за дизајн и надзор За аутономне агенте, дизајн треба да успостави јасне унапред одобрене границе и обезбеди робусне алате за праћење. Надзор захтева сталну процену перформанси агента у овим границама, критичну потребу за робусним евидентирањем, јасним механизмима за превазилажење и кориснички дефинисаним прекидачима за укидање да би се одржала контрола и поверење корисника. УКС практичари треба да се усредсреде на дизајнирање ефикасних контролних табли за праћење понашања аутономних агената, а менаџери производа морају да обезбеде јасно управљање и етичке смернице.
Погледајмо стварну апликацију у ХР технологији да видимо ове начине рада. Размислите о „Агенту за координацију интервјуа“ дизајнираном да се бави логистиком запошљавања.
У режиму предлагања агент примећује да је анкетар дупло резервисан. Истиче конфликт на контролној табли регрутатора: „Упозорење: Сара је дупло резервисана за интервју у 14 часова.“ У режиму плана агент анализира Сарин календар и доступност кандидата. Представља решење: „Препоручујем да интервју преместите за четвртак у 10 ујутро. Ово захтева померање Сарине 1:1 са њеним менаџером.“ Регрутер разматра ову логику. У режиму потврде агент саставља нацрте е-порука кандидату и менаџеру. Попуњава позивнице календара. Регрутатор види резиме: „Спремни за померање за четвртак. Слање ажурирања?“ Регрутер кликне на „Потврди“. У аутономном режиму агент тренутно решава конфликт. Поштује унапред постављено правило: „Увек дајте приоритет интервјуима са кандидатима у односу на интерне 1:1.“ Помера састанак и шаље обавештења. Регрутатор види запис у дневнику: „Решенораспоред сукоба за кандидата Б.”
Истраживачки почетник: Шта истраживати и како Развој ефикасне агентске вештачке интелигенције захтева посебан истраживачки приступ у поређењу са традиционалним софтвером или чак генеративном вештачком интелигенцијом. Аутономна природа АИ агената, њихова способност да доносе одлуке и њихов потенцијал за проактивно деловање захтевају специјализоване методологије за разумевање очекивања корисника, мапирање сложених понашања агената и предвиђање потенцијалних неуспеха. Следећи приручник за истраживање описује кључне методе за мерење и процену ових јединствених аспеката агентске вештачке интелигенције. Интервјуи менталног модела Ови интервјуи откривају унапред створене идеје корисника о томе како треба да се понаша АИ агент. Уместо једноставног питања шта корисници желе, фокус је на разумевању њихових интерних модела способности и ограничења агента. Требало би да избегавамо коришћење речи „агент” са учесницима. Носи научно-фантастични пртљаг или је термин који се превише лако помеша са људским агентом који нуди подршку или услуге. Уместо тога, поставите дискусију око „помоћника“ или „система“. Морамо да откријемо где корисници повлаче границу између корисне аутоматизације и наметљиве контроле.
Метод: Замолите кориснике да опишу, нацртају или испричају своје очекиване интеракције са агентом у различитим хипотетичким сценаријима. Кључне сонде (које одражавају различите индустрије): Да бисте разумели границе жељене аутоматизације и потенцијалне бриге око прекомерне аутоматизације, питајте: Ако је ваш лет отказан, шта бисте желели да систем ради аутоматски? Шта би вас забрињавало да је то урадило без вашег изричитог упутства?
Да бисте истражили корисничко разумевање интерних процеса агента и неопходне комуникације, питајте: Замислите да дигитални асистент управља вашим паметним домом. Ако је пакет испоручен, које кораке мислите да ће предузети и које информације бисте очекивали да добијете?
Да бисте открили очекивања у вези са контролом и пристанком у оквиру процеса у више корака, питајте: Ако замолите свог дигиталног асистента да закаже састанак, које кораке мислите да ће предузети? У којим тачкама бисте желели да вас консултују или да вам дају изборе?
Предности методе: Открива имплицитне претпоставке, истиче области у којима планирано понашање агента може да одступи од очекивања корисника и даје информације о дизајну одговарајућих контрола и механизама повратних информација.
Мапирање путовања агента: Слично традиционалном мапирању путања корисника, мапирање путовања агента се посебно фокусира на очекиване радње и тачке одлучивања самог АИ агента, уз интеракцију корисника. Ово помаже да се проактивно идентификују потенцијалне замке.
Метод: Направите визуелну мапу која приказује различите фазе операције агента, од покретања до завршетка, укључујући све потенцијалне радње, одлуке и интеракције са спољним системима или корисницима. Кључни елементи за мапу: Акције агента: Које специфичне задатке или одлуке агент обавља? Информациони улази/излази: Који подаци су потребни агенту и које информације генерише или саопштава? Тачке одлучивања: Где агент бира и који су критеријуми за те изборе? Тачке интеракције корисника: Где корисник даје унос, прегледа или одобрава радње? Тачке неуспеха: Најважније је да идентификујете специфичне случајеве у којима би агент могао погрешно протумачити упутства, донети погрешну одлуку или ступити у интеракцију са погрешним ентитетом. Примери: нетачан прималац (нпр. слање осетљивих информација погрешној особи), прекорачење (нпр. аутоматизовано плаћање које премашује расположива средства), погрешно тумачење намере (нпр. резервација лета за погрешан датум због двосмисленог језика).
Путеви опоравка: Како се агент или корисник могу опоравити од ових грешака? Који механизми постоје за корекцију или интервенцију?
Предности методе: Пружа холистички поглед на оперативни ток агента, открива скривене зависности и омогућава проактивно дизајнирање заштитних мера, руковање грешкама и тачке интервенције корисника како би се спречили или ублажили негативни исходи.
Симулирано тестирање лошег понашања: Овај приступ је дизајниран да тестира систем на стрес и посматра реакције корисника када АИ агент не успе или одступи од очекивања. Ради се о разумевању поправке поверења и емоционалних реакција у неповољним ситуацијама.
Метод: У контролисаним лабораторијским студијама, намерно уведите сценарије у којима агент прави грешку, погрешно тумачи команду или се понаша неочекивано. Врсте „неприкладног понашања“ за симулацију: ЦоммандПогрешно тумачење: Агент обавља радњу која се мало разликује од онога што је корисник намеравао (нпр. наручи две ставке уместо једне). Преоптерећење/недовољно оптерећење информацијама: Агент пружа превише небитних информација или недовољно критичних детаља. Незатражена радња: Агент предузима радњу коју корисник изричито није желео или очекивао (нпр. купује акције без одобрења). Грешка система: Агент се руши, не реагује или даје поруку о грешци. Етичке дилеме: Агент доноси одлуку са етичким импликацијама (нпр. давање приоритета једном задатку у односу на други на основу непредвиђене метрике).
Фокус посматрања: Реакције корисника: Како корисници емоционално реагују (фрустрација, бес, збуњеност, губитак поверења)? Покушаји опоравка: Које кораке корисници предузимају да би исправили понашање агента или поништили његове радње? Механизми за поправку поверења: Да ли уграђени механизми за опоравак система или повратне информације помажу у враћању поверења? Како корисници желе да буду обавештени о грешкама? Промена менталног модела: Да ли лоше понашање мења корисничко разумевање способности или ограничења агента?
Предности методе: Кључно за идентификацију недостатака у дизајну који се односе на опоравак од грешке, повратне информације и контролу корисника. Пружа увид у то колико су корисници отпорни на грешке агента и шта је потребно да се одржи или поново изгради поверење, што доводи до робуснијих и попустљивијих агентских система.
Интеграцијом ових истраживачких методологија, практичари УКС-а могу да оду даље од једноставног чињења агентских система употребљивим како би их учинили поузданим, подложним контроли и одговорности, подстичући позитиван и продуктиван однос између корисника и њихових АИ агената. Имајте на уму да ово нису једине методе релевантне за ефикасно истраживање агентске АИ. Постоје многе друге методе, али оне су најдоступније практичарима у блиској будућности. Раније сам покрио метод чаробњака из Оза, нешто напреднији метод тестирања концепта, који је такође вредан алат за истраживање концепата агентске вештачке интелигенције. Етичка разматрања у методологији истраживања Када истражујете АИ, посебно када се симулира лоше понашање или грешке, етичка разматрања су кључна за узимање у обзир. Постоји много публикација које се фокусирају на етичко истраживање УКС-а, укључујући чланак који сам написао за Смасхинг Магазине, ове смернице УКС Десигн Института и ову страницу из Инклузивног комплета алата за дизајн. Кључни показатељи за агентску АИ Биће вам потребан свеобухватан скуп кључних метрика да бисте ефикасно проценили перформансе и поузданост агентских АИ система. Ови показатељи пружају увид у поверење корисника, тачност система и целокупно корисничко искуство. Праћењем ових индикатора, програмери и дизајнери могу идентификовати области за побољшање и осигурати да АИ агенти раде безбедно и ефикасно. 1. Стопа интервенције За аутономне агенте успех меримо тишином. Ако агент изврши задатак, а корисник не интервенише или не поништи радњу у оквиру постављеног периода (нпр. 24 сата), то рачунамо као прихватање. Пратимо стопу интервенције: колико често човек ускаче да заустави или исправи агента? Висока стопа интервенције сигнализира неусклађеност у поверењу или логици. 2. Учесталост ненамерних радњи на 1.000 задатака. Ова критична метрика квантификује број радњи које је извршио АИ агент, а које корисник није желео или очекивао, нормализовано на 1.000 завршених задатака. Ниска учесталост ненамерних радњи означава добро усклађену вештачку интелигенцију која тачно тумачи намеру корисника и ради у оквиру дефинисаних граница. Ова метрика је уско повезана са разумевањем контекста од стране вештачке интелигенције, њеном способношћу да разјасни команде и робусношћу њених безбедносних протокола. 3. Стопе враћања или опозива Ова метрика прати колико често корисници треба да пониште или пониште радњу коју изврши АИ. Високе стопе враћања сугеришу да АИ прави честе грешке, погрешно тумачи упутства или се понаша на начин који није у складу са очекивањима корисника. Анализирање разлога иза ових враћања може пружити драгоцене повратне информације за побољшање алгоритама вештачке интелигенције, разумевање корисничких преференција и њене способности да предвиди пожељне исходе. Да бисте разумели зашто, морате да спроведете микроиспитивање акције поништавања. На пример, када корисник поништи промену заказивања, једноставан упит може питати: "Погрешно време? Погрешна особа? Или сте само желели да то урадите сами?" Омогућавање кориснику да кликне на опцију која најбоље одговара његовом мишљењу. 4. Време за решавање након ЕррорТхис метрикемери време које је потребно кориснику да исправи грешку коју је начинила АИ или да се сам систем АИ опорави од погрешног стања. Кратко време до решавања указује на ефикасан процес опоравка грешака који је једноставан за коришћење, који може да ублажи фрустрацију корисника и одржи продуктивност. Ово укључује лакоћу идентификовања грешке, доступност механизама за поништавање или исправљање и јасноћу порука о грешци које пружа АИ.
Прикупљање ових метрика захтева инструментирање вашег система за праћење ИД-ова радњи агента. Свака посебна радња коју агент предузима, као што је предлагање распореда или резервација лета, мора да генерише јединствени ИД који остаје у евиденцији. Да бисмо измерили стопу интервенције, не тражимо тренутну реакцију корисника. Тражимо одсуство контра-акције унутар дефинисаног прозора. Ако се ИД радње генерише у 9:00 ујутру и ниједан корисник не измени или врати тај одређени ИД до 9:00 следећег дана, систем га логички означава као Прихваћен. Ово нам омогућава да квантификујемо успех на основу ћутања корисника, а не активне потврде. За стопе враћања, необрађени бројеви су недовољни јер им недостаје контекст. Да бисте ухватили основни разлог, морате имплементирати логику пресретања у функције Ундо или Реверт ваше апликације. Када корисник поништи акцију коју је покренуо агент, покрените лагано микро анкетирање. Ово може бити једноставан модал са три опције који тражи од корисника да категоризује грешку као фактички нетачну, без контекста или једноставно преферирање да се задатком обради ручно. Ово комбинује квантитативну телеметрију са квалитативним увидом. Омогућава инжењерским тимовима да разликују неисправан алгоритам и неподударање корисничких преференција. Ове метрике, када се доследно прате и холистички анализирају, пружају робустан оквир за процену учинка агентских АИ система, омогућавајући континуирано побољшање контроле, сагласности и одговорности. Дизајнирање против обмане Како агенти постају све способнији, суочавамо се са новим ризиком: агентским муљем. Традиционални муљ ствара трење које отежава отказивање претплате или брисање налога. Агентски муљ делује обрнуто. Уклања трење у вези са грешком, чинећи кориснику превише лаким да пристане на радњу која користи послу, а не његовим сопственим интересима. Размислите о агенту који помаже при резервацији путовања. Без јасних заштитних ограда, систем би могао дати приоритет партнерској авио-компанији или хотелу са већом маржом. Представља овај избор као оптималан пут. Корисник, верујући ауторитету система, прихвата препоруку без провере. Ово ствара обмањујући образац у коме систем оптимизује приход под маском погодности. Ризик од лажно замишљене компетенције Превара можда не потиче од зле намере. Често се манифестује у АИ као замишљена компетенција. Велики језички модели често звуче ауторитативно чак и када су нетачни. Они представљају лажну потврду резервације или нетачан резиме са истом поузданошћу као и потврђена чињеница. Корисници могу природно веровати овом самоувереном тону. Ова неусклађеност ствара опасан јаз између могућности система и очекивања корисника. Морамо дизајнирати посебно да премостимо овај јаз. Ако агент не успе да заврши задатак, интерфејс мора јасно да сигнализира тај неуспех. Ако систем није сигуран, мора да изрази несигурност уместо да је маскира углађеном прозом. Транспарентност преко Примитиве Протуотров и за муљ и за халуцинације је порекло. Свака аутономна радња захтева специфичну ознаку метаподатака која објашњава порекло одлуке. Корисницима је потребна могућност да прегледају логички ланац иза резултата. Да бисмо то постигли, морамо примитивне превести у практичне одговоре. У софтверском инжењерству, примитиви се односе на основне јединице информација или радњи које агент обавља. Инжењеру ово изгледа као АПИ позив или логичка капија. За корисника то мора изгледати као јасно објашњење. Изазов дизајна лежи у мапирању ових техничких корака у образложење које је разумљиво људима. Ако агент препоручи одређени лет, корисник треба да зна зашто. Интерфејс се не може сакрити иза генеричког предлога. Мора открити основни примитив: Логиц: Цхеапест_Дирецт_Флигхт или Логиц: Партнер_Аирлине_Приорити. Слика 4 илуструје овај ток превођења. Узимамо сирови системски примитив — стварну логику кода — и мапирамо га у стринг окренут кориснику. На пример, примитивна провера календарског заказивања састанка постаје јасна изјава: Предложио сам 16:00састанак. Овај ниво транспарентности осигурава да акције агента изгледају логично и корисно. Омогућава кориснику да провери да ли је агент деловао у њиховом најбољем интересу. Излажући примитиве, претварамо црну кутију у стаклену кутију, осигуравајући да корисници остану коначни ауторитет у својим дигиталним животима.
Постављање позорнице за дизајн Изградња агентског система захтева нови ниво психолошког и бихевиоралног разумевања. То нас тера да пређемо са конвенционалног тестирања употребљивости и пређемо на област поверења, сагласности и одговорности. Методе истраживања о којима смо разговарали, од испитивања менталних модела до симулације лошег понашања и успостављања нових метрика, пружају неопходну основу. Ове праксе су суштински алати за проактивно идентификовање где би аутономни систем могао да поквари и, што је још важније, како поправити однос корисник-агент када до тога дође. Прелазак на агентску вештачку интелигенцију је редефинисање односа корисник-систем. Више не дизајнирамо алате који једноставно реагују на команде; дизајнирамо за партнере који делују у наше име. Ово мења императив дизајна од ефикасности и лакоће коришћења до транспарентности, предвидљивости и контроле. Када вештачка интелигенција може да резервише лет или да тргује акцијама без последњег клика, дизајн његових „рампи“ и „ван-рампи“ постаје најважнији. Наша је одговорност да осигурамо да корисници осећају да су на седишту возача, чак и када предају волан. Ова нова реалност такође подиже улогу истраживача УКС-а. Постајемо чувари поверења корисника, радећи у сарадњи са инжењерима и менаџерима производа на дефинисању и тестирању заштитних ограда аутономије агента. Поред тога што смо истраживачи, постајемо заговорници контроле корисника, транспарентности и етичких мера заштите у оквиру процеса развоја. Преводећи примитиве у практична питања и симулирајући најгоре сценарије, можемо изградити робусне системе који су и моћни и сигурни. Овај чланак је изложио „шта“ и „зашто“ истраживања агентске вештачке интелигенције. Показало се да су наши традиционални алати недовољни и да морамо усвојити нове, напредне методологије. Следећи чланак ће се надовезати на ову основу, пружајући специфичне обрасце дизајна и организационе праксе које чине корисност агента транспарентним за кориснике, обезбеђујући да они могу да искористе моћ агентске вештачке интелигенције са самопоуздањем и контролом. Будућност УКС-а је у томе да системи буду поуздани. За додатно разумевање агентске вештачке интелигенције, можете истражити следеће ресурсе:
Гоогле АИ блог о агентској вештачкој интелигенцији Мицрософтово истраживање о АИ агентима