Agentic AI гатовы змяніць вопыт кліентаў і аперацыйную эфектыўнасць, што патрабуе ад кіраўніцтва новага стратэгічнага падыходу. Гэтая эвалюцыя штучнага інтэлекту дазваляе сістэмам планаваць, выконваць задачы і настойліва выконваць іх, пераходзячы ад простых рэкамендацый да актыўных дзеянняў. Для каманд UX, менеджэраў па прадуктах і кіраўнікоў разуменне гэтага зруху мае вырашальнае значэнне для раскрыцця магчымасцей у інавацыях, аптымізацыі працоўных працэсаў і пераасэнсавання таго, як тэхналогіі абслугоўваюць людзей. Лёгка зблытаць Agentic AI з Robotic Process Automation (RPA), якая ўяўляе сабой тэхналогію, якая засяроджваецца на задачах, заснаваных на правілах, якія выконваюцца на кампутарах. Адрозненне заключаецца ў цвёрдасці супраць разважанняў. RPA выдатна выконвае строгі сцэнар: калі адбываецца X, рабі Y. Ён імітуе чалавечыя рукі. Agentic AI імітуе чалавечыя развагі. Ён не прытрымліваецца лінейнага сцэнарыя; гэта стварае адзін. Разгледзім працоўны працэс найму. Бот RPA можа сканаваць рэзюмэ і загружаць яго ў базу дадзеных. Ён выдатна выконвае паўтаральную задачу. Сістэма Agentic праглядае рэзюмэ, заўважае, што кандыдат паказвае канкрэтную сертыфікацыю, спасылаецца на гэтае патрабаванне новага кліента і вырашае напісаць персанальны электронны ліст, у якім падкрэсліваецца адпаведнасць. RPA выконвае загадзя вызначаны план; Agentic AI фармулюе план на аснове мэты. Гэтая аўтаномія аддзяляе агентаў ад інструментаў прагназавання, якія мы выкарыстоўвалі на працягу апошняга дзесяцігоддзя. Іншы прыклад - кіраванне канфліктамі на сустрэчах. Інтэграваная ў ваш каляндар прагназуючая мадэль можа аналізаваць ваш расклад сустрэч і расклад вашых калег. Затым ён можа прапанаваць магчымыя канфлікты, напрыклад, дзве важныя сустрэчы, запланаваныя адначасова, або сустрэчу, запланаваную, калі ключавы ўдзельнік знаходзіцца ў адпачынку. Ён дае вам інфармацыю і пазначае магчымыя праблемы, але вы несяце адказнасць за прыняцце мер. Агентны штучны інтэлект, паводле таго ж сцэнару, не проста прапануе канфлікты, якіх варта пазбягаць. Пры выяўленні канфлікту з ключавым удзельнікам агент можа дзейнічаць наступным чынам:

Праверка наяўнасці ўсіх неабходных удзельнікаў. Вызначэнне альтэрнатыўных інтэрвалаў, якія падыходзяць кожнаму. Рассылка прапанаваных новых запрашэнняў на сустрэчы ўсім удзельнікам. Калі канфлікт звязаны са знешнім удзельнікам, агент можа скласці і адправіць электронны ліст з тлумачэннем неабходнасці перапланіроўкі і прапановай альтэрнатыўнага часу. Абнаўленне вашага календара і календароў вашых калег новымі дэталямі сустрэчы пасля пацверджання.

Гэты агентскі штучны інтэлект разумее мэту (вырашэнне канфлікту сустрэчы), плануе крокі (праверка даступнасці, пошук альтэрнатыў, адпраўка запрашэнняў), выконвае гэтыя крокі і захоўваецца, пакуль канфлікт не будзе вырашаны, усё з мінімальным непасрэдным умяшаннем карыстальніка. Гэта дэманструе «агентурную» розніцу: сістэма робіць актыўныя крокі для карыстальніка, а не проста прадастаўляе інфармацыю карыстальніку. Сістэмы Agentic AI разумеюць мэту, плануюць шэраг крокаў для яе дасягнення, выконваюць гэтыя крокі і нават адаптуюцца, калі нешта пойдзе не так. Думайце пра гэта як пра актыўнага лічбавага памочніка. Базавая тэхналогія часта спалучае вялікія моўныя мадэлі (LLM) для разумення і развагі з алгарытмамі планавання, якія разбіваюць складаныя задачы на ​​кіраваныя дзеянні. Гэтыя агенты могуць узаемадзейнічаць з рознымі інструментамі, API і нават іншымі мадэлямі штучнага інтэлекту для дасягнення сваіх мэтаў, і, што важна, яны могуць падтрымліваць пастаянны стан, што азначае, што яны запамінаюць папярэднія дзеянні і працягваюць працаваць над дасягненнем мэты з цягам часу. Гэта істотна адрознівае іх ад тыповага генератыўнага штучнага інтэлекту, які звычайна выконвае адзін запыт, а потым скідае. Простая таксанамія агентурных паводзін Мы можам падзяліць паводзіны агентаў на чатыры розныя рэжымы аўтаноміі. Хоць яны часта выглядаюць як прагрэсія, яны функцыянуюць як незалежныя рэжымы працы. Карыстальнік можа давяраць агенту дзейнічаць аўтаномна для планавання, але трымаць яго ў «рэжыме прапановы» для фінансавых аперацый. Мы атрымалі гэтыя ўзроўні шляхам адаптацыі галіновых стандартаў для аўтаномных транспартных сродкаў (узроўняў SAE) да кантэксту лічбавага карыстальніцкага досведу. Назірай-і-прапануй Агент выконвае ролю манітора. Ён аналізуе патокі даных і адзначае анамаліі або магчымасці, але не прымае ніякіх дзеянняў. Дыферэнцыяцыя. У адрозненне ад наступнага ўзроўню, агент не стварае складанага плана. Гэта паказвае на праблему. Прыклад. Агент DevOps заўважае ўсплёск ЦП сервера і папярэджвае дзяжурнага інжынера. Ён не ведае, як і не спрабуе гэта выправіць, але ведае, што нешта не так. Наступствы для праектавання і кантролюНа гэтым узроўні,распрацоўка і нагляд павінны аддаваць прыярытэт выразным, ненадакучлівым апавяшчэнням і выразна акрэсленаму працэсу дзеянняў карыстальнікаў у адпаведнасці з прапановамі. У цэнтры ўвагі - прадастаўленне карыстальнікам своечасовай і актуальнай інфармацыі без кантролю. Практыкі UX павінны засяродзіцца на тым, каб прапановы былі зразумелымі і зразумелымі, у той час як менеджэры прадуктаў павінны пераканацца, што сістэма забяспечвае каштоўнасць, не перагружаючы карыстальніка. План і прапанова Агент вызначае мэту і стварае шматэтапную стратэгію для яе дасягнення. Ён прадстаўляе поўны план для агляду чалавекам. Дыферэнцыяцыя Агент дзейнічае як стратэг. Ён не выконваецца; ён чакае адабрэння ўсяго падыходу. ПрыкладТой жа агент DevOps заўважае ўсплёск ЦП, аналізуе журналы і прапануе план выпраўлення:

Раскруціце два дадатковых асобніка. Перазапусціце балансір нагрузкі. Заархіваваць старыя часопісы.

Чалавек разглядае логіку і націскае «Зацвердзіць план». Наступствы для распрацоўкі і нагляду Для агентаў, якія плануюць і прапануюць, распрацоўка павінна гарантаваць, што прапанаваныя планы лёгка зразумелыя і што карыстальнікі маюць інтуітыўна зразумелыя спосабы змяніць або адхіліць іх. Кантроль мае вырашальнае значэнне ў маніторынгу якасці прапаноў і логікі планавання агента. Практыкі UX павінны распрацаваць дакладныя візуалізацыі прапанаваных планаў, а менеджэры па прадуктах павінны ўсталяваць дакладныя працоўныя працэсы праверкі і зацвярджэння. Акт-з-пацвярджэннем Агент завяршае ўсю падрыхтоўчую працу і пераводзіць фінальнае дзеянне ў інсцэніраваны стан. Ён эфектыўна трымае дзверы адчыненымі, чакаючы кіўка. Дыферэнцыяцыя Гэта адрозніваецца ад «Плануй і прапануй», таму што праца ўжо зроблена і пастаўлена. Гэта памяншае трэнне. Карыстальнік пацвярджае вынік, а не стратэгію. Прыклад Агент па найму складае пяць запрашэнняў на сумоўе, знаходзіць у календарах час працы і стварае падзеі ў календары. Ён уяўляе сабой кнопку «Адправіць усё». Карыстальнік дае канчатковую аўтарызацыю для запуску знешняга дзеяння. Наступствы для распрацоўкі і нагляду Калі агенты дзейнічаюць з пацвярджэннем, распрацоўка павінна забяспечваць празрыстыя і сціслыя рэзюмэ запланаваных дзеянняў з дакладным акрэсленнем магчымых наступстваў. Нагляд павінен пераканацца, што працэс пацверджання надзейны і што карыстальнікаў не просяць усляпую ўхваляць дзеянні. Практыкі UX павінны распрацоўваць зразумелыя падказкі для пацверджання і даваць усю неабходную інфармацыю, а менеджэры прадуктаў павінны расставіць прыярытэты для надзейнага аўдытарскага следу для ўсіх пацверджаных дзеянняў. Дзейнічаць - аўтаномна Агент выконвае заданні самастойна ў вызначаных межах. Дыферэнцыяцыя Карыстальнік праглядае гісторыю дзеянняў, а не самі дзеянні. Прыклад. Агент па найму бачыць канфлікт, перамяшчае інтэрв'ю ў рэзервовы слот, абнаўляе кандыдата і паведамляе менеджэру па найму. Чалавек бачыць толькі апавяшчэнне: інтэрв'ю перанесена на аўторак. Наступствы для распрацоўкі і нагляду. Для аўтаномных агентаў распрацоўка павінна ўстанавіць дакладныя папярэдне зацверджаныя межы і забяспечыць надзейныя інструменты маніторынгу. Кантроль патрабуе бесперапыннай ацэнкі прадукцыйнасці агента ў гэтых межах, важнай патрэбы ў надзейнай рэгістрацыі, дакладных механізмах адмены і вызначаных карыстальнікам выключальнікаў для захавання кантролю і даверу карыстальнікаў. Практыкі UX павінны засяродзіцца на распрацоўцы эфектыўных прыборных панэляў для маніторынгу паводзін аўтаномных агентаў, а менеджэры па прадуктах павінны забяспечыць выразнае кіраванне і наяўнасць этычных прынцыпаў.

Давайце паглядзім на рэальнае прымяненне кадравых тэхналогій, каб убачыць гэтыя рэжымы ў дзеянні. Разгледзім «Агента па каардынацыі інтэрв'ю», прызначанага для апрацоўкі лагістыкі найму.

У рэжыме прапановы агент заўважае, што інтэрв'юер двойчы забраніраваны. Гэта падкрэслівае канфлікт на прыборнай панэлі рэкрутэра: «Папярэджанне: Сара двойчы забраніравана на інтэрв'ю ў 14:00». У рэжыме планавання агент аналізуе каляндар Сары і даступнасць кандыдата. У ім прадстаўлена рашэнне: "Я рэкамендую перанесці інтэрв'ю на чацвер у 10 раніцы. Гэта патрабуе перамяшчэння Сары 1:1 з яе кіраўніком". Рэкрутэр разглядае гэтую логіку. У рэжыме пацверджання агент піша электронныя лісты кандыдату і кіраўніку. Ён запаўняе запрашэнні календара. Рэкрутэр бачыць зводку: "Гатовы перанесці на чацвер. Даслаць абнаўленні?" Рэкрутэр націскае «Пацвердзіць». У аўтаномным рэжыме агент імгненна вырашае канфлікт. Ён паважае загадзя ўстаноўленае правіла: «Заўсёды аддавайце перавагу інтэрв'ю з кандыдатамі перад унутранымі 1:1». Ён перамяшчае сустрэчу і адпраўляе апавяшчэнні. Рэкрутэр бачыць запіс у журнале: «Вырашанаканфлікт раскладу для кандыдата B.»

Даследчы буквар: што даследаваць і як Распрацоўка эфектыўнага агентурнага штучнага інтэлекту патрабуе выразнага даследчага падыходу ў параўнанні з традыцыйным праграмным забеспячэннем або нават генератыўным штучным інтэлектам. Аўтаномны характар агентаў штучнага інтэлекту, іх здольнасць прымаць рашэнні і іх патэнцыял для актыўных дзеянняў патрабуюць спецыяльных метадалогій для разумення чаканняў карыстальнікаў, адлюстравання складаных паводзін агентаў і прадбачэння патэнцыйных збояў. Наступны даследчы праймер апісвае ключавыя метады вымярэння і ацэнкі гэтых унікальных аспектаў агентурнага ІІ. Ментальна-мадэльныя інтэрв'ю Гэтыя інтэрв'ю раскрываюць прадузятыя ўяўленні карыстальнікаў аб тым, як павінен паводзіць сябе агент штучнага інтэлекту. Замест таго, каб проста пытацца, чаго хочуць карыстальнікі, асноўная ўвага надаецца разуменню іх унутраных мадэляў магчымасцей і абмежаванняў агента. Мы павінны пазбягаць выкарыстання слова «агент» з удзельнікамі. Гэта навукова-фантастычны багаж або гэты тэрмін занадта лёгка зблытаць з чалавекам-агентам, які прапануе падтрымку або паслугі. Замест гэтага абмяркуйце дыскусію вакол «памочнікаў» або «сістэмы». Нам трэба высветліць, дзе карыстальнікі праводзяць мяжу паміж карыснай аўтаматызацыяй і навязлівым кантролем.

Метад: папрасіце карыстальнікаў апісаць, намаляваць або расказаць пра іх чаканае ўзаемадзеянне з агентам у розных гіпатэтычных сцэнарыях. Ключавыя даследаванні (адлюстроўваюць розныя галіны): Каб зразумець межы жаданай аўтаматызацыі і патэнцыйныя трывогі вакол залішняй аўтаматызацыі, спытаеце: Калі ваш рэйс адменены, што б вы хацелі, каб сістэма зрабіла аўтаматычна? Што б вас непакоіла, калі б ён зрабіў гэта без вашых дакладных указанняў?

Каб даведацца пра разуменне карыстальнікам унутраных працэсаў агента і неабходнай сувязі, спытайце: Уявіце, што вашым разумным домам кіруе лічбавы памочнік. Калі пасылка будзе дастаўлена, якія крокі, на вашу думку, спатрэбіцца і якую інфармацыю вы чакаеце атрымаць?

Каб выявіць чаканні адносна кантролю і згоды ў рамках шматэтапнага працэсу, спытайце: Калі вы папрасіце свайго лічбавага памочніка запланаваць сустрэчу, якія крокі вы мяркуеце зрабіць? У якіх момантах вы хацелі б, каб з вамі пракансультаваліся ці далі выбар?

Перавагі метаду: выяўляе няяўныя здагадкі, вылучае вобласці, дзе запланаваныя паводзіны агента могуць адрознівацца ад чаканняў карыстальнікаў, і інфармуе аб распрацоўцы адпаведных элементаў кіравання і механізмаў зваротнай сувязі.

Карта падарожжа агента: Падобна традыцыйнаму адлюстраванню шляху карыстальніка, адлюстраванне шляху агента спецыяльна засяроджваецца на чаканых дзеяннях і момантах прыняцця рашэнняў самога агента штучнага інтэлекту, а таксама на ўзаемадзеянні карыстальніка. Гэта дапамагае своечасова выяўляць патэнцыйныя падводныя камяні.

Метад: Стварыце візуальную карту, якая акрэслівае розныя этапы працы агента, ад пачатку да завяршэння, уключаючы ўсе магчымыя дзеянні, рашэнні і ўзаемадзеянне са знешнімі сістэмамі або карыстальнікамі. Ключавыя элементы для карты: Дзеянні агента: якія канкрэтныя задачы або рашэнні выконвае агент? Інфармацыйныя ўваходы/выхады: якія дадзеныя патрэбныя агенту і якую інфармацыю ён стварае або перадае? Кропкі прыняцця рашэння: дзе агент робіць выбар і якія крытэрыі для гэтага выбару? Кропкі ўзаемадзеяння з карыстальнікам: дзе карыстальнік уводзіць, праглядае або ўхваляе дзеянні? Кропкі няўдач: важна вызначыць канкрэтныя выпадкі, калі агент можа няправільна інтэрпрэтаваць інструкцыі, прыняць няправільнае рашэнне або ўзаемадзейнічаць з няправільнай арганізацыяй. Прыклады: няправільны атрымальнік (напрыклад, адпраўка канфідэнцыйнай інфармацыі не таму чалавеку), авердрафт (напрыклад, аўтаматызаваны плацёж, які перавышае наяўныя сродкі), няправільнае тлумачэнне намераў (напрыклад, браніраванне рэйса на няправільную дату з-за неадназначнай мовы).

Шляхі аднаўлення: як агент або карыстальнік можа аднавіцца пасля гэтых збояў? Якія механізмы існуюць для карэкцыі або ўмяшання?

Перавагі метаду: забяспечвае цэласнае ўяўленне аб аперацыйным патоку агента, выяўляе схаваныя залежнасці і дазваляе актыўна распрацоўваць меры бяспекі, апрацоўку памылак і пункты ўмяшання карыстальніка для прадухілення або змякчэння негатыўных вынікаў.

Імітацыйнае тэставанне на парушэнне паводзін: Гэты падыход прызначаны для стрэс-тэсту сістэмы і назірання за рэакцыяй карыстальнікаў, калі агент штучнага інтэлекту падводзіць або адхіляецца ад чаканняў. Гаворка ідзе пра разуменне аднаўлення даверу і эмацыйных рэакцый у неспрыяльных сітуацыях.

Метад: у кантраляваных лабараторных даследаваннях наўмысна прадстаўляйце сцэнарыі, калі агент робіць памылку, няправільна інтэрпрэтуе каманду або паводзіць сябе нечакана. Тыпы «дрэнных паводзін» для мадэлявання: КамандаваннеНяправільная інтэрпрэтацыя: агент выконвае дзеянне, якое трохі адрозніваецца ад таго, што планаваў карыстальнік (напрыклад, заказвае два тавары замест аднаго). Інфармацыйная перагрузка/недастатковая нагрузка: агент дае занадта шмат недарэчнай інфармацыі або недастаткова важных дэталяў. Незапытанае дзеянне: агент выконвае дзеянне, якога карыстальнік відавочна не хацеў і не чакаў (напрыклад, купля акцый без адабрэння). Сістэмны збой: агент выходзіць з ладу, перастае рэагаваць або выдае паведамленне пра памылку. Этычныя дылемы: агент прымае рашэнне з этычнымі наступствамі (напрыклад, аддае перавагу адной задачы над іншай на падставе непрадбачанай метрыкі).

Фокус назірання: Рэакцыя карыстальнікаў: Як эмацыйна рэагуюць карыстальнікі (расчараванне, гнеў, разгубленасць, страта даверу)? Спробы аднаўлення: якія крокі робяць карыстальнікі, каб выправіць паводзіны агента або адмяніць яго дзеянні? Механізмы аднаўлення даверу: ці дапамагаюць убудаваныя ў сістэму механізмы аднаўлення або зваротнай сувязі аднавіць давер? Як карыстальнікі жадаюць атрымліваць інфармацыю аб памылках? Змена разумовай мадэлі: ці змяняе няправільнае паводзіны разуменне карыстальнікам магчымасцей або абмежаванняў агента?

Перавагі метаду: важны для выяўлення прабелаў у дызайне, звязаных з аднаўленнем памылак, зваротнай сувяззю і кантролем карыстальніка. Ён дае інфармацыю аб тым, наколькі карыстальнікі ўстойлівыя да збояў агентаў і што неабходна для падтрымання або аднаўлення даверу, што вядзе да больш надзейных і паблажлівых агентскіх сістэм.

Дзякуючы інтэграцыі гэтых даследчых метадалогій спецыялісты-практыкі UX могуць выйсці за рамкі простага стварэння агентурных сістэм, каб зрабіць іх даверанымі, кантраляванымі і падсправаздачнымі, спрыяючы пазітыўным і прадуктыўным адносінам паміж карыстальнікамі і іх агентамі штучнага інтэлекту. Звярніце ўвагу, што гэта не адзіныя метады, якія маюць дачыненне да эфектыўнага вывучэння агентурнага ІІ. Існуе шмат іншых метадаў, але яны найбольш даступныя для практыкуючых у бліжэйшай перспектыве. Раней я апісваў метад Чараўніка з краіны Оз, крыху больш дасканалы метад тэсціравання канцэпцыі, які таксама з'яўляецца каштоўным інструментам для вывучэння канцэпцый агентурнага штучнага інтэлекту. Этычныя меркаванні ў метадалогіі даследаванняў Пры даследаванні агентурнага штучнага інтэлекту, асабліва пры мадэляванні неправамерных паводзін або памылак, важна ўлічваць этычныя меркаванні. Ёсць шмат публікацый, прысвечаных этычным даследаванням UX, у тым ліку артыкул, які я напісаў для Smashing Magazine, гэтыя рэкамендацыі Інстытута дызайну UX і гэтая старонка з Inclusive Design Toolkit. Ключавыя паказчыкі для Agentic AI Вам спатрэбіцца поўны набор ключавых паказчыкаў для эфектыўнай ацэнкі прадукцыйнасці і надзейнасці сістэм агентурнага штучнага інтэлекту. Гэтыя паказчыкі даюць зразумець давер карыстальнікаў, дакладнасць сістэмы і агульны досвед працы з карыстальнікам. Адсочваючы гэтыя паказчыкі, распрацоўшчыкі і дызайнеры могуць вызначыць вобласці для паляпшэння і пераканацца, што агенты штучнага інтэлекту працуюць бяспечна і эфектыўна. 1. Каэфіцыент умяшання Для аўтаномных агентаў мы вымяраем поспех маўчаннем. Калі агент выконвае заданне, а карыстальнік не ўмешваецца і не адмяняе дзеянне на працягу ўстаноўленага акна (напрыклад, 24 гадзіны), мы лічым гэта прыняццем. Мы адсочваем частату ўмяшання: як часта чалавек ускоквае, каб спыніць або выправіць агента? Высокі ўзровень умяшання сігналізуе аб разыходжанні ў даверы або логіцы. 2. Частата ненаўмысных дзеянняў на 1000 задач. Гэты крытычны паказчык колькасна вызначае колькасць дзеянняў, выкананых агентам штучнага інтэлекту, якія не былі жаданымі або чаканымі карыстальнікам, нармалізаваныя на 1000 выкананых задач. Нізкая частата ненаўмысных дзеянняў азначае добра настроены ІІ, які дакладна інтэрпрэтуе намеры карыстальніка і працуе ў вызначаных межах. Гэты паказчык цесна звязаны з разуменнем штучным інтэлектам кантэксту, яго здольнасцю ліквідаваць неадназначнасць каманд і надзейнасцю яго пратаколаў бяспекі. 3. Каэфіцыенты адкату або адмены. Гэты паказчык адсочвае, як часта карыстальнікам неабходна адмяніць або адмяніць дзеянне, выкананае штучным інтэлектам. Высокія паказчыкі адкату сведчаць аб тым, што ІІ часта робіць памылкі, няправільна інтэрпрэтуе інструкцыі або дзейнічае спосабамі, якія не адпавядаюць чаканням карыстальнікаў. Аналіз прычын гэтых адкатаў можа даць каштоўную зваротную сувязь для паляпшэння алгарытмаў штучнага інтэлекту, разумення пераваг карыстальнікаў і яго здольнасці прадказваць жаданыя вынікі. Каб зразумець, чаму, вы павінны правесці мікраапытанне дзеяння адмены. Напрыклад, калі карыстальнік адмяняе змяненне раскладу, простая падказка можа спытаць: "Няправільны час? Не той чалавек? Ці вы проста хацелі зрабіць гэта самі?" Дазваляючы карыстальніку націснуць на варыянт, які найбольш адпавядае яго меркаванням. 4. Час да вырашэння памылкі. Гэты паказчыквымярае час, неабходны карыстальніку для выпраўлення памылкі, зробленай штучным інтэлектам, або для аднаўлення самой сістэмы штучнага інтэлекту з памылковага стану. Кароткі час да вырашэння ўказвае на эфектыўны і зручны працэс выпраўлення памылак, які можа паменшыць расчараванне карыстальніка і падтрымліваць прадукцыйнасць. Гэта ўключае ў сябе прастату ідэнтыфікацыі памылкі, даступнасць механізмаў адмены або выпраўлення і яснасць паведамленняў пра памылкі, якія прадстаўляюцца AI.

Для збору гэтых паказчыкаў неабходна інструментарый вашай сістэмы для адсочвання ідэнтыфікатараў дзеянняў агента. Кожнае асобнае дзеянне, якое выконвае агент, напрыклад, прапанова раскладу або браніраванне рэйса, павінна стварыць унікальны ідэнтыфікатар, які захоўваецца ў журналах. Каб вымераць узровень умяшання, мы не чакаем неадкладнай рэакцыі карыстальнікаў. Мы шукаем адсутнасць супрацьдзеяння ў вызначаным акне. Калі ідэнтыфікатар дзеяння ствараецца ў 9:00 раніцы, і ніхто з карыстальнікаў не змяняе і не вяртае гэты ідэнтыфікатар да 9:00 раніцы наступнага дня, сістэма лагічна пазначае яго як прыняты. Гэта дазваляе нам колькасна ацаніць поспех на аснове маўчання карыстальніка, а не актыўнага пацверджання. Для паказчыкаў адкату неапрацаваных падлікаў недастаткова, таму што ім не хапае кантэксту. Каб выявіць асноўную прычыну, вы павінны ўкараніць логіку перахопу ў функцыях Undo або Revert вашага прыкладання. Калі карыстальнік адмяняе дзеянне, ініцыяванае агентам, запусціце лёгкае мікраапытанне. Гэта можа быць простая мадальнасць з трыма варыянтамі, якая прапануе карыстальніку класіфікаваць памылку як фактычную няслушную, недастатковую кантэксту, або просты варыянт выканання задачы ўручную. Гэта спалучае колькасную тэлеметрыю з якаснай інфармацыяй. Гэта дазваляе камандам інжынераў адрозніць няспраўны алгарытм ад неадпаведнасці налад карыстальніка. Пры паслядоўным адсочванні і цэласным аналізе гэтыя паказчыкі забяспечваюць надзейную аснову для ацэнкі прадукцыйнасці агентурных сістэм штучнага інтэлекту, што дазваляе пастаянна паляпшаць кантроль, згоду і падсправаздачнасць. Праектаванне супраць падману Паколькі агенты становяцца ўсё больш здольнымі, мы сутыкаемся з новай рызыкай: Agentic Sludge. Традыцыйны асадак стварае трэнні, якія абцяжарваюць адмену падпіскі або выдаленне ўліковага запісу. Асадак дзейнічае наадварот. Гэта здымае спрэчкі да няспраўнасці, што дазваляе карыстальніку занадта лёгка пагадзіцца на дзеянне, якое прыносіць карысць бізнэсу, а не яго ўласным інтарэсам. Падумайце аб дапамозе агента ў браніраванні паездак. Без выразных ахоўных агароджаў сістэма можа аддаць перавагу партнёрскай авіякампаніі або гатэлю з большай рэнтабельнасцю. Ён прадстаўляе гэты выбар як аптымальны шлях. Карыстальнік, давяраючы аўтарытэту сістэмы, прымае рэкамендацыю без праверкі. Гэта стварае падманную мадэль, пры якой сістэма аптымізуе даход пад выглядам зручнасці. Рызыка ілжыва ўяўнай кампетэнтнасці Падман не можа быць вынікам злога намеру. Гэта часта выяўляецца ў ІІ як уяўная кампетэнтнасць. Вялікія моўныя мадэлі часта гучаць аўтарытэтна, нават калі яны няправільныя. Яны прадстаўляюць ілжывае пацвярджэнне браніравання або недакладную зводку з той жа ўпэўненасцю, што і правераны факт. Карыстальнікі, натуральна, могуць давяраць гэтаму ўпэўненаму тону. Гэта неадпаведнасць стварае небяспечны разрыў паміж магчымасцямі сістэмы і чаканнямі карыстальнікаў. Мы павінны распрацаваць спецыяльна, каб пераадолець гэты разрыў. Калі агенту не ўдаецца выканаць заданне, інтэрфейс павінен выразна паведаміць пра гэта. Калі сістэма няўпэўненая, яна павінна выказваць нявызначанасць, а не маскіраваць яе вытанчанай прозай. Празрыстасць праз прымітывы Проціяддзе як ад глею, так і ад галюцынацый - гэта паходжанне. Кожнае аўтаномнае дзеянне патрабуе пэўнага тэга метададзеных, які тлумачыць паходжанне рашэння. Карыстальнікам патрэбна магчымасць правяраць лагічны ланцужок за вынікам. Каб дасягнуць гэтага, мы павінны перавесці прымітывы ў практычныя адказы. У праграмнай інжынерыі прымітывы адносяцца да асноўных блокаў інфармацыі або дзеянняў, якія выконвае агент. Для інжынера гэта выглядае як выклік API або лагічны варот. Для карыстальніка гэта павінна выглядаць як зразумелае тлумачэнне. Праблема дызайну заключаецца ў адлюстраванні гэтых тэхнічных этапаў у зразумелых для чалавека абгрунтаваннях. Калі агент рэкамендуе пэўны рэйс, карыстальнік павінен ведаць, чаму. Інтэрфейс не можа хавацца за агульнай прапановай. Ён павінен раскрываць асноўны прымітыў: Logic: Cheapest_Direct_Flight або Logic: Partner_Airline_Priority. Малюнак 4 ілюструе гэты паток перакладу. Мы бярэм неапрацаваны сістэмны прымітыў — фактычную логіку кода — і адлюстроўваем яго ў радок, які паказвае карыстальніку. Напрыклад, прымітыўная праверка каляндарнага раскладу сустрэчы становіцца выразнай заявай: я прапанаваў 16:00сустрэча. Такі ўзровень празрыстасці гарантуе, што дзеянні агента выглядаюць лагічна і выгадна. Гэта дазваляе карыстальніку пераканацца, што агент дзейнічаў у іх інтарэсах. Выкрываючы прымітывы, мы пераўтвараем чорную скрыню ў шкляную, гарантуючы, што карыстальнікі застаюцца апошняй уладай у сваім лічбавым жыцці.

Падрыхтоўка сцэны для дызайну Пабудова агентурнай сістэмы патрабуе новага ўзроўню псіхалагічнага і паводніцкага разумення. Гэта прымушае нас выйсці за межы звычайнага тэсціравання зручнасці выкарыстання і перайсці да сферы даверу, згоды і адказнасці. Метады даследавання, якія мы абмяркоўвалі, ад вывучэння ментальных мадэляў да мадэлявання няправільных паводзін і ўстанаўлення новых паказчыкаў, забяспечваюць неабходную аснову. Гэтыя практыкі з'яўляюцца важнымі інструментамі для актыўнага вызначэння таго, дзе аўтаномная сістэма можа выйсці з ладу, і, што больш важна, як аднавіць адносіны карыстальніка-агента, калі гэта адбудзецца. Пераход да агентурнага штучнага інтэлекту - гэта перавызначэнне ўзаемаадносін карыстальніка і сістэмы. Мы больш не распрацоўваем інструменты, якія проста рэагуюць на каманды; мы распрацоўваем для партнёраў, якія дзейнічаюць ад нашага імя. Гэта змяняе імператыў дызайну з эфектыўнасці і прастаты выкарыстання на празрыстасць, прадказальнасць і кантроль. Калі штучны інтэлект можа забраніраваць рэйс або гандляваць акцыямі без апошняга націску, дызайн яго «пандусаў» і «пандусаў» становіцца галоўным. Мы нясем адказнасць за тое, каб карыстальнікі адчувалі сябе на сядзенні кіроўцы, нават калі яны аддалі руль. Гэтая новая рэальнасць таксама павышае ролю даследчыка UX. Мы становімся захавальнікамі даверу карыстальнікаў, супрацоўнічаючы з інжынерамі і менеджэрамі па прадуктах, каб вызначыць і праверыць агароджы аўтаноміі агента. Акрамя таго, што мы даследчыкі, мы становімся абаронцамі кантролю за карыстальнікамі, празрыстасці і этычных гарантый у працэсе распрацоўкі. Пераводзячы прымітывы ў практычныя пытанні і мадэлюючы найгоршыя сцэнарыі, мы можам ствараць надзейныя сістэмы, якія адначасова з'яўляюцца магутнымі і бяспечнымі. У гэтым артыкуле акрэслена «што» і «чаму» даследаванні агентурнага ІІ. Гэта паказала, што нашых традыцыйных інструментаў недастаткова і што мы павінны прыняць новыя, перспектыўныя метадалогіі. Наступны артыкул будзе абапірацца на гэтую аснову, прадстаўляючы канкрэтныя шаблоны праектавання і арганізацыйныя практыкі, якія робяць утыліту агента празрыстай для карыстальнікаў, гарантуючы, што яны змогуць з упэўненасцю і кантролем выкарыстоўваць магчымасці агентскага штучнага інтэлекту. Будучыня UX - зрабіць сістэмы надзейнымі. Для дадатковага разумення агентурнага ІІ вы можаце вывучыць наступныя рэсурсы:

Блог Google AI аб Agentic AI Даследаванне Microsoft агентаў штучнага інтэлекту

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free