Agentic AI je připravena transformovat zákaznickou zkušenost a provozní efektivitu, což vyžaduje nový strategický přístup od vedení. Tento vývoj v oblasti umělé inteligence umožňuje systémům plánovat, vykonávat a setrvávat v úkolech, čímž přechází od jednoduchých doporučení k proaktivním akcím. Pro týmy UX, produktové manažery a vedoucí pracovníky je pochopení tohoto posunu zásadní pro otevření příležitostí v oblasti inovací, zefektivnění pracovních postupů a předefinování toho, jak technologie slouží lidem. Je snadné zaměnit Agentic AI s Robotic Process Automation (RPA), což je technologie, která se zaměřuje na úkoly založené na pravidlech prováděné na počítačích. Rozdíl spočívá v rigiditě versus uvažování. RPA je vynikající v dodržování přísného scénáře: pokud se stane X, udělejte Y. Napodobuje lidské ruce. Agentská umělá inteligence napodobuje lidské uvažování. Neřídí se lineárním písmem; vytvoří jeden. Zvažte pracovní postup náboru. Robot RPA může naskenovat životopis a nahrát jej do databáze. Perfektně plní opakující se úkoly. Systém Agentic se podívá na životopis, všimne si, že kandidát uvádí konkrétní certifikaci, porovná jej s požadavkem nového klienta a rozhodne se navrhnout personalizovaný informační e-mail, který tuto shodu zvýrazní. RPA provádí předdefinovaný plán; Agentská umělá inteligence formuluje plán na základě cíle. Tato autonomie odděluje agenty od prediktivních nástrojů, které jsme používali v posledním desetiletí. Dalším příkladem je řešení konfliktů schůzek. Prediktivní model integrovaný do vašeho kalendáře může analyzovat váš plán schůzek a plány vašich kolegů. Může pak navrhnout potenciální konflikty, jako jsou dvě důležité schůzky naplánované ve stejnou dobu nebo schůzka naplánovaná, když je klíčový účastník na dovolené. Poskytuje vám informace a označuje potenciální problémy, ale vy jste odpovědní za přijetí opatření. Agentní umělá inteligence by ve stejném scénáři šla nad rámec pouhého navrhování konfliktů, kterým je třeba se vyhnout. Po identifikaci konfliktu s klíčovým účastníkem by agent mohl jednat takto:

Kontrola dostupnosti všech potřebných účastníků. Identifikace alternativních časových úseků, které fungují pro každého. Odeslání navrhovaných pozvánek na nové schůzky všem účastníkům. Pokud dojde ke konfliktu s externím účastníkem, agent by mohl navrhnout a poslat e-mail s vysvětlením potřeby přeplánovat a nabídnout alternativní časy. Po potvrzení aktualizujete svůj kalendář a kalendáře vašich kolegů o nové podrobnosti o schůzce.

Tato agentní umělá inteligence rozumí cíli (řešení konfliktu schůzky), plánuje kroky (kontrola dostupnosti, hledání alternativ, odesílání pozvánek), provádí tyto kroky a přetrvává, dokud není konflikt vyřešen, to vše s minimálním přímým zásahem uživatele. To demonstruje „agentní“ rozdíl: systém provádí proaktivní kroky pro uživatele, spíše než jen poskytuje uživateli informace. Agentické systémy umělé inteligence rozumí cíli, plánují řadu kroků k jeho dosažení, provádějí tyto kroky a dokonce se přizpůsobují, pokud se něco pokazí. Představte si to jako proaktivní digitální asistent. Základní technologie často kombinuje velké jazykové modely (LLM) pro porozumění a uvažování s plánovacími algoritmy, které rozdělují složité úkoly do zvládnutelných akcí. Tito agenti mohou interagovat s různými nástroji, API a dokonce i dalšími modely AI, aby dosáhli svých cílů, a co je kritické, mohou si udržet trvalý stav, což znamená, že si pamatují předchozí akce a pokračují v práci na dosažení cíle v průběhu času. Tím se zásadně liší od typické generativní umělé inteligence, která obvykle dokončí jeden požadavek a poté se resetuje. Jednoduchá taxonomie agentního chování Chování agentů můžeme kategorizovat do čtyř různých režimů autonomie. I když často vypadají jako progrese, fungují jako nezávislé provozní režimy. Uživatel může agentovi důvěřovat, že bude při plánování jednat autonomně, ale ponechat jej v „režimu návrhů“ pro finanční transakce. Tyto úrovně jsme odvodili přizpůsobením průmyslových standardů pro autonomní vozidla (úrovně SAE) do kontextu digitální uživatelské zkušenosti. Pozorujte-a-doporučujte Agent funguje jako monitor. Analyzuje datové toky a označuje anomálie nebo příležitosti, ale neprovádí žádnou akci. DiferenciaceNa rozdíl od další úrovně agent negeneruje žádný složitý plán. Ukazuje to na problém. Příklad Agent DevOps si všimne nárůstu CPU serveru a upozorní technika na volání. Neví, jak nebo se to nepokouší opravit, ale ví, že je něco špatně. Důsledky pro design a dohled Na této úrovnidesign a dohled by měly upřednostňovat jasná, nevtíravá oznámení a dobře definovaný proces, podle kterého mohou uživatelé jednat podle návrhů. Důraz je kladen na to, aby uživatel dostal včasné a relevantní informace, aniž by přebíral kontrolu. Odborníci na UX by se měli zaměřit na to, aby návrhy byly jasné a snadno srozumitelné, zatímco produktoví manažeři musí zajistit, aby systém poskytoval hodnotu, aniž by uživatele zahltil. Plánujte a navrhujte Agent identifikuje cíl a vygeneruje vícekrokovou strategii k jeho dosažení. Představuje úplný plán lidské kontroly. DiferenciaceAgent vystupuje jako stratég. Neprovede se; čeká na schválení celého přístupu. Příklad Stejný agent DevOps si všimne nárůstu CPU, analyzuje protokoly a navrhne plán nápravy:

Roztočte dvě další instance. Restartujte load balancer. Archivujte staré protokoly.

Člověk zkontroluje logiku a klikne na „Schválit plán“. Důsledky pro návrh a dohled Pro agenty, kteří plánují a navrhují, musí návrh zajistit, aby navrhované plány byly snadno srozumitelné a aby uživatelé měli intuitivní způsoby, jak je upravit nebo odmítnout. Dohled je zásadní při sledování kvality návrhů a plánovací logiky agenta. Odborníci na UX by měli navrhnout jasné vizualizace navrhovaných plánů a produktoví manažeři musí vytvořit jasné pracovní postupy kontroly a schvalování. Jednat s potvrzením Agent dokončí všechny přípravné práce a uvede konečnou akci do zinscenovaného stavu. Účinně drží dveře otevřené a čeká na kývnutí. DiferenciaceTo se liší od „Plan-and-Propose“, protože práce je již hotová a zinscenovaná. Snižuje tření. Uživatel potvrzuje výsledek, nikoli strategii. PříkladNáborový agent navrhne pět pozvánek na pohovor, najde otevřené časy v kalendářích a vytvoří události v kalendáři. Představuje tlačítko „Odeslat vše“. Uživatel poskytuje konečné oprávnění ke spuštění externí akce. Důsledky pro návrh a dohled Když agenti jednají s potvrzením, návrh by měl poskytovat transparentní a stručné shrnutí zamýšlené akce, jasně nastíňující potenciální důsledky. Dohled potřebuje ověřit, že proces potvrzení je robustní a že uživatelé nejsou žádáni, aby slepě schvalovali akce. Odborníci na UX by měli navrhnout potvrzovací výzvy, které jsou jasné a poskytují všechny potřebné informace, a produktoví manažeři by měli upřednostňovat důkladný audit trail pro všechny potvrzené akce. Jednat autonomně Agent vykonává úkoly nezávisle v rámci definovaných hranic. Diferenciace Uživatel kontroluje historii akcí, nikoli akce samotné. Příklad Náborový agent vidí konflikt, přesune pohovor do záložního slotu, aktualizuje kandidáta a informuje náborového manažera. Člověk vidí pouze oznámení: Rozhovor přesunut na úterý. Důsledky pro návrh a dohled Pro autonomní agenty musí návrh stanovit jasné předem schválené hranice a poskytnout robustní monitorovací nástroje. Dohled vyžaduje nepřetržité vyhodnocování výkonu agenta v rámci těchto hranic, kritickou potřebu robustního protokolování, jasných mechanismů potlačení a uživatelem definovaných přepínačů zabíjení, aby byla zachována uživatelská kontrola a důvěra. Odborníci na UX by se měli zaměřit na navrhování efektivních dashboardů pro monitorování chování autonomních agentů a produktoví manažeři musí zajistit jasné řízení a etické pokyny.

Podívejme se na aplikaci v reálném světě v HR technologii, abychom viděli tyto režimy v akci. Zvažte „agenta pro koordinaci pohovorů“, který je navržen tak, aby zvládal logistiku náboru.

V režimu navrhování Agent si všimne, že tazatel je zarezervován dvakrát. Zdůrazňuje konflikt na řídicím panelu náborového pracovníka: „Varování: Sarah je na pohovor ve 14:00 rezervována dvakrát.“ V režimu Plán Agent analyzuje Sarahin kalendář a dostupnost kandidáta. Představuje řešení: "Doporučuji přesunout rozhovor na čtvrtek v 10:00. To vyžaduje přesunutí Sarahina 1:1 s jejím manažerem." Náborář tuto logiku přezkoumá. V potvrzovacím režimu Agent odešle e-maily kandidátovi a manažerovi. Vyplní pozvánky kalendáře. Náborář vidí shrnutí: „Jste připraveni přeplánovat na čtvrtek. Odeslat aktualizace?“ Náborář klikne na „Potvrdit“. V autonomním režimu Agent řeší konflikt okamžitě. Respektuje předem stanovené pravidlo: „Vždy upřednostňujte pohovory s kandidáty před interními 1:1s.“ Přesune schůzku a odešle upozornění. Náborář vidí záznam protokolu: „Vyřešenokonflikt rozvrhu pro kandidáta B."

Výzkum Primer: Co zkoumat a jak Vývoj efektivní agentní AI vyžaduje odlišný výzkumný přístup ve srovnání s tradičním softwarem nebo dokonce generativní AI. Autonomní povaha agentů umělé inteligence, jejich schopnost činit rozhodnutí a jejich potenciál proaktivní akce vyžadují specializované metodologie pro pochopení očekávání uživatelů, mapování komplexního chování agentů a předvídání potenciálních selhání. Následující základ výzkumu nastiňuje klíčové metody měření a hodnocení těchto jedinečných aspektů agentní AI. Rozhovory s mentálním modelem Tyto rozhovory odhalují předpojaté představy uživatelů o tom, jak by se agent AI měl chovat. Namísto pouhého dotazování se, co uživatelé chtějí, se zaměřujeme na pochopení jejich interních modelů schopností a omezení agenta. Měli bychom se vyhnout používání slova „agent“ s účastníky. Nese sci-fi zavazadla nebo je termín příliš snadno zaměnitelný s lidským agentem nabízejícím podporu nebo služby. Místo toho zarámujte diskusi kolem „asistentů“ nebo „systému“. Musíme odhalit, kde uživatelé dělají hranici mezi užitečnou automatizací a rušivým ovládáním.

Metoda: Požádejte uživatele, aby popsali, nakreslili nebo vyprávěli své očekávané interakce s agentem v různých hypotetických scénářích. Klíčové sondy (odrážející různá odvětví): Chcete-li pochopit hranice požadované automatizace a potenciální obavy z nadměrné automatizace, zeptejte se: Pokud bude váš let zrušen, co chcete, aby systém provedl automaticky? Co by vás znepokojovalo, kdyby to dělal bez vašeho výslovného pokynu?

Chcete-li prozkoumat, jak uživatel rozumí interním procesům agenta a potřebné komunikaci, zeptejte se: Představte si digitální asistent, který spravuje vaši chytrou domácnost. Pokud je balík doručen, jaké kroky si představujete, že to bude trvat, a jaké informace byste očekávali?

Chcete-li odhalit očekávání ohledně kontroly a souhlasu v rámci vícekrokového procesu, zeptejte se: Pokud požádáte svého digitálního asistenta, aby naplánoval schůzku, jaké kroky si představujete? V jakých bodech byste chtěli být konzultováni nebo byste chtěli, aby vám byly dány možnosti?

Výhody metody: Odhaluje implicitní předpoklady, zdůrazňuje oblasti, kde by se plánované chování agenta mohlo lišit od očekávání uživatelů, a informuje o návrhu vhodných kontrol a mechanismů zpětné vazby.

Mapování cesty agenta: Podobně jako u tradičního mapování cesty uživatele se mapování cesty agenta specificky zaměřuje na očekávané akce a rozhodovací body samotného agenta AI, vedle interakce uživatele. To pomáhá proaktivně identifikovat potenciální úskalí.

Metoda: Vytvořte vizuální mapu, která nastiňuje různé fáze operace agenta, od zahájení až po dokončení, včetně všech potenciálních akcí, rozhodnutí a interakcí s externími systémy nebo uživateli. Klíčové prvky k mapování: Akce agenta: Jaké konkrétní úkoly nebo rozhodnutí agent provádí? Informační vstupy/výstupy: Jaká data agent potřebuje a jaké informace generuje nebo sděluje? Rozhodovací body: Kde agent provádí volby a jaká jsou kritéria pro tyto volby? Body interakce s uživatelem: Kde uživatel poskytuje vstup, kontroluje nebo schvaluje akce? Body selhání: Klíčové je identifikovat konkrétní případy, kdy by agent mohl nesprávně interpretovat pokyny, učinit nesprávné rozhodnutí nebo interagovat s nesprávnou entitou. Příklady: nesprávný příjemce (např. zaslání citlivých informací nesprávné osobě), přečerpání (např. automatická platba přesahující dostupné prostředky), nesprávná interpretace záměru (např. rezervace letu na nesprávné datum z důvodu nejednoznačného jazyka).

Cesty obnovy: Jak se může agent nebo uživatel zotavit z těchto selhání? Jaké mechanismy jsou zavedeny pro nápravu nebo zásah?

Výhody metody: Poskytuje holistický pohled na operační tok agenta, odhaluje skryté závislosti a umožňuje proaktivní návrh zabezpečení, zpracování chyb a uživatelských zásahových bodů, aby se předešlo nebo zmírnilo negativní výsledky.

Simulované testování špatného chování: Tento přístup je navržen pro zátěžové testování systému a sledování reakcí uživatelů, když agent AI selže nebo se odchýlí od očekávání. Jde o pochopení nápravy důvěry a emocionálních reakcí v nepříznivých situacích.

Metoda: V kontrolovaných laboratorních studiích záměrně zavádějte scénáře, kdy agent udělá chybu, nesprávně interpretuje příkaz nebo se chová neočekávaně. Typy „nesprávného chování“ k simulaci: PříkazNesprávná interpretace: Agent provede akci mírně odlišnou od toho, co uživatel zamýšlel (např. objedná dvě položky místo jedné). Information Overload/Underload: Agent poskytuje příliš mnoho irelevantních informací nebo málo kritických podrobností. Nevyžádaná akce: Zástupce provede akci, kterou uživatel výslovně nechtěl nebo neočekával (např. nákup akcií bez schválení). Selhání systému: Agent se zhroutí, přestane reagovat nebo zobrazí chybovou zprávu. Etická dilemata: Agent činí rozhodnutí s etickými důsledky (např. upřednostňuje jeden úkol před jiným na základě nepředvídané metriky).

Pozorování: Reakce uživatelů: Jak uživatelé reagují emocionálně (frustrace, hněv, zmatek, ztráta důvěry)? Pokusy o obnovení: Jaké kroky podniknou uživatelé, aby napravili chování agenta nebo vrátili jeho akce? Mechanismy opravy důvěry: Pomáhají vestavěné mechanismy obnovy nebo zpětné vazby systému obnovit důvěru? Jak chtějí být uživatelé informováni o chybách? Posun mentálního modelu: Změní špatné chování uživatele v chápání schopností nebo omezení agenta?

Výhody metody: Rozhodující pro identifikaci mezer v návrhu souvisejících s obnovou chyb, zpětnou vazbou a kontrolou uživatele. Poskytuje pohled na to, jak jsou uživatelé odolní vůči selhání agentů a co je potřeba k udržení nebo obnovení důvěry, což vede k robustnějším a tolerantnějším systémům agentů.

Integrací těchto výzkumných metodologií se mohou odborníci na UX posunout od pouhého vytváření použitelných agentních systémů k tomu, aby byly důvěryhodné, ovladatelné a odpovědné, čímž se podporuje pozitivní a produktivní vztah mezi uživateli a jejich agenty AI. Všimněte si, že to nejsou jediné metody relevantní pro efektivní zkoumání agentní AI. Existuje mnoho dalších metod, ale tyto jsou v blízké době pro praktiky nejdostupnější. Již dříve jsem se zabýval metodou Wizard of Oz, o něco pokročilejší metodou testování konceptů, která je také cenným nástrojem pro zkoumání agentních konceptů AI. Etické úvahy v metodologii výzkumu Při výzkumu agentní umělé inteligence, zejména při simulaci špatného chování nebo chyb, je klíčové vzít v úvahu etické aspekty. Existuje mnoho publikací zaměřených na etický výzkum UX, včetně článku, který jsem napsal pro Smashing Magazine, těchto pokynů z UX Design Institute a této stránky z Inclusive Design Toolkit. Klíčové metriky pro Agentickou AI Budete potřebovat komplexní sadu klíčových metrik, abyste mohli efektivně posoudit výkon a spolehlivost agentních systémů AI. Tyto metriky poskytují přehled o důvěře uživatelů, přesnosti systému a celkové uživatelské zkušenosti. Sledováním těchto indikátorů mohou vývojáři a designéři identifikovat oblasti pro zlepšení a zajistit, aby agenti AI fungovali bezpečně a efektivně. 1. Míra zásahu U autonomních agentů měříme úspěch mlčením. Pokud agent provede úlohu a uživatel nezasáhne nebo nezvrátí akci během nastaveného okna (např. 24 hodin), počítáme to jako přijetí. Sledujeme míru zásahů: jak často člověk zaskočí, aby zastavil nebo napravil agenta? Vysoká míra zásahů signalizuje nesoulad v důvěře nebo logice. 2. Frekvence nezamýšlených akcí na 1000 úkolůTato kritická metrika kvantifikuje počet akcí provedených agentem AI, které uživatel nechtěl nebo neočekával, normalizováno na 1000 dokončených úkolů. Nízká frekvence nezamýšlených akcí znamená dobře sladěnou AI, která přesně interpretuje záměr uživatele a funguje v rámci definovaných hranic. Tato metrika je úzce spjata s tím, jak umělá inteligence chápe kontext, její schopnost rozlišovat příkazy a robustnost jejích bezpečnostních protokolů. 3. Míra vrácení nebo vrácení zpět Tato metrika sleduje, jak často uživatelé potřebují vrátit nebo vrátit zpět akci provedenou AI. Vysoká míra návratnosti naznačuje, že AI dělá časté chyby, nesprávně interpretuje pokyny nebo jedná způsobem, který není v souladu s očekáváním uživatelů. Analýza důvodů těchto návratů může poskytnout cennou zpětnou vazbu pro zlepšení algoritmů AI, pochopení preferencí uživatelů a její schopnost předvídat žádoucí výsledky. Abyste pochopili proč, musíte provést mikroprůzkum akce Zpět. Když například uživatel zruší změnu v plánování, může se jednoduchá výzva zeptat: „Špatný čas? Špatná osoba? Nebo jste to jen chtěli udělat sami?“ Umožňuje uživateli kliknout na možnost, která nejlépe odpovídá jeho úvahám. 4. Čas do vyřešení po metrice ErrorThisměří dobu, po kterou uživatel opraví chybu způsobenou umělou inteligencí nebo než se samotný systém umělé inteligence zotaví z chybného stavu. Krátká doba do vyřešení ukazuje na efektivní a uživatelsky přívětivý proces obnovy chyb, který může zmírnit frustraci uživatelů a udržet produktivitu. To zahrnuje snadnost identifikace chyby, dostupnost zpětných nebo opravných mechanismů a srozumitelnost chybových zpráv poskytovaných AI.

Shromažďování těchto metrik vyžaduje instrumentaci vašeho systému ke sledování ID akcí agentů. Každá jednotlivá akce, kterou agent provede, jako je návrh plánu nebo rezervace letu, musí vygenerovat jedinečné ID, které přetrvává v protokolech. Abychom mohli měřit míru zásahů, nehledáme okamžitou reakci uživatele. Hledáme absenci protiakce v rámci definovaného okna. Pokud je ID akce vygenerováno v 9:00 a žádný lidský uživatel toto konkrétní ID neupraví ani nevrátí do 9:00 následujícího dne, systém jej logicky označí jako Přijato. To nám umožňuje kvantifikovat úspěch spíše na základě mlčení uživatele než na aktivním potvrzení. V případě míry vrácení zpět jsou nezpracované počty nedostatečné, protože postrádají kontext. Chcete-li zachytit základní důvod, musíte implementovat logiku zachycení do funkcí Zpět nebo Vrátit zpět vaší aplikace. Když uživatel zruší akci iniciovanou agentem, spusťte lehký mikroprůzkum. Může se jednat o jednoduchý modál se třemi možnostmi, který uživatele požádá, aby kategorizoval chybu jako fakticky nesprávnou, postrádající kontext, nebo jednoduchou preferenci ručního zpracování úlohy. To kombinuje kvantitativní telemetrii s kvalitativním náhledem. Umožňuje inženýrským týmům rozlišovat mezi poškozeným algoritmem a nesouladem uživatelských preferencí. Tyto metriky, pokud jsou konzistentně sledovány a analyzovány holisticky, poskytují robustní rámec pro hodnocení výkonu agentních systémů AI, což umožňuje neustálé zlepšování kontroly, souhlasu a odpovědnosti. Projektování proti podvodům Jak jsou agenti stále schopnější, čelíme novému riziku: Agentic Sludge. Tradiční kal vytváří třenice, které ztěžují zrušení předplatného nebo smazání účtu. Agentický kal působí obráceně. Odstraňuje tření k chybám, takže je pro uživatele příliš snadné souhlasit s akcí, která je prospěšná pro podnik spíše než pro jeho vlastní zájmy. Zvažte agenta, který vám pomůže s rezervací cesty. Bez jasných zábradlí by systém mohl upřednostnit partnerskou leteckou společnost nebo hotel s vyšší marží. Tuto volbu prezentuje jako optimální cestu. Uživatel, který důvěřuje autoritě systému, přijme doporučení bez kontroly. To vytváří klamný vzorec, kdy systém pod rouškou pohodlí optimalizuje výnosy. Riziko falešně imaginární kompetence Klamání nemusí pocházet ze zlého úmyslu. Často se v AI projevuje jako imaginární kompetence. Velké jazykové modely často znějí směrodatně, i když jsou nesprávné. Předkládají falešné potvrzení rezervace nebo nepřesné shrnutí se stejnou důvěrou jako ověřená skutečnost. Uživatelé mohou přirozeně důvěřovat tomuto sebevědomému tónu. Tento nesoulad vytváří nebezpečnou propast mezi schopností systému a očekáváním uživatelů. Tuto mezeru musíme speciálně navrhnout. Pokud agent nedokončí úkol, rozhraní musí toto selhání jasně signalizovat. Pokud si systém není jistý, musí nejistotu spíše vyjadřovat, než ji maskovat uhlazenou prózou. Transparentnost prostřednictvím Primitives Protijed na kal i halucinace je původ. Každá autonomní akce vyžaduje specifickou značku metadat vysvětlující původ rozhodnutí. Uživatelé potřebují možnost kontrolovat logický řetězec za výsledkem. Abychom toho dosáhli, musíme převést primitiva do praktických odpovědí. V softwarovém inženýrství označují primitiva základní jednotky informací nebo akcí, které agent provádí. Pro inženýra to vypadá jako volání API nebo logické hradlo. Uživateli se musí jevit jako jasné vysvětlení. Výzva při návrhu spočívá v mapování těchto technických kroků na lidsky čitelné zdůvodnění. Pokud agent doporučí konkrétní let, uživatel musí vědět proč. Rozhraní se nemůže skrývat za obecný návrh. Musí odhalit základní primitiva: Logic: Cheapest_Direct_Flight nebo Logic: Partner_Airline_Priority. Obrázek 4 ilustruje tento translační tok. Vezmeme nezpracované systémové primitivum – skutečnou logiku kódu – a namapujeme jej na uživatelsky orientovaný řetězec. Například primitivní kontrola kalendáře schůzky se stane jasným prohlášením: Navrhl jsem 16:00zasedání. Tato úroveň transparentnosti zajišťuje, že akce agenta vypadají logicky a prospěšně. Umožňuje uživateli ověřit, že agent jednal v jeho nejlepším zájmu. Odhalením primitivů přeměníme černou skříňku na skleněnou skříňku a zajistíme, že uživatelé zůstanou konečnou autoritou ve svém vlastním digitálním životě.

Nastavení Pódia Pro Design Budování systému agentů vyžaduje novou úroveň psychologického a behaviorálního porozumění. Nutí nás posunout se za hranice konvenčního testování použitelnosti a do oblasti důvěry, souhlasu a odpovědnosti. Výzkumné metody, o kterých jsme diskutovali, od zkoumání mentálních modelů po simulaci špatného chování a stanovení nových metrik, poskytují nezbytný základ. Tyto postupy jsou základními nástroji pro proaktivní identifikaci míst, kde by autonomní systém mohl selhat, a co je důležitější, jak opravit vztah uživatel-agent, když se tak stane. Posun k agentní AI je redefinicí vztahu uživatel-systém. Již nevyvíjíme nástroje, které jednoduše reagují na příkazy; navrhujeme pro partnery, kteří jednají naším jménem. To mění imperativ návrhu z efektivity a snadného použití na transparentnost, předvídatelnost a kontrolu. Když si umělá inteligence může zarezervovat let nebo obchodovat akcie bez posledního kliknutí, design jejích „nájezdových ramp“ a „výstupních ramp“ se stává prvořadým. Je naší odpovědností zajistit, aby se uživatelé cítili na sedadle řidiče, i když předali volant. Tato nová realita také povyšuje roli UX výzkumníka. Stáváme se strážci důvěry uživatelů, spolupracujeme s inženýry a produktovými manažery na definování a testování mantinelů autonomie agenta. Kromě toho, že jsme výzkumníci, stáváme se zastánci uživatelské kontroly, transparentnosti a etických záruk v rámci procesu vývoje. Převedením primitiv do praktických otázek a simulací nejhorších scénářů můžeme vybudovat robustní systémy, které jsou výkonné a bezpečné. Tento článek nastínil „co“ a „proč“ při výzkumu agentní AI. Ukázalo se, že naše tradiční sady nástrojů jsou nedostatečné a že musíme přijmout nové, perspektivní metodiky. Další článek bude stavět na tomto základu a poskytne specifické vzory návrhů a organizační postupy, díky nimž je pomůcka agenta pro uživatele transparentní a zajistí, že budou moci využívat sílu agentní umělé inteligence s jistotou a kontrolou. Budoucnost UX je o tom, aby systémy byly důvěryhodné. Chcete-li lépe porozumět agentní umělé inteligenci, můžete prozkoumat následující zdroje:

Blog Google AI o Agentic AI Výzkum společnosti Microsoft o agentech AI

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free