Agentic AI està preparat per transformar l'experiència del client i l'eficiència operativa, la qual cosa requereix un nou enfocament estratègic des del lideratge. Aquesta evolució de la intel·ligència artificial permet als sistemes planificar, executar i persistir en les tasques, passant més enllà de les simples recomanacions a l'acció proactiva. Per als equips d'UX, els gestors de productes i els executius, entendre aquest canvi és crucial per desbloquejar oportunitats d'innovació, racionalitzar els fluxos de treball i redefinir com la tecnologia serveix a les persones. És fàcil confondre l'AI d'Agenc amb l'automatització de processos robòtics (RPA), que és una tecnologia que se centra en les tasques basades en regles que es realitzen als ordinadors. La distinció rau en la rigidesa versus el raonament. RPA és excel·lent per seguir un guió estricte: si passa X, fes Y. Imita les mans humanes. La IA agentica imita el raonament humà. No segueix un guió lineal; en crea un. Penseu en un flux de treball de contractació. Un bot RPA pot escanejar un currículum i pujar-lo a una base de dades. Realitza perfectament una tasca repetitiva. Un sistema d'Agentic mira el currículum, s'adona que el candidat enumera una certificació específica, ho fa referència amb un nou requisit del client i decideix redactar un correu electrònic de divulgació personalitzat destacant aquesta coincidència. RPA executa un pla predefinit; Agentic AI formula el pla en funció d'un objectiu. Aquesta autonomia separa els agents de les eines predictives que hem utilitzat durant l'última dècada. Un altre exemple és la gestió de conflictes de reunions. Un model predictiu integrat al vostre calendari podria analitzar el vostre calendari de reunions i els horaris dels vostres companys. Aleshores, podria suggerir possibles conflictes, com ara dues reunions importants programades al mateix temps o una reunió programada quan un participant clau està de vacances. Us proporciona informació i marca possibles problemes, però sou responsable de prendre mesures. Una IA agentica, en el mateix escenari, aniria més enllà de suggerir conflictes a evitar. En identificar un conflicte amb un participant clau, l'agent podria actuar de la següent manera:
Comprovant la disponibilitat de tots els participants necessaris. Identificar franges horàries alternatives que funcionin per a tothom. Enviament de propostes de noves invitacions a la reunió a tots els assistents. Si el conflicte és amb un participant extern, l'agent podria redactar i enviar un correu electrònic explicant la necessitat de reprogramar i oferint horaris alternatius. Actualitzant el teu calendari i els calendaris dels teus companys amb els nous detalls de la reunió un cop confirmats.
Aquesta intel·ligència artificial entén l'objectiu (resolució del conflicte de la reunió), planifica els passos (comprovació de la disponibilitat, cerca d'alternatives, enviament d'invitacions), executa aquests passos i persisteix fins que es resol el conflicte, tot amb una mínima intervenció directa de l'usuari. Això demostra la diferència "agent": el sistema fa passos proactius per a l'usuari, en lloc de només proporcionar informació a l'usuari. Els sistemes d'IA agència entenen un objectiu, planifiquen una sèrie de passos per aconseguir-lo, executen aquests passos i, fins i tot, s'adapten si les coses van malament. Penseu-hi com un assistent digital proactiu. La tecnologia subjacent sovint combina grans models de llenguatge (LLM) per a la comprensió i el raonament, amb algorismes de planificació que divideixen tasques complexes en accions manejables. Aquests agents poden interactuar amb diverses eines, API i fins i tot altres models d'IA per assolir els seus objectius i, de manera crítica, poden mantenir un estat persistent, és a dir, recorden accions anteriors i continuen treballant per aconseguir un objectiu al llarg del temps. Això els fa fonamentalment diferents de la IA generativa típica, que normalment completa una sola sol·licitud i després es restableix. Una taxonomia simple de comportaments agents Podem categoritzar el comportament dels agents en quatre maneres diferents d'autonomia. Tot i que sovint semblen una progressió, funcionen com a modes de funcionament independents. Un usuari pot confiar en un agent per actuar de manera autònoma per a la programació, però mantenir-lo en "mode de suggeriment" per a les transaccions financeres. Hem obtingut aquests nivells adaptant els estàndards de la indústria per a vehicles autònoms (nivells SAE) als contextos d'experiència d'usuari digital. Observar-i-suggerir L'agent funciona com a monitor. Analitza fluxos de dades i marca anomalies o oportunitats, però no pren cap acció. DiferenciacióA diferència del següent nivell, l'agent no genera cap pla complex. Apunta a un problema. ExempleUn agent de DevOps nota un pic de la CPU del servidor i avisa l'enginyer de guàrdia. No sap com o intenta solucionar-ho, però sap que alguna cosa no funciona. Implicacions per al disseny i la supervisió En aquest nivell,El disseny i la supervisió haurien de prioritzar les notificacions clares i no intrusives i un procés ben definit perquè els usuaris actuïn en funció dels suggeriments. L'objectiu és donar poder a l'usuari amb informació oportuna i rellevant sense prendre el control. Els professionals d'UX s'han de centrar a fer suggeriments clars i fàcils d'entendre, mentre que els gestors de productes han d'assegurar-se que el sistema ofereix valor sense aclaparar l'usuari. Planificar i proposar L'agent identifica un objectiu i genera una estratègia de diversos passos per aconseguir-lo. Presenta el pla complet per a la revisió humana. DiferenciacióL'agent actua com a estrateg. No s'executa; s'espera l'aprovació de tot l'enfocament. ExempleEl mateix agent de DevOps nota el pic de la CPU, analitza els registres i proposa un pla de correcció:
Feu girar dues instàncies addicionals. Reinicieu l'equilibrador de càrrega. Arxiu registres antics.
L'ésser humà revisa la lògica i fa clic a "Aprova el pla". Implicacions per al disseny i la supervisió Per als agents que planifiquen i proposen, el disseny ha d'assegurar que els plans proposats són fàcilment comprensibles i que els usuaris tinguin maneres intuïtives de modificar-los o rebutjar-los. La supervisió és crucial per controlar la qualitat de les propostes i la lògica de planificació de l'agent. Els professionals d'UX haurien de dissenyar visualitzacions clares dels plans proposats i els gestors de producte han d'establir fluxos de treball clars de revisió i aprovació. Actuar amb confirmació L'agent completa tots els treballs de preparació i posa l'acció final en un estat escènic. Eficaçment manté la porta oberta, esperant un assentament. DiferenciacióAixò es diferencia de "Planificar i proposar" perquè el treball ja està fet i posat en escena. Redueix la fricció. L'usuari confirma el resultat, no l'estratègia. ExempleUn agent de reclutament redacta cinc invitacions per a entrevistes, troba els horaris oberts als calendaris i crea els esdeveniments del calendari. Presenta un botó "Envia-ho tot". L'usuari proporciona l'autorització final per desencadenar l'acció externa. Implicacions per al disseny i la supervisió Quan els agents actuen amb confirmació, el disseny hauria de proporcionar resums transparents i concisos de l'acció prevista, descrivint clarament les possibles conseqüències. La supervisió ha de verificar que el procés de confirmació és sòlid i que no se'ls demana als usuaris que aprovin a cegues les accions. Els professionals d'UX haurien de dissenyar indicacions de confirmació que siguin clares i proporcionin tota la informació necessària, i els gestors de producte haurien de prioritzar una pista d'auditoria sòlida per a totes les accions confirmades. Actuar-de manera autònoma L'agent executa tasques de manera independent dins dels límits definits. DiferenciacióL'usuari revisa l'historial d'accions, no les accions en si. ExempleL'agent de reclutament veu un conflicte, trasllada l'entrevista a una ranura de seguretat, actualitza el candidat i notifica al responsable de contractació. L'humà només veu una notificació: l'entrevista s'ha reprogramat a dimarts. Implicacions per al disseny i la supervisió Per als agents autònoms, el disseny ha d'establir límits clars i aprovats prèviament i proporcionar eines de control sòlides. La supervisió requereix una avaluació contínua del rendiment de l'agent dins d'aquests límits, una necessitat crítica d'un registre sòlid, mecanismes d'anul·lació clars i interruptors de mort definits per l'usuari per mantenir el control i la confiança dels usuaris. Els professionals d'UX s'han de centrar a dissenyar taulers de control efectius per supervisar el comportament dels agents autònoms, i els gestors de producte s'han d'assegurar que hi hagi directrius ètiques i de govern clares.
Vegem una aplicació del món real en tecnologia de recursos humans per veure aquests modes en acció. Penseu en un "agent de coordinació d'entrevistes" dissenyat per gestionar la logística de la contractació.
En el mode de suggeriments, l'agent s'adona que un entrevistador té doble reserva. Destaca el conflicte al tauler del reclutador: "Avís: Sarah té doble reserva per a l'entrevista de les 14:00". En mode de pla, l'agent analitza el calendari de la Sarah i la disponibilitat del candidat. Presenta una solució: "Recomano traslladar l'entrevista al dijous a les 10 del matí. Això requereix moure l'1:1 de Sarah amb el seu gerent". El reclutador revisa aquesta lògica. En mode de confirmació, l'agent redacta els correus electrònics al candidat i al gerent. Omple les invitacions del calendari. El reclutador veu un resum: "Estàs a punt per reprogramar a dijous. Envia actualitzacions?" El reclutador fa clic a "Confirmar". En mode autònomL'agent gestiona el conflicte a l'instant. Respecta una regla preestablerta: "Sempre prioritza les entrevistes dels candidats a les entrevistes internes 1:1". Mou la reunió i envia les notificacions. El reclutador veu una entrada de registre: "Resoltconflicte de calendari per al candidat B".
Manual de recerca: què investigar i com El desenvolupament d'una IA agentica eficaç requereix un enfocament d'investigació diferent en comparació amb el programari tradicional o fins i tot amb la IA generativa. La naturalesa autònoma dels agents d'IA, la seva capacitat per prendre decisions i el seu potencial d'acció proactiva requereixen metodologies especialitzades per entendre les expectatives dels usuaris, mapejar els comportaments complexos dels agents i anticipar possibles errors. El següent manual d'investigació descriu els mètodes clau per mesurar i avaluar aquests aspectes únics de la IA agentica. Entrevistes de model mental Aquestes entrevistes descobreixen les idees preconcebudes dels usuaris sobre com s'ha de comportar un agent d'IA. En lloc de simplement preguntar què volen els usuaris, l'objectiu és entendre els seus models interns de les capacitats i limitacions de l'agent. Hem d'evitar utilitzar la paraula "agent" amb els participants. Porta equipatge de ciència-ficció o és un terme que es confon massa fàcilment amb un agent humà que ofereix suport o serveis. En lloc d'això, emmarca la discussió al voltant dels "assistents" o "el sistema". Hem de descobrir on els usuaris marquen la línia entre l'automatització útil i el control intrusiu.
Mètode: Demaneu als usuaris que descriguin, dibuixin o narrin les seves interaccions esperades amb l'agent en diversos escenaris hipotètics. Sondes clau (que reflecteixen una varietat d'indústries): Per entendre els límits de l'automatització desitjada i les possibles ansietats al voltant de l'excés d'automatització, pregunteu: Si el teu vol es cancel·la, què vols que faci automàticament el sistema? Què et preocuparia si ho fes sense la teva instrucció explícita?
Per explorar la comprensió de l'usuari dels processos interns de l'agent i la comunicació necessària, pregunteu: Imagineu que un assistent digital gestiona la vostra llar intel·ligent. Si s'entrega un paquet, quins passos us imagineu que fa i quina informació esperaríeu rebre?
Per descobrir les expectatives sobre el control i el consentiment en un procés de diversos passos, pregunteu: Si demaneu al vostre assistent digital que programi una reunió, quins passos penseu fer? En quins moments voldríeu que us consultin o us donin opcions?
Beneficis del mètode: revela suposicions implícites, destaca les àrees on el comportament previst de l'agent podria divergir de les expectatives dels usuaris i informa el disseny de controls i mecanismes de retroalimentació adequats.
Mapatge del viatge de l'agent: De manera similar al mapeig tradicional del recorregut de l'usuari, el mapatge del viatge de l'agent se centra específicament en les accions previstes i els punts de decisió del propi agent d'IA, juntament amb la interacció de l'usuari. Això ajuda a identificar de manera proactiva possibles inconvenients.
Mètode: creeu un mapa visual que descrigui les diferents etapes de l'operació d'un agent, des de l'inici fins a la finalització, incloses totes les accions, decisions i interaccions potencials amb sistemes o usuaris externs. Elements clau per al mapa: Accions de l'agent: quines tasques o decisions específiques realitza l'agent? Entrades/sortides d'informació: quines dades necessita l'agent i quina informació genera o comunica? Punts de decisió: on tria l'agent i quins són els criteris per a aquestes eleccions? Punts d'interacció de l'usuari: on l'usuari aporta, revisa o aprova les accions? Punts de fracàs: de manera crucial, identifiqueu casos específics en què l'agent podria malinterpretar les instruccions, prendre una decisió incorrecta o interactuar amb l'entitat incorrecta. Exemples: destinatari incorrecte (p. ex., enviament d'informació sensible a la persona equivocada), descobert (p. ex., un pagament automatitzat que supera els fons disponibles), mala interpretació de la intenció (p. ex., reserva d'un vol per a la data incorrecta a causa d'un llenguatge ambigu).
Rutes de recuperació: com es pot recuperar l'agent o l'usuari d'aquests errors? Quins mecanismes hi ha per a la correcció o intervenció?
Avantatges del mètode: ofereix una visió integral del flux operatiu de l'agent, descobreix dependències ocultes i permet el disseny proactiu de les garanties, la gestió d'errors i els punts d'intervenció de l'usuari per prevenir o mitigar els resultats negatius.
Proves simulades de comportament incorrecte: Aquest enfocament està dissenyat per provar el sistema i observar les reaccions dels usuaris quan l'agent d'IA falla o es desvia de les expectatives. Es tracta d'entendre la reparació de la confiança i les respostes emocionals en situacions adverses.
Mètode: en estudis de laboratori controlats, introduïu deliberadament escenaris en què l'agent cometi un error, malinterpreta una ordre o es comporta de manera inesperada. Tipus de "mala conducta" per simular: ComandamentInterpretació errònia: l'agent realitza una acció lleugerament diferent de la que pretenia l'usuari (p. ex., demanar dos articles en lloc d'un). Sobrecàrrega/subcàrrega d'informació: l'agent proporciona massa informació irrellevant o no hi ha prou detalls crítics. Acció no sol·licitada: l'agent fa una acció que l'usuari explícitament no volia ni esperava (p. ex., comprar accions sense aprovació). Error del sistema: l'agent es bloqueja, no respon o proporciona un missatge d'error. Dilemes ètics: l'agent pren una decisió amb implicacions ètiques (p. ex., prioritzant una tasca sobre una altra en funció d'una mètrica imprevista).
Focus d'observació: Reaccions dels usuaris: com reaccionen emocionalment els usuaris (frustració, ira, confusió, pèrdua de confiança)? Intents de recuperació: Quins passos fan els usuaris per corregir el comportament de l'agent o desfer-ne les accions? Mecanismes de reparació de confiança: els mecanismes de recuperació o retroalimentació integrats del sistema ajuden a restaurar la confiança? Com volen informar els usuaris dels errors? Canvi de model mental: el mal comportament altera la comprensió de l'usuari de les capacitats o limitacions de l'agent?
Beneficis del mètode: crucial per identificar llacunes de disseny relacionades amb la recuperació d'errors, la retroalimentació i el control dels usuaris. Proporciona informació sobre com són resilients els usuaris davant les fallades dels agents i què es necessita per mantenir o reconstruir la confiança, donant lloc a sistemes agents més robusts i tolerants.
Mitjançant la integració d'aquestes metodologies d'investigació, els professionals d'UX poden anar més enllà de fer que els sistemes agents siguin utilitzables per fer-los de confiança, controlables i responsables, fomentant una relació positiva i productiva entre els usuaris i els seus agents d'IA. Tingueu en compte que aquests no són els únics mètodes rellevants per explorar amb eficàcia la IA agent. Existeixen molts altres mètodes, però aquests són els més accessibles per als professionals a curt termini. Anteriorment he tractat el mètode Wizard of Oz, un mètode una mica més avançat de prova de conceptes, que també és una eina valuosa per explorar conceptes d'IA agent. Consideracions ètiques en la metodologia de la recerca Quan s'investiga la IA agent, especialment quan es simula un mal comportament o errors, cal tenir en compte les consideracions ètiques. Hi ha moltes publicacions centrades en la investigació ètica en UX, inclòs un article que vaig escriure per a la revista Smashing, aquestes directrius de l'Institut de Disseny UX i aquesta pàgina de l'Inclusive Design Toolkit. Mètriques clau per a la intel·ligència artificial agent Necessitareu un conjunt complet de mètriques clau per avaluar de manera eficaç el rendiment i la fiabilitat dels sistemes d'IA agent. Aquestes mètriques proporcionen informació sobre la confiança dels usuaris, la precisió del sistema i l'experiència general de l'usuari. Seguint aquests indicadors, els desenvolupadors i dissenyadors poden identificar àrees de millora i assegurar-se que els agents d'IA funcionen de manera segura i eficient. 1. Taxa d'intervencióPer als agents autònoms, mesurem l'èxit pel silenci. Si un agent executa una tasca i l'usuari no intervé ni inverteix l'acció dins d'una finestra establerta (p. ex., 24 hores), ho comptarem com a acceptació. Seguim la taxa d'intervenció: amb quina freqüència salta un humà per aturar o corregir l'agent? Una taxa d'intervenció elevada indica un desajust en la confiança o la lògica. 2. Freqüència d'accions no desitjades per cada 1.000 tasquesAquesta mètrica crítica quantifica el nombre d'accions realitzades per l'agent d'IA que no eren desitjades o esperades per l'usuari, normalitzades per cada 1.000 tasques completades. Una baixa freqüència d'accions no desitjades significa una IA ben alineada que interpreta amb precisió la intenció de l'usuari i opera dins dels límits definits. Aquesta mètrica està estretament lligada a la comprensió de l'IA del context, la seva capacitat per desambiguar les ordres i la robustesa dels seus protocols de seguretat. 3. Taxes de retrocés o desfer Aquesta mètrica fa un seguiment de la freqüència amb què els usuaris han de revertir o desfer una acció realitzada per l'IA. Les altes taxes de retrocés suggereixen que la IA comet errors freqüents, malinterpreta les instruccions o actua de manera que no s'ajusta a les expectatives dels usuaris. L'anàlisi dels motius d'aquests retrocessos pot proporcionar un feedback valuós per millorar els algorismes de l'IA, la comprensió de les preferències dels usuaris i la seva capacitat per predir els resultats desitjables. Per entendre per què, heu d'implementar una microenquesta sobre l'acció de desfer. Per exemple, quan un usuari inverteix un canvi de programació, una simple indicació pot preguntar-li: "Moment equivocat? Persona equivocada? O només volies fer-ho tu?" Permetre que l'usuari faci clic a l'opció que millor correspon al seu raonament. 4. Temps de resolució després d'un errorAquesta mètricamesura la durada que triga un usuari a corregir un error comès per l'IA o perquè el propi sistema d'IA es recuperi d'un estat erroni. Poc temps per resoldre's indica un procés de recuperació d'errors eficient i fàcil d'utilitzar, que pot mitigar la frustració de l'usuari i mantenir la productivitat. Això inclou la facilitat per identificar l'error, l'accessibilitat dels mecanismes de desfer o de correcció i la claredat dels missatges d'error proporcionats per l'IA.
La recollida d'aquestes mètriques requereix instrumentar el vostre sistema per fer un seguiment dels ID d'acció de l'agent. Cada acció diferent que faci l'agent, com ara proposar un horari o reservar un vol, ha de generar un identificador únic que persisteixi als registres. Per mesurar la taxa d'intervenció, no busquem una reacció immediata de l'usuari. Busquem l'absència d'una contraacció dins d'una finestra definida. Si es genera un identificador d'acció a les 9:00 a. m. i cap usuari humà modifica o reverteix aquest ID específic a les 9:00 a. m. del dia següent, el sistema l'etiqueta lògicament com a acceptat. Això ens permet quantificar l'èxit en funció del silenci de l'usuari en lloc de la confirmació activa. Per als percentatges de retrocés, els recomptes en brut són insuficients perquè no tenen context. Per capturar el motiu subjacent, heu d'implementar la lògica d'intercepció a les funcions Desfés o Revertir de l'aplicació. Quan un usuari inverteix una acció iniciada per l'agent, activeu una microenquesta lleugera. Aquest pot ser un senzill modal de tres opcions que demana a l'usuari que categoreixi l'error com a fet incorrecte, sense context o una simple preferència per gestionar la tasca manualment. Això combina la telemetria quantitativa amb la visió qualitativa. Permet als equips d'enginyeria distingir entre un algorisme trencat i un desajust de preferències de l'usuari. Aquestes mètriques, quan es fan un seguiment coherent i s'analitzen de manera holística, proporcionen un marc sòlid per avaluar el rendiment dels sistemes d'IA agent, que permet una millora contínua del control, el consentiment i la responsabilitat. Dissenyar contra l'engany A mesura que els agents es tornen cada cop més capaços, ens enfrontem a un nou risc: el fang agentic. Els fangs tradicionals creen friccions que dificulten la cancel·lació d'una subscripció o la supressió d'un compte. Els fangs agents actuen al revés. Elimina la fricció amb una falla, cosa que fa que sigui massa fàcil per a un usuari acceptar una acció que beneficiï l'empresa en lloc dels seus propis interessos. Penseu en un agent que us ajudi amb la reserva de viatges. Sense baranes clares, el sistema podria prioritzar una companyia aèria associada o un hotel de marge més elevat. Presenta aquesta elecció com el camí òptim. L'usuari, confiant en l'autoritat del sistema, accepta la recomanació sense escrutini. Això crea un patró enganyós on el sistema optimitza els ingressos sota l'aparença de conveniència. El risc de la competència falsament imaginada L'engany no pot derivar d'una intenció maliciosa. Sovint es manifesta en IA com a competència imaginada. Els models d'idiomes grans solen semblar autoritzats fins i tot quan són incorrectes. Presenten una confirmació de reserva falsa o un resum inexacte amb la mateixa confiança que un fet verificat. Els usuaris poden confiar naturalment en aquest to de confiança. Aquest desajust crea una bretxa perillosa entre la capacitat del sistema i les expectatives dels usuaris. Hem de dissenyar específicament per salvar aquesta bretxa. Si un agent no pot completar una tasca, la interfície ha de senyalitzar aquesta fallada clarament. Si el sistema no està segur, ha d'expressar incertesa en lloc d'emmascarar-lo amb una prosa polida. Transparència a través de Primitives L'antídot dels fangs i les al·lucinacions és la procedència. Cada acció autònoma requereix una etiqueta de metadades específica que expliqui l'origen de la decisió. Els usuaris necessiten la capacitat d'inspeccionar la cadena lògica darrere del resultat. Per aconseguir-ho, hem de traduir primitives en respostes pràctiques. En enginyeria del programari, els primitius fan referència a les unitats bàsiques d'informació o accions que realitza un agent. Per a l'enginyer, això sembla una trucada d'API o una porta lògica. A l'usuari, ha d'aparèixer com una explicació clara. El repte del disseny rau a mapejar aquests passos tècnics amb justificacions llegibles pels humans. Si un agent recomana un vol específic, l'usuari ha de saber per què. La interfície no pot amagar-se darrere d'un suggeriment genèric. Ha d'exposar la primitiva subjacent: Logic: Cheapest_Direct_Flight o Logic: Partner_Airline_Priority. La figura 4 il·lustra aquest flux de traducció. Agafem la primitiva del sistema en brut (la lògica del codi real) i la mapem a una cadena orientada a l'usuari. Per exemple, una comprovació primitiva d'un calendari programar una reunió es converteix en una declaració clara: he proposat una 4 PMreunió. Aquest nivell de transparència garanteix que les accions de l'agent semblin lògiques i beneficioses. Permet a l'usuari verificar que l'agent va actuar en el seu millor interès. En exposar els primitius, transformem una caixa negra en una caixa de vidre, garantint que els usuaris segueixin sent l'autoritat final de la seva pròpia vida digital.
Preparant l'escenari per al disseny Construir un sistema agent requereix un nou nivell de comprensió psicològica i conductual. Ens obliga a anar més enllà de les proves d'usabilitat convencionals i a l'àmbit de la confiança, el consentiment i la responsabilitat. Els mètodes d'investigació que hem comentat, des de la investigació de models mentals fins a la simulació del mal comportament i l'establiment de noves mètriques, proporcionen una base necessària. Aquestes pràctiques són les eines essencials per identificar de manera proactiva on pot fallar un sistema autònom i, el que és més important, com reparar la relació usuari-agent quan ho fa. El canvi a la IA agentica és una redefinició de la relació usuari-sistema. Ja no estem dissenyant eines que simplement responen a ordres; estem dissenyant per a socis que actuen en nom nostre. Això canvia l'imperatiu de disseny de l'eficiència i la facilitat d'ús a la transparència, la predictibilitat i el control. Quan una intel·ligència artificial pot reservar un vol o negociar una acció sense un clic final, el disseny de les seves "rampes d'entrada" i "rampas de sortida" esdevé primordial. És la nostra responsabilitat garantir que els usuaris se sentin al seient del conductor, fins i tot quan hagin lliurat el volant. Aquesta nova realitat també eleva el paper de l'investigador UX. Ens convertim en els custodios de la confiança dels usuaris, treballant en col·laboració amb enginyers i gestors de producte per definir i provar les baranes de l'autonomia d'un agent. Més enllà de ser investigadors, ens convertim en defensors del control dels usuaris, la transparència i les garanties ètiques dins del procés de desenvolupament. Traduint primitives en preguntes pràctiques i simulant el pitjor dels escenaris, podem construir sistemes robusts que siguin potents i segurs. En aquest article s'ha descrit el "què" i el "per què" de la investigació de la IA agent. Ha demostrat que les nostres eines tradicionals són insuficients i que hem d'adoptar noves metodologies amb visió de futur. El següent article es basarà en aquesta base, proporcionant els patrons de disseny específics i les pràctiques organitzatives que fan que la utilitat d'un agent sigui transparent per als usuaris, assegurant que puguin aprofitar el poder de la IA agentica amb confiança i control. El futur de l'UX passa per fer que els sistemes siguin fiables. Per a una comprensió addicional de la IA agent, podeu explorar els recursos següents:
Bloc de Google AI sobre Agentic AI La investigació de Microsoft sobre els agents d'IA