Agentic AI está preparado para transformar a experiencia do cliente e a eficiencia operativa, o que precisa un novo enfoque estratéxico do liderado. Esta evolución da intelixencia artificial capacita aos sistemas para planificar, executar e persistir nas tarefas, pasando das simples recomendacións a unha acción proactiva. Para os equipos de UX, xestores de produtos e executivos, comprender este cambio é fundamental para desbloquear oportunidades de innovación, axilizar os fluxos de traballo e redefinir como a tecnoloxía serve ás persoas. É fácil confundir a IA axente coa automatización de procesos robóticos (RPA), que é unha tecnoloxía que se centra en tarefas baseadas en regras que se realizan nos ordenadores. A distinción reside na rixidez fronte ao razoamento. RPA é excelente para seguir un guión estrito: se ocorre X, fai Y. Imita as mans humanas. A IA axente imita o razoamento humano. Non segue un guión lineal; crea un. Considere un fluxo de traballo de contratación. Un bot RPA pode escanear un currículo e cargalo nunha base de datos. Realiza perfectamente unha tarefa repetitiva. Un sistema de Agentic analiza o currículo, observa que o candidato enumera unha certificación específica, fai referencias cruzadas a un novo requisito do cliente e decide redactar un correo electrónico de divulgación personalizado que destaque esa coincidencia. RPA executa un plan predefinido; Agentic AI formula o plan en función dun obxectivo. Esta autonomía separa aos axentes das ferramentas preditivas que utilizamos durante a última década. Outro exemplo é a xestión de conflitos de reunións. Un modelo preditivo integrado no teu calendario pode analizar o teu calendario de reunións e os horarios dos teus compañeiros. Podería suxerir posibles conflitos, como dúas reunións importantes programadas ao mesmo tempo ou unha reunión programada cando un participante clave está de vacacións. Proporcionache información e sinala posibles problemas, pero ti es responsable de tomar medidas. Unha IA axente, no mesmo escenario, iría máis aló de suxerir conflitos a evitar. Ao identificar un conflito cun participante clave, o axente podería actuar mediante:
Comprobando a dispoñibilidade de todos os participantes necesarios. Identificar franxas horarias alternativas que funcionen para todos. Envío de novas invitacións propostas a todos os asistentes. Se o conflito é cun participante externo, o axente podería redactar e enviar un correo electrónico explicando a necesidade de reprogramar e ofrecendo horarios alternativos. Actualizando o teu calendario e os calendarios dos teus compañeiros cos novos detalles da reunión unha vez confirmados.
Esta IA axente comprende o obxectivo (resolver o conflito da reunión), planifica os pasos (comprobar a dispoñibilidade, atopar alternativas, enviar invitacións), executa eses pasos e persiste ata que se resolve o conflito, todo cunha intervención directa do usuario mínima. Isto demostra a diferenza "axente": o sistema toma medidas proactivas para o usuario, en lugar de só proporcionar información ao usuario. Os sistemas de intelixencia artificial axente comprenden un obxectivo, planifican unha serie de pasos para alcanzalo, executan eses pasos e mesmo se adaptan se as cousas van mal. Pense niso como un asistente dixital proactivo. A tecnoloxía subxacente adoita combinar grandes modelos de linguaxe (LLM) para a comprensión e o razoamento, con algoritmos de planificación que dividen tarefas complexas en accións manexables. Estes axentes poden interactuar con varias ferramentas, API e incluso outros modelos de IA para lograr os seus obxectivos e, de xeito crítico, poden manter un estado persistente, é dicir, lembran accións anteriores e seguen traballando para acadar un obxectivo ao longo do tempo. Isto fai que sexan fundamentalmente diferentes da IA xerativa típica, que adoita completar unha única solicitude e despois reinicia. Unha taxonomía sinxela de comportamentos axentes Podemos categorizar o comportamento dos axentes en catro modos distintos de autonomía. Aínda que estes adoitan parecer unha progresión, funcionan como modos operativos independentes. Un usuario pode confiar nun axente para actuar de forma autónoma para a programación, pero mantelo en "modo de suxestión" para as transaccións financeiras. Derivamos estes niveis adaptando os estándares da industria para vehículos autónomos (niveis SAE) aos contextos de experiencia dixital do usuario. Observar e suxerir O axente funciona como monitor. Analiza fluxos de datos e sinala anomalías ou oportunidades, pero non toma ningunha acción. DiferenciaciónA diferenza do seguinte nivel, o axente non xera ningún plan complexo. Sinala un problema. ExemploUn axente de DevOps observa un pico da CPU do servidor e avisa ao enxeñeiro de garda. Non sabe como nin tenta solucionalo, pero sabe que algo está mal. Implicacións para o deseño e a supervisión Neste nivel,O deseño e a supervisión deben priorizar notificacións claras e non intrusivas e un proceso ben definido para que os usuarios actúen sobre as suxestións. O foco está en capacitar ao usuario con información oportuna e relevante sen tomar o control. Os profesionais de UX deben centrarse en facer as suxestións claras e fáciles de entender, mentres que os xestores de produtos deben asegurarse de que o sistema proporciona valor sen abrumar ao usuario. Planificar e propoñer O axente identifica un obxectivo e xera unha estratexia de varios pasos para logralo. Presenta o plan completo para a revisión humana. DiferenciaciónO axente actúa como estratega. Non se executa; agarda a aprobación de todo o enfoque. ExemploO mesmo axente de DevOps nota o pico da CPU, analiza os rexistros e propón un plan de corrección:
Xire dúas instancias adicionais. Reinicie o equilibrador de carga. Arquiva os rexistros antigos.
O humano revisa a lóxica e fai clic en "Aprobar plan". Implicacións para o deseño e a supervisión. Para os axentes que planifican e propoñen, o deseño debe garantir que os plans propostos sexan facilmente comprensibles e que os usuarios teñan formas intuitivas de modificalos ou rexeitalos. A supervisión é fundamental para controlar a calidade das propostas e a lóxica de planificación do axente. Os profesionais de UX deben deseñar visualizacións claras dos plans propostos e os xestores de produtos deben establecer fluxos de traballo claros de revisión e aprobación. Acto-con-Confirmación O axente completa todos os traballos de preparación e coloca a acción final nun estado escénico. Mantén a porta aberta, esperando un aceno. DiferenciaciónIsto diferénciase de "Planificar e propor" porque o traballo xa está feito e escenificado. Reduce a fricción. O usuario confirma o resultado, non a estratexia. ExemploUn axente de contratación redacta cinco invitacións para entrevistas, atopa horarios abertos nos calendarios e crea os eventos do calendario. Presenta un botón "Enviar todo". O usuario proporciona a autorización final para desencadear a acción externa. Implicacións para o deseño e a supervisión Cando os axentes actúan con confirmación, o deseño debe proporcionar resumos transparentes e concisos da acción prevista, delineando claramente as posibles consecuencias. A supervisión debe verificar que o proceso de confirmación é sólido e que non se lles pide aos usuarios que aproben as accións cegamente. Os profesionais de UX deben deseñar avisos de confirmación que sexan claros e proporcionen toda a información necesaria, e os xestores de produtos deben priorizar unha pista de auditoría sólida para todas as accións confirmadas. Actuar-De forma autónoma O axente executa tarefas de forma independente dentro dos límites definidos. DiferenciaciónO usuario revisa o historial de accións, non as accións en si. ExemploO axente de contratación ve un conflito, move a entrevista a un espazo de copia de seguridade, actualiza o candidato e notifica ao director de contratación. O humano só ve unha notificación: a entrevista reprogramada para o martes. Implicacións para o deseño e a supervisiónPara os axentes autónomos, o deseño debe establecer límites claros previamente aprobados e proporcionar ferramentas de seguimento sólidas. A supervisión require unha avaliación continua do rendemento do axente dentro destes límites, unha necesidade crítica de rexistro sólido, mecanismos de anulación claros e interruptores de extinción definidos polo usuario para manter o control e a confianza do usuario. Os profesionais de UX deben centrarse en deseñar paneis de control eficaces para supervisar o comportamento dos axentes autónomos, e os xestores de produtos deben asegurarse de que existan pautas éticas e de goberno claras.
Vexamos unha aplicación do mundo real en tecnoloxía de RRHH para ver estes modos en acción. Considere un "axente de coordinación de entrevistas" deseñado para xestionar a loxística da contratación.
No modo de suxestiónO axente observa que un entrevistador ten unha dobre reserva. Destaca o conflito no panel do reclutador: "Aviso: Sarah está reservada dobre para a entrevista das 14:00". No modo de planO axente analiza o calendario de Sarah e a dispoñibilidade do candidato. Presenta unha solución: "Recomendo trasladar a entrevista ao xoves ás 10:00 horas. Para iso é necesario mover a 1:1 de Sarah co seu director". O reclutador revisa esta lóxica. No modo de confirmaciónO axente redacta os correos electrónicos ao candidato e ao xestor. Enche as invitacións do calendario. O reclutador ve un resumo: "Listo para reprogramar para o xoves. Enviar actualizacións?" O reclutador fai clic en "Confirmar". En modo autónomoO axente xestiona o conflito ao instante. Respecta unha regra preestablecida: "Sempre prioriza as entrevistas dos candidatos sobre as entrevistas internas 1:1". Move a reunión e envía as notificacións. O reclutador ve unha entrada de rexistro: "Resoltoconflito de horarios para o candidato B".
Manual de investigación: que investigar e como Desenvolver unha IA axente efectiva esixe un enfoque de investigación distinto en comparación co software tradicional ou mesmo coa IA xerativa. A natureza autónoma dos axentes de IA, a súa capacidade para tomar decisións e o seu potencial de acción proactiva requiren metodoloxías especializadas para comprender as expectativas dos usuarios, mapear comportamentos complexos dos axentes e anticipar posibles fallos. O seguinte manual de investigación describe os métodos clave para medir e avaliar estes aspectos únicos da IA axente. Entrevistas de Modelo Mental Estas entrevistas descobren as nocións preconcibidas dos usuarios sobre como debe comportarse un axente de IA. En lugar de simplemente preguntar o que queren os usuarios, o foco está en comprender os seus modelos internos das capacidades e limitacións do axente. Debemos evitar usar a palabra "axente" cos participantes. Leva equipaxe de ciencia ficción ou é un termo que se confunde demasiado facilmente cun axente humano que ofrece apoio ou servizos. En cambio, enmarca a discusión en torno aos "asistentes" ou "o sistema". Necesitamos descubrir onde os usuarios marcan a liña entre a automatización útil e o control intrusivo.
Método: Pídalle aos usuarios que describan, debuxen ou narran as súas interaccións esperadas co axente en varios escenarios hipotéticos. Sondas clave (que reflicten unha variedade de industrias): Para comprender os límites da automatización desexada e as posibles ansiedades en torno á sobre-automatización, pregunta: Se o teu voo se cancela, que che gustaría que fixera o sistema automaticamente? Que lle preocuparía se o fixese sen a súa instrución explícita?
Para explorar a comprensión do usuario dos procesos internos do axente e da comunicación necesaria, pregunte: Imaxina que un asistente dixital está xestionando a túa casa intelixente. Se se entrega un paquete, que pasos imaxinas que leva e que información esperarías recibir?
Para descubrir as expectativas sobre o control e o consentimento nun proceso de varios pasos, pregunta: Se lle pides ao teu asistente dixital que programe unha reunión, que pasos pensas que tome? En que momentos lle gustaría que lle consultasen ou que lle dean opcións?
Beneficios do método: revela as suposicións implícitas, destaca as áreas nas que o comportamento planificado do axente pode diverxer das expectativas dos usuarios e informa o deseño de controis e mecanismos de retroalimentación adecuados.
Mapeo de viaxe do axente: Do mesmo xeito que o mapeo tradicional da viaxe do usuario, o mapeo da viaxe do axente céntrase especificamente nas accións previstas e nos puntos de decisión do propio axente de IA, xunto coa interacción do usuario. Isto axuda a identificar de forma proactiva as posibles trampas.
Método: crea un mapa visual que describe as distintas etapas da operación dun axente, desde o inicio ata a finalización, incluíndo todas as accións, decisións e interaccións potenciais con sistemas ou usuarios externos. Elementos clave para mapear: Accións do axente: que tarefas ou decisións específicas realiza o axente? Entradas/Saídas de información: que datos necesita o axente e que información xera ou comunica? Puntos de decisión: onde elixe o axente e cales son os criterios para esas eleccións? Puntos de interacción do usuario: onde o usuario proporciona entradas, revisa ou aproba as accións? Puntos de falla: fundamentalmente, identifique casos específicos nos que o axente podería malinterpretar as instrucións, tomar unha decisión incorrecta ou interactuar coa entidade incorrecta. Exemplos: destinatario incorrecto (por exemplo, enviar información confidencial á persoa equivocada), descuberto (por exemplo, un pago automatizado que supera os fondos dispoñibles), interpretación errónea da intención (por exemplo, reservar un voo para a data incorrecta debido a unha linguaxe ambigua).
Camiños de recuperación: como pode o axente ou o usuario recuperarse destes fallos? Que mecanismos existen para a corrección ou intervención?
Beneficios do método: ofrece unha visión holística do fluxo operativo do axente, descobre dependencias ocultas e permite o deseño proactivo de garantías, tratamento de erros e puntos de intervención do usuario para previr ou mitigar os resultados negativos.
Probas de comportamento incorrecto simulados: Este enfoque está deseñado para probar o sistema e observar as reaccións dos usuarios cando o axente de IA falla ou se desvía das expectativas. Trátase de comprender a reparación da confianza e as respostas emocionais en situacións adversas.
Método: nos estudos de laboratorio controlados, introduce deliberadamente escenarios nos que o axente comete un erro, malinterpreta unha orde ou se comporta de forma inesperada. Tipos de "mal comportamento" para simular: ComandoInterpretación errónea: o axente realiza unha acción lixeiramente diferente da que pretendía o usuario (por exemplo, ordenar dous elementos en lugar dun). Sobrecarga/subcarga de información: o axente proporciona demasiada información irrelevante ou non hai suficientes detalles críticos. Acción non solicitada: o axente realiza unha acción que o usuario non quería ou esperaba expresamente (por exemplo, mercar accións sen aprobación). Fallo do sistema: o axente falla, non responde ou proporciona unha mensaxe de erro. Dilemas éticos: o axente toma unha decisión con implicacións éticas (por exemplo, priorizando unha tarefa sobre outra en función dunha métrica imprevista).
Foco de observación: Reaccións dos usuarios: como reaccionan os usuarios emocionalmente (frustración, rabia, confusión, perda de confianza)? Intentos de recuperación: que pasos toman os usuarios para corrixir o comportamento do axente ou desfacer as súas accións? Mecanismos de reparación de confianza: os mecanismos de recuperación ou comentarios integrados no sistema axudan a restaurar a confianza? Como queren que os usuarios se informen dos erros? Cambio de modelo mental: o mal comportamento altera a comprensión do usuario das capacidades ou limitacións do axente?
Beneficios do método: fundamental para identificar as lagoas de deseño relacionadas coa recuperación de erros, comentarios e control do usuario. Ofrece información sobre a resiliencia dos usuarios ante os fallos dos axentes e o que se necesita para manter ou reconstruír a confianza, o que leva a sistemas axentes máis robustos e tolerantes.
Ao integrar estas metodoloxías de investigación, os profesionais de UX poden ir máis alá de facer que os sistemas axentes sexan utilizables para facelos fiables, controlables e responsables, fomentando unha relación positiva e produtiva entre os usuarios e os seus axentes de IA. Teña en conta que estes non son os únicos métodos relevantes para explorar a IA axente de forma eficaz. Existen moitos outros métodos, pero estes son máis accesibles para os profesionais a curto prazo. Cubrín anteriormente o método do Mago de Oz, un método un pouco máis avanzado de proba de conceptos, que tamén é unha ferramenta valiosa para explorar conceptos da IA axente. Consideracións éticas na metodoloxía de investigación Cando se investiga a IA axente, especialmente cando se simulan erros ou comportamentos incorrectos, as consideracións éticas son fundamentais a ter en conta. Hai moitas publicacións centradas na investigación ética de UX, incluíndo un artigo que escribín para Smashing Magazine, estas directrices do UX Design Institute e esta páxina do Inclusive Design Toolkit. Métricas clave para a IA axente Necesitarás un conxunto completo de métricas clave para avaliar eficazmente o rendemento e a fiabilidade dos sistemas de IA axente. Estas métricas proporcionan información sobre a confianza do usuario, a precisión do sistema e a experiencia global do usuario. Ao seguir estes indicadores, os desenvolvedores e deseñadores poden identificar áreas de mellora e garantir que os axentes de IA funcionen de forma segura e eficiente. 1. Taxa de intervenciónPara axentes autónomos, medimos o éxito polo silencio. Se un axente executa unha tarefa e o usuario non intervén nin inverte a acción dentro dunha xanela establecida (por exemplo, 24 horas), contabilímolo como aceptación. Facemos un seguimento da taxa de intervención: cantas veces salta un humano para deter ou corrixir o axente? Unha alta taxa de intervención sinala un desaxuste na confianza ou na lóxica. 2. Frecuencia de accións non desexadas por cada 1.000 tarefas. Esta métrica crítica cuantifica o número de accións realizadas polo axente de IA que non foron desexadas nin esperadas polo usuario, normalizadas por cada 1.000 tarefas completadas. Unha baixa frecuencia de accións non desexadas significa unha IA ben aliñada que interpreta con precisión a intención do usuario e opera dentro dos límites definidos. Esta métrica está intimamente ligada á comprensión da IA do contexto, á súa capacidade para desambiguar os comandos e á robustez dos seus protocolos de seguridade. 3. Taxas de retrotraer ou desfacerEsta métrica fai un seguimento da frecuencia coa que os usuarios necesitan reverter ou desfacer unha acción realizada pola IA. As altas taxas de retroceso suxiren que a IA comete erros frecuentes, malinterpreta as instrucións ou actúa de maneira que non se axusta ás expectativas dos usuarios. Analizar as razóns detrás destes retrocesos pode proporcionar comentarios valiosos para mellorar os algoritmos da IA, a comprensión das preferencias dos usuarios e a súa capacidade para prever resultados desexables. Para entender por que, debes implementar unha microenquisa sobre a acción de desfacer. Por exemplo, cando un usuario inverte un cambio de programación, un simple aviso pode preguntar: "¿Hora incorrecta? Persoa incorrecta? Ou só querías facelo ti?" Permitindo que o usuario prema na opción que mellor se corresponda co seu razoamento. 4. Tempo de resolución despois dun erroEsta métricamide o tempo que tarda un usuario en corrixir un erro cometido pola IA ou para que o propio sistema de IA se recupere dun estado erróneo. Un pouco de tempo para a resolución indica un proceso de recuperación de erros eficiente e fácil de usar, que pode mitigar a frustración do usuario e manter a produtividade. Isto inclúe a facilidade para identificar o erro, a accesibilidade dos mecanismos de desfacer ou corrección e a claridade das mensaxes de erro proporcionadas pola IA.
Recoller estas métricas require instrumentar o seu sistema para rastrexar os ID de accións do axente. Cada acción distinta que realiza o axente, como propoñer un horario ou reservar un voo, debe xerar un ID único que persiste nos rexistros. Para medir a taxa de intervención, non buscamos unha reacción inmediata do usuario. Buscamos a ausencia dunha contra-acción dentro dunha xanela definida. Se se xera un ID de acción ás 9:00 a.m. e ningún usuario humano modifica ou reverte ese ID específico antes das 9:00 a. m. do día seguinte, o sistema etiqueta loxicamente como Aceptado. Isto permítenos cuantificar o éxito en función do silencio do usuario en lugar da confirmación activa. Para as taxas de retroceso, os recontos en bruto son insuficientes porque carecen de contexto. Para capturar o motivo subxacente, debes implementar a lóxica de interceptación nas funcións Desfacer ou reverter da túa aplicación. Cando un usuario inverte unha acción iniciada polo axente, desencadea unha microenquisa lixeira. Este pode ser un simple modal de tres opcións que pide ao usuario que clasifique o erro como de feito incorrecto, sen contexto ou unha simple preferencia para xestionar a tarefa manualmente. Isto combina a telemetría cuantitativa coa visión cualitativa. Permite aos equipos de enxeñería distinguir entre un algoritmo roto e un desajuste de preferencias do usuario. Estas métricas, cando se fan un seguimento coherente e se analizan de forma holística, proporcionan un marco sólido para avaliar o rendemento dos sistemas de IA axente, o que permite unha mellora continua no control, o consentimento e a responsabilidade. Deseño contra o engano A medida que os axentes se fan cada vez máis capaces, enfrontámonos a un novo risco: o lodo axente. Os lodos tradicionais crean friccións que dificultan a cancelación dunha subscrición ou a eliminación dunha conta. Os lodos axentes actúan ao revés. Elimina a fricción ante un fallo, polo que é demasiado fácil para un usuario aceptar unha acción que beneficie á empresa en lugar dos seus propios intereses. Considere un axente que axude coa reserva de viaxes. Sen barreiras claras, o sistema pode dar prioridade a unha compañía aérea asociada ou a un hotel de marxe superior. Presenta esta elección como o camiño óptimo. O usuario, confiando na autoridade do sistema, acepta a recomendación sen escrutinio. Isto crea un patrón enganoso onde o sistema optimiza os ingresos baixo o pretexto de conveniencia. O risco da competencia falsamente imaxinada O engano pode non deberse a unha intención maliciosa. A miúdo maniféstase na IA como Competencia Imaxinada. Os modelos de idiomas grandes adoitan soar autorizados aínda que sexan incorrectos. Presentan unha confirmación de reserva falsa ou un resumo inexacto coa mesma confianza que un feito verificado. Os usuarios poden confiar naturalmente neste ton seguro. Este desaxuste crea unha diferenza perigosa entre a capacidade do sistema e as expectativas dos usuarios. Debemos deseñar específicamente para salvar esta brecha. Se un axente non consegue completar unha tarefa, a interface debe sinalar claramente ese fallo. Se o sistema non está seguro, debe expresar a incerteza en lugar de enmascarala cunha prosa pulida. Transparencia vía Primitivas O antídoto para os lodos e as alucinacións é a procedencia. Toda acción autónoma require unha etiqueta de metadatos específica que explique a orixe da decisión. Os usuarios necesitan a capacidade de inspeccionar a cadea lóxica detrás do resultado. Para conseguilo, debemos traducir as primitivas en respostas prácticas. En enxeñaría de software, as primitivas refírense ás unidades fundamentais de información ou accións que realiza un axente. Para o enxeñeiro, isto parece unha chamada API ou unha porta lóxica. Para o usuario, debe aparecer como unha explicación clara. O desafío do deseño reside en mapear estes pasos técnicos con fundamentos lexibles polo home. Se un axente recomenda un voo específico, o usuario debe saber por que. A interface non pode ocultarse detrás dunha suxestión xenérica. Debe expoñer a primitiva subxacente: Logic: Cheapest_Direct_Flight ou Logic: Partner_Airline_Priority. A figura 4 ilustra este fluxo de tradución. Tomamos a primitiva do sistema en bruto (a lóxica do código real) e mapeámola a unha cadea orientada ao usuario. Por exemplo, unha comprobación primitiva dun calendario programar unha reunión convértese nunha afirmación clara: propuxen un horario ás 16:00reunión. Este nivel de transparencia garante que as accións do axente parecen lóxicas e beneficiosas. Permite ao usuario verificar que o axente actuou no seu mellor interese. Ao expoñer os primitivos, transformamos unha caixa negra nunha caixa de vidro, garantindo que os usuarios sigan sendo a autoridade final nas súas propias vidas dixitais.
Preparando o escenario para o deseño Construír un sistema axente require un novo nivel de comprensión psicolóxica e de comportamento. Obríganos a ir máis aló das probas de usabilidade convencionais e ao ámbito da confianza, o consentimento e a responsabilidade. Os métodos de investigación que comentamos, desde probar modelos mentais ata simular un mal comportamento e establecer novas métricas, proporcionan unha base necesaria. Estas prácticas son as ferramentas esenciais para identificar de forma proactiva onde un sistema autónomo pode fallar e, o máis importante, como reparar a relación usuario-axente cando o fai. O cambio á IA axente é unha redefinición da relación usuario-sistema. Xa non deseñamos ferramentas que simplemente responden a comandos; estamos deseñando para socios que actúan no noso nome. Isto cambia o imperativo de deseño de eficiencia e facilidade de uso a transparencia, previsibilidade e control. Cando unha IA pode reservar un voo ou negociar unha acción sen un último clic, o deseño das súas "rampas de entrada" e "rampas de saída" tórnase primordial. É a nosa responsabilidade asegurarnos de que os usuarios senten que están no asento do condutor, mesmo cando entregaron o volante. Esta nova realidade tamén eleva o papel do investigador UX. Convertémonos nos custodios da confianza dos usuarios, traballando en colaboración con enxeñeiros e xestores de produtos para definir e probar as barreiras da autonomía dun axente. Ademais de ser investigadores, convertémonos en defensores do control dos usuarios, a transparencia e as garantías éticas dentro do proceso de desenvolvemento. Ao traducir primitivos en preguntas prácticas e simular os peores escenarios, podemos construír sistemas robustos que sexan potentes e seguros. Este artigo describiu o "que" e o "por que" de investigar a IA axente. Demostrou que as nosas ferramentas tradicionais son insuficientes e que debemos adoptar novas metodoloxías con visión de futuro. O seguinte artigo construirase sobre esta base, proporcionando os patróns de deseño específicos e as prácticas organizativas que fan que a utilidade dun axente sexa transparente para os usuarios, garantindo que poidan aproveitar o poder da IA axente con confianza e control. O futuro da UX consiste en facer que os sistemas sexan fiables. Para obter unha comprensión adicional da IA axente, pode explorar os seguintes recursos:
Blog de Google AI sobre AI axente Investigación de Microsoft sobre axentes de IA