A Agentic AI está pronta para transformar a experiência do cliente e a eficiência operacional, necessitando de uma nova abordagem estratégica da liderança. Esta evolução na inteligência artificial capacita os sistemas a planear, executar e persistir em tarefas, indo além de simples recomendações para ações proativas. Para equipes de UX, gerentes de produto e executivos, compreender essa mudança é crucial para desbloquear oportunidades de inovação, simplificar fluxos de trabalho e redefinir como a tecnologia atende às pessoas. É fácil confundir Agentic AI com Robotic Process Automation (RPA), que é uma tecnologia que se concentra em tarefas baseadas em regras executadas em computadores. A distinção reside na rigidez versus raciocínio. O RPA é excelente para seguir um roteiro rígido: se X acontecer, faça Y. Ele imita mãos humanas. A IA Agentic imita o raciocínio humano. Não segue um roteiro linear; isso cria um. Considere um fluxo de trabalho de recrutamento. Um bot RPA pode digitalizar um currículo e carregá-lo em um banco de dados. Ele executa uma tarefa repetitiva perfeitamente. Um sistema Agentic analisa o currículo, percebe que o candidato lista uma certificação específica, faz referência cruzada com um novo requisito do cliente e decide redigir um e-mail de divulgação personalizado destacando essa correspondência. O RPA executa um plano predefinido; Agentic AI formula o plano com base em uma meta. Esta autonomia separa os agentes das ferramentas preditivas que utilizamos na última década. Outro exemplo é o gerenciamento de conflitos de reuniões. Um modelo preditivo integrado ao seu calendário pode analisar sua agenda de reuniões e as agendas de seus colegas. Poderia então sugerir potenciais conflitos, como duas reuniões importantes agendadas ao mesmo tempo ou uma reunião agendada quando um participante importante estiver de férias. Ele fornece informações e sinaliza possíveis problemas, mas você é responsável por agir. Uma IA agente, no mesmo cenário, iria além de apenas sugerir conflitos a serem evitados. Ao identificar um conflito com um participante-chave, o agente poderia agir:

Verificar a disponibilidade de todos os participantes necessários. Identificar horários alternativos que funcionem para todos. Envio de propostas de novos convites para reuniões a todos os participantes. Caso o conflito seja com um participante externo, o agente poderá redigir e enviar um e-mail explicando a necessidade de reagendamento e oferecendo horários alternativos. Atualizando seu calendário e os calendários de seus colegas com os novos detalhes da reunião, uma vez confirmados.

Esta IA agente entende o objetivo (resolver o conflito da reunião), planeja as etapas (verificar a disponibilidade, encontrar alternativas, enviar convites), executa essas etapas e persiste até que o conflito seja resolvido, tudo com o mínimo de intervenção direta do usuário. Isso demonstra a diferença “agente”: o sistema toma medidas proativas para o usuário, em vez de apenas fornecer informações ao usuário. Os sistemas Agentic AI entendem um objetivo, planejam uma série de etapas para alcançá-lo, executam essas etapas e até mesmo se adaptam se algo der errado. Pense nisso como um assistente digital proativo. A tecnologia subjacente muitas vezes combina grandes modelos de linguagem (LLMs) para compreensão e raciocínio, com algoritmos de planejamento que dividem tarefas complexas em ações gerenciáveis. Esses agentes podem interagir com diversas ferramentas, APIs e até mesmo outros modelos de IA para atingir seus objetivos e, principalmente, podem manter um estado persistente, o que significa que se lembram de ações anteriores e continuam trabalhando em direção a uma meta ao longo do tempo. Isso os torna fundamentalmente diferentes da IA ​​generativa típica, que geralmente conclui uma única solicitação e depois reinicia. Uma Taxonomia Simples de Comportamentos Agentes Podemos categorizar o comportamento do agente em quatro modos distintos de autonomia. Embora muitas vezes pareçam uma progressão, funcionam como modos de operação independentes. Um usuário pode confiar em um agente para agir de forma autônoma no agendamento, mas mantê-lo em “modo de sugestão” para transações financeiras. Derivamos esses níveis adaptando os padrões da indústria para veículos autônomos (níveis SAE) aos contextos de experiência digital do usuário. Observar e sugerir O agente funciona como monitor. Ele analisa fluxos de dados e sinaliza anomalias ou oportunidades, mas não realiza nenhuma ação. Diferenciação Ao contrário do próximo nível, o agente não gera nenhum plano complexo. Isso aponta para um problema. ExemploUm agente DevOps percebe um pico de CPU do servidor e alerta o engenheiro de plantão. Ele não sabe como ou tenta consertar, mas sabe que algo está errado. Implicações para o design e a supervisão Neste nível,o design e a supervisão devem priorizar notificações claras e não intrusivas e um processo bem definido para os usuários agirem de acordo com as sugestões. O foco está em capacitar o usuário com informações oportunas e relevantes sem assumir o controle. Os profissionais de UX devem se concentrar em fazer sugestões claras e fáceis de entender, enquanto os gerentes de produto precisam garantir que o sistema agregue valor sem sobrecarregar o usuário. Planejar e propor O agente identifica uma meta e gera uma estratégia de várias etapas para alcançá-la. Apresenta o plano completo para revisão humana. DiferenciaçãoO agente atua como estrategista. Não é executado; aguarda aprovação de toda a abordagem. ExemploO mesmo agente DevOps percebe o pico de CPU, analisa os logs e propõe um plano de correção:

Crie duas instâncias extras. Reinicie o balanceador de carga. Arquive registros antigos.

O humano revisa a lógica e clica em “Aprovar Plano”. Implicações para o design e a supervisão Para os agentes que planejam e propõem, o design deve garantir que os planos propostos sejam facilmente compreensíveis e que os usuários tenham formas intuitivas de modificá-los ou rejeitá-los. A fiscalização é crucial no monitoramento da qualidade das propostas e da lógica de planejamento do agente. Os profissionais de UX devem criar visualizações claras dos planos propostos, e os gerentes de produto devem estabelecer fluxos de trabalho claros de revisão e aprovação. Agir com Confirmação O agente conclui todo o trabalho de preparação e coloca a ação final em um estado encenado. Ele efetivamente mantém a porta aberta, esperando por um aceno de cabeça. DiferenciaçãoIsso difere de “Planejar e Propor” porque o trabalho já está feito e preparado. Reduz o atrito. O usuário confirma o resultado, não a estratégia. ExemploUm agente de recrutamento elabora cinco convites para entrevistas, encontra horários abertos nos calendários e cria os eventos do calendário. Apresenta um botão “Enviar tudo”. O usuário fornece a autorização final para acionar a ação externa. Implicações para o projeto e a supervisão Quando os agentes agem com confirmação, o projeto deve fornecer resumos transparentes e concisos da ação pretendida, descrevendo claramente as possíveis consequências. A supervisão precisa verificar se o processo de confirmação é robusto e se os usuários não estão sendo solicitados a aprovar cegamente as ações. Os profissionais de UX devem criar avisos de confirmação que sejam claros e forneçam todas as informações necessárias, e os gerentes de produto devem priorizar uma trilha de auditoria robusta para todas as ações confirmadas. Agir de forma autônoma O agente executa tarefas de forma independente dentro de limites definidos. DiferenciaçãoO usuário analisa o histórico de ações, não as ações em si. Exemplo: O agente de recrutamento vê um conflito, move a entrevista para um espaço de backup, atualiza o candidato e notifica o gerente de contratação. O humano vê apenas uma notificação: Entrevista remarcada para terça-feira. Implicações para a concepção e supervisãoPara os agentes autónomos, a concepção precisa de estabelecer limites claros e pré-aprovados e fornecer ferramentas de monitorização robustas. A supervisão requer avaliação contínua do desempenho do agente dentro desses limites, uma necessidade crítica de registro robusto, mecanismos de substituição claros e interruptores de interrupção definidos pelo usuário para manter o controle e a confiança do usuário. Os profissionais de UX devem se concentrar no design de painéis eficazes para monitorar o comportamento dos agentes autônomos, e os gerentes de produto devem garantir que uma governança clara e diretrizes éticas estejam em vigor.

Vejamos uma aplicação real em tecnologia de RH para ver esses modos em ação. Considere um “Agente Coordenador de Entrevistas” projetado para lidar com a logística de contratação.

No modo de sugestão, o agente percebe que um entrevistador está com reserva dupla. Ele destaca o conflito no painel do recrutador: “Aviso: Sarah está agendada duas vezes para a entrevista das 14h”. No Modo Plano, o agente analisa a agenda de Sarah e a disponibilidade do candidato. Ele apresenta uma solução: "Recomendo transferir a entrevista para quinta-feira, às 10h. Isso requer transferir a entrevista individual de Sarah com seu gerente." O recrutador analisa essa lógica. No modo de confirmação, o agente redige os e-mails para o candidato e o gerente. Ele preenche os convites do calendário. O recrutador vê um resumo: "Pronto para reagendar para quinta-feira. Enviar atualizações?" O recrutador clica em “Confirmar”. No Modo Autônomo, o agente lida com o conflito instantaneamente. Respeita uma regra predefinida: “Sempre priorize as entrevistas dos candidatos em vez das entrevistas individuais internas”. Ele move a reunião e envia as notificações. O recrutador vê uma entrada de registro: “Resolvidoconflito de cronograma para o Candidato B.”

Cartilha de pesquisa: o que pesquisar e como O desenvolvimento de uma IA agente eficaz exige uma abordagem de pesquisa distinta em comparação com o software tradicional ou mesmo com a IA generativa. A natureza autónoma dos agentes de IA, a sua capacidade de tomar decisões e o seu potencial para ação proativa necessitam de metodologias especializadas para compreender as expectativas dos utilizadores, mapear comportamentos complexos dos agentes e antecipar potenciais falhas. A cartilha de pesquisa a seguir descreve os principais métodos para medir e avaliar esses aspectos únicos da IA agente. Entrevistas de Modelo Mental Essas entrevistas revelam as noções preconcebidas dos usuários sobre como um agente de IA deve se comportar. Em vez de simplesmente perguntar o que os usuários desejam, o foco está na compreensão de seus modelos internos das capacidades e limitações do agente. Devemos evitar usar a palavra “agente” com os participantes. Carrega bagagem de ficção científica ou é um termo facilmente confundido com um agente humano que oferece suporte ou serviços. Em vez disso, enquadre a discussão em torno de “assistentes” ou “do sistema”. Precisamos descobrir onde os usuários traçam o limite entre a automação útil e o controle intrusivo.

Método: Peça aos usuários para descreverem, desenharem ou narrarem suas interações esperadas com o agente em vários cenários hipotéticos. Principais sondagens (refletindo uma variedade de setores): Para compreender os limites da automação desejada e as possíveis ansiedades em torno da automação excessiva, pergunte: Se o seu voo for cancelado, o que você gostaria que o sistema fizesse automaticamente? O que o preocuparia se isso acontecesse sem suas instruções explícitas?

Para explorar a compreensão do usuário sobre os processos internos do agente e a comunicação necessária, pergunte: Imagine que um assistente digital gerencia sua casa inteligente. Se um pacote for entregue, quais etapas você imagina que serão necessárias e que informações você espera receber?

Para descobrir as expectativas em torno do controle e do consentimento em um processo de várias etapas, pergunte: Se você pedir ao seu assistente digital para agendar uma reunião, que etapas você prevê que ele tome? Em que pontos você gostaria de ser consultado ou ter opções?

Benefícios do método: Revela suposições implícitas, destaca áreas onde o comportamento planejado do agente pode divergir das expectativas do usuário e informa o design de controles apropriados e mecanismos de feedback.

Mapeamento da jornada do agente: Semelhante ao mapeamento tradicional da jornada do usuário, o mapeamento da jornada do agente concentra-se especificamente nas ações previstas e nos pontos de decisão do próprio agente de IA, juntamente com a interação do usuário. Isso ajuda a identificar proativamente possíveis armadilhas.

Método: Crie um mapa visual que descreva os vários estágios da operação de um agente, desde o início até a conclusão, incluindo todas as ações, decisões e interações potenciais com sistemas ou usuários externos. Elementos-chave para mapear: Ações do agente: quais tarefas ou decisões específicas o agente executa? Entradas/saídas de informações: quais dados o agente precisa e quais informações ele gera ou comunica? Pontos de Decisão: Onde o agente faz escolhas e quais são os critérios para essas escolhas? Pontos de interação do usuário: onde o usuário fornece informações, revisa ou aprova ações? Pontos de falha: É crucial identificar instâncias específicas em que o agente possa interpretar mal as instruções, tomar uma decisão incorreta ou interagir com a entidade errada. Exemplos: Destinatário incorreto (por exemplo, envio de informações confidenciais para a pessoa errada), saque a descoberto (por exemplo, um pagamento automatizado que excede os fundos disponíveis), interpretação incorreta da intenção (por exemplo, reservar um voo para a data errada devido a linguagem ambígua).

Caminhos de recuperação: como o agente ou usuário pode se recuperar dessas falhas? Que mecanismos existem para correção ou intervenção?

Benefícios do método: Fornece uma visão holística do fluxo operacional do agente, revela dependências ocultas e permite o design proativo de salvaguardas, tratamento de erros e pontos de intervenção do usuário para prevenir ou mitigar resultados negativos.

Teste simulado de mau comportamento: Esta abordagem foi projetada para testar o sistema e observar as reações do usuário quando o agente de IA falha ou se desvia das expectativas. Trata-se de compreender a reparação da confiança e as respostas emocionais em situações adversas.

Método: Em estudos de laboratório controlados, introduza deliberadamente cenários em que o agente comete um erro, interpreta mal um comando ou se comporta de forma inesperada. Tipos de “mau comportamento” a serem simulados: ComandoInterpretação incorreta: o agente executa uma ação ligeiramente diferente daquela que o usuário pretendia (por exemplo, pedir dois itens em vez de um). Sobrecarga/subcarga de informações: o agente fornece muitas informações irrelevantes ou detalhes críticos insuficientes. Ação não solicitada: o agente realiza uma ação que o usuário explicitamente não queria ou esperava (por exemplo, comprar ações sem aprovação). Falha do sistema: o agente trava, não responde ou fornece uma mensagem de erro. Dilemas Éticos: O agente toma uma decisão com implicações éticas (por exemplo, priorizar uma tarefa em detrimento de outra com base em uma métrica imprevista).

Foco de Observação: Reações do usuário: como os usuários reagem emocionalmente (frustração, raiva, confusão, perda de confiança)? Tentativas de recuperação: quais etapas os usuários realizam para corrigir o comportamento do agente ou desfazer suas ações? Mecanismos de reparo de confiança: Os mecanismos integrados de recuperação ou feedback do sistema ajudam a restaurar a confiança? Como os usuários desejam ser informados sobre erros? Mudança de modelo mental: O mau comportamento altera a compreensão do usuário sobre as capacidades ou limitações do agente?

Benefícios do método: Crucial para identificar lacunas de projeto relacionadas à recuperação de erros, feedback e controle do usuário. Ele fornece insights sobre o quão resilientes os usuários são às falhas dos agentes e o que é necessário para manter ou reconstruir a confiança, levando a sistemas de agentes mais robustos e tolerantes.

Ao integrar essas metodologias de pesquisa, os profissionais de UX podem ir além de simplesmente tornar os sistemas de agentes utilizáveis, tornando-os confiáveis, controláveis ​​e responsáveis, promovendo um relacionamento positivo e produtivo entre os usuários e seus agentes de IA. Observe que esses não são os únicos métodos relevantes para explorar efetivamente a IA agente. Existem muitos outros métodos, mas estes são mais acessíveis aos profissionais no curto prazo. Já abordei o método Mágico de Oz, um método um pouco mais avançado de teste de conceito, que também é uma ferramenta valiosa para explorar conceitos de IA de agência. Considerações Éticas em Metodologia de Pesquisa Ao pesquisar IA agente, especialmente ao simular mau comportamento ou erros, é fundamental levar em consideração considerações éticas. Existem muitas publicações com foco na pesquisa ética de UX, incluindo um artigo que escrevi para a Smashing Magazine, estas diretrizes do UX Design Institute e esta página do Inclusive Design Toolkit. Principais métricas para Agentic AI Você precisará de um conjunto abrangente de métricas importantes para avaliar com eficácia o desempenho e a confiabilidade dos sistemas de IA de agência. Essas métricas fornecem insights sobre a confiança do usuário, a precisão do sistema e a experiência geral do usuário. Ao rastrear esses indicadores, os desenvolvedores e designers podem identificar áreas de melhoria e garantir que os agentes de IA operem com segurança e eficiência. 1. Taxa de intervençãoPara agentes autônomos, medimos o sucesso pelo silêncio. Se um agente executa uma tarefa e o usuário não intervém ou reverte a ação dentro de uma janela definida (por exemplo, 24 horas), contamos isso como aceitação. Rastreamos a Taxa de Intervenção: com que frequência um humano intervém para parar ou corrigir o agente? Uma elevada taxa de intervenção sinaliza um desalinhamento na confiança ou na lógica. 2. Frequência de ações não intencionais por 1.000 tarefas Esta métrica crítica quantifica o número de ações executadas pelo agente de IA que não eram desejadas ou esperadas pelo usuário, normalizadas por 1.000 tarefas concluídas. Uma baixa frequência de ações não intencionais significa uma IA bem alinhada que interpreta com precisão a intenção do usuário e opera dentro de limites definidos. Esta métrica está intimamente ligada à compreensão do contexto pela IA, à sua capacidade de desambiguar comandos e à robustez dos seus protocolos de segurança. 3. Taxas de reversão ou desfazer Esta métrica rastreia com que frequência os usuários precisam reverter ou desfazer uma ação executada pela IA. As altas taxas de reversão sugerem que a IA comete erros frequentes, interpreta mal as instruções ou age de maneiras que não estão alinhadas com as expectativas do usuário. A análise das razões por trás dessas reversões pode fornecer feedback valioso para melhorar os algoritmos da IA, compreender as preferências do usuário e sua capacidade de prever resultados desejáveis. Para entender o porquê, você deve implementar uma micropesquisa sobre a ação de desfazer. Por exemplo, quando um usuário reverte uma alteração de agendamento, um simples prompt pode perguntar: "Hora errada? Pessoa errada? Ou você só queria fazer isso sozinho?" Permitindo ao usuário clicar na opção que melhor corresponde ao seu raciocínio. 4. Tempo para resolução após um erroEsta métricamede o tempo que um usuário leva para corrigir um erro cometido pela IA ou para o próprio sistema de IA se recuperar de um estado errôneo. Um curto período de resolução indica um processo de recuperação de erros eficiente e fácil de usar, que pode mitigar a frustração do usuário e manter a produtividade. Isto inclui a facilidade de identificação do erro, a acessibilidade dos mecanismos de desfazer ou correção e a clareza das mensagens de erro fornecidas pela IA.

A coleta dessas métricas requer instrumentação do seu sistema para rastrear IDs de ação do agente. Cada ação distinta que o agente realiza, como propor um horário ou reservar um voo, deve gerar um ID exclusivo que persiste nos logs. Para medir a Taxa de Intervenção, não procuramos uma reação imediata do usuário. Procuramos a ausência de contra-ação dentro de uma janela definida. Se um ID de ação for gerado às 9h e nenhum usuário humano modificar ou reverter esse ID específico até as 9h do dia seguinte, o sistema logicamente o marcará como Aceito. Isso nos permite quantificar o sucesso com base no silêncio do usuário, em vez da confirmação ativa. Para taxas de reversão, as contagens brutas são insuficientes porque carecem de contexto. Para capturar o motivo subjacente, você deve implementar a lógica de interceptação nas funções Desfazer ou Reverter do seu aplicativo. Quando um usuário reverte uma ação iniciada pelo agente, acione uma micropesquisa leve. Este pode ser um modal simples de três opções que pede ao usuário para categorizar o erro como factualmente incorreto, sem contexto ou uma simples preferência para realizar a tarefa manualmente. Isso combina telemetria quantitativa com visão qualitativa. Ele permite que as equipes de engenharia distingam entre um algoritmo quebrado e uma incompatibilidade de preferência do usuário. Estas métricas, quando monitorizadas de forma consistente e analisadas de forma holística, fornecem uma estrutura robusta para avaliar o desempenho dos sistemas de IA de agência, permitindo a melhoria contínua no controlo, consentimento e responsabilização. Projetando contra o engano À medida que os agentes se tornam cada vez mais capazes, enfrentamos um novo risco: o Agentic Sludge. A lama tradicional cria atrito que torna difícil cancelar uma assinatura ou excluir uma conta. O lodo agente age ao contrário. Ele elimina o atrito, tornando muito fácil para um usuário concordar com uma ação que beneficia o negócio e não seus próprios interesses. Considere um agente auxiliando na reserva de viagens. Sem barreiras claras, o sistema pode priorizar uma companhia aérea parceira ou um hotel com margens mais altas. Apresenta esta escolha como o caminho ideal. O usuário, confiando na autoridade do sistema, aceita a recomendação sem escrutínio. Isso cria um padrão enganoso em que o sistema otimiza a receita sob o pretexto de conveniência. O risco da competência falsamente imaginada O engano não pode resultar de intenção maliciosa. Muitas vezes se manifesta na IA como competência imaginada. Modelos de linguagem grande freqüentemente parecem confiáveis, mesmo quando incorretos. Apresentam uma confirmação de reserva falsa ou um resumo impreciso com a mesma confiança de um facto verificado. Os usuários podem confiar naturalmente nesse tom confiante. Essa incompatibilidade cria uma lacuna perigosa entre a capacidade do sistema e as expectativas do usuário. Devemos projetar especificamente para preencher essa lacuna. Se um agente não conseguir concluir uma tarefa, a interface deverá sinalizar claramente essa falha. Se o sistema não tiver certeza, deve expressar a incerteza em vez de mascará-la com uma prosa polida. Transparência via Primitivos O antídoto tanto para o lodo quanto para a alucinação é a procedência. Cada ação autônoma requer uma tag de metadados específica que explique a origem da decisão. Os usuários precisam da capacidade de inspecionar a cadeia lógica por trás do resultado. Para conseguir isso, devemos traduzir os primitivos em respostas práticas. Na engenharia de software, os primitivos referem-se às unidades centrais de informações ou ações que um agente executa. Para o engenheiro, isso parece uma chamada de API ou uma porta lógica. Para o usuário, deve aparecer como uma explicação clara. O desafio do design reside em mapear essas etapas técnicas em bases lógicas legíveis por humanos. Se um agente recomendar um voo específico, o usuário precisa saber o porquê. A interface não pode se esconder atrás de uma sugestão genérica. Deve expor a primitiva subjacente: Logic: Cheapest_Direct_Flight ou Logic: Partner_Airline_Priority. A Figura 4 ilustra esse fluxo de tradução. Pegamos a primitiva bruta do sistema – a lógica do código real – e a mapeamos para uma string voltada para o usuário. Por exemplo, uma verificação primitiva de um calendário e uma reunião torna-se uma declaração clara: Propus um encontro às 16h.reunião. Este nível de transparência garante que as ações do agente pareçam lógicas e benéficas. Permite ao usuário verificar se o agente agiu no seu melhor interesse. Ao expor os primitivos, transformamos uma caixa preta numa caixa de vidro, garantindo que os utilizadores continuam a ser a autoridade final nas suas próprias vidas digitais.

Preparando o cenário para o design Construir um sistema agente requer um novo nível de compreensão psicológica e comportamental. Isso nos força a ir além dos testes convencionais de usabilidade e entrar no domínio da confiança, consentimento e responsabilidade. Os métodos de pesquisa que discutimos, desde a investigação de modelos mentais até a simulação de mau comportamento e o estabelecimento de novas métricas, fornecem uma base necessária. Estas práticas são as ferramentas essenciais para identificar proativamente onde um sistema autónomo pode falhar e, mais importante, como reparar a relação utilizador-agente quando isso acontece. A mudança para a IA de agência é uma redefinição da relação usuário-sistema. Não estamos mais projetando ferramentas que simplesmente respondam a comandos; estamos projetando para parceiros que agem em nosso nome. Isso muda o imperativo do design de eficiência e facilidade de uso para transparência, previsibilidade e controle. Quando uma IA pode reservar um voo ou negociar uma ação sem um clique final, o design das suas “rampas de entrada” e “rampas de saída” torna-se fundamental. É nossa responsabilidade garantir que os utilizadores sintam que estão no lugar do condutor, mesmo depois de entregarem o volante. Essa nova realidade também eleva o papel do pesquisador de UX. Tornamo-nos os guardiões da confiança do usuário, trabalhando em colaboração com engenheiros e gerentes de produto para definir e testar as proteções da autonomia de um agente. Além de pesquisadores, nos tornamos defensores do controle do usuário, da transparência e das salvaguardas éticas no processo de desenvolvimento. Ao traduzir as primitivas em questões práticas e simular os piores cenários, podemos construir sistemas robustos que são poderosos e seguros. Este artigo descreveu “o quê” e “porquê” da pesquisa de IA agente. Mostrou que os nossos conjuntos de ferramentas tradicionais são insuficientes e que devemos adotar metodologias novas e viradas para o futuro. O próximo artigo se baseará nessa base, fornecendo padrões de design específicos e práticas organizacionais que tornam a utilidade de um agente transparente para os usuários, garantindo que eles possam aproveitar o poder da IA ​​agêntica com confiança e controle. O futuro da UX consiste em tornar os sistemas confiáveis. Para uma compreensão adicional da IA de agência, você pode explorar os seguintes recursos:

Blog de IA do Google sobre Agentic AI Pesquisa da Microsoft sobre agentes de IA

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free