Projetar para agentes autônomos apresenta uma frustração única. Entregamos uma tarefa complexa a uma IA, ela desaparece por 30 segundos (ou 30 minutos) e depois retorna com um resultado. Nós olhamos para a tela. Funcionou? Foi alucinado? Ele verificou o banco de dados de conformidade ou pulou essa etapa? Normalmente respondemos a essa ansiedade com um de dois extremos. Ou mantemos o sistema como uma Black Box, escondendo tudo para manter a simplicidade, ou entramos em pânico e fornecemos um Data Dump, transmitindo cada linha de log e chamada de API para o usuário. Nenhuma das abordagens aborda diretamente as nuances necessárias para fornecer aos usuários o nível ideal de transparência. A Black Box faz com que os usuários se sintam impotentes. O Data Dump cria cegueira de notificação, destruindo a eficiência que o agente prometeu fornecer. Os usuários ignoram o fluxo constante de informações até que algo quebre, momento em que lhes falta o contexto para consertar. Precisamos de uma forma organizada de encontrar o equilíbrio. Em meu artigo anterior, “Designing For Agentic AI”, analisamos os elementos da interface que criam confiança, como mostrar antecipadamente a ação pretendida da IA (Intent Previews) e dar aos usuários controle sobre o quanto a IA faz por conta própria (Autonomy Dials). Mas saber quais elementos utilizar é apenas parte do desafio. A questão mais difícil para os designers é saber quando usá-los. Como saber qual momento específico em um fluxo de trabalho de 30 segundos requer uma visualização de intenção e qual pode ser tratado com uma simples entrada de log? Este artigo fornece um método para responder a essa pergunta. Percorreremos a Auditoria do Nó de Decisão. Esse processo reúne designers e engenheiros na mesma sala para mapear a lógica de back-end para a interface do usuário. Você aprenderá como identificar os momentos exatos em que um usuário precisa de uma atualização sobre o que a IA está fazendo. Também abordaremos uma matriz de Impacto/Risco que ajudará a priorizar quais nós de decisão exibir e qualquer padrão de design associado para emparelhar com essa decisão. Momentos de transparência: um exemplo de estudo de caso Considere a Meridian (nome fictício), uma seguradora que usa uma IA de agente para processar sinistros iniciais de acidentes. O usuário carrega fotos dos danos ao veículo e o boletim de ocorrência. O agente então desaparece por um minuto antes de retornar com uma avaliação de risco e uma proposta de faixa de pagamento. Inicialmente, a interface do Meridian simplesmente mostrava Calculando o status da reivindicação. Os usuários ficaram frustrados. Tinham apresentado vários documentos detalhados e não tinham certeza se a AI tinha sequer analisado o relatório policial, que continha circunstâncias atenuantes. A Caixa Preta criou desconfiança. Para corrigir isso, a equipe de design conduziu uma auditoria do nó de decisão. Eles descobriram que a IA executou três etapas distintas baseadas em probabilidade, com inúmeras etapas menores incorporadas:
Análise de imagemO agente comparou as fotos dos danos com um banco de dados de cenários típicos de acidentes de carro para estimar o custo do reparo. Isso envolveu uma pontuação de confiança. Revisão TextualEle examinou o relatório policial em busca de palavras-chave que afetam a responsabilidade (por exemplo, culpa, condições climáticas, sobriedade). Isso envolveu uma avaliação probabilística da situação legal. Referência cruzada de apólicesComparou os detalhes da reivindicação com os termos da apólice específica do usuário, procurando exceções ou limites de cobertura. Isso também envolveu correspondência probabilística.
A equipe transformou essas etapas em momentos de transparência. A sequência da interface foi atualizada para:
Avaliação de fotos de danos: comparação com 500 perfis de impacto de veículos. Revisão do Relatório Policial: Análise de palavras-chave de responsabilidade e precedentes legais. Verificando a cobertura da apólice: verificando exclusões específicas em seu plano.
O sistema ainda demorou o mesmo, mas a comunicação explícita sobre o funcionamento interno do agente restaurou a confiança do usuário. Os usuários entenderam que a IA estava executando a tarefa complexa para a qual foi projetada e sabiam exatamente onde concentrar sua atenção caso a avaliação final parecesse imprecisa. Esta escolha de design transformou um momento de ansiedade num momento de conexão com o usuário. Aplicando a Matriz Impacto/Risco: O que Escolhemos Esconder A maioria das experiências de IA não carece de eventos e nós de decisão que poderiam ser potencialmente exibidos durante o processamento. Um dos resultados mais críticos da auditoria foi decidir o que manter invisível. No exemplo do Meridian, os logs de back-end geraram mais de 50 eventos por reclamação. Poderíamos ter optado por exibir cada evento conforme eles eram processados como parte da IU. Em vez disso, aplicamos a matriz de risco para eliminá-los:
Evento de log: servidor de pingWest-2 para verificação de redundância. Veredicto do filtro: ocultar. (Baixas apostas, alta tecnicidade).
Evento de registro: comparando a estimativa de reparo com o valor do BlueBook. Veredicto do filtro: Mostrar. (High Stakes, impacta o pagamento do usuário).
Ao eliminar os detalhes desnecessários, as informações importantes — como a verificação da cobertura — tiveram mais impacto. Criamos uma interface aberta e projetamos uma experiência aberta. Esta abordagem utiliza a ideia de que as pessoas se sentem melhor em relação a um serviço quando podem ver o trabalho que está sendo realizado. Ao mostrar as etapas específicas (Avaliar, Revisar, Verificar), alteramos uma espera de 30 segundos de um momento de preocupação (“Está quebrado?”) para um momento de sensação de que algo valioso está sendo criado (“Está pensando”). Vamos agora examinar mais de perto como podemos revisar o processo de tomada de decisão em nossos produtos para identificar os principais momentos que exigem informações claras. A auditoria do nó de decisão A transparência falha quando a tratamos como uma escolha de estilo e não como um requisito funcional. Temos a tendência de perguntar: “Como deve ser a interface do usuário?” antes de perguntarmos: “O que o agente está realmente decidindo?” A Auditoria do Nó de Decisão é uma maneira direta de tornar os sistemas de IA mais fáceis de entender. Funciona mapeando cuidadosamente o processo interno do sistema. O objetivo principal é encontrar e definir claramente os momentos exatos em que o sistema deixa de seguir as regras estabelecidas e, em vez disso, faz uma escolha baseada no acaso ou na estimativa. Ao mapear esta estrutura, os criadores podem mostrar estes pontos de incerteza diretamente às pessoas que utilizam o sistema. Isso muda as atualizações do sistema de declarações vagas para relatórios específicos e confiáveis sobre como a IA chegou à sua conclusão. Além do estudo de caso de seguros acima, trabalhei recentemente com uma equipe formando um agente de compras. O sistema revisou contratos de fornecedores e sinalizou riscos. Originalmente, a tela exibia uma barra de progresso simples: “Revisando contratos”. Os usuários odiaram. Nossa pesquisa indicou que eles estavam preocupados com as implicações legais de uma cláusula ausente. Corrigimos isso conduzindo uma auditoria do nó de decisão. Incluí uma lista de verificação passo a passo para conduzir esta auditoria na conclusão deste artigo. Realizamos uma sessão com os engenheiros e descrevemos como o sistema funciona. Identificamos “Pontos de Decisão” — momentos em que a IA teve que escolher entre duas boas opções. Nos programas de computador padrão, o processo é claro: se A acontecer, então B sempre acontecerá. Nos sistemas de IA, o processo é muitas vezes baseado no acaso. A IA pensa que A é provavelmente a melhor escolha, mas pode ter apenas 65% de certeza. No sistema de contrato, encontramos um momento em que a IA verificou os termos de responsabilidade em relação às regras da nossa empresa. Raramente era uma combinação perfeita. A IA teve que decidir se uma correspondência de 90% era boa o suficiente. Este foi um ponto de decisão fundamental.
Depois de identificarmos esse nó, nós o expusemos ao usuário. Em vez de “Revisar contratos”, a interface foi atualizada para dizer: “A cláusula de responsabilidade varia do modelo padrão. Analisando o nível de risco”. Esta atualização específica deu confiança aos usuários. Eles sabiam que o agente verificou a cláusula de responsabilidade. Eles entenderam o motivo do atraso e ganharam confiança de que a ação desejada estava ocorrendo no back-end. Eles também sabiam onde se aprofundar depois que o agente gerasse o contrato. Para verificar como a IA toma decisões, você precisa trabalhar em estreita colaboração com seus engenheiros, gerentes de produto, analistas de negócios e pessoas-chave que estão fazendo as escolhas (muitas vezes ocultas) que afetam o funcionamento da ferramenta de IA. Desenhe as etapas que a ferramenta executa. Marque cada ponto onde o processo muda de direção porque uma probabilidade é atendida. Esses são os lugares onde você deve se concentrar em ser mais transparente. Conforme mostrado na Figura 2 abaixo, a Auditoria do Nó de Decisão envolve estas etapas:
Reúna a equipe: reúna os proprietários do produto, os analistas de negócios, os designers, os principais tomadores de decisão e os engenheiros que construíram a IA. Por exemplo, Pense em uma equipe de produto construindo uma ferramenta de IA projetada para revisar contratos jurídicos complicados. A equipe inclui o designer de UX, o gerente de produto, o pesquisador de UX, um advogado que atua como especialista no assunto e o engenheiro de back-end que escreveu o código de análise de texto.
Desenhe todo o processo: documente cada passo que a IA realiza, desde a primeira ação do usuário até o resultado final. A equipe fica em frente a um quadro branco e esboça toda a sequência de um fluxo de trabalho importante que envolve a busca da IA por uma cláusula de responsabilidade em um contrato complexo. O advogado carregaum PDF de cinquenta páginas → O sistema converte o documento em texto legível. → A IA verifica as páginas em busca de cláusulas de responsabilidade. → O usuário espera. → Momentos ou minutos depois, a ferramenta destaca os parágrafos encontrados em amarelo na interface do usuário. Eles fazem isso para muitos outros fluxos de trabalho que a ferramenta também acomoda.
Descubra onde as coisas não estão claras: procure no mapa do processo qualquer ponto onde a IA compare opções ou entradas que não tenham uma correspondência perfeita. A equipe olha para o quadro branco para identificar as etapas ambíguas. A conversão de uma imagem em texto segue regras rígidas. Encontrar uma cláusula de responsabilidade específica envolve suposições. Cada empresa escreve essas cláusulas de maneira diferente, então a IA precisa pesar diversas opções e fazer uma previsão em vez de encontrar uma correspondência exata de palavras.
Identifique as etapas do “melhor palpite”: para cada ponto pouco claro, verifique se o sistema usa uma pontuação de confiança (por exemplo, tem 85% de certeza?). Estes são os pontos onde a IA faz a escolha final. O sistema tem que adivinhar (fornecer uma probabilidade) quais parágrafos se assemelham mais a uma cláusula de responsabilidade padrão. Ele atribui uma pontuação de confiança ao seu melhor palpite. Essa suposição é um nó de decisão. A interface precisa informar ao advogado que está destacando uma possível correspondência, em vez de afirmar que encontrou a cláusula definitiva.
Examine a escolha: Para cada ponto de escolha, descubra a matemática interna específica ou a comparação que está sendo feita (por exemplo, combinar uma parte de um contrato com uma apólice ou comparar uma foto de um carro quebrado com uma biblioteca de fotos de carros danificados). O engenheiro explica que o sistema compara os vários parágrafos com um banco de dados de cláusulas padrão de responsabilidade de casos anteriores de empresas. Ele calcula uma pontuação de similaridade de texto para decidir uma correspondência com base em probabilidades.
Escreva explicações claras: crie mensagens para o usuário que descrevam claramente a ação interna específica que acontece quando a IA faz uma escolha. O designer de conteúdo escreve uma mensagem específica para este exato momento. O texto diz: Comparando o texto do documento com cláusulas firmes padrão para identificar riscos potenciais de responsabilidade.
Atualize a tela: coloque essas explicações novas e claras na interface do usuário, substituindo mensagens vagas como “Revisando contratos”. A equipe de design remove o botão giratório genérico de carregamento de Processamento de PDF. Eles inserem a nova explicação em uma barra de status localizada logo acima do visualizador de documentos enquanto a IA pensa.
Verifique a confiança: certifique-se de que as novas mensagens na tela forneçam aos usuários um motivo simples para qualquer tempo de espera ou resultado, o que deve fazê-los se sentir mais confiantes.
A Matriz Impacto/Risco Depois de observar atentamente o processo da IA, você provavelmente encontrará muitos pontos onde ela faz uma escolha. Uma IA pode fazer dezenas de pequenas escolhas para uma única tarefa complexa. Mostrar todos eles cria muitas informações desnecessárias. Você precisa agrupar essas opções. Você pode usar uma Matriz de Impacto/Risco para classificar essas escolhas com base nos tipos de ação(ões) que a IA está realizando. Aqui estão alguns exemplos de matrizes de impacto/risco: Primeiro, procure decisões de baixo risco e baixo impacto. Riscos Baixos/Baixo Impacto
Exemplo: Organizar uma estrutura de arquivos ou renomear um documento. Necessidade de transparência: Mínima. Uma notificação sutil do sistema ou uma entrada de registro é suficiente. Os usuários podem desfazer essas ações facilmente.
Em seguida, identifique as decisões de alto risco e de alto impacto. Altos riscos/alto impacto
Exemplo: Rejeitar um pedido de empréstimo ou executar uma negociação de ações. Necessidade de transparência: alta. Essas ações exigem Prova de Trabalho. O sistema deve demonstrar a lógica antes ou imediatamente à medida que atua.
Considere um bot de negociação financeira que trata todas as ordens de compra/venda da mesma forma. Ele executa uma negociação de US$ 5 com a mesma opacidade de uma negociação de US$ 50.000. Os usuários podem questionar se a ferramenta reconhece o impacto potencial da transparência na negociação de grandes quantias em dólares. Eles precisam que o sistema faça uma pausa e mostre seu trabalho nas negociações de alto risco. A solução é introduzir um estado Reviewing Logic para qualquer transação que exceda um valor específico em dólares, permitindo ao usuário ver os fatores que impulsionam a decisão antes da execução. Mapeando nós para padrões: uma rubrica de seleção de padrões de design Depois de identificar os principais nós de decisão da sua experiência, você deve decidir qual padrão de UI se aplica a cada um deles que você exibirá. Em Designing For Agentic AI, introduzimos padrões como Intent Preview (para controle de alto risco) e Action Audit (para segurança retrospectiva). O fator decisivo na escolha entre eles é a reversibilidade. Filtramos cadanó de decisão através da matriz de impacto para atribuir o padrão correto: Alto risco e irreversível: Esses nós requerem uma visualização de intenção. Como o usuário não pode desfazer facilmente a ação (por exemplo, excluir permanentemente um banco de dados), o momento de transparência deve acontecer antes da execução. O sistema deve fazer uma pausa, explicar sua intenção e exigir confirmação. Alto risco e reversível: Esses nós podem contar com o padrão Action Audit & Undo. Se o agente de vendas com tecnologia de IA mover um lead para um pipeline diferente, ele poderá fazê-lo de forma autônoma, desde que notifique o usuário e ofereça um botão Desfazer imediato. Ao categorizar estritamente os nós dessa forma, evitamos a “fadiga do alerta”. Reservamos o Intent Preview de alto atrito apenas para os momentos verdadeiramente irreversíveis, enquanto contamos com o Action Audit para manter a velocidade para todo o resto.
Reversível Irreversível Baixo impacto Tipo: Auto-ExecuteUI: Passive Toast / LogEx: Renomeando um arquivo Tipo: ConfirmUI: opção Desfazer SimplesEx: Arquivar um e-mail Alto Impacto Tipo: ReviewUI: Notificação + Revisão TrailEx: Enviando um rascunho para um cliente Tipo: Intent previewUI: Modal/Explicit PermissionEx: Excluindo um servidor
Tabela 1: A matriz de impacto e reversibilidade pode então ser usada para mapear seus momentos de transparência para padrões de projeto. Validação qualitativa: “A espera, por quê?” Teste Você pode identificar nós potenciais em um quadro branco, mas deve validá-los com o comportamento humano. Você precisa verificar se o seu mapa corresponde ao modelo mental do usuário. Eu uso um protocolo chamado “Espere, por quê?” Teste. Peça a um usuário para observar o agente concluir uma tarefa. Instrua-os a falar em voz alta. Sempre que eles fazem uma pergunta: “Espere, por que isso aconteceu?” ou “Está preso?” ou “Ele me ouviu?” - você marca um carimbo de data/hora. Essas perguntas sinalizam confusão do usuário. O usuário sente que seu controle está se esvaindo. Por exemplo, num estudo para um assistente de agendamento de cuidados de saúde, os utilizadores observaram o agente marcar uma consulta. A tela ficou estática por quatro segundos. Os participantes perguntaram consistentemente: “É verificar o meu calendário ou o do médico?”
Essa pergunta revelou a falta de um Momento de Transparência. O sistema precisava dividir essa espera de quatro segundos em duas etapas distintas: “Verificar sua disponibilidade” seguida de “Sincronizar com a programação do provedor”. Esta pequena mudança reduziu os níveis de ansiedade expressos pelos usuários. A transparência falha quando descreve apenas uma ação do sistema. A interface deve conectar o processo técnico ao objetivo específico do usuário. Uma tela que exibe “Verificando sua disponibilidade” fica vazia porque falta contexto. O usuário entende que a IA está olhando um calendário, mas não sabe por quê. Devemos emparelhar a ação com o resultado. O sistema precisa dividir essa espera de quatro segundos em duas etapas distintas. Primeiro, a interface exibe “Verificando seu calendário para encontrar horários abertos”. Em seguida, ele atualiza para “Sincronizando com a programação do provedor para garantir seu agendamento”. Isto fundamenta o processo técnico na vida real do usuário. Considere uma IA gerenciando inventário para um café local. O sistema encontra uma escassez de oferta. Uma interface que diz “contatando o fornecedor” ou “revisando opções” cria ansiedade. O gerente se pergunta se o sistema está cancelando o pedido ou comprando uma alternativa cara. Uma abordagem melhor é explicar o resultado pretendido: “Avaliando fornecedores alternativos para manter seu cronograma de entrega às sextas-feiras”. Isso informa ao usuário exatamente o que a IA está tentando alcançar. Operacionalizando a Auditoria Você concluiu a Auditoria do Nó de Decisão e filtrou sua lista por meio da Matriz de Impacto e Risco. Agora você tem uma lista de momentos essenciais para ser transparente. Em seguida, você precisa criá-los na IU. Esta etapa requer trabalho em equipe entre diferentes departamentos. Você não pode projetar transparência sozinho usando uma ferramenta de design. Você precisa entender como o sistema funciona nos bastidores. Comece com uma revisão lógica. Reúna-se com seu designer-chefe de sistema. Traga seu mapa de nós de decisão. Você precisa confirmar se o sistema pode realmente compartilhar esses estados. Muitas vezes descubro que o sistema técnico não revela o estado exato que desejo mostrar. O engenheiro pode dizer que o sistema apenas retorna um status geral “funcional”. Você deve pressionar por uma atualização detalhada. Você precisa que o sistema envie um aviso específicoquando passa da leitura de texto para a verificação de regras. Sem essa conexão técnica, seu projeto é impossível de ser construído. A seguir, envolva a equipe de Design de Conteúdo. Você tem a razão técnica para a ação da IA, mas precisa de uma explicação clara e amigável. Os engenheiros fornecem o processo subjacente, mas os designers de conteúdo fornecem a forma como ele é comunicado. Não escreva essas mensagens sozinho. Um desenvolvedor pode escrever “Executando a função 402”, o que é tecnicamente correto, mas sem sentido para o usuário. Um designer pode escrever “Pensando”, o que é amigável, mas muito vago. Um estrategista de conteúdo encontra o meio-termo certo. Eles criam frases específicas, como “Verificação de riscos de responsabilidade”, que mostram que a IA está funcionando sem confundir o usuário. Por fim, teste a transparência de suas mensagens. Não espere até que o produto final seja construído para ver se o texto funciona. Realizo testes de comparação em protótipos simples onde a única coisa que muda é a mensagem de status. Por exemplo, mostro a um grupo (Grupo A) uma mensagem que diz “Verificando identidade” e a outro grupo (Grupo B) uma mensagem que diz “Verificando bancos de dados governamentais” (estes são exemplos inventados, mas você entende o ponto). Então pergunto a eles qual IA parece mais segura. Muitas vezes você descobrirá que certas palavras causam preocupação, enquanto outras geram confiança. Você deve tratar o texto como algo que precisa testar e provar ser eficaz. Como isso muda o processo de design A realização dessas auditorias tem o potencial de fortalecer a forma como uma equipe trabalha em conjunto. Paramos de distribuir arquivos de design sofisticados. Começamos a usar protótipos confusos e planilhas compartilhadas. A ferramenta principal torna-se uma matriz de transparência. Os engenheiros e os designers de conteúdo editam esta planilha juntos. Eles mapeiam os códigos técnicos exatos para as palavras que o usuário irá ler. As equipes enfrentarão atritos durante a revisão lógica. Imagine um designer perguntando ao engenheiro como a IA decide recusar uma transação enviada em um relatório de despesas. O engenheiro pode dizer que o backend gera apenas um código de status genérico como “Erro: Dados ausentes”. O designer afirma que esta não é uma informação acionável na tela. O designer negocia com o engenheiro a criação de um gancho técnico específico. O engenheiro escreve uma nova regra para que o sistema relate exatamente o que está faltando, como a falta de uma imagem de recibo. Os designers de conteúdo atuam como tradutores durante esta fase. Um desenvolvedor pode escrever uma string tecnicamente precisa, como “Calculando o limite de confiança para correspondência de fornecedores”. Um designer de conteúdo traduz essa string em uma frase que gera confiança para um resultado específico. O estrategista reescreve como “Comparando preços de fornecedores locais para garantir sua entrega na sexta-feira”. O usuário entende a ação e o resultado. Toda a equipe multifuncional participa das sessões de teste do usuário. Eles observam uma pessoa real reagir a diferentes mensagens de status. Ver um usuário entrar em pânico porque a tela diz “Executando negociação” força a equipe a repensar sua abordagem. Os engenheiros e designers alinham-se em termos de uma redação melhor. Eles alteram o texto para “Verificar fundos suficientes” antes de comprar ações. Testar em conjunto garante que a interface final atenda tanto à lógica do sistema quanto à tranquilidade do usuário. É necessário tempo para incorporar essas atividades adicionais ao calendário da equipe. No entanto, o resultado final deve ser uma equipa que comunica de forma mais aberta e que os utilizadores compreendem melhor o que as suas ferramentas alimentadas por IA estão a fazer em seu nome (e porquê). Essa abordagem integrada é a base para projetar experiências de IA verdadeiramente confiáveis. Confiança é uma escolha de design Muitas vezes vemos a confiança como um subproduto emocional de uma boa experiência do usuário. É mais fácil ver a confiança como um resultado mecânico de uma comunicação previsível. Construímos confiança mostrando as informações certas no momento certo. Nós o destruímos sobrecarregando o usuário ou ocultando completamente o maquinário. Comece com a Auditoria do Nó de Decisão, especialmente para ferramentas e produtos de IA de agentes. Encontre os momentos em que o sistema faz um julgamento. Mapeie esses momentos para a Matriz de Riscos. Se as apostas forem altas, abra a caixa. Mostre o trabalho. No próximo artigo, veremos como projetar esses momentos: como escrever a cópia, estruturar a UI e lidar com os erros inevitáveis quando o agente erra. Apêndice: A lista de verificação de auditoria do nó de decisão Fase 1: Configuração e Mapeamento ✅ Reúna a equipe: reúna os proprietários do produto, analistas de negócios, designers,os principais tomadores de decisão e os engenheiros que construíram a IA. Dica: você precisa que os engenheiros expliquem a lógica de back-end real. Não tente esta etapa sozinho. ✅ Desenhe todo o processo: documente cada passo que a IA dá, desde a primeira ação do usuário até o resultado final. Dica: uma sessão de quadro branco físico geralmente funciona melhor para desenhar essas etapas iniciais. Fase 2: Localizando a Lógica Oculta ✅ Descubra onde as coisas não estão claras: procure no mapa do processo qualquer local onde a IA compare opções ou entradas que não tenham uma correspondência perfeita. ✅ Identifique as melhores etapas de suposição: para cada ponto pouco claro, verifique se o sistema usa uma pontuação de confiança. Por exemplo, pergunte se o sistema tem 85% de certeza. Estes são os pontos onde a IA faz a escolha final. ✅ Examine a escolha: para cada ponto de escolha, descubra a matemática interna específica ou a comparação que está sendo feita. Um exemplo é combinar uma parte de um contrato com uma apólice. Outro exemplo envolve comparar a foto de um carro quebrado com uma biblioteca de fotos de carros danificados. Fase 3: Criando a experiência do usuário ✅ Escreva explicações claras: crie mensagens para o usuário que descrevam claramente a ação interna específica que acontece quando a IA faz uma escolha. Dica: baseie suas mensagens na realidade concreta. Se uma IA marcar uma reunião com um cliente em um café local, informe ao usuário que o sistema está verificando o sistema de reservas do café. ✅ Atualize a tela: coloque essas explicações novas e claras na interface do usuário. Substitua mensagens vagas, como Revisão de contratos, por suas explicações específicas. ✅ Verifique a confiança: certifique-se de que as novas mensagens na tela forneçam aos usuários um motivo simples para qualquer tempo de espera ou resultado. Isso deve fazer com que eles se sintam confiantes e confiantes. Dica: teste essas mensagens com usuários reais para verificar se eles entendem o resultado específico que está sendo alcançado.