Diseñar para agentes autónomos presenta una frustración única. Le entregamos una tarea compleja a una IA, esta desaparece durante 30 segundos (o 30 minutos) y luego regresa con un resultado. Nos quedamos mirando la pantalla. ¿Funcionó? ¿Alucinó? ¿Verificó la base de datos de cumplimiento o se saltó ese paso? Normalmente respondemos a esta ansiedad con uno de dos extremos. O mantenemos el sistema como una caja negra, ocultando todo para mantener la simplicidad, o entramos en pánico y proporcionamos un volcado de datos, transmitiendo cada línea de registro y llamada API al usuario. Ninguno de los enfoques aborda directamente los matices necesarios para brindar a los usuarios el nivel ideal de transparencia. Black Box deja a los usuarios sintiéndose impotentes. El volcado de datos crea ceguera en las notificaciones, lo que destruye la eficiencia que el agente prometió brindar. Los usuarios ignoran el flujo constante de información hasta que algo se rompe, momento en el que carecen del contexto para solucionarlo. Necesitamos una forma organizada de encontrar el equilibrio. En mi artículo anterior, “Diseño para IA agente”, analizamos los elementos de la interfaz que generan confianza, como mostrar de antemano la acción prevista de la IA (Vistas previas de intención) y brindar a los usuarios control sobre cuánto hace la IA por sí sola (Diales de autonomía). Pero saber qué elementos utilizar es sólo una parte del desafío. La pregunta más difícil para los diseñadores es saber cuándo utilizarlos. ¿Cómo saber qué momento específico en un flujo de trabajo de 30 segundos requiere una vista previa de intención y cuál se puede manejar con una simple entrada de registro? Este artículo proporciona un método para responder a esa pregunta. Revisaremos la auditoría del nodo de decisión. Este proceso reúne a diseñadores e ingenieros en la misma sala para asignar la lógica de backend a la interfaz de usuario. Aprenderá a identificar los momentos exactos en los que un usuario necesita una actualización sobre lo que está haciendo la IA. También cubriremos una matriz de Impacto/Riesgo que ayudará a priorizar qué nodos de decisión mostrar y cualquier patrón de diseño asociado para combinar con esa decisión. Momentos de transparencia: un ejemplo de estudio de caso Considere Meridian (nombre ficticio), una compañía de seguros que utiliza una IA agente para procesar reclamaciones iniciales por accidentes. El usuario sube fotos de los daños del vehículo y el informe policial. Luego, el agente desaparece durante un minuto antes de regresar con una evaluación de riesgos y un rango de pago propuesto. Inicialmente, la interfaz de Meridian simplemente mostraba Calculando el estado del reclamo. Los usuarios se sintieron frustrados. Habían presentado varios documentos detallados y no estaban seguros de si la AI había siquiera revisado el informe policial, que contenía circunstancias atenuantes. La Caja Negra generó desconfianza. Para solucionar este problema, el equipo de diseño realizó una auditoría del nodo de decisión. Descubrieron que la IA realizaba tres pasos distintos, basados en la probabilidad, con numerosos pasos más pequeños integrados:
Análisis de imágenes El agente comparó las fotografías de los daños con una base de datos de escenarios típicos de accidentes automovilísticos para estimar el costo de reparación. Esto implicó una puntuación de confianza. Revisión textualEscaneó el informe policial en busca de palabras clave que afecten la responsabilidad (por ejemplo, culpa, condiciones climáticas, sobriedad). Esto implicó una evaluación de probabilidad de la capacidad jurídica. Referencia cruzada de pólizas: comparó los detalles del reclamo con los términos específicos de la póliza del usuario, buscando excepciones o límites de cobertura. Esto también implicó un emparejamiento probabilístico.
El equipo convirtió estos pasos en momentos de transparencia. La secuencia de la interfaz se actualizó a:
Evaluación de fotografías de daños: comparación con 500 perfiles de impacto de vehículos. Revisión del informe policial: análisis de palabras clave sobre responsabilidad y precedentes legales. Verificación de la cobertura de la póliza: Verificación de exclusiones específicas en su plan.
El sistema aún tomó la misma cantidad de tiempo, pero la comunicación explícita sobre el funcionamiento interno del agente restableció la confianza del usuario. Los usuarios entendieron que la IA estaba realizando la tarea compleja para la que fue diseñada y sabían exactamente dónde centrar su atención si la evaluación final parecía inexacta. Esta elección de diseño transformó un momento de ansiedad en un momento de conexión con el usuario. Aplicar la matriz de impacto/riesgo: lo que elegimos ocultar A la mayoría de las experiencias de IA no les faltan eventos y nodos de decisión que potencialmente podrían mostrarse durante el procesamiento. Uno de los resultados más críticos de la auditoría fue decidir qué mantener invisible. En el ejemplo de Meridian, los registros de backend generaron más de 50 eventos por reclamo. Podríamos haber mostrado de forma predeterminada cada evento a medida que se procesaron como parte de la interfaz de usuario. En cambio, aplicamos la matriz de riesgos para podarlos:
Evento de registro: servidor de pingWest-2 para verificación de redundancia. Veredicto del filtro: Ocultar. (Bajos riesgos, alto tecnicismo).
Evento de registro: comparación de la estimación de reparación con el valor del BlueBook. Veredicto del filtro: Mostrar. (High Stakes, afecta el pago del usuario).
Al eliminar los detalles innecesarios, la información importante, como la verificación de cobertura, tuvo más impacto. Creamos una interfaz abierta y diseñamos una experiencia abierta. Este enfoque utiliza la idea de que las personas se sienten mejor con respecto a un servicio cuando pueden ver el trabajo que se realiza. Al mostrar los pasos específicos (Evaluar, Revisar, Verificar), cambiamos una espera de 30 segundos de un momento de preocupación (“¿Está roto?”) a un momento en el que sentimos que se está creando algo valioso (“Está pensando”). Veamos ahora más de cerca cómo podemos revisar el proceso de toma de decisiones en nuestros productos para identificar momentos clave que requieren información clara. La auditoría del nodo de decisión La transparencia falla cuando la tratamos como una elección de estilo y no como un requisito funcional. Tendemos a preguntar: "¿Cómo debería verse la interfaz de usuario?" antes de preguntar: “¿Qué está decidiendo realmente el agente?” La Auditoría de Nodos de Decisión es una forma sencilla de hacer que los sistemas de IA sean más fáciles de entender. Funciona trazando cuidadosamente el proceso interno del sistema. El objetivo principal es encontrar y definir claramente los momentos exactos en los que el sistema deja de seguir las reglas establecidas y, en cambio, toma una decisión basada en el azar o la estimación. Al mapear esta estructura, los creadores pueden mostrar estos puntos de incertidumbre directamente a las personas que utilizan el sistema. Esto cambia las actualizaciones del sistema de declaraciones vagas a informes específicos y confiables sobre cómo la IA llegó a su conclusión. Además del estudio de caso de seguros anterior, recientemente trabajé con un equipo para formar un agente de adquisiciones. El sistema revisó los contratos de los proveedores y señaló los riesgos. Originalmente, la pantalla mostraba una barra de progreso simple: "Revisando contratos". Los usuarios lo odiaron. Nuestra investigación indicó que se sentían ansiosos por las implicaciones legales de la falta de una cláusula. Solucionamos este problema realizando una auditoría del nodo de decisión. He incluido una lista de verificación paso a paso para realizar esta auditoría al final de este artículo. Realizamos una sesión con los ingenieros y describimos cómo funciona el sistema. Identificamos "Puntos de decisión": momentos en los que la IA tuvo que elegir entre dos buenas opciones. En los programas informáticos estándar, el proceso es claro: si ocurre A, entonces siempre ocurrirá B. En los sistemas de IA, el proceso suele basarse en el azar. La IA cree que A es probablemente la mejor opción, pero puede que solo tenga un 65% de certeza. En el sistema de contratos, encontramos un momento en el que la IA comparó los términos de responsabilidad con las reglas de nuestra empresa. Rara vez fue una combinación perfecta. La IA tuvo que decidir si una coincidencia del 90% era suficiente. Este fue un punto de decisión clave.
Una vez que identificamos este nodo, lo expusimos al usuario. En lugar de "Revisar contratos", la interfaz se actualizó para decir: "La cláusula de responsabilidad varía de la plantilla estándar. Analizando el nivel de riesgo". Esta actualización específica dio confianza a los usuarios. Sabían que el agente verificó la cláusula de responsabilidad. Comprendieron el motivo del retraso y ganaron confianza en que la acción deseada se estaba produciendo en el back-end. También sabían dónde profundizar más una vez que el agente generaba el contrato. Para comprobar cómo la IA toma decisiones, es necesario trabajar estrechamente con sus ingenieros, gerentes de producto, analistas de negocios y personas clave que toman las decisiones (a menudo ocultas) que afectan el funcionamiento de la herramienta de IA. Dibuja los pasos que sigue la herramienta. Marque cada punto donde el proceso cambia de dirección porque se cumple una probabilidad. Estos son los lugares en los que deberías centrarte en ser más transparente. Como se muestra en la Figura 2 a continuación, la auditoría del nodo de decisión implica estos pasos:
Reúna al equipo: reúna a los propietarios de productos, analistas de negocios, diseñadores, tomadores de decisiones clave y a los ingenieros que crearon la IA. Por ejemplo, Piense en un equipo de producto que crea una herramienta de inteligencia artificial diseñada para revisar contratos legales confusos. El equipo incluye al diseñador de UX, el gerente de producto, el investigador de UX, un abogado en ejercicio que actúa como experto en la materia y el ingeniero de backend que escribió el código de análisis de texto.
Dibuje todo el proceso: documente cada paso que da la IA, desde la primera acción del usuario hasta el resultado final. El equipo se para frente a una pizarra y esboza la secuencia completa de un flujo de trabajo clave que involucra a la IA en busca de una cláusula de responsabilidad en un contrato complejo. El abogado subeun PDF de cincuenta páginas → El sistema convierte el documento en texto legible. → La IA escanea las páginas en busca de cláusulas de responsabilidad. → El usuario espera. → Momentos o minutos después, la herramienta resalta los párrafos encontrados en amarillo en la interfaz de usuario. Hacen esto para muchos otros flujos de trabajo que la herramienta también admite.
Encuentre dónde las cosas no están claras: mire el mapa de procesos para detectar cualquier lugar donde la IA compare opciones o entradas que no tengan una coincidencia perfecta. El equipo mira la pizarra para detectar los pasos ambiguos. La conversión de una imagen a texto sigue reglas estrictas. Encontrar una cláusula de responsabilidad específica implica conjeturas. Cada empresa escribe estas cláusulas de manera diferente, por lo que la IA tiene que sopesar múltiples opciones y hacer una predicción en lugar de encontrar una palabra que coincida exactamente.
Identifique los pasos de la "mejor suposición": para cada punto poco claro, verifique si el sistema utiliza una puntuación de confianza (por ejemplo, ¿está 85 % seguro?). Estos son los puntos donde la IA toma una decisión final. El sistema tiene que adivinar (dar una probabilidad) qué párrafo(s) se parecen más a una cláusula de responsabilidad estándar. Asigna una puntuación de confianza a su mejor suposición. Esa suposición es un nodo de decisión. La interfaz debe indicarle al abogado que está destacando una posible coincidencia, en lugar de indicarle que encontró la cláusula definitiva.
Examine la elección: para cada punto de elección, determine los cálculos internos específicos o la comparación que se está realizando (por ejemplo, hacer coincidir una parte de un contrato con una póliza o comparar una imagen de un automóvil averiado con una biblioteca de fotografías de automóviles dañados). El ingeniero explica que el sistema compara los distintos párrafos con una base de datos de cláusulas de responsabilidad estándar de casos anteriores de empresas. Calcula una puntuación de similitud de texto para decidir una coincidencia en función de las probabilidades.
Escriba explicaciones claras: cree mensajes para el usuario que describan claramente la acción interna específica que ocurre cuando la IA toma una decisión. El diseñador de contenidos escribe un mensaje específico para este momento exacto. El texto dice: Comparación del texto del documento con cláusulas firmes estándar para identificar posibles riesgos de responsabilidad.
Actualice la pantalla: incluya estas explicaciones nuevas y claras en la interfaz de usuario, reemplazando mensajes vagos como "Revisando contratos". El equipo de diseño elimina el control giratorio genérico de carga de PDF de Procesamiento. Insertan la nueva explicación en una barra de estado ubicada justo encima del visor de documentos mientras la IA piensa.
Verifique la confianza: asegúrese de que los nuevos mensajes en pantalla brinden a los usuarios una razón simple para cualquier tiempo de espera o resultado, lo que debería hacerlos sentir más seguros y confiados.
La matriz impacto/riesgo Una vez que observe de cerca el proceso de la IA, probablemente encontrará muchos puntos en los que toma una decisión. Una IA podría tomar docenas de pequeñas decisiones para una única tarea compleja. Mostrarlos todos crea demasiada información innecesaria. Necesita agrupar estas opciones. Puede utilizar una Matriz de Impacto/Riesgo para ordenar estas opciones según los tipos de acciones que está tomando la IA. A continuación se muestran ejemplos de matrices de impacto/riesgo: Primero, busque decisiones de bajo riesgo y bajo impacto. Poco en juego / Bajo impacto
Ejemplo: organizar una estructura de archivos o cambiar el nombre de un documento. Necesidad de transparencia: mínima. Una notificación de brindis sutil o una entrada de registro es suficiente. Los usuarios pueden deshacer estas acciones fácilmente.
Luego identifique las decisiones de alto impacto y de alto impacto. Alto riesgo / Alto impacto
Ejemplo: Rechazar una solicitud de préstamo o ejecutar una operación bursátil. Necesidad de transparencia: alta. Estas acciones requieren Prueba de Trabajo. El sistema debe demostrar el fundamento antes o inmediatamente después de actuar.
Considere un robot de operaciones financieras que trate todas las órdenes de compra/venta por igual. Ejecuta una operación de $5 con la misma opacidad que una operación de $50,000. Los usuarios podrían preguntarse si la herramienta reconoce el impacto potencial de la transparencia en el comercio de grandes cantidades de dólares. Necesitan que el sistema haga una pausa y muestre su funcionamiento en las operaciones de alto riesgo. La solución es introducir un estado de Lógica de Revisión para cualquier transacción que exceda un monto específico en dólares, lo que permite al usuario ver los factores que impulsan la decisión antes de la ejecución. Asignación de nodos a patrones: una rúbrica de selección de patrones de diseño Una vez que haya identificado los nodos de decisión clave de su experiencia, debe decidir qué patrón de interfaz de usuario se aplica a cada uno que mostrará. En Designing For Agentic AI, introdujimos patrones como la Vista previa de intención (para control de alto riesgo) y la Auditoría de acción (para seguridad retrospectiva). El factor decisivo a la hora de elegir entre ellos es la reversibilidad. Filtramos cadanodo de decisión a través de la matriz de impacto para asignar el patrón correcto: Alto en juego e irreversible: estos nodos requieren una vista previa de intención. Debido a que el usuario no puede deshacer fácilmente la acción (por ejemplo, eliminar permanentemente una base de datos), el momento de transparencia debe ocurrir antes de la ejecución. El sistema debe hacer una pausa, explicar su intención y solicitar confirmación. Alto en juego y reversible: estos nodos pueden confiar en el patrón Auditoría de acción y deshacer. Si el agente de ventas impulsado por IA mueve un cliente potencial a un canal diferente, puede hacerlo de forma autónoma siempre que notifique al usuario y ofrezca un botón Deshacer inmediato. Al categorizar estrictamente los nodos de esta manera, evitamos la "fatiga de alertas". Reservamos la Vista previa de intención de alta fricción solo para los momentos verdaderamente irreversibles, mientras confiamos en la Auditoría de acción para mantener la velocidad para todo lo demás.
reversibles irreversibles Bajo impacto Tipo: Auto-ExecuteUI: Toast pasivo / LogEx: Cambiar el nombre de un archivo Tipo: ConfirmarUI: Opción de deshacer simpleEj: Archivar un correo electrónico Alto Impacto Tipo: RevisiónUI: Notificación + Revisión TrailEx: Envío de un borrador a un cliente Tipo: Vista previa de intención UI: Permiso modal/explícitoEx: Eliminar un servidor
Tabla 1: La matriz de impacto y reversibilidad se puede utilizar para asignar sus momentos de transparencia a los patrones de diseño. Validación cualitativa: “La espera, ¿por qué?” prueba Puedes identificar nodos potenciales en una pizarra, pero debes validarlos con el comportamiento humano. Debe verificar si su mapa coincide con el modelo mental del usuario. Utilizo un protocolo llamado "Espera, ¿por qué?" Prueba. Pídale a un usuario que observe al agente completar una tarea. Indíqueles que hablen en voz alta. Cada vez que hacen una pregunta, "Espera, ¿por qué hizo eso?" o "¿Está atascado?" o "¿Me escuchó?" - Marcas una marca de tiempo. Estas preguntas indican confusión del usuario. El usuario siente que se le escapa el control. Por ejemplo, en un estudio realizado para un asistente de programación de atención médica, los usuarios observaron al agente reservar una cita. La pantalla permaneció estática durante cuatro segundos. Los participantes preguntaban constantemente: "¿Es consultar mi calendario o el del médico?"
Esa pregunta reveló un momento de transparencia faltante. El sistema necesitaba dividir esa espera de cuatro segundos en dos pasos distintos: "Verificar su disponibilidad" seguido de "Sincronizar con el horario del proveedor". Este pequeño cambio redujo los niveles de ansiedad expresados por los usuarios. La transparencia falla cuando solo describe una acción del sistema. La interfaz debe conectar el proceso técnico con el objetivo específico del usuario. Una pantalla que muestra "Comprobando su disponibilidad" fracasa porque carece de contexto. El usuario entiende que la IA está mirando un calendario, pero no sabe por qué. Debemos emparejar la acción con el resultado. El sistema necesita dividir esa espera de cuatro segundos en dos pasos distintos. Primero, la interfaz muestra "Consultar su calendario para encontrar horarios de apertura". Luego se actualiza a "Sincronización con el horario del proveedor para asegurar su cita". Esto fundamenta el proceso técnico en la vida real del usuario. Considere una IA que gestione el inventario de una cafetería local. El sistema se encuentra con una escasez de suministro. Una interfaz que dice "contactar al proveedor" o "revisar opciones" genera ansiedad. El gerente se pregunta si el sistema está cancelando el pedido o comprando una alternativa costosa. Un mejor enfoque es explicar el resultado previsto: "Evaluar proveedores alternativos para mantener su cronograma de entregas de los viernes". Esto le dice al usuario exactamente lo que la IA intenta lograr. Operacionalizando la Auditoría Ha completado la Auditoría del nodo de decisión y ha filtrado su lista a través de la Matriz de impacto y riesgo. Ahora tienes una lista de momentos imprescindibles para ser transparente. A continuación, debe crearlos en la interfaz de usuario. Este paso requiere trabajo en equipo entre diferentes departamentos. No puedes diseñar transparencias tú mismo utilizando una herramienta de diseño. Es necesario comprender cómo funciona el sistema entre bastidores. Comience con una revisión lógica. Reúnase con su diseñador principal de sistemas. Traiga su mapa de nodos de decisión. Debe confirmar que el sistema realmente puede compartir estos estados. A menudo encuentro que el sistema técnico no revela el estado exacto que quiero mostrar. El ingeniero podría decir que el sistema simplemente devuelve un estado general de "funcionamiento". Debe presionar para obtener una actualización detallada. Necesitas que el sistema envíe un aviso específicocuando pasa de leer texto a verificar reglas. Sin esa conexión técnica, su diseño es imposible de construir. A continuación, involucre al equipo de diseño de contenido. Tienes la razón técnica para la acción de la IA, pero necesitas una explicación clara y amigable para los humanos. Los ingenieros proporcionan el proceso subyacente, pero los diseñadores de contenido proporcionan la forma en que se comunica. No escribas estos mensajes solo. Un desarrollador podría escribir "Ejecutando función 402", lo cual es técnicamente correcto pero no tiene sentido para el usuario. Un diseñador podría escribir "Pensamiento", que es amigable pero demasiado vago. Un estratega de contenidos encuentra el término medio adecuado. Crean frases específicas, como "Buscando riesgos de responsabilidad", que muestran que la IA está funcionando sin confundir al usuario. Finalmente, prueba la transparencia de tus mensajes. No espere hasta que se cree el producto final para ver si el texto funciona. Realizo pruebas comparativas sobre prototipos simples donde lo único que cambia es el mensaje de estado. Por ejemplo, le muestro a un grupo (Grupo A) un mensaje que dice "Verificar identidad" y a otro grupo (Grupo B) un mensaje que dice "Verificar bases de datos gubernamentales" (estos son ejemplos inventados, pero ya entiendes el punto). Luego les pregunto qué IA se siente más segura. A menudo descubrirá que ciertas palabras causan preocupación, mientras que otras generan confianza. Debe tratar la redacción como algo que necesita probar y demostrar su eficacia. Cómo esto cambia el proceso de diseño La realización de estas auditorías tiene el potencial de fortalecer la forma en que un equipo trabaja en conjunto. Dejamos de entregar archivos de diseño pulidos. Empezamos a utilizar prototipos desordenados y hojas de cálculo compartidas. La herramienta central se convierte en una matriz de transparencia. Los ingenieros y los diseñadores de contenido editan esta hoja de cálculo juntos. Asignan los códigos técnicos exactos a las palabras que leerá el usuario. Los equipos experimentarán fricciones durante la revisión lógica. Imagine a un diseñador preguntándole al ingeniero cómo decide la IA rechazar una transacción presentada en un informe de gastos. El ingeniero podría decir que el backend solo genera un código de estado genérico como "Error: faltan datos". El diseñador afirma que esta no es información procesable en la pantalla. El diseñador negocia con el ingeniero para crear un gancho técnico específico. El ingeniero escribe una nueva regla para que el sistema informe exactamente lo que falta, como por ejemplo la falta de una imagen de recibo. Los diseñadores de contenido actúan como traductores durante esta fase. Un desarrollador podría escribir una cadena técnicamente precisa como "Cálculo del umbral de confianza para la coincidencia de proveedores". Un diseñador de contenido traduce esa cadena en una frase que genera confianza para un resultado específico. El estratega lo reescribe como "Comparación de precios de proveedores locales para asegurar la entrega del viernes". El usuario comprende la acción y el resultado. Todo el equipo multifuncional participa en las sesiones de prueba de usuarios. Observan a una persona real reaccionar ante diferentes mensajes de estado. Ver a un usuario entrar en pánico porque la pantalla dice "Ejecutando operación" obliga al equipo a repensar su enfoque. Los ingenieros y diseñadores se alinean para mejorar la redacción. Cambian el texto a "Verificar fondos suficientes" antes de comprar acciones. Las pruebas conjuntas garantizan que la interfaz final sirva tanto a la lógica del sistema como a la tranquilidad del usuario. Se necesita tiempo para incorporar estas actividades adicionales al calendario del equipo. Sin embargo, el resultado final debería ser un equipo que se comunique de manera más abierta y usuarios que comprendan mejor lo que sus herramientas impulsadas por IA están haciendo en su nombre (y por qué). Este enfoque integrado es la piedra angular del diseño de experiencias de IA verdaderamente confiables. La confianza es una elección de diseño A menudo vemos la confianza como un subproducto emocional de una buena experiencia de usuario. Es más fácil ver la confianza como un resultado mecánico de una comunicación predecible. Generamos confianza mostrando la información correcta en el momento adecuado. Lo destruimos abrumando al usuario u ocultando la maquinaria por completo. Comience con la Auditoría del Nodo de Decisión, particularmente para herramientas y productos de IA agentes. Encuentre los momentos en los que el sistema toma una decisión. Asigne esos momentos a la Matriz de Riesgos. Si hay mucho en juego, abra la caja. Muestra el trabajo. En el próximo artículo, veremos cómo diseñar estos momentos: cómo escribir la copia, estructurar la interfaz de usuario y manejar los errores inevitables cuando el agente se equivoca. Apéndice: Lista de verificación de auditoría del nodo de decisión Fase 1: Configuración y Mapeo ✅ Reúna al equipo: reúna a los propietarios de productos, analistas de negocios, diseñadores,tomadores de decisiones clave y los ingenieros que construyeron la IA. Sugerencia: necesita que los ingenieros le expliquen la lógica real del backend. No intente este paso solo. ✅ Dibuja todo el proceso: documenta cada paso que da la IA, desde la primera acción del usuario hasta el resultado final. Sugerencia: una sesión de pizarra física suele funcionar mejor para dibujar estos pasos iniciales. Fase 2: Localizar la lógica oculta ✅ Encuentre dónde las cosas no están claras: busque en el mapa de procesos cualquier lugar donde la IA compare opciones o entradas que no tengan una coincidencia perfecta. ✅ Identifique los mejores pasos para adivinar: para cada punto poco claro, verifique si el sistema utiliza una puntuación de confianza. Por ejemplo, pregunte si el sistema está 85 por ciento seguro. Estos son los puntos donde la IA toma una decisión final. ✅ Examina la elección: para cada punto de elección, calcula los cálculos internos específicos o la comparación que se está realizando. Un ejemplo es hacer coincidir una parte de un contrato con una póliza. Otro ejemplo implica comparar una imagen de un automóvil averiado con una biblioteca de fotografías de automóviles dañados. Fase 3: Creación de la experiencia del usuario ✅ Escriba explicaciones claras: cree mensajes para el usuario que describan claramente la acción interna específica que ocurre cuando la IA toma una decisión. Sugerencia: fundamente sus mensajes en una realidad concreta. Si una IA reserva una reunión con un cliente en una cafetería local, dígale al usuario que el sistema está comprobando el sistema de reservas de la cafetería. ✅ Actualiza la pantalla: incluye estas explicaciones nuevas y claras en la interfaz de usuario. Reemplace mensajes vagos como Revisión de contratos con explicaciones específicas. ✅ Verifique la confianza: asegúrese de que los nuevos mensajes en pantalla brinden a los usuarios una razón simple para cualquier tiempo de espera o resultado. Esto debería hacerlos sentir seguros y confiados. Sugerencia: Pruebe estos mensajes con usuarios reales para verificar que comprendan el resultado específico que se está logrando.