En mi último artículo, establecimos una verdad fundamental: para que los usuarios adopten y confíen en la IA, deben confiar en ella. Hablamos de que la confianza es una construcción multifacética, basada en percepciones de la capacidad, la benevolencia, la integridad y la previsibilidad de una IA. Pero, ¿qué sucede cuando una IA, en su silenciosa sabiduría algorítmica, toma una decisión que deja al usuario confundido, frustrado o incluso herido? Se rechaza una solicitud de hipoteca, una canción favorita desaparece repentinamente de una lista de reproducción y se rechaza un currículum calificado antes de que un humano lo vea. En estos momentos, la capacidad y la previsibilidad quedan destrozadas y la benevolencia se siente como un mundo de distancia. Nuestra conversación ahora debe evolucionar del por qué de la confianza al cómo de la transparencia. El campo de la IA explicable (XAI), que se centra en el desarrollo de métodos para hacer que los resultados de la IA sean comprensibles para los humanos, ha surgido para abordar este problema, pero a menudo se presenta como un desafío puramente técnico para los científicos de datos. Sostengo que es un desafío de diseño crítico para los productos que dependen de la IA. Nuestro trabajo como profesionales de UX es cerrar la brecha entre la toma de decisiones algorítmica y la comprensión humana. Este artículo proporciona una guía práctica y práctica sobre cómo investigar y diseñar para lograr explicaciones. Iremos más allá de las palabras de moda y entraremos en las maquetas, traduciendo conceptos complejos de XAI en patrones de diseño concretos que puede comenzar a usar hoy. Desmitificando XAI: conceptos básicos para profesionales de UX XAI trata de responder la pregunta del usuario: "¿Por qué?" ¿Por qué me mostraron este anuncio? ¿Por qué me recomiendan esta película? ¿Por qué fue rechazada mi solicitud? Piense en ello como la IA que muestra su trabajo en un problema matemático. Sin ella, sólo tienes una respuesta y estás obligado a aceptarla con fe. Al mostrar los pasos, se genera comprensión y confianza. También permite que su trabajo sea revisado y verificado dos veces por los mismos seres humanos a los que afecta. Importancia de las características y contrafactuales Hay una serie de técnicas que podemos utilizar para aclarar o explicar lo que está sucediendo con la IA. Si bien los métodos varían desde proporcionar la lógica completa de un árbol de decisiones hasta generar resúmenes en lenguaje natural de un resultado, dos de los tipos de información más prácticos e impactantes que los profesionales de UX pueden introducir en una experiencia son la importancia de las características (Figura 1) y los contrafactuales. Suelen ser los más sencillos de entender para los usuarios y los más prácticos de implementar para los diseñadores.

Importancia de la característica Este método de explicabilidad responde: "¿Cuáles fueron los factores más importantes que consideró la IA?" Se trata de identificar las 2 o 3 variables principales que tuvieron el mayor impacto en el resultado. Es el titular, no la historia completa. Ejemplo: imagine una IA que predice si un cliente abandonará (cancelará su servicio). La importancia de la característica podría revelar que "la cantidad de llamadas de soporte en el último mes" y los "aumentos de precios recientes" fueron los dos factores más importantes para determinar si era probable que un cliente abandonara.

Contrafácticos Este poderoso método responde: "¿Qué necesitaría cambiar para obtener un resultado diferente?" Esto es crucial porque les da a los usuarios una sensación de agencia. Transforma un "no" frustrante en un "todavía no" procesable. Ejemplo: imagine un sistema de solicitud de préstamos que utiliza inteligencia artificial. A un usuario se le niega un préstamo. En lugar de simplemente ver "Solicitud denegada", una explicación hipotética también compartiría: "Si su puntaje crediticio fuera 50 puntos más alto, o si su relación deuda-ingresos fuera un 10% más baja, su préstamo habría sido aprobado". Esto le da a Sarah pasos claros y prácticos que puede tomar para potencialmente obtener un préstamo en el futuro.

Uso de datos del modelo para mejorar la explicación Aunque los científicos de datos suelen manejar los detalles técnicos, es útil para los profesionales de UX saber que herramientas como LIME (Explicaciones agnósticas del modelo interpretable local), que explica las predicciones individuales aproximando el modelo localmente, y SHAP (Explanaciones aditivas de SHapley), que utiliza un enfoque de teoría de juegos para explicar el resultado de cualquier modelo de aprendizaje automático, se utilizan comúnmente para extraer estos conocimientos de "por qué" de modelos complejos. Básicamente, estas bibliotecas ayudan a descomponer la decisión de una IA para mostrar qué entradas fueron más influyentes para un resultado determinado. Cuando se hace correctamente, los datos subyacentes a la decisión de una herramienta de IA se pueden utilizar para contar una historia poderosa. Repasemos la importancia de las características y los contrafácticos y mostremos cómo se puede utilizar la ciencia de datos detrás de la decisión para mejorar la experiencia del usuario. Ahora vamoscubrir la importancia de la característica con la ayuda de datos de explicaciones locales (por ejemplo, LIME): este enfoque responde: "¿Por qué la IA me hizo esta recomendación específica en este momento?" En lugar de una explicación general de cómo funciona el modelo, proporciona una razón enfocada para un caso único y específico. Es personal y contextual. Ejemplo: imagine un sistema de recomendación de música impulsado por inteligencia artificial como Spotify. Una explicación local respondería: “¿Por qué el sistema te recomendó esta canción específica de Adele en este momento?” La explicación podría ser: “Porque recientemente escuchaste otras baladas y canciones emotivas de vocalistas femeninas”.

Finalmente, cubramos la inclusión de explicaciones basadas en valores (por ejemplo, datos de explicaciones aditivas de Shapley (SHAP) en una explicación de una decisión: esta es una versión más matizada de la importancia de una característica que responde: "¿Cómo impulsó cada factor la decisión en un sentido u otro?" Ayuda a visualizar lo que importaba y si su influencia fue positiva o negativa. Ejemplo: imagine que un banco utiliza un modelo de inteligencia artificial para decidir si aprueba una solicitud de préstamo.

Importancia de la característica: El resultado del modelo podría mostrar que el puntaje crediticio, los ingresos y la relación deuda-ingresos del solicitante fueron los factores más importantes en su decisión. Esto responde a lo que importaba. Importancia de las características con explicaciones basadas en valores (SHAP): los valores SHAP llevarían la importancia de las características aún más en función de los elementos del modelo.

Para un préstamo aprobado, SHAP podría mostrar que un puntaje crediticio alto impulsó significativamente la decisión hacia la aprobación (influencia positiva), mientras que una relación deuda-ingresos ligeramente superior al promedio la alejó ligeramente (influencia negativa), pero no lo suficiente como para negar el préstamo. Para un préstamo denegado, SHAP podría revelar que los bajos ingresos y un gran número de consultas crediticias recientes impulsaron fuertemente la decisión de denegarlo, incluso si la puntuación crediticia era decente.

Esto ayuda al oficial de préstamos a explicarle al solicitante, más allá de lo que se consideró, cómo cada factor contribuyó a la decisión final de “sí” o “no”. Es fundamental reconocer que la capacidad de dar buenas explicaciones suele comenzar mucho antes en el ciclo de desarrollo. Los científicos e ingenieros de datos desempeñan un papel fundamental al estructurar intencionalmente modelos y canales de datos de manera que respalden inherentemente la explicabilidad, en lugar de intentar incorporarlos como una ocurrencia tardía. Los equipos de investigación y diseño pueden fomentar esto iniciando conversaciones tempranas con científicos e ingenieros de datos sobre las necesidades de comprensión de los usuarios, contribuyendo al desarrollo de métricas de explicabilidad y creando prototipos colaborativos de explicaciones para garantizar que sean precisas y fáciles de usar. XAI y la IA ética: analizando el sesgo y la responsabilidad Más allá de generar confianza, XAI desempeña un papel fundamental a la hora de abordar las profundas implicaciones éticas de la IA*, en particular en lo que respecta al sesgo algorítmico. Las técnicas de explicabilidad, como el análisis de los valores SHAP, pueden revelar si las decisiones de un modelo están influenciadas de manera desproporcionada por atributos sensibles como la raza, el género o el estatus socioeconómico, incluso si estos factores no se utilizaron explícitamente como entradas directas. Por ejemplo, si un modelo de aprobación de préstamos asigna constantemente valores SHAP negativos a los solicitantes de un determinado grupo demográfico, indica un sesgo potencial que necesita investigación, lo que permite a los equipos sacar a la luz y mitigar esos resultados injustos. El poder de XAI también conlleva el potencial de "lavado de explicaciones". Así como el “lavado verde” engaña a los consumidores sobre las prácticas ambientales, el lavado de explicabilidad puede ocurrir cuando las explicaciones están diseñadas para oscurecer, en lugar de iluminar, comportamientos algorítmicos problemáticos o sesgos inherentes. Esto podría manifestarse como explicaciones demasiado simplistas que omiten factores de influencia críticos, o explicaciones que encuadran estratégicamente los resultados para que parezcan más neutrales o justos de lo que realmente son. Subraya la responsabilidad ética de los profesionales de UX de diseñar explicaciones que sean genuinamente transparentes y verificables. Los profesionales de UX, en colaboración con científicos de datos y especialistas en ética, tienen una responsabilidad crucial a la hora de comunicar el por qué de una decisión, y también las limitaciones y posibles sesgos del modelo de IA subyacente. Esto implica establecer expectativas realistas de los usuarios sobre la precisión de la IA, identificar dónde el modelo podría ser menos confiable y proporcionar canales claros para recurrir o recibir comentarios cuando los usuarios perciban resultados injustos o incorrectos. Abordar proactivamente estosLas dimensiones éticas nos permitirán construir sistemas de IA que sean verdaderamente justos y confiables. De los métodos a las maquetas: patrones prácticos de diseño XAI Conocer los conceptos es una cosa; diseñarlos es otra. Así es como podemos traducir estos métodos XAI en patrones de diseño intuitivos. Patrón 1: La declaración "Porque" (para la importancia de la característica) Este es el patrón más simple y, a menudo, más eficaz. Es una declaración directa y en lenguaje sencillo que revela la razón principal de la acción de una IA.

Heurístico: sea directo y conciso. Lidera con la razón más impactante. Evite la jerga a toda costa.

Ejemplo: imagine un servicio de transmisión de música. En lugar de simplemente presentar una lista de reproducción “Discover Weekly”, agrega una pequeña línea de microcopia. Recomendación de canción: “Velvet Morning”Porque escuchas “The Fuzz” y otro rock psicodélico.

Patrón 2: El interactivo "Y si" (para contrafactuales) Los contrafactuales tienen que ver inherentemente con el empoderamiento. La mejor manera de representarlos es brindando a los usuarios herramientas interactivas para explorar las posibilidades por sí mismos. Esto es perfecto para aplicaciones financieras, de salud u otras aplicaciones orientadas a objetivos.

Heurística: Haga que las explicaciones sean interactivas y empoderadoras. Permita que los usuarios vean la causa y el efecto de sus elecciones.

Ejemplo: una interfaz de solicitud de préstamo. Después de una negación, en lugar de un callejón sin salida, el usuario obtiene una herramienta para determinar cómo podrían desarrollarse varios escenarios (qué pasaría si) (consulte la Figura 1).

Patrón 3: El carrete destacado (para explicaciones locales) Cuando una IA realiza una acción sobre el contenido de un usuario (como resumir un documento o identificar rostros en fotografías), la explicación debe estar vinculada visualmente a la fuente.

Heurística: utilice señales visuales como resaltado, esquemas o anotaciones para conectar la explicación directamente con el elemento de la interfaz que está explicando.

Ejemplo: una herramienta de inteligencia artificial que resume artículos extensos. Punto de resumen generado por inteligencia artificial: la investigación inicial mostró una brecha en el mercado para productos sustentables. Fuente en el documento: “...Nuestro análisis del segundo trimestre de las tendencias del mercado demostró de manera concluyente que ningún competidor importante estaba sirviendo efectivamente al consumidor con conciencia ecológica, lo que revela una brecha de mercado significativa para productos sustentables…”

Patrón 4: El visual de empujar y tirar (para explicaciones basadas en valores) Para decisiones más complejas, es posible que los usuarios necesiten comprender la interacción de factores. Las visualizaciones de datos simples pueden aclarar esto sin resultar abrumadoras.

Heurístico: utilice visualizaciones de datos simples codificadas por colores (como gráficos de barras) para mostrar los factores que influyeron positiva y negativamente en una decisión.

Ejemplo: Una IA que analiza el perfil de un candidato para un puesto de trabajo. Por qué este candidato coincide en un 75 %: Factores que aumentan la puntuación: Más de 5 años de experiencia en investigación de UX Competente en PythonFactores que hacen que la puntuación baje: Sin experiencia con SaaS B2B

Aprender y utilizar estos patrones de diseño en la UX de su producto de IA ayudará a aumentar la explicabilidad. También puedes utilizar técnicas adicionales que no cubriré en profundidad aquí. Esto incluye lo siguiente:

Explicaciones en lenguaje natural: traducir el resultado técnico de una IA a un lenguaje humano simple y conversacional que los no expertos puedan entender fácilmente. Explicaciones contextuales: al proporcionar una justificación para la salida de una IA en el momento y ubicación específicos, es más relevante para la tarea del usuario. Visualizaciones relevantes: uso de tablas, gráficos o mapas de calor para representar visualmente el proceso de toma de decisiones de una IA, haciendo que los datos complejos sean intuitivos y más fáciles de comprender para los usuarios.

Una nota para el front-end: traducir estos resultados de explicabilidad en experiencias de usuario fluidas también presenta su propio conjunto de consideraciones técnicas. Los desarrolladores de front-end a menudo luchan con el diseño de API para recuperar de manera eficiente los datos explicativos, y las implicaciones de rendimiento (como la generación de explicaciones en tiempo real para cada interacción del usuario) necesitan una planificación cuidadosa para evitar la latencia. Algunos ejemplos del mundo real Defensa de entrega de UPS Capital UPS utiliza IA para asignar una "puntuación de confianza en la entrega" a las direcciones para predecir la probabilidad de que roben un paquete. Su software DeliveryDefense analiza datos históricos sobre ubicación, frecuencia de pérdidas y otros factores. Si una dirección tiene una puntuación baja, el sistema puede redirigir proactivamente el paquete a un punto de acceso UPS seguro, proporcionando una explicación de la decisión (por ejemplo, "Paquete redirigido a una ubicación segura debido a un historial de robo"). Este sistema demuestra cómo se puede utilizar XAI para mitigar riesgos y generar confianza en el cliente a través detransparencia. Vehículos Autónomos Estos vehículos del futuro necesitarán utilizar XAI de forma eficaz para ayudar a sus vehículos a tomar decisiones seguras y explicables. Cuando un vehículo autónomo frena repentinamente, el sistema puede proporcionar una explicación en tiempo real de su acción, por ejemplo, identificando a un peatón que entra en la carretera. Esto no sólo es crucial para la comodidad y la confianza de los pasajeros, sino que también es un requisito reglamentario para demostrar la seguridad y la responsabilidad del sistema de IA. IBM Watson Health (y sus desafíos) Si bien a menudo se cita como un ejemplo general de IA en la atención médica, también es un valioso estudio de caso sobre la importancia de XAI. El fracaso de su proyecto Watson for Oncology pone de relieve lo que puede salir mal cuando las explicaciones no son claras, o cuando los datos subyacentes están sesgados o no están localizados. Las recomendaciones del sistema a veces eran inconsistentes con las prácticas clínicas locales porque se basaban en pautas centradas en Estados Unidos. Esto sirve como advertencia sobre la necesidad de una explicabilidad sólida y consciente del contexto. El papel del investigador de UX: identificar y validar explicaciones Nuestras soluciones de diseño solo son efectivas si abordan las preguntas correctas de los usuarios en el momento adecuado. Una explicación que responde a una pregunta que el usuario no tiene es sólo ruido. Aquí es donde la investigación de UX se convierte en el tejido conectivo crítico en una estrategia XAI, asegurando que explicamos qué y cómo eso realmente importa a nuestros usuarios. El papel del investigador es doble: primero, informar la estrategia identificando dónde se necesitan explicaciones y, segundo, validar los diseños que brindan esas explicaciones. Informar la estrategia XAI (qué explicar) Antes de que podamos diseñar una explicación única, debemos comprender el modelo mental del sistema de IA del usuario. ¿Qué creen que está haciendo? ¿Dónde están las brechas entre su comprensión y la realidad del sistema? Este es el trabajo fundamental de un investigador de UX. Entrevistas con modelos mentales: análisis de las percepciones de los usuarios sobre los sistemas de inteligencia artificial A través de entrevistas profundas y semiestructuradas, los profesionales de UX pueden obtener conocimientos invaluables sobre cómo los usuarios perciben y comprenden los sistemas de IA. Estas sesiones están diseñadas para alentar a los usuarios a dibujar o describir literalmente su "modelo mental" interno de cómo creen que funciona la IA. Esto a menudo implica hacer preguntas abiertas que inciten a los usuarios a explicar la lógica del sistema, sus entradas y salidas, así como las relaciones entre estos elementos. Estas entrevistas son poderosas porque con frecuencia revelan profundos conceptos erróneos y suposiciones que los usuarios tienen sobre la IA. Por ejemplo, un usuario que interactúa con un motor de recomendaciones podría afirmar con seguridad que el sistema se basa únicamente en su historial de visualización. Es posible que no se den cuenta de que el algoritmo también incorpora una multitud de otros factores, como la hora del día en que navegan, las tendencias actuales en la plataforma o incluso los hábitos de visualización de usuarios similares. Descubrir esta brecha entre el modelo mental de un usuario y la lógica subyacente real de la IA es de vital importancia. Nos dice con precisión qué información específica necesitamos comunicar a los usuarios para ayudarlos a construir un modelo mental más preciso y sólido del sistema. Esto, a su vez, es un paso fundamental para fomentar la confianza. Cuando los usuarios comprenden, incluso a un alto nivel, cómo llega una IA a sus conclusiones o recomendaciones, es más probable que confíen en sus resultados y se apoyen en su funcionalidad. Mapeo del viaje de la IA: una inmersión profunda en la confianza y la explicabilidad del usuario Al mapear meticulosamente el recorrido del usuario con una función impulsada por IA, obtenemos información invaluable sobre los momentos precisos en los que emerge la confusión, la frustración o incluso una profunda desconfianza. Esto descubre coyunturas críticas en las que el modelo mental del usuario sobre cómo opera la IA choca con su comportamiento real. Considere un servicio de transmisión de música: ¿la confianza del usuario cae en picado cuando una recomendación de lista de reproducción parece "aleatoria", sin ninguna conexión discernible con sus hábitos de escucha anteriores o sus preferencias declaradas? Esta aleatoriedad percibida es un desafío directo a las expectativas del usuario de una curación inteligente y un incumplimiento de la promesa implícita de que la IA comprende sus gustos. De manera similar, en una aplicación de gestión de fotografías, ¿los usuarios experimentan una frustración significativa cuando una función de etiquetado de fotografías con IA identifica erróneamente constantemente a un miembro querido de la familia? Este error es más que un problema técnico; ataca al corazón de la precisión, la personalización e inclusoconexión emocional. Estos puntos débiles son señales vívidas que indican con precisión dónde es necesaria una explicación bien formulada, clara y concisa. Estas explicaciones sirven como mecanismos de reparación cruciales, reparando un abuso de confianza que, si no se aborda, puede provocar el abandono del usuario. El poder del mapeo de viajes de IA radica en su capacidad de llevarnos más allá de simplemente explicar el resultado final de un sistema de IA. Si bien es importante comprender lo que produjo la IA, a menudo resulta insuficiente. En cambio, este proceso nos obliga a centrarnos en explicar el proceso en momentos críticos. Esto significa abordar:

¿Por qué se generó un resultado particular? ¿Se debió a datos de entrada específicos? ¿Una arquitectura modelo particular? ¿Qué factores influyeron en la decisión de la IA? ¿Se ponderaron más ciertas características? Cómo llegó la IA a su conclusión: ¿podemos ofrecer una explicación análoga y simplificada de su funcionamiento interno? Qué suposiciones hizo la IA: ¿Hubo entendimientos implícitos de la intención del usuario o datos que debían salir a la luz? Cuáles son las limitaciones de la IA: Comunicar claramente lo que la IA no puede hacer, o dónde podría vacilar su precisión, genera expectativas realistas.

El mapeo del viaje de la IA transforma el concepto abstracto de XAI en un marco práctico y procesable para los profesionales de UX. Nos permite ir más allá de las discusiones teóricas sobre la explicabilidad y, en cambio, señalar los momentos exactos en los que está en juego la confianza del usuario, proporcionando la información necesaria para crear experiencias de IA que sean poderosas, transparentes, comprensibles y dignas de confianza. En última instancia, la investigación es la forma de descubrir lo desconocido. Es posible que su equipo esté debatiendo cómo explicar por qué se negó un préstamo, pero la investigación podría revelar que los usuarios están mucho más preocupados por comprender cómo se utilizaron sus datos en primer lugar. Sin investigación, simplemente estamos adivinando lo que se preguntan nuestros usuarios. Colaborando en el diseño (cómo explicar su IA) Una vez que la investigación ha identificado qué explicar, comienza el ciclo colaborativo con el diseño. Los diseñadores pueden crear prototipos de los patrones que analizamos anteriormente (la declaración "Porque", los controles deslizantes interactivos) y los investigadores pueden presentar esos diseños a los usuarios para ver si se mantienen. Pruebas de usabilidad y comprensión específicas: podemos diseñar estudios de investigación que prueben específicamente los componentes de XAI. No nos limitamos a preguntar: "¿Es fácil de usar?" Preguntamos: "Después de ver esto, ¿puede decirme con sus propias palabras por qué el sistema recomendó este producto?" o "Muéstrame qué harías para ver si puedes obtener un resultado diferente". El objetivo aquí es medir la comprensión y la capacidad de acción, junto con la usabilidad. Medición de la confianza en sí: podemos utilizar encuestas sencillas y escalas de calificación antes y después de mostrar una explicación. Por ejemplo, podemos preguntarle a un usuario en una escala de 5 puntos: "¿Cuánto confías en esta recomendación?" antes de que vean la declaración “Porque”, y luego pregúnteles nuevamente. Esto proporciona datos cuantitativos sobre si nuestras explicaciones realmente están influyendo en la confianza. Este proceso crea un bucle potente e iterativo. Los resultados de la investigación informan el diseño inicial. Luego, ese diseño se prueba y los nuevos hallazgos se envían al equipo de diseño para su perfeccionamiento. Tal vez la declaración "Porque" era demasiado jerga, o el control deslizante "Y si" fuera más confuso que empoderador. A través de esta validación colaborativa, nos aseguramos de que las explicaciones finales sean técnicamente precisas, genuinamente comprensibles, útiles y generen confianza para las personas que utilizan el producto. La zona de explicación de Ricitos de Oro Una advertencia fundamental: es posible explicar demasiado. Como en el cuento de hadas, donde Ricitos de Oro buscaba la papilla que fuera "perfecta", el objetivo de una buena explicación es proporcionar la cantidad adecuada de detalles: ni demasiado ni demasiado poco. Bombardear a un usuario con todas las variables de un modelo provocará una sobrecarga cognitiva y, de hecho, puede disminuir la confianza. El objetivo no es convertir al usuario en un científico de datos. Una solución es la divulgación progresiva.

Comience con lo simple. Comience con una declaración concisa de "Porque". Para la mayoría de los usuarios, esto será suficiente. Ofrezca un camino hacia los detalles. Proporcione un enlace claro y sencillo como "Más información" o "Vea cómo se determinó esto". Revelar la complejidad. Detrás de ese enlace, puede ofrecer controles deslizantes interactivos, visualizaciones o una lista más detallada de los factores contribuyentes.

Este enfoque en capas respeta la atención y la experiencia del usuario y proporciona la cantidad justade información para sus necesidades. Imaginemos que está utilizando un dispositivo doméstico inteligente que recomienda una calefacción óptima en función de varios factores. Comience con lo simple: "Su casa actualmente tiene calefacción a 72 grados, que es la temperatura óptima para ahorrar energía y brindar comodidad". Ofrezca una ruta hacia los detalles: debajo, un pequeño enlace o botón: "¿Por qué son óptimos 72 grados?" Revele la complejidad: al hacer clic en ese enlace se podría abrir una nueva pantalla que muestra:

Controles deslizantes interactivos para la temperatura exterior, la humedad y su nivel de comodidad preferido, que demuestran cómo ajustan la temperatura recomendada. Una visualización del consumo de energía a diferentes temperaturas. Una lista de factores contribuyentes, como "hora del día", "temperatura exterior actual", "uso histórico de energía" y "sensores de ocupación".

Es eficaz combinar múltiples métodos XAI y este patrón de Zona de Explicación Ricitos de Oro, que aboga por la divulgación progresiva, lo fomenta implícitamente. Puede comenzar con una simple declaración "Porque" (Patrón 1) para una comprensión inmediata y luego ofrecer un enlace "Más información" que revele un interactivo "Y si" (Patrón 2) o un "visual de empujar y tirar" (Patrón 4) para una exploración más profunda. Por ejemplo, un sistema de solicitud de préstamo podría indicar inicialmente el motivo principal de la denegación (importancia de la característica), luego permitir que el usuario interactúe con una herramienta de “Y si” para ver cómo los cambios en sus ingresos o deuda alterarían el resultado (contrafactuales) y, finalmente, proporcionar un gráfico detallado de “Empujar y tirar” (explicación basada en valores) para ilustrar las contribuciones positivas y negativas de todos los factores. Este enfoque en capas permite a los usuarios acceder al nivel de detalle que necesitan, cuando lo necesitan, evitando la sobrecarga cognitiva y al mismo tiempo brindando una transparencia integral. Determinar qué herramientas y métodos XAI utilizar es principalmente una función de una investigación exhaustiva de UX. Las entrevistas con modelos mentales y el mapeo del recorrido de la IA son cruciales para identificar las necesidades de los usuarios y los puntos débiles relacionados con la comprensión y la confianza de la IA. Las entrevistas con modelos mentales ayudan a descubrir conceptos erróneos de los usuarios sobre cómo funciona la IA, indicando áreas donde se necesitan explicaciones fundamentales (como la importancia de las características o explicaciones locales). El mapeo del viaje de la IA, por otro lado, identifica momentos críticos de confusión o desconfianza en la interacción del usuario con la IA, señalando dónde explicaciones más granulares o interactivas (como contrafactuales o explicaciones basadas en valores) serían más beneficiosas para reconstruir la confianza y proporcionar agencia.

En última instancia, la mejor manera de elegir una técnica es dejar que la investigación de los usuarios guíe sus decisiones, asegurándose de que las explicaciones que diseñe aborden directamente las preguntas e inquietudes reales de los usuarios, en lugar de simplemente ofrecer detalles técnicos por sí mismos. XAI para agentes de razonamiento profundo Algunos de los sistemas de inteligencia artificial más nuevos, conocidos como agentes de razonamiento profundo, producen una “cadena de pensamiento” explícita para cada tarea compleja. No se limitan a citar fuentes; Muestran el camino lógico, paso a paso, que tomaron para llegar a una conclusión. Si bien esta transparencia proporciona un contexto valioso, un resumen que abarca varios párrafos puede resultar abrumador para un usuario que simplemente intenta completar una tarea. Los principios de XAI, especialmente la Zona de Explicación Ricitos de Oro, se aplican directamente aquí. Podemos seleccionar el viaje, utilizando la divulgación progresiva para mostrar primero solo la conclusión final y el paso más destacado en el proceso de pensamiento. Luego, los usuarios pueden optar por ver el razonamiento completo, detallado y de varios pasos cuando necesiten verificar la lógica o encontrar un hecho específico. Este enfoque respeta la atención del usuario y al mismo tiempo preserva la total transparencia del agente. Próximos pasos: potenciando su viaje XAI La explicabilidad es un pilar fundamental para crear productos de IA confiables y efectivos. Para el profesional avanzado que busca impulsar este cambio dentro de su organización, el viaje se extiende más allá de los patrones de diseño hacia la promoción y el aprendizaje continuo. Para profundizar su comprensión y aplicación práctica, considere explorar recursos como el kit de herramientas AI Explicabilidad 360 (AIX360) de IBM Research o la herramienta What-If de Google, que ofrecen formas interactivas de explorar el comportamiento y las explicaciones del modelo. Involucrarse con comunidades como el Foro de IA Responsable o grupos de investigación específicos centrados en la IA centrada en el ser humano puede proporcionar conocimientos y oportunidades de colaboración invaluables. Por último, sea un defensor de XAI dentro de su propia organización.Enmarcar la explicabilidad como una inversión estratégica. Considere una breve presentación para su liderazgo o equipos multifuncionales: "Al invertir en XAI, iremos más allá de generar confianza; aceleraremos la adopción por parte de los usuarios, reduciremos los costos de soporte al capacitar a los usuarios con comprensión y mitigaremos importantes riesgos éticos y regulatorios al exponer posibles sesgos. Esto es un buen diseño y un negocio inteligente".

Su voz, basada en una comprensión práctica, es crucial para sacar la IA de la caja negra y crear una asociación colaborativa con los usuarios.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free