Dans mon dernier article, nous avons établi une vérité fondamentale : pour que les utilisateurs adoptent et s’appuient sur l’IA, ils doivent lui faire confiance. Nous avons parlé de la confiance comme d’une construction à multiples facettes, fondée sur les perceptions de la capacité, de la bienveillance, de l’intégrité et de la prévisibilité d’une IA. Mais que se passe-t-il lorsqu’une IA, dans sa sagesse algorithmique silencieuse, prend une décision qui laisse l’utilisateur confus, frustré, voire blessé ? Une demande de prêt hypothécaire est refusée, une chanson préférée est soudainement absente d'une liste de lecture et un CV qualifié est rejeté avant même qu'un humain ne le voie. Dans ces moments-là, la capacité et la prévisibilité sont brisées, et la bienveillance semble être à un autre monde. Notre conversation doit désormais évoluer du pourquoi de la confiance au comment de la transparence. Le domaine de l’IA explicable (XAI), qui se concentre sur le développement de méthodes permettant de rendre les résultats de l’IA compréhensibles pour les humains, a émergé pour résoudre ce problème, mais il est souvent présenté comme un défi purement technique pour les data scientists. Je soutiens qu’il s’agit d’un défi de conception crucial pour les produits reposant sur l’IA. C'est notre travail en tant que professionnels de l'UX de combler le fossé entre la prise de décision algorithmique et la compréhension humaine. Cet article fournit des conseils pratiques et exploitables sur la façon de rechercher et de concevoir pour l’explicabilité. Nous irons au-delà des mots à la mode et passerons aux maquettes, traduisant les concepts XAI complexes en modèles de conception concrets que vous pouvez commencer à utiliser dès aujourd'hui. Démystifier XAI : concepts de base pour les praticiens UX XAI consiste à répondre à la question de l'utilisateur : « Pourquoi ? » Pourquoi ai-je montré cette annonce ? Pourquoi ce film me est-il recommandé ? Pourquoi ma demande a-t-elle été refusée ? Considérez-le comme l'IA montrant son travail sur un problème mathématique. Sans cela, vous avez juste une réponse, et vous êtes obligé de l’accepter avec foi. En montrant les étapes, vous développez la compréhension et la confiance. Vous permettez également que votre travail soit revérifié et vérifié par les humains mêmes qu'il impacte. Importance des fonctionnalités et contrefactuels Il existe un certain nombre de techniques que nous pouvons utiliser pour clarifier ou expliquer ce qui se passe avec l’IA. Alors que les méthodes vont de la fourniture de la logique complète d'un arbre de décision à la génération de résumés en langage naturel d'un résultat, deux des types d'informations les plus pratiques et les plus percutants que les praticiens de l'UX peuvent introduire dans une expérience sont l'importance des fonctionnalités (Figure 1) et les contrefactuels. Ce sont souvent les plus simples à comprendre pour les utilisateurs et les plus concrètes à mettre en œuvre pour les concepteurs.
Importance des fonctionnalités Cette méthode d’explicabilité répond : « Quels ont été les facteurs les plus importants pris en compte par l’IA ? Il s’agit d’identifier les 2 ou 3 principales variables qui ont eu le plus grand impact sur le résultat. C’est le titre, pas toute l’histoire. Exemple : imaginez une IA qui prédit si un client va se désintéresser (annuler son service). L'importance des fonctionnalités pourrait révéler que « le nombre d'appels d'assistance au cours du mois dernier » et les « augmentations de prix récentes » étaient les deux facteurs les plus importants pour déterminer si un client était susceptible de se désister.
Contrefactuels Cette méthode puissante répond : « Que devrais-je changer pour obtenir un résultat différent ? » Ceci est crucial car cela donne aux utilisateurs un sentiment d’action. Il transforme un « non » frustrant en un « pas encore » exploitable. Exemple : Imaginez un système de demande de prêt qui utilise l’IA. Un utilisateur se voit refuser un prêt. Au lieu de simplement voir « Demande refusée », une explication contrefactuelle partagerait également : « Si votre pointage de crédit était de 50 points plus élevé, ou si votre ratio dette/revenu était inférieur de 10 %, votre prêt aurait été approuvé. Cela donne à Sarah des mesures claires et concrètes qu'elle peut prendre pour potentiellement obtenir un prêt à l'avenir.
Utiliser les données du modèle pour améliorer l'explication Bien que les spécificités techniques soient souvent traitées par les data scientists, il est utile pour les praticiens de l'UX de savoir que des outils tels que LIME (Local Interpretable Model-agnostic Explanations) qui explique les prédictions individuelles en approximant le modèle localement, et SHAP (SHapley Additive exPlanations) qui utilise une approche de théorie des jeux pour expliquer le résultat de tout modèle d'apprentissage automatique sont couramment utilisés pour extraire ces informations « pourquoi » à partir de modèles complexes. Ces bibliothèques aident essentiellement à décomposer la décision d’une IA pour montrer quelles entrées ont été les plus influentes pour un résultat donné. Lorsqu’elles sont effectuées correctement, les données qui sous-tendent la décision d’un outil d’IA peuvent être utilisées pour raconter une histoire puissante. Passons en revue l'importance des fonctionnalités et les contrefactuels et montrons comment la science des données derrière la décision peut être utilisée pour améliorer l'expérience de l'utilisateur. Maintenant, allonscouvrent l'importance des fonctionnalités à l'aide des données d'explications locales (par exemple, LIME) : cette approche répond : "Pourquoi l'IA m'a-t-elle fait cette recommandation spécifique, maintenant ?" Au lieu d’une explication générale du fonctionnement du modèle, il fournit une raison ciblée pour un cas unique et spécifique. C’est personnel et contextuel. Exemple : imaginez un système de recommandation musicale alimenté par l'IA comme Spotify. Une explication locale répondrait : « Pourquoi le système vous a-t-il recommandé cette chanson spécifique d'Adele en ce moment ? L’explication pourrait être : « Parce que vous avez récemment écouté plusieurs autres ballades et chansons émouvantes de chanteuses. »
Enfin, abordons l'inclusion d'explications basées sur la valeur (par exemple, les données Shapley Additive Explanations (SHAP) dans une explication d'une décision : il s'agit d'une version plus nuancée de l'importance des fonctionnalités qui répond : "Comment chaque facteur a-t-il poussé la décision dans un sens ou dans l'autre ?" Cela aide à visualiser ce qui comptait et si son influence était positive ou négative. Exemple : Imaginez qu'une banque utilise un modèle d'IA pour décider d'approuver ou non une demande de prêt.
Importance des fonctionnalités : les résultats du modèle pourraient montrer que la cote de crédit, les revenus et le ratio dette/revenu du demandeur étaient les facteurs les plus importants dans sa décision. Cela répond à ce qui comptait. Importance des fonctionnalités avec explications basées sur la valeur (SHAP) : les valeurs SHAP prendraient davantage d'importance des fonctionnalités en fonction des éléments du modèle.
Pour un prêt approuvé, SHAP pourrait montrer qu’une cote de crédit élevée a considérablement poussé la décision vers l’approbation (influence positive), tandis qu’un ratio dette/revenu légèrement supérieur à la moyenne l’a légèrement éloignée (influence négative), mais pas suffisamment pour refuser le prêt. Pour un prêt refusé, SHAP a pu révéler qu'un faible revenu et un nombre élevé de demandes de crédit récentes ont fortement poussé la décision vers un refus, même si la cote de crédit était correcte.
Cela aide l'agent de crédit à expliquer au demandeur, au-delà de ce qui a été pris en compte, comment chaque facteur a contribué à la décision finale « oui » ou « non ». Il est essentiel de reconnaître que la capacité à fournir de bonnes explications commence souvent beaucoup plus tôt dans le cycle de développement. Les data scientists et les ingénieurs jouent un rôle central en structurant intentionnellement les modèles et les pipelines de données de manière à prendre intrinsèquement en charge l'explicabilité, plutôt qu'en essayant de les intégrer après coup. Les équipes de recherche et de conception peuvent favoriser cela en entamant des conversations précoces avec des scientifiques des données et des ingénieurs sur les besoins de compréhension des utilisateurs, en contribuant au développement de mesures d'explicabilité et en prototypant en collaboration des explications pour garantir qu'elles sont à la fois précises et conviviales. XAI et IA éthique : dévoiler les préjugés et la responsabilité Au-delà de l’instauration de la confiance, XAI joue un rôle essentiel dans la réponse aux profondes implications éthiques de l’IA*, notamment en ce qui concerne les biais algorithmiques. Les techniques d’explicabilité, telles que l’analyse des valeurs SHAP, peuvent révéler si les décisions d’un modèle sont influencées de manière disproportionnée par des attributs sensibles tels que la race, le sexe ou le statut socio-économique, même si ces facteurs n’ont pas été explicitement utilisés comme entrées directes. Par exemple, si un modèle d’approbation de prêt attribue systématiquement des valeurs SHAP négatives aux candidats d’un certain groupe démographique, cela signale un biais potentiel qui nécessite une enquête, permettant aux équipes de faire surface et d’atténuer ces résultats injustes. La puissance de XAI s’accompagne également du potentiel de « lavage de l’explicabilité ». Tout comme le « greenwashing » induit les consommateurs en erreur sur les pratiques environnementales, le « blanchissage de l’explicabilité » peut se produire lorsque les explications sont conçues pour obscurcir, plutôt que pour éclairer, un comportement algorithmique problématique ou des préjugés inhérents. Cela pourrait se manifester par des explications trop simplistes qui omettent des facteurs d’influence critiques, ou par des explications qui encadrent stratégiquement les résultats pour qu’ils paraissent plus neutres ou plus justes qu’ils ne le sont réellement. Il souligne la responsabilité éthique des praticiens UX de concevoir des explications véritablement transparentes et vérifiables. Les professionnels de l’UX, en collaboration avec les data scientists et les éthiciens, ont une responsabilité cruciale dans la communication du pourquoi d’une décision, ainsi que des limites et des biais potentiels du modèle d’IA sous-jacent. Cela implique de définir des attentes réalistes des utilisateurs en matière de précision de l'IA, d'identifier les domaines dans lesquels le modèle pourrait être moins fiable et de fournir des canaux clairs de recours ou de retour d'information lorsque les utilisateurs perçoivent des résultats injustes ou incorrects. Répondre de manière proactive à ces problèmesles dimensions éthiques nous permettront de construire des systèmes d’IA véritablement justes et dignes de confiance. Des méthodes aux maquettes : modèles de conception XAI pratiques Connaître les concepts est une chose ; les concevoir en est une autre. Voici comment traduire ces méthodes XAI en modèles de conception intuitifs. Modèle 1 : l'énoncé « Parce que » (pour l'importance des fonctionnalités) C’est le modèle le plus simple et souvent le plus efficace. Il s’agit d’une déclaration directe et simple qui fait ressortir la principale raison de l’action d’une IA.
Heuristique : soyez direct et concis. Dirigez avec la raison la plus percutante. Évitez à tout prix le jargon.
Exemple : Imaginez un service de streaming musical. Au lieu de simplement présenter une playlist « Discover Weekly », vous ajoutez une petite ligne de microcopie. Chanson recommandée : « Velvet Morning » Parce que vous écoutez « The Fuzz » et autres rock psychédéliques.
Modèle 2 : le scénario interactif « Et si » (pour les contrefactuels) Les contrefactuels concernent intrinsèquement l’autonomisation. La meilleure façon de les représenter est de donner aux utilisateurs des outils interactifs pour explorer eux-mêmes les possibilités. C’est parfait pour les applications financières, de santé ou autres.
Heuristique : Rendre les explications interactives et responsabilisantes. Laissez les utilisateurs voir la cause et l’effet de leurs choix.
Exemple : Une interface de demande de prêt. Après un refus, au lieu d’une impasse, l’utilisateur dispose d’un outil pour déterminer comment différents scénarios (et si) pourraient se dérouler (voir Figure 1).
Modèle 3 : La bobine de surbrillance (pour les explications locales) Lorsqu’une IA effectue une action sur le contenu d’un utilisateur (comme résumer un document ou identifier des visages sur des photos), l’explication doit être visuellement liée à la source.
Heuristique : utilisez des repères visuels tels que la surbrillance, les contours ou les annotations pour connecter l'explication directement à l'élément d'interface qu'elle explique.
Exemple : un outil d'IA qui résume de longs articles.Point de résumé généré par l'IA : La recherche initiale a montré une lacune sur le marché pour les produits durables.Source dans le document : « ... Notre analyse des tendances du marché au deuxième trimestre a démontré de manière concluante qu'aucun concurrent majeur ne servait efficacement le consommateur soucieux de l'environnement, révélant une lacune importante sur le marché des produits durables... »
Modèle 4 : le visuel push-and-pull (pour les explications basées sur les valeurs) Pour des décisions plus complexes, les utilisateurs devront peut-être comprendre l’interaction des facteurs. De simples visualisations de données peuvent clarifier cela sans être accablantes.
Heuristique : utilisez des visualisations de données simples et codées par couleur (comme des graphiques à barres) pour montrer les facteurs qui ont influencé positivement et négativement une décision.
Exemple : Une IA sélectionne le profil d'un candidat pour un emploi.Pourquoi ce candidat correspond à 75 % :Facteurs qui font augmenter le score :5 ans et plus d'expérience en recherche UXMaîtrise de PythonFacteurs qui font baisser le score :Aucune expérience avec le SaaS B2B
L'apprentissage et l'utilisation de ces modèles de conception dans l'UX de votre produit d'IA contribueront à augmenter l'explicabilité. Vous pouvez également utiliser des techniques supplémentaires que je n’aborde pas en profondeur ici. Cela comprend les éléments suivants :
Explications en langage naturel : traduire les résultats techniques d’une IA en un langage humain simple et conversationnel que les non-experts peuvent facilement comprendre. Explications contextuelles : fournissant une justification pour la sortie d’une IA à un moment et à un endroit spécifiques, elle est la plus pertinente pour la tâche de l’utilisateur. Visualisations pertinentes : utiliser des tableaux, des graphiques ou des cartes thermiques pour représenter visuellement le processus de prise de décision d'une IA, rendant les données complexes intuitives et plus faciles à comprendre pour les utilisateurs.
Une note pour le front-end : la traduction de ces résultats explicables en expériences utilisateur transparentes présente également son propre ensemble de considérations techniques. Les développeurs front-end sont souvent aux prises avec la conception d'API pour récupérer efficacement les données d'explication, et les implications en termes de performances (comme la génération d'explications en temps réel pour chaque interaction utilisateur) nécessitent une planification minutieuse pour éviter la latence. Quelques exemples concrets LivraisonDefense d'UPS Capital UPS utilise l'IA pour attribuer un « score de confiance de livraison » aux adresses afin de prédire la probabilité qu'un colis soit volé. Leur logiciel DeliveryDefense analyse les données historiques sur l'emplacement, la fréquence des pertes et d'autres facteurs. Si une adresse a un score faible, le système peut rediriger le colis de manière proactive vers un point d'accès UPS sécurisé, en fournissant une explication de la décision (par exemple, « Colis redirigé vers un emplacement sécurisé en raison d'antécédents de vol »). Ce système démontre comment XAI peut être utilisé pour atténuer les risques et renforcer la confiance des clients grâce àtransparence. Véhicules autonomes Ces véhicules du futur devront utiliser efficacement XAI pour aider leurs véhicules à prendre des décisions sûres et explicables. Lorsqu’une voiture autonome freine brusquement, le système peut fournir une explication en temps réel de son action, par exemple en identifiant un piéton entrant sur la route. Ceci est non seulement crucial pour le confort et la confiance des passagers, mais constitue également une exigence réglementaire pour prouver la sécurité et la responsabilité du système d’IA. IBM Watson Health (et ses défis) Bien qu’elle soit souvent citée comme un exemple général d’IA dans le domaine de la santé, il s’agit également d’une étude de cas précieuse sur l’importance de XAI. L'échec du projet Watson for Oncology met en lumière ce qui peut mal se passer lorsque les explications ne sont pas claires, ou lorsque les données sous-jacentes sont biaisées ou non localisées. Les recommandations du système étaient parfois incompatibles avec les pratiques cliniques locales car elles étaient basées sur des directives centrées sur les États-Unis. Cela sert de mise en garde sur la nécessité d’une explicabilité robuste et sensible au contexte. Le rôle du chercheur UX : identifier et valider les explications Nos solutions de conception ne sont efficaces que si elles répondent aux bonnes questions des utilisateurs au bon moment. Une explication qui répond à une question que l’utilisateur ne se pose pas n’est que du bruit. C’est là que la recherche UX devient le tissu conjonctif essentiel d’une stratégie XAI, garantissant que nous expliquons ce qui et comment cela compte réellement pour nos utilisateurs. Le rôle du chercheur est double : premièrement, éclairer la stratégie en identifiant les domaines où des explications sont nécessaires, et deuxièmement, valider les conceptions qui fournissent ces explications. Informer la stratégie XAI (quoi expliquer) Avant de pouvoir concevoir une explication unique, nous devons comprendre le modèle mental de l’utilisateur du système d’IA. Que pensent-ils que cela fait ? Où se situent les écarts entre leur compréhension et la réalité du système ? C'est le travail fondamental d'un chercheur UX. Entretiens avec des modèles mentaux : comprendre les perceptions des utilisateurs sur les systèmes d'IA Grâce à des entretiens approfondis et semi-structurés, les praticiens UX peuvent obtenir des informations inestimables sur la façon dont les utilisateurs perçoivent et comprennent les systèmes d'IA. Ces sessions sont conçues pour encourager les utilisateurs à dessiner ou à décrire littéralement leur « modèle mental » interne de la façon dont ils pensent que l’IA fonctionne. Cela implique souvent de poser des questions ouvertes qui incitent les utilisateurs à expliquer la logique du système, ses entrées et ses sorties, ainsi que les relations entre ces éléments. Ces entretiens sont puissants car ils révèlent souvent de profondes idées fausses et hypothèses que les utilisateurs ont sur l’IA. Par exemple, un utilisateur interagissant avec un moteur de recommandation pourrait affirmer en toute confiance que le système est basé uniquement sur son historique de visualisation passé. Ils ne réalisent peut-être pas que l'algorithme intègre également une multitude d'autres facteurs, tels que l'heure de la journée à laquelle ils naviguent, les tendances actuelles sur la plate-forme ou même les habitudes de visionnage d'utilisateurs similaires. Il est extrêmement important de découvrir cet écart entre le modèle mental d’un utilisateur et la véritable logique sous-jacente de l’IA. Il nous indique précisément quelles informations spécifiques nous devons communiquer aux utilisateurs pour les aider à construire un modèle mental plus précis et plus robuste du système. Il s’agit à son tour d’une étape fondamentale pour favoriser la confiance. Lorsque les utilisateurs comprennent, même à un niveau élevé, comment une IA arrive à ses conclusions ou recommandations, ils sont plus susceptibles de faire confiance à ses résultats et de s’appuyer sur ses fonctionnalités. Cartographie du parcours de l'IA : une plongée approfondie dans la confiance et l'explicabilité des utilisateurs En cartographiant méticuleusement le parcours de l’utilisateur avec une fonctionnalité basée sur l’IA, nous obtenons des informations inestimables sur les moments précis où émergent la confusion, la frustration ou même une profonde méfiance. Cela révèle des moments critiques où le modèle mental de l’utilisateur concernant le fonctionnement de l’IA entre en conflit avec son comportement réel. Prenons l’exemple d’un service de streaming musical : la confiance de l’utilisateur s’effondre-t-elle lorsqu’une recommandation de playlist semble « aléatoire », sans aucun lien perceptible avec ses habitudes d’écoute passées ou ses préférences déclarées ? Ce caractère aléatoire perçu constitue un défi direct aux attentes de l’utilisateur en matière de curation intelligente et une violation de la promesse implicite selon laquelle l’IA comprend ses goûts. De même, dans une application de gestion de photos, les utilisateurs éprouvent-ils une grande frustration lorsqu’une fonction de marquage de photos par l’IA identifie systématiquement à tort un membre cher de leur famille ? Cette erreur est plus qu’un problème technique ; il frappe au cœur de la précision, de la personnalisation et mêmelien émotionnel. Ces points douloureux sont des signaux clairs indiquant précisément où une explication bien placée, claire et concise est nécessaire. De telles explications constituent des mécanismes de réparation cruciaux, réparant un abus de confiance qui, s’il n’est pas résolu, peut conduire à l’abandon des utilisateurs. La puissance de la cartographie du parcours de l’IA réside dans sa capacité à nous amener au-delà de la simple explication du résultat final d’un système d’IA. S’il est important de comprendre ce que l’IA a produit, cela s’avère souvent insuffisant. Au lieu de cela, ce processus nous oblige à nous concentrer sur l’explication du processus aux moments critiques. Cela signifie aborder :
Pourquoi un résultat particulier a-t-il été généré : était-ce dû à des données d'entrée spécifiques ? Une architecture modèle particulière ? Quels facteurs ont influencé la décision de l’IA : certaines fonctionnalités ont-elles été plus lourdement pondérées ? Comment l’IA est arrivée à ses conclusions : peut-on proposer une explication simplifiée et analogue de son fonctionnement interne ? Quelles hypothèses l’IA a-t-elle faites : y avait-il des compréhensions implicites de l’intention de l’utilisateur ou des données qui devaient être mises en évidence ? Quelles sont les limites de l’IA : Communiquer clairement ce que l’IA ne peut pas faire, ou là où sa précision pourrait faiblir, crée des attentes réalistes.
La cartographie du parcours IA transforme le concept abstrait de XAI en un cadre pratique et exploitable pour les praticiens UX. Cela nous permet d'aller au-delà des discussions théoriques sur l'explicabilité et d'identifier les moments exacts où la confiance des utilisateurs est en jeu, fournissant ainsi les informations nécessaires pour créer des expériences d'IA puissantes, transparentes, compréhensibles et dignes de confiance. En fin de compte, c’est grâce à la recherche que nous découvrons les inconnues. Votre équipe se demande peut-être comment expliquer pourquoi un prêt a été refusé, mais des recherches pourraient révéler que les utilisateurs sont bien plus soucieux de comprendre comment leurs données ont été utilisées en premier lieu. Sans recherche, nous devinons simplement ce que se demandent nos utilisateurs. Collaborer à la conception (comment expliquer votre IA) Une fois que la recherche a identifié ce qu’il faut expliquer, la boucle collaborative avec le design commence. Les concepteurs peuvent prototyper les modèles dont nous avons parlé plus tôt (l'énoncé « Parce que », les curseurs interactifs) et les chercheurs peuvent présenter ces conceptions aux utilisateurs pour voir si elles tiennent le coup. Tests ciblés d'utilisabilité et de compréhension : nous pouvons concevoir des études de recherche qui testent spécifiquement les composants XAI. Nous ne nous contentons pas de demander : « Est-ce facile à utiliser ? Nous demandons : « Après avoir vu cela, pouvez-vous me dire dans vos propres mots pourquoi le système a recommandé ce produit ? » ou "Montrez-moi ce que vous feriez pour voir si vous pouviez obtenir un résultat différent." L’objectif ici est de mesurer la compréhension et la faisabilité, ainsi que la convivialité. Mesurer la confiance elle-même : nous pouvons utiliser des enquêtes simples et des échelles d'évaluation avant et après la présentation d'une explication. Par exemple, nous pouvons demander à un utilisateur sur une échelle de 5 points : « Dans quelle mesure faites-vous confiance à cette recommandation ? avant de voir la déclaration « Parce que », puis demandez-leur à nouveau par la suite. Cela fournit des données quantitatives indiquant si nos explications font réellement évoluer la confiance. Ce processus crée une boucle itérative puissante. Les résultats de la recherche éclairent la conception initiale. Cette conception est ensuite testée et les nouvelles découvertes sont transmises à l’équipe de conception pour être affinées. Peut-être que la déclaration « Parce que » était trop jargonnelle, ou que le curseur « Et si » était plus déroutant que stimulant. Grâce à cette validation collaborative, nous garantissons que les explications finales sont techniquement exactes, véritablement compréhensibles, utiles et renforcent la confiance des personnes utilisant le produit. La zone d’explication de Boucle d’or Un mot d’avertissement critique : il est possible de surexpliquer. Comme dans le conte de fées, où Boucle d’or cherchait la bouillie « parfaite », le but d’une bonne explication est de fournir la bonne quantité de détails, ni trop ni trop peu. Bombarder un utilisateur avec chaque variable d'un modèle entraînera une surcharge cognitive et peut en fait diminuer la confiance. Le but n’est pas de faire de l’utilisateur un data scientist. Une solution est la divulgation progressive.
Commencez par le simple. Commencez par une déclaration concise « Parce que ». Pour la plupart des utilisateurs, cela suffira. Offrez un chemin vers le détail. Fournissez un lien clair et à faible friction comme « En savoir plus » ou « Voir comment cela a été déterminé ». Révéler la complexité. Derrière ce lien, vous pouvez proposer les curseurs interactifs, les visualisations ou une liste plus détaillée de facteurs contributifs.
Cette approche à plusieurs niveaux respecte l'attention et l'expertise des utilisateurs, en fournissant juste ce qu'il fautd'informations pour leurs besoins. Imaginons que vous utilisez un appareil domestique intelligent qui recommande un chauffage optimal en fonction de divers facteurs. Commencez par le simple : « Votre maison est actuellement chauffée à 72 degrés, ce qui est la température optimale pour les économies d'énergie et le confort. » Proposez un chemin vers les détails : en dessous, un petit lien ou un bouton : « Pourquoi 72 degrés sont-ils optimaux ? » Révélez la complexité : cliquer sur ce lien pourrait ouvrir un nouvel écran affichant :
Curseurs interactifs pour la température extérieure, l'humidité et votre niveau de confort préféré, démontrant comment ceux-ci ajustent la température recommandée. Une visualisation de la consommation d'énergie à différentes températures. Une liste de facteurs contributifs tels que « Heure de la journée », « Température extérieure actuelle », « Consommation d'énergie historique » et « Capteurs de présence ».
Il est efficace de combiner plusieurs méthodes XAI et ce modèle de zone d’explication Boucle d’or, qui prône une divulgation progressive, l’encourage implicitement. Vous pouvez commencer par une simple déclaration « Parce que » (Modèle 1) pour une compréhension immédiate, puis proposer un lien « En savoir plus » qui révèle un interactif « Et si » (Modèle 2) ou un « Visuel Push-and-Pull » (Modèle 4) pour une exploration plus approfondie. Par exemple, un système de demande de prêt pourrait initialement indiquer la principale raison du refus (importance de la fonctionnalité), puis permettre à l'utilisateur d'interagir avec un outil « Et si » pour voir comment des modifications de son revenu ou de sa dette modifieraient le résultat (contrefactuels), et enfin, fournir un graphique détaillé « Push-and-Pull » (explication basée sur la valeur) pour illustrer les contributions positives et négatives de tous les facteurs. Cette approche à plusieurs niveaux permet aux utilisateurs d'accéder au niveau de détail dont ils ont besoin, quand ils en ont besoin, évitant ainsi la surcharge cognitive tout en offrant une transparence totale. Déterminer quels outils et méthodes XAI utiliser dépend principalement d’une recherche UX approfondie. Les entretiens avec un modèle mental et la cartographie du parcours de l'IA sont cruciaux pour identifier les besoins des utilisateurs et les problèmes liés à la compréhension et à la confiance de l'IA. Les entretiens avec des modèles mentaux aident à découvrir les idées fausses des utilisateurs sur le fonctionnement de l'IA, en indiquant les domaines dans lesquels des explications fondamentales (comme l'importance des fonctionnalités ou les explications locales) sont nécessaires. La cartographie du parcours de l’IA, quant à elle, identifie les moments critiques de confusion ou de méfiance dans l’interaction de l’utilisateur avec l’IA, signalant les domaines dans lesquels des explications plus granulaires ou interactives (comme des explications contrefactuelles ou basées sur des valeurs) seraient les plus bénéfiques pour rétablir la confiance et fournir une action.
En fin de compte, la meilleure façon de choisir une technique est de laisser la recherche sur les utilisateurs guider vos décisions, en veillant à ce que les explications que vous concevez répondent directement aux questions et préoccupations réelles des utilisateurs, plutôt que de simplement proposer des détails techniques pour eux-mêmes. XAI pour les agents de raisonnement profond Certains des systèmes d’IA les plus récents, connus sous le nom d’agents de raisonnement profond, produisent une « chaîne de pensée » explicite pour chaque tâche complexe. Ils ne se contentent pas de citer des sources ; ils montrent le chemin logique, étape par étape, qu’ils ont suivi pour arriver à une conclusion. Bien que cette transparence fournisse un contexte précieux, une lecture par lecture qui s'étend sur plusieurs paragraphes peut sembler accablante pour un utilisateur qui essaie simplement d'accomplir une tâche. Les principes de XAI, en particulier la zone d’explication Boucle d’or, s’appliquent directement ici. Nous pouvons organiser le voyage, en utilisant la divulgation progressive pour montrer en premier lieu uniquement la conclusion finale et l’étape la plus importante du processus de réflexion. Les utilisateurs peuvent ensuite choisir de voir le raisonnement complet, détaillé et en plusieurs étapes lorsqu'ils ont besoin de revérifier la logique ou de trouver un fait spécifique. Cette approche respecte l’attention de l’utilisateur tout en préservant la totale transparence de l’agent. Prochaines étapes : dynamiser votre parcours XAI L’explicabilité est un pilier fondamental pour créer des produits d’IA fiables et efficaces. Pour le praticien avancé qui cherche à conduire ce changement au sein de son organisation, le voyage s’étend au-delà des modèles de conception jusqu’au plaidoyer et à l’apprentissage continu. Pour approfondir votre compréhension et votre application pratique, envisagez d'explorer des ressources telles que la boîte à outils AI Explainability 360 (AIX360) d'IBM Research ou l'outil What-If de Google, qui offrent des moyens interactifs d'explorer le comportement et les explications des modèles. S'engager avec des communautés telles que le Responsible AI Forum ou des groupes de recherche spécifiques axés sur l'IA centrée sur l'humain peut fournir des informations et des opportunités de collaboration inestimables. Enfin, défendez XAI au sein de votre propre organisation.Considérez l’explicabilité comme un investissement stratégique. Envisagez un bref argumentaire auprès de vos dirigeants ou de vos équipes interfonctionnelles : "En investissant dans XAI, nous irons au-delà de l'établissement de la confiance ; nous accélérerons l'adoption par les utilisateurs, réduirons les coûts de support en permettant aux utilisateurs de comprendre et atténuerons les risques éthiques et réglementaires importants en exposant les préjugés potentiels. Il s'agit d'une bonne conception et d'une entreprise intelligente."
Votre voix, fondée sur une compréhension pratique, est cruciale pour faire sortir l’IA de la boîte noire et la mettre en place dans un partenariat collaboratif avec les utilisateurs.