L'IA agentique est prête à transformer l'expérience client et l'efficacité opérationnelle, ce qui nécessite une nouvelle approche stratégique de la part des dirigeants. Cette évolution de l'intelligence artificielle permet aux systèmes de planifier, d'exécuter et de persister dans les tâches, allant au-delà de simples recommandations vers une action proactive. Pour les équipes UX, les chefs de produit et les dirigeants, comprendre ce changement est crucial pour débloquer des opportunités d’innovation, rationaliser les flux de travail et redéfinir la façon dont la technologie sert les gens. Il est facile de confondre l’IA agentique avec l’automatisation des processus robotiques (RPA), une technologie axée sur les tâches basées sur des règles effectuées sur les ordinateurs. La distinction réside entre la rigidité et le raisonnement. La RPA est excellente pour suivre un script strict : si X se produit, faites Y. Elle imite les mains humaines. L'IA agentique imite le raisonnement humain. Il ne suit pas un script linéaire ; cela en crée un. Envisagez un flux de travail de recrutement. Un robot RPA peut analyser un CV et le télécharger dans une base de données. Il accomplit parfaitement une tâche répétitive. Un système Agentic examine le CV, remarque que le candidat répertorie une certification spécifique, fait des références croisées avec une nouvelle exigence du client et décide de rédiger un e-mail de sensibilisation personnalisé mettant en évidence cette correspondance. RPA exécute un plan prédéfini ; L'IA agentique formule le plan en fonction d'un objectif. Cette autonomie sépare les agents des outils prédictifs que nous avons utilisés au cours de la dernière décennie. Un autre exemple est la gestion des conflits de réunion. Un modèle prédictif intégré à votre calendrier pourra analyser votre planning de réunions et celui de vos collègues. Cela pourrait alors suggérer des conflits potentiels, comme deux réunions importantes programmées en même temps, ou une réunion programmée alors qu'un participant clé est en vacances. Il vous fournit des informations et signale les problèmes potentiels, mais il vous incombe de prendre des mesures. Une IA agentique, dans le même scénario, irait au-delà de la simple suggestion de conflits à éviter. Lorsqu'il identifie un conflit avec un participant clé, l'agent peut agir comme suit :
Vérifier la disponibilité de tous les participants nécessaires. Identifier des plages horaires alternatives qui conviennent à tout le monde. Envoi de nouvelles invitations à des réunions proposées à tous les participants. Si le conflit concerne un participant externe, l'agent peut rédiger et envoyer un e-mail expliquant la nécessité de reprogrammer et proposant des horaires alternatifs. Mise à jour de votre calendrier et des calendriers de vos collègues avec les nouveaux détails de la réunion une fois confirmés.
Cette IA agentique comprend l'objectif (résoudre le conflit de réunion), planifie les étapes (vérification de la disponibilité, recherche d'alternatives, envoi d'invitations), exécute ces étapes et persiste jusqu'à ce que le conflit soit résolu, le tout avec une intervention directe minimale de l'utilisateur. Cela démontre la différence « agent » : le système prend des mesures proactives pour l'utilisateur, plutôt que de simplement lui fournir des informations. Les systèmes d'IA agentique comprennent un objectif, planifient une série d'étapes pour l'atteindre, exécutent ces étapes et s'adaptent même si les choses tournent mal. Considérez-le comme un assistant numérique proactif. La technologie sous-jacente combine souvent des modèles de langage étendus (LLM) pour la compréhension et le raisonnement, avec des algorithmes de planification qui décomposent les tâches complexes en actions gérables. Ces agents peuvent interagir avec divers outils, API et même d'autres modèles d'IA pour atteindre leurs objectifs et, surtout, ils peuvent maintenir un état persistant, ce qui signifie qu'ils se souviennent des actions précédentes et continuent de travailler vers un objectif au fil du temps. Cela les rend fondamentalement différents de l’IA générative typique, qui répond généralement à une seule requête puis se réinitialise. Une taxonomie simple des comportements agents Nous pouvons classer le comportement des agents en quatre modes d’autonomie distincts. Bien que ceux-ci ressemblent souvent à une progression, ils fonctionnent comme des modes de fonctionnement indépendants. Un utilisateur peut faire confiance à un agent pour agir de manière autonome pour la planification, mais le conserver en « mode suggestion » pour les transactions financières. Nous avons obtenu ces niveaux en adaptant les normes industrielles pour les véhicules autonomes (niveaux SAE) aux contextes d'expérience utilisateur numérique. Observer et suggérer L'agent fonctionne comme un moniteur. Il analyse les flux de données et signale les anomalies ou les opportunités, mais ne prend aucune mesure. DifférenciationContrairement au niveau suivant, l'agent ne génère aucun plan complexe. Cela indique un problème. Exemple Un agent DevOps remarque un pic de CPU du serveur et alerte l'ingénieur de garde. Il ne sait pas comment ni tenter de résoudre le problème, mais il sait que quelque chose ne va pas. Implications pour la conception et la surveillanceÀ ce niveau,la conception et la surveillance doivent donner la priorité à des notifications claires et non intrusives et à un processus bien défini permettant aux utilisateurs de donner suite aux suggestions. L’objectif est de fournir à l’utilisateur des informations opportunes et pertinentes sans en prendre le contrôle. Les praticiens de l'UX doivent s'efforcer de formuler des suggestions claires et faciles à comprendre, tandis que les chefs de produit doivent s'assurer que le système apporte de la valeur sans surcharger l'utilisateur. Planifier et proposer L'agent identifie un objectif et génère une stratégie en plusieurs étapes pour l'atteindre. Il présente le plan complet pour l’examen humain. DifférenciationL'agent agit comme un stratège. Il ne s'exécute pas ; il attend l'approbation de l'ensemble de l'approche. ExempleLe même agent DevOps remarque le pic de CPU, analyse les journaux et propose un plan de remédiation :
Faites tourner deux instances supplémentaires. Redémarrez l'équilibreur de charge. Archivez les anciens journaux.
L'humain examine la logique et clique sur « Approuver le plan ». Implications pour la conception et la surveillancePour les agents qui planifient et proposent, la conception doit garantir que les plans proposés sont facilement compréhensibles et que les utilisateurs disposent de moyens intuitifs pour les modifier ou les rejeter. La surveillance est cruciale pour contrôler la qualité des propositions et la logique de planification de l’agent. Les praticiens de l'UX doivent concevoir des visualisations claires des plans proposés, et les chefs de produit doivent établir des flux de travail d'examen et d'approbation clairs. Agir avec confirmation L'agent termine tout le travail de préparation et place l'action finale dans un état par étapes. Il maintient efficacement la porte ouverte, en attendant un signe de tête. DifférenciationCela diffère de « Planifier et proposer » car le travail est déjà effectué et mis en scène. Cela réduit les frictions. L'utilisateur confirme le résultat, pas la stratégie. Exemple Un agent de recrutement rédige cinq invitations à un entretien, recherche les heures d'ouverture sur les calendriers et crée les événements du calendrier. Il présente un bouton « Envoyer tout ». L'utilisateur fournit l'autorisation finale pour déclencher l'action externe. Implications pour la conception et la surveillance Lorsque les agents agissent avec confirmation, la conception doit fournir des résumés transparents et concis de l'action prévue, décrivant clairement les conséquences potentielles. La surveillance doit vérifier que le processus de confirmation est robuste et qu'il n'est pas demandé aux utilisateurs d'approuver aveuglément les actions. Les praticiens de l'UX doivent concevoir des invites de confirmation claires et fournir toutes les informations nécessaires, et les chefs de produit doivent donner la priorité à une piste d'audit solide pour toutes les actions confirmées. Agir de manière autonome L'agent exécute les tâches de manière indépendante dans des limites définies. DifférenciationL'utilisateur examine l'historique des actions, pas les actions elles-mêmes. Exemple L'agent de recrutement détecte un conflit, déplace l'entretien vers un emplacement de secours, met à jour le candidat et informe le responsable du recrutement. L'humain ne voit qu'une notification : Entretien reporté à mardi. Implications pour la conception et la surveillancePour les agents autonomes, la conception doit établir des limites claires pré-approuvées et fournir des outils de surveillance robustes. La surveillance nécessite une évaluation continue des performances de l'agent dans ces limites, un besoin essentiel d'une journalisation robuste, des mécanismes de remplacement clairs et des kill switch définis par l'utilisateur pour maintenir le contrôle et la confiance de l'utilisateur. Les praticiens de l'UX doivent se concentrer sur la conception de tableaux de bord efficaces pour surveiller le comportement des agents autonomes, et les chefs de produit doivent garantir que des directives éthiques et une gouvernance claires sont en place.
Examinons une application concrète de la technologie RH pour voir ces modes en action. Envisagez un « agent de coordination des entretiens » conçu pour gérer la logistique de l’embauche.
En mode suggestion, l'agent remarque qu'un intervieweur est en double réservation. Il met en évidence le conflit sur le tableau de bord du recruteur : « Attention : Sarah est en double rendez-vous pour l'entretien de 14 heures. » En Mode Plan, l’agent analyse le calendrier de Sarah et les disponibilités du candidat. Il présente une solution : "Je recommande de déplacer l'entretien au jeudi à 10 heures. Cela nécessite de déplacer le 1:1 de Sarah avec son manager." Le recruteur revoit cette logique. En mode confirmation, l'agent rédige les emails à destination du candidat et du manager. Il remplit les invitations du calendrier. Le recruteur voit un résumé : "Prêt à reporter à jeudi. Envoyer des mises à jour ?" Le recruteur clique sur « Confirmer ». En mode autonome, l'agent gère le conflit instantanément. Il respecte une règle prédéfinie : « Toujours privilégier les entretiens avec les candidats aux entretiens 1:1 internes ». Il déplace la réunion et envoie les notifications. Le recruteur voit une entrée de journal : « Résoluconflit d’horaire pour le candidat B. »
Introduction à la recherche : que rechercher et comment Développer une IA agentique efficace nécessite une approche de recherche distincte par rapport aux logiciels traditionnels ou même à l’IA générative. La nature autonome des agents d’IA, leur capacité à prendre des décisions et leur potentiel d’action proactive nécessitent des méthodologies spécialisées pour comprendre les attentes des utilisateurs, cartographier les comportements complexes des agents et anticiper les pannes potentielles. L’introduction à la recherche suivante présente les méthodes clés pour mesurer et évaluer ces aspects uniques de l’IA agentique. Entretiens avec un modèle mental Ces entretiens révèlent les idées préconçues des utilisateurs sur le comportement d’un agent IA. Au lieu de simplement demander ce que veulent les utilisateurs, l’accent est mis sur la compréhension de leurs modèles internes des capacités et des limites de l’agent. Nous devrions éviter d’utiliser le mot « agent » avec les participants. Il transporte un bagage de science-fiction ou est un terme trop facile à confondre avec un agent humain offrant un soutien ou des services. Au lieu de cela, cadrez la discussion autour des « assistants » ou du « système ». Nous devons découvrir où les utilisateurs tracent la frontière entre une automatisation utile et un contrôle intrusif.
Méthode : demandez aux utilisateurs de décrire, dessiner ou raconter leurs interactions attendues avec l'agent dans divers scénarios hypothétiques. Questions clés (reflétant une variété d’industries) : Pour comprendre les limites de l’automatisation souhaitée et les inquiétudes potentielles liées à la surautomatisation, posez les questions suivantes : Si votre vol est annulé, que voudriez-vous que le système fasse automatiquement ? Qu’est-ce qui vous inquiéterait s’il faisait cela sans votre instruction explicite ?
Pour explorer la compréhension de l’utilisateur des processus internes de l’agent et de la communication nécessaire, demandez : Imaginez qu'un assistant numérique gère votre maison intelligente. Si un colis est livré, quelles étapes pensez-vous qu'il suivra et quelles informations vous attendriez-vous à recevoir ?
Pour découvrir les attentes concernant le contrôle et le consentement dans le cadre d'un processus en plusieurs étapes, posez les questions suivantes : Si vous demandez à votre assistant numérique de planifier une réunion, quelles étapes envisagez-vous de suivre ? À quels moments souhaiteriez-vous être consulté ou avoir des choix ?
Avantages de la méthode : révèle les hypothèses implicites, met en évidence les domaines dans lesquels le comportement prévu de l'agent pourrait diverger des attentes de l'utilisateur et éclaire la conception de contrôles et de mécanismes de rétroaction appropriés.
Cartographie du parcours des agents : Semblable à la cartographie traditionnelle du parcours utilisateur, la cartographie du parcours agent se concentre spécifiquement sur les actions anticipées et les points de décision de l’agent IA lui-même, ainsi que sur l’interaction de l’utilisateur. Cela permet d’identifier de manière proactive les pièges potentiels.
Méthode : Créez une carte visuelle qui décrit les différentes étapes du fonctionnement d'un agent, du lancement à l'achèvement, y compris toutes les actions, décisions et interactions potentielles avec des systèmes ou des utilisateurs externes. Éléments clés à cartographier : Actions de l'agent : quelles tâches ou décisions spécifiques l'agent effectue-t-il ? Informations entrées/sorties : de quelles données l'agent a-t-il besoin et quelles informations génère-t-il ou communique-t-il ? Points de décision : où l'agent fait-il ses choix et quels sont les critères de ces choix ? Points d'interaction utilisateur : où l'utilisateur fournit-il des informations, examine-t-il ou approuve-t-il des actions ? Points d'échec : il est essentiel d'identifier les cas spécifiques dans lesquels l'agent pourrait mal interpréter les instructions, prendre une décision incorrecte ou interagir avec la mauvaise entité. Exemples : destinataire incorrect (par exemple, envoi d'informations sensibles à la mauvaise personne), découvert (par exemple, un paiement automatisé dépassant les fonds disponibles), interprétation erronée de l'intention (par exemple, réservation d'un vol pour une mauvaise date en raison d'un langage ambigu).
Chemins de récupération : comment l'agent ou l'utilisateur peut-il se remettre de ces échecs ? Quels mécanismes sont en place pour la correction ou l’intervention ?
Avantages de la méthode : fournit une vue globale du flux opérationnel de l'agent, découvre les dépendances cachées et permet la conception proactive de protections, de gestion des erreurs et de points d'intervention des utilisateurs pour prévenir ou atténuer les résultats négatifs.
Tests de mauvais comportement simulés : Cette approche est conçue pour tester le système et observer les réactions des utilisateurs lorsque l'agent d'IA échoue ou s'écarte des attentes. Il s’agit de comprendre la réparation de la confiance et les réactions émotionnelles dans des situations défavorables.
Méthode : Dans des études en laboratoire contrôlé, introduisez délibérément des scénarios dans lesquels l'agent commet une erreur, interprète mal une commande ou se comporte de manière inattendue. Types de « mauvais comportements » à simuler : CommandeInterprétation erronée : l'agent effectue une action légèrement différente de celle prévue par l'utilisateur (par exemple, commander deux articles au lieu d'un). Surcharge/sous-charge d'informations : l'agent fournit trop d'informations non pertinentes ou pas assez de détails critiques. Action non sollicitée : l'agent effectue une action que l'utilisateur ne souhaitait pas ou ne s'attendait pas explicitement (par exemple, acheter des actions sans approbation). Défaillance du système : l'agent se bloque, ne répond plus ou fournit un message d'erreur. Dilemmes éthiques : l'agent prend une décision ayant des implications éthiques (par exemple, donner la priorité à une tâche plutôt qu'à une autre en fonction d'une mesure imprévue).
Objectif d'observation : Réactions des utilisateurs : Comment les utilisateurs réagissent-ils émotionnellement (frustration, colère, confusion, perte de confiance) ? Tentatives de récupération : quelles mesures les utilisateurs prennent-ils pour corriger le comportement de l'agent ou annuler ses actions ? Mécanismes de réparation de la confiance : les mécanismes de récupération ou de rétroaction intégrés au système aident-ils à restaurer la confiance ? Comment les utilisateurs souhaitent-ils être informés des erreurs ? Changement de modèle mental : le mauvais comportement modifie-t-il la compréhension par l'utilisateur des capacités ou des limites de l'agent ?
Avantages de la méthode : Crucial pour identifier les lacunes de conception liées à la récupération des erreurs, au retour d'information et au contrôle de l'utilisateur. Il fournit des informations sur la résilience des utilisateurs face aux défaillances des agents et sur ce qui est nécessaire pour maintenir ou reconstruire la confiance, conduisant ainsi à des systèmes agentiques plus robustes et plus indulgents.
En intégrant ces méthodologies de recherche, les praticiens de l'UX peuvent aller au-delà de la simple création de systèmes agentiques utilisables pour les rendre fiables, contrôlables et responsables, favorisant ainsi une relation positive et productive entre les utilisateurs et leurs agents IA. Notez que ce ne sont pas les seules méthodes pertinentes pour explorer efficacement l’IA agentique. De nombreuses autres méthodes existent, mais celles-ci sont les plus accessibles aux praticiens à court terme. J'ai déjà abordé la méthode du Magicien d'Oz, une méthode de test de concepts légèrement plus avancée, qui est également un outil précieux pour explorer les concepts d'IA agentique. Considérations éthiques dans la méthodologie de recherche Lors de la recherche sur l’IA agentique, en particulier lors de la simulation de mauvais comportements ou d’erreurs, les considérations éthiques sont essentielles à prendre en compte. Il existe de nombreuses publications axées sur la recherche éthique sur l'UX, notamment un article que j'ai écrit pour Smashing Magazine, ces lignes directrices de l'UX Design Institute et cette page de l'Inclusive Design Toolkit. Indicateurs clés pour l'IA agentique Vous aurez besoin d’un ensemble complet de mesures clés pour évaluer efficacement les performances et la fiabilité des systèmes d’IA agentique. Ces mesures fournissent des informations sur la confiance des utilisateurs, la précision du système et l'expérience utilisateur globale. En suivant ces indicateurs, les développeurs et les concepteurs peuvent identifier les domaines à améliorer et garantir que les agents d’IA fonctionnent de manière sûre et efficace. 1. Taux d'interventionPour les agents autonomes, nous mesurons le succès par le silence. Si un agent exécute une tâche et que l'utilisateur n'intervient pas ou n'annule pas l'action dans une fenêtre définie (par exemple 24 heures), nous considérons cela comme une acceptation. Nous suivons le taux d'intervention : à quelle fréquence un humain intervient-il pour arrêter ou corriger l'agent ? Un taux d’intervention élevé signale un désalignement de la confiance ou de la logique. 2. Fréquence des actions involontaires pour 1 000 tâchesCette mesure critique quantifie le nombre d'actions effectuées par l'agent IA qui n'étaient pas souhaitées ou attendues par l'utilisateur, normalisées pour 1 000 tâches terminées. Une faible fréquence d'actions involontaires signifie une IA bien alignée qui interprète avec précision l'intention de l'utilisateur et fonctionne dans des limites définies. Cette mesure est étroitement liée à la compréhension du contexte par l’IA, à sa capacité à lever l’ambiguïté des commandes et à la robustesse de ses protocoles de sécurité. 3. Taux de restauration ou d'annulation Cette métrique suit la fréquence à laquelle les utilisateurs doivent annuler ou annuler une action effectuée par l'IA. Des taux de restauration élevés suggèrent que l’IA commet des erreurs fréquentes, interprète mal les instructions ou agit d’une manière qui ne correspond pas aux attentes des utilisateurs. L’analyse des raisons de ces retours en arrière peut fournir des informations précieuses pour améliorer les algorithmes de l’IA, la compréhension des préférences des utilisateurs et sa capacité à prédire les résultats souhaitables. Pour comprendre pourquoi, vous devez mettre en œuvre une micro-enquête sur l'action d'annulation. Par exemple, lorsqu'un utilisateur annule une modification d'horaire, une simple invite peut demander : "Mauvaise heure ? Mauvaise personne ? Ou vouliez-vous simplement le faire vous-même ?" Permettre à l'utilisateur de cliquer sur l'option qui correspond le mieux à son raisonnement. 4. Délai de résolution après une erreurCette métriquemesure le temps nécessaire à un utilisateur pour corriger une erreur commise par l'IA ou au système d'IA lui-même pour se remettre d'un état erroné. Un délai de résolution court indique un processus de récupération des erreurs efficace et convivial, qui peut atténuer la frustration des utilisateurs et maintenir la productivité. Cela inclut la facilité d’identification de l’erreur, l’accessibilité des mécanismes d’annulation ou de correction et la clarté des messages d’erreur fournis par l’IA.
La collecte de ces métriques nécessite d'instrumenter votre système pour suivre les ID d'action des agents. Chaque action distincte entreprise par l'agent, comme proposer un horaire ou réserver un vol, doit générer un identifiant unique qui persiste dans les journaux. Pour mesurer le taux d’intervention, nous ne recherchons pas une réaction immédiate des utilisateurs. Nous recherchons l’absence de contre-action dans une fenêtre définie. Si un ID d'action est généré à 9h00 et qu'aucun utilisateur humain ne modifie ou n'annule cet ID spécifique avant 9h00 le lendemain, le système le marque logiquement comme Accepté. Cela nous permet de quantifier le succès en fonction du silence de l'utilisateur plutôt que de la confirmation active. Pour les taux de restauration, les décomptes bruts sont insuffisants car ils manquent de contexte. Pour capturer la raison sous-jacente, vous devez implémenter une logique d’interception sur les fonctions Annuler ou Revenir de votre application. Lorsqu'un utilisateur annule une action initiée par un agent, déclenchez une micro-enquête légère. Il peut s'agir d'un simple modal à trois options demandant à l'utilisateur de classer l'erreur comme étant factuellement incorrecte, manquant de contexte ou d'une simple préférence pour gérer la tâche manuellement. Cela combine la télémétrie quantitative avec des informations qualitatives. Il permet aux équipes d'ingénierie de faire la distinction entre un algorithme défectueux et une inadéquation des préférences de l'utilisateur. Ces mesures, lorsqu'elles sont suivies de manière cohérente et analysées de manière globale, fournissent un cadre solide pour évaluer les performances des systèmes d'IA agentique, permettant une amélioration continue du contrôle, du consentement et de la responsabilité. Concevoir contre la tromperie À mesure que les agents deviennent de plus en plus performants, nous sommes confrontés à un nouveau risque : les boues agentiques. Les boues traditionnelles créent des frictions qui rendent difficile l’annulation d’un abonnement ou la suppression d’un compte. Les boues agentiques agissent en sens inverse. Cela élimine les frictions liées à une faute, ce qui permet à un utilisateur d'accepter trop facilement une action qui profite à l'entreprise plutôt qu'à ses propres intérêts. Envisagez de faire appel à un agent pour vous aider à réserver votre voyage. Sans garde-fous clairs, le système pourrait donner la priorité à une compagnie aérienne partenaire ou à un hôtel à marge plus élevée. Il présente ce choix comme le chemin optimal. L’utilisateur, faisant confiance à l’autorité du système, accepte la recommandation sans examen minutieux. Cela crée un modèle trompeur dans lequel le système optimise les revenus sous couvert de commodité. Le risque d’une compétence faussement imaginée La tromperie ne peut pas provenir d’une intention malveillante. Cela se manifeste souvent dans l’IA sous le nom de compétence imaginée. Les grands modèles linguistiques semblent souvent faire autorité, même lorsqu'ils sont incorrects. Ils présentent une fausse confirmation de réservation ou un résumé inexact avec la même confiance qu'un fait vérifié. Les utilisateurs peuvent naturellement faire confiance à ce ton confiant. Cette inadéquation crée un écart dangereux entre les capacités du système et les attentes des utilisateurs. Nous devons concevoir spécifiquement pour combler cet écart. Si un agent ne parvient pas à terminer une tâche, l’interface doit signaler clairement cet échec. Si le système est incertain, il doit exprimer son incertitude plutôt que de la masquer avec une prose soignée. Transparence via les primitives L’antidote à la boue et aux hallucinations est la provenance. Chaque action autonome nécessite une balise de métadonnées spécifique expliquant l'origine de la décision. Les utilisateurs doivent pouvoir inspecter la chaîne logique derrière le résultat. Pour y parvenir, nous devons traduire les primitives en réponses pratiques. En génie logiciel, les primitives font référence aux unités d'information ou aux actions de base qu'un agent effectue. Pour l’ingénieur, cela ressemble à un appel API ou à une porte logique. Pour l’utilisateur, cela doit apparaître comme une explication claire. Le défi de la conception réside dans la mise en correspondance de ces étapes techniques avec des justifications lisibles par l'homme. Si un agent recommande un vol spécifique, l’utilisateur doit savoir pourquoi. L'interface ne peut pas se cacher derrière une suggestion générique. Il doit exposer la primitive sous-jacente : Logique : Moins cher_Direct_Flight ou Logique : Partner_Airline_Priority. La figure 4 illustre ce flux de traduction. Nous prenons la primitive du système brut - la logique du code réelle - et la mappons à une chaîne destinée à l'utilisateur. Par exemple, une primitive vérifiant un calendrier planifiant une réunion devient une déclaration claire : j'ai proposé un rendez-vous à 16 heures.réunion. Ce niveau de transparence garantit que les actions de l’agent semblent logiques et bénéfiques. Il permet à l'utilisateur de vérifier que l'agent a agi dans son meilleur intérêt. En exposant les primitives, nous transformons une boîte noire en boîte de verre, garantissant ainsi que les utilisateurs restent l'autorité finale sur leur propre vie numérique.
Préparer le terrain pour la conception Construire un système agentique nécessite un nouveau niveau de compréhension psychologique et comportementale. Cela nous oblige à aller au-delà des tests d’utilisabilité conventionnels et à entrer dans le domaine de la confiance, du consentement et de la responsabilité. Les méthodes de recherche dont nous avons parlé, depuis l’analyse des modèles mentaux jusqu’à la simulation de mauvais comportements et l’établissement de nouvelles mesures, fournissent une base nécessaire. Ces pratiques sont les outils essentiels pour identifier de manière proactive où un système autonome pourrait échouer et, plus important encore, comment réparer la relation utilisateur-agent en cas de panne. Le passage à l’IA agentique est une redéfinition de la relation utilisateur-système. Nous ne concevons plus des outils qui répondent simplement aux commandes ; nous concevons pour des partenaires qui agissent en notre nom. Cela modifie l'impératif de conception de l'efficacité et de la facilité d'utilisation à la transparence, à la prévisibilité et au contrôle. Lorsqu’une IA peut réserver un vol ou échanger une action sans un dernier clic, la conception de ses « rampes d’accès » et de ses « rampes de sortie » devient primordiale. Il est de notre responsabilité de garantir que les utilisateurs se sentent aux commandes, même lorsqu’ils ont passé le volant. Cette nouvelle réalité élève également le rôle du chercheur UX. Nous devenons les gardiens de la confiance des utilisateurs, travaillant en collaboration avec les ingénieurs et les chefs de produit pour définir et tester les garde-fous de l’autonomie d’un agent. Au-delà d'être des chercheurs, nous devenons des défenseurs du contrôle des utilisateurs, de la transparence et des garanties éthiques au sein du processus de développement. En traduisant les primitives en questions pratiques et en simulant les pires scénarios, nous pouvons construire des systèmes robustes, à la fois puissants et sûrs. Cet article a décrit le « quoi » et le « pourquoi » de la recherche sur l’IA agentique. Elle a montré que nos boîtes à outils traditionnelles sont insuffisantes et que nous devons adopter de nouvelles méthodologies tournées vers l’avenir. Le prochain article s’appuiera sur ces bases, en fournissant les modèles de conception et les pratiques organisationnelles spécifiques qui rendent l’utilité d’un agent transparente pour les utilisateurs, garantissant ainsi qu’ils peuvent exploiter la puissance de l’IA agentique en toute confiance et contrôle. L’avenir de l’UX consiste à rendre les systèmes fiables. Pour mieux comprendre l’IA agentique, vous pouvez explorer les ressources suivantes :
Blog Google AI sur l'IA agentique Recherches de Microsoft sur les agents IA