Skip to main content
Design

Designing for AI Agents: The New UX Discipline of Agentic Experience Design

iHux Team
9 min read

Nous avons passé des décennies à perfectionner la conception d'outils — des interfaces où les utilisateurs cliquent, tapent, déplacent et contrôlent. Chaque pixel existe pour aider un humain à accomplir une tâche. Mais que se passe-t-il quand l'utilisateur n'est pas celui qui effectue la tâche ? Que se passe-t-il quand un agent IA agit en son nom, prend des décisions, appelle des API et produit des résultats — parfois sans que l'utilisateur ne regarde même ?

C'est le défi de conception de l'ère agentive, et il demande une toute nouvelle discipline UX. Nous l'appelons Agentic Experience Design (AXD) — la pratique de concevoir des interfaces, des interactions et une architecture de l'information pour des systèmes où les agents IA sont les acteurs principaux et les humains sont des superviseurs, des collaborateurs ou des bénéficiaires.

Pourquoi les modèles UX traditionnels s'effondrent

L'UX traditionnel repose sur une hypothèse fondamentale : l'utilisateur a le contrôle. Il initie les actions, il voit les résultats, il décide ce qui se passe ensuite. Toute la discipline — de l'architecture de l'information à la conception des interactions aux tests d'utilisabilité — suppose un conducteur humain.

Les systèmes agentifs inversent cela. L'IA initie les actions. L'IA décide ce qui se passe ensuite. Le rôle de l'utilisateur passe de conducteur à superviseur — et nos interfaces doivent évoluer en conséquence. Une interface de gestion des tâches traditionnelle vous montre une liste de choses à faire. Une interface de gestion des tâches agentive vous montre ce qui est en cours de réalisation, quelles décisions ont été prises et où votre contribution est nécessaire.

Ce changement casse plusieurs modèles UX profondément ancrés. Les indicateurs de progression conçus pour des processus déterministes ne fonctionnent pas pour les agents qui pourraient prendre 3 étapes ou 30. La fonctionnalité d'annulation est inutile quand un agent a déjà envoyé un e-mail ou mis à jour une base de données. Les boîtes de dialogue de confirmation deviennent des gardiens critiques plutôt qu'une friction mineure. Toute la boucle de rétroaction entre l'action de l'utilisateur et la réponse du système doit être repensée.

Les trois piliers de l'Agentic Experience Design

Après avoir conçu des interfaces pour plusieurs produits alimentés par des agents chez iHux, nous avons identifié trois piliers sur lesquels chaque expérience agentive doit être construite : confiance, transparence et contrôle.

Pilier 1 : Confiance par la prévisibilité

Les utilisateurs ne font pas confiance aux agents IA par défaut — ils leur font confiance par des expériences positives répétées. Votre conception doit accélérer ce processus de construction de confiance tout en se protégeant contre les violations catastrophiques de confiance.

Avant : Un assistant IA traditionnel reçoit une demande comme « planifier une réunion avec l'équipe de conception » et envoie immédiatement des invitations de calendrier. Si elle choisit le mauvais horaire ou identifie mal les membres de l'équipe, la confiance est brisée instantanément.

Après : Une expérience agentive montre son plan avant l'exécution : « Je vais vérifier les calendriers de Sarah, James et Lin, trouver un créneau de 30 minutes cette semaine et rédiger une invitation. Vous voulez que je procède ? » Le raisonnement de l'agent est visible. L'utilisateur peut corriger la trajectoire avant que toute action soit entreprise. La confiance se construit par la compétence démontrée, pas par la foi aveugle.

Modèle de conception : Autonomie progressive. Commencez par l'agent qui propose et l'utilisateur qui approuve. À mesure que l'agent démontre sa fiabilité dans un domaine de tâche spécifique, passez progressivement à l'agent qui agit et l'utilisateur qui est notifié. Ne sautez jamais directement à l'autonomie complète.

Pilier 2 : Transparence par l'explicabilité

Quand un agent prend une décision, les utilisateurs doivent comprendre pourquoi — pas en termes techniques, mais en termes qui se rapportent à leurs objectifs et valeurs. C'est la conception de l'IA explicable, et elle est différente de la recherche en IA explicable. Les chercheurs se soucient de l'interprétabilité mathématique. Les concepteurs se soucient de la compréhension humaine.

La conception d'explication efficace fonctionne à plusieurs niveaux de détail. Le niveau de surface montre ce que l'agent a fait (« Reprogrammé votre vol au départ à 15h »). Le niveau du raisonnement montre pourquoi (« Le vol de 13h a une correspondance de 40 minutes à Denver, ce qui est inférieur à votre temps de correspondance minimum préféré »). Le niveau de preuve montre les données derrière le raisonnement (« Les données historiques montrent que 23 % des correspondances à Denver de moins de 50 minutes entraînent des correspondances manquées »).

La plupart des utilisateurs n'auront besoin que du niveau de surface la plupart du temps. Mais les niveaux plus profonds doivent être accessibles — ce sont eux qui transforment une décision IA opaque en une décision transparente et digne de confiance. Pensez-y comme un message d'erreur bien conçu : le résumé est immédiatement visible, les détails sont à un clic.

Pilier 3 : Contrôle par les limites

Les utilisateurs doivent toujours se sentir — et être — en contrôle de ce que les agents peuvent faire. Cela signifie concevoir des limites claires qui sont à la fois visibles et ajustables.

Les limites de permission définissent ce que l'agent est autorisé à faire. Peut-il envoyer des e-mails ? Accéder à des données financières ? Effectuer des achats ? Ces permissions doivent être granulaires, clairement présentées et facilement modifiables. Pensez-y comme un système de contrôle d'accès basé sur les rôles, mais conçu pour que les utilisateurs non techniques le comprennent et le gèrent.

Les limites de portée définissent l'étendue des actions de l'agent. « Réserver un vol » pourrait signifier « trouver des options et les présenter » ou « trouver l'option la moins chère et la réserver ». Les utilisateurs doivent définir et ajuster ces portées de manière intuitive. Nous avons découvert qu'une métaphore de curseur fonctionne bien — de « suggérer seulement » en passant par « agir avec confirmation » à « agir indépendamment » — donnant aux utilisateurs une sensation tangible de l'autonomie de l'agent.

Concevoir des interfaces adaptatives pour les systèmes agentifs

L'un des défis de conception les plus intéressants dans AXD est que l'interface elle-même doit être adaptive. Les applications traditionnelles ont des mises en page fixes — un tableau de bord ressemble toujours à un tableau de bord. Mais une interface agentive doit se remodeler en fonction de ce que fait l'agent.

Quand l'agent est inactif, l'interface met l'accent sur l'entrée — ce qui facilite pour les utilisateurs de décrire les objectifs et de définir les paramètres. Quand l'agent travaille, l'interface se déplace vers la progression et la surveillance — montrant ce qui se passe et offrant des points d'intervention. Quand l'agent a terminé sa tâche, l'interface se transforme en surface d'examen et d'approbation — présentant les résultats avec le contexte complet et des options claires d'acceptation/rejet/modification.

Ce n'est pas seulement un défi visuel — c'est un problème d'architecture de l'information. Les mêmes données doivent être présentées différemment selon l'état de l'agent. Une liste d'options de vol signifie quelque chose de différent quand l'agent recherche toujours (résultats partiels, plus à venir) par rapport à quand c'est terminé (résultats complets, prêt pour la sélection) par rapport à quand il agit (réservé celui-ci, voici pourquoi).

Modèles de conception concrets pour AXD

Voici des modèles spécifiques et implémentables que nous avons validés en production.

  • Le modèle de réflexion à haute voix : Diffusez en direct le processus de raisonnement de l'agent, comme un flux de travail narré. Les utilisateurs voient « Vérification de la disponibilité du calendrier... » puis « Trouvé 3 créneaux libres... » puis « Comparaison avec les préférences de l'équipe... » Cela transforme une boîte noire en un processus transparent.
  • Le modèle de point de contrôle : À des points de décision critiques, l'agent s'arrête et présente son action proposée avec des alternatives. « Je suis sur le point d'envoyer cet e-mail à 50 destinataires. Voici le contenu. Approuver, modifier ou annuler ? » Les points de contrôle doivent être placés avant les actions irréversibles et les décisions à fort impact.
  • Le modèle de journal d'audit : Chaque action que l'agent entreprend est enregistrée dans une chronologie conviviale. Pas un journal technique — un récit de ce qui s'est passé, quand et pourquoi. Les utilisateurs peuvent l'examiner à tout moment, et il sert à la fois de responsabilité et de matériel d'apprentissage pour comprendre le comportement de l'agent.
  • Le modèle de signal de confiance : Les agents doivent communiquer visuellement leur niveau de confiance. Les actions à haute confiance se déroulent sans heurts. Les actions à faible confiance sont signalées par des indicateurs visuels et nécessitent une contribution de l'utilisateur. Cela enseigne aux utilisateurs quand faire confiance à l'agent et quand être plus vigilant.

L'avenir de l'AXD

L'Agentic Experience Design en est à ses débuts, tout comme l'UX mobile en 2008. Nous établissons les modèles fondamentaux qui évolueront au cours de la prochaine décennie. Les concepteurs qui investiront dans la compréhension de cette discipline maintenant façonneront la façon dont les humains et les agents IA travaillent ensemble pendant des années à venir.

L'idée clé est celle-ci : concevoir pour les agents ne consiste pas à rendre l'IA conviviale ou à cacher sa complexité derrière une interface de chat. Il s'agit de créer des systèmes de confiance, de transparence et de contrôle qui permettent aux humains et aux agents IA de collaborer efficacement. Les meilleures interfaces agentives ne donneront pas l'impression de parler à un robot — elles donneront l'impression de travailler avec un collègue compétent qui vous tient informé, respecte votre autorité et s'améliore à anticiper vos besoins au fil du temps.

Chez iHux, nous intégrons ces principes AXD dans chaque produit IA que nous construisons. Parce que les entreprises qui maîtrisent l'UX agentif n'auront pas seulement de meilleurs produits — elles auront des produits que les utilisateurs font vraiment confiance assez pour utiliser.

iHux Team

Engineering & Design