Il m’est souvent arrivé de voir une maquette non interactive projetée sur un écran, entourée de gestionnaires, de programmeurs et de clients réunis pour en discuter. Des commentaires fusent : « C’est clair », « C’est logique », « Les utilisateurs vont comprendre ». L’équipe hoche la tête. Tout semble aller pour le mieux. Pourtant, rien ne prouve que l’interface fonctionne réellement. Ce moment donne l’illusion d’un accord, et donc d’une validation. Mais ce n’en est pas une.
Discuter n’est pas valider. C’est l’une des confusions les plus pernicieuses que je rencontre dans les projets de conception. L’enthousiasme collectif, la logique apparente des enchaînements d’écrans, la maîtrise verbale de ceux qui les présentent... tout cela peut aisément masquer une réalité : les utilisateurs ne sont pas là. Ils ne touchent pas l’interface. Ils ne l’explorent pas. Ils ne font pas d’erreurs. Et surtout, personne n’observe s’ils parviennent ou non à réaliser leurs tâches.
On confond alors la carte et le territoire. Une maquette est une projection mentale. Elle permet d’imaginer. Elle peut servir à aligner les parties prenantes. Mais elle ne dit rien sur ce que vivront les utilisateurs réels en contexte réel. Sans mise en situation, sans tâche à accomplir, sans observation, aucune validation n’a eu lieu.
Dans cet article, je souhaite démontrer pourquoi il est crucial de faire la distinction entre discuter d’une interface et la valider. Je m’appuierai sur mes expériences, sur des exemples concrets, et sur des principes ergonomiques éprouvés pour rappeler qu’une bonne interface n’est pas celle qu’on trouve cohérente en réunion, mais celle qui permet à un utilisateur de réussir une tâche sans friction ni confusion.
Je développerai le propos à travers les sections suivantes :
Ce que signifie réellement « valider une interface ».
Pourquoi les discussions entre experts ne suffisent pas.
Les conséquences concrètes d’une validation illusoire.
Les bonnes pratiques de tests d’utilisabilité.
Une conclusion sur la nécessité d’une culture de la preuve.
Valider une interface, ce n’est pas juger de son esthétique. Ce n’est pas non plus affirmer qu’elle est « claire » ou « logique » simplement parce qu’aucun membre de l’équipe ne s’est opposé à sa structure. Valider une interface, c’est observer des utilisateurs en situation réelle et mesurer objectivement s’ils peuvent accomplir une tâche avec succès.
Concrètement, cela signifie mettre l’interface entre les mains d’utilisateurs représentatifs, leur donner une tâche à réaliser, puis observer ce qu’ils font, sans intervenir. L’observation peut révéler des comportements inattendus, des erreurs, des hésitations ou des stratégies de contournement. Ce ne sont pas des opinions : ce sont des faits.
Les outils à notre disposition permettent de mesurer des éléments tels que :
le taux de succès des tâches (l’utilisateur a-t-il réussi ou non?),
le temps requis pour y parvenir,
le nombre de clics ou d’étapes nécessaires,
les erreurs commises,
les verbalisations spontanées (dans le cadre de protocoles « penser à voix haute »),
les émotions exprimées (frustration, confusion, satisfaction),
et parfois même des données physiologiques (rythme cardiaque, regard, posture…).
L’idéal est de recréer un contexte réaliste. Plus le test est proche de l’usage réel, plus les résultats sont utiles. Même un test rapide avec cinq utilisateurs peut révéler des problèmes majeurs qu’aucune discussion n’aurait permis d’anticiper. Et ce, même pour des interfaces que l’on croyait « parfaitement conçues ».
La validation repose aussi sur des critères ergonomiques objectifs : cohérence, feedback, charge cognitive, contrôle utilisateur, affordance, etc. Ceux-ci permettent de structurer l’analyse et d’éviter de s’en remettre uniquement à son intuition ou à des préférences personnelles.
En somme, valider une interface, c’est s’ancrer dans l’expérience réelle de l’utilisateur, loin des suppositions. C’est accepter que la conception est une hypothèse, et que seule la confrontation au terrain permet de confirmer ou d’infirmer cette hypothèse.
Discuter d’une interface entre collègues, gestionnaires, concepteurs ou programmeurs peut être utile pour faire émerger des idées, clarifier des intentions ou aligner une équipe. Mais il est dangereux de croire que cette discussion équivaut à une validation. Les biais cognitifs, les dynamismes de groupe et la logique apparente peuvent tous créer une illusion de justesse là où il n’y a qu’un consensus fragile.
Le biais de confirmation en est un parfait exemple. Lorsqu’on conçoit une interface, on a tendance à chercher ce qui confirme nos choix, à ignorer ou minimiser les signaux contraires. Et lorsqu’un gestionnaire ou un collègue exprime une opinion similaire, cela renforce faussement notre confiance dans la solution. Ce phénomène est amplifié dans les réunions, où les voix dominantes ou charismatiques orientent inconsciemment les réactions du groupe.
Il y a aussi la pensée de groupe : ce besoin implicite d’harmonie qui pousse les membres d’une équipe à éviter les conflits. Si tout le monde semble d’accord, on préfère taire ses doutes. Ce climat peut faire émerger un faux consensus, qui donne l’illusion que l’interface est validée.
Mais le fait qu’aucune erreur ne soit détectée lors d’une discussion ne signifie pas qu’il n’y en a pas. Cela signifie seulement qu’on ne les a pas cherchées au bon endroit. Les discussions ont tendance à se concentrer sur des éléments visuels, textuels ou techniques… mais rarement sur les comportements concrets des utilisateurs. Une interface peut sembler parfaitement fluide et pourtant induire systématiquement une erreur dans la réalisation d’une tâche simple.
On pourrait aussi mentionner le biais d’expertise : plus on est familier avec une interface, plus elle nous paraît facile à utiliser. Les concepteurs eux-mêmes ne sont donc pas les bons juges de leur création. Ce sont les utilisateurs novices, distraits ou stressés qui révèlent la véritable robustesse d’un design.
Enfin, rappelons qu’une interface n’est pas seulement un objet à observer, c’est une expérience vécue, une interaction située, un moment cognitif. Ce que nous discutons, ce sont des intentions. Ce que nous devons valider, ce sont des effets.
Discuter, c’est préparer le terrain. Mais seul le test permet de voir ce que nous ne pouvions pas imaginer.
Ignorer la validation ou la confondre avec une simple discussion peut avoir des conséquences coûteuses — pas seulement en argent, mais aussi en temps, en crédibilité et en impact social.
Commençons par l’aspect économique. Une interface mal conçue, validée à tort par consensus, entraîne des corrections tardives. Or, plus une erreur de conception est détectée tard dans le cycle de développement, plus elle coûte cher à corriger. Un problème ergonomique mineur, s’il n’est pas identifié dès les maquettes, peut se transformer en coût de refonte important une fois l’interface codée, traduite, intégrée dans un système plus vaste.
Il y a aussi le risque d’échec. Certains projets numériques échouent non pas parce que la technologie est défaillante, mais parce que l’interface ne correspond pas aux besoins réels des utilisateurs. Ces derniers la rejettent, contournent le système, ou reviennent à leurs méthodes antérieures. Ce rejet, bien que silencieux, peut être fatal pour l’adoption d’un produit ou d’un service.
Les coûts humains sont également importants, surtout dans les systèmes critiques. Dans les domaines de la santé, de la sécurité, de la finance ou de l’accessibilité, une interface mal validée peut nuire directement aux personnes. Un mauvais étiquetage, une hiérarchie de l’information incohérente ou une affordance absente peuvent induire des erreurs graves : médicaments mal administrés, données mal saisies, informations mal comprises.
Et que dire des utilisateurs en situation de handicap ? Une interface qui semble claire pour un usager valide peut se révéler inutilisable avec un lecteur d’écran, un clavier ou un outil de grossissement. Si aucun test n’est fait avec ces utilisateurs, l’interface passe pour « fonctionnelle » alors qu’elle est en fait discriminatoire.
Il y a enfin l’impact sur la culture organisationnelle. En prétendant avoir « validé » une interface sans preuve, on contribue à affaiblir la crédibilité de l’ergonomie et à maintenir une culture où la preuve est accessoire. Cela nuit à long terme à l’expertise UX, à la collaboration interdisciplinaire, et à la qualité des produits.
Autrement dit, l’illusion de validation est pire que l’absence de validation : elle donne un faux sentiment de sécurité et retarde la prise de conscience des erreurs.
Lorsqu’on parle de validation véritable, on pense aussitôt aux tests d’utilisabilité. Trop souvent perçus comme complexes, coûteux ou chronophages, ils sont pourtant plus simples à mettre en œuvre qu’on ne le croit, surtout lorsqu’ils sont intégrés tôt et souvent dans le cycle de conception.
4.1. Tester tôt, tester souvent
Un test n’a pas besoin d’être parfait pour être utile. Quelques utilisateurs, une tâche claire, un prototype même rudimentaire suffisent pour détecter des problèmes majeurs. Les études montrent qu’en testant avec seulement 5 utilisateurs, on identifie environ 80 % des problèmes d’utilisabilité. Mieux vaut donc plusieurs petits tests itératifs qu’un seul test massif à la toute fin.
4.2. Observer sans guider
La base du test d’utilisabilité est l’observation. On demande à un utilisateur d’accomplir une tâche (ex. : « Inscrivez-vous au service », « Trouvez la section des paramètres », etc.), puis on le laisse faire. Ce qui importe, ce n’est pas la vitesse ou la performance, mais les obstacles rencontrés, les hésitations, les erreurs et les incompréhensions.
Utiliser la technique du « penser à voix haute » permet de mieux comprendre ce qui se passe dans la tête de l’utilisateur. On obtient ainsi un aperçu de ses attentes, de sa compréhension ou de ses confusions.
4.3. Mesurer ce qui compte
Pour qu’un test soit utile, il faut en tirer des données exploitables :
Taux de réussite de la tâche
Temps requis
Nombre d’étapes
Fréquence et gravité des erreurs
Niveau de satisfaction (questionnaires comme le SUS, par exemple)
Commentaires spontanés
Ces données permettent de justifier des décisions de design face à des parties prenantes parfois sceptiques. La preuve devient un outil de conviction.
4.4. Utiliser des critères ergonomiques
Les critères ergonomiques — tels que la cohérence, la visibilité du statut du système, la prévention des erreurs, la flexibilité, la reconnaissance plutôt que le rappel — sont des référentiels solides pour évaluer une interface au-delà de l’opinion personnelle. Ils permettent d’analyser pourquoi un utilisateur échoue ou réussit.
4.5. Intégrer les tests dans le processus
Les tests ne doivent pas être vus comme une étape isolée. Ils doivent être intégrés dans une boucle de conception itérative :
Prototype
Test rapide
Ajustements
Nouveau prototype
Nouveau test
Chaque itération affine l’interface. Et plus cette approche est normalisée, plus elle devient fluide, naturelle, et intégrée à la culture de projet.
En résumé, tester n’est pas un luxe. C’est une hygiène de conception, un réflexe essentiel pour toute équipe qui veut vraiment répondre aux besoins des utilisateurs. Et c’est infiniment plus fiable qu’une discussion, aussi cordiale et éclairée soit-elle.
Discuter, c’est nécessaire. Valider, c’est essentiel. Entre les deux, il y a un gouffre trop souvent ignoré. La maquette bien présentée, le consensus autour de la table, l’absence d’objection visible : tout cela crée l’apparence d’une interface validée. Mais ce n’est qu’une apparence. Discuter n’est pas valider.
Valider, c’est aller au-delà de l’intention. C’est confronter le design aux réalités de l’usage, avec des utilisateurs réels, dans des contextes concrets. C’est mettre à l’épreuve ce que nous croyons savoir. C’est remplacer l’opinion par l’observation, l’argument par la mesure, le confort du consensus par l’inconfort salutaire du doute.
Tout au long de cet article, j’ai voulu démontrer que la validation n’est pas un moment formel à cocher en fin de parcours, mais un principe fondamental à intégrer dès les premières idées. Sans cette rigueur, les risques sont nombreux : erreurs coûteuses, rejets silencieux, discriminations involontaires, et parfois même mise en danger d’autrui.
Mais il ne s’agit pas de culpabiliser. Il s’agit d’agir. Car les bonnes pratiques existent. Des tests simples, des itérations rapides, des critères clairs, des outils accessibles. Et surtout, une attitude : celle qui consiste à vouloir savoir, plutôt qu’à croire.
Dans un monde où l’illusion peut se propager plus vite que la réalité, adopter une culture de la preuve, c’est un acte de lucidité et de responsabilité. C’est reconnaître que nos intuitions, aussi expertes soient-elles, ne remplacent jamais ce que seul l’utilisateur peut révéler.
Alors oui, continuons à discuter. Mais sachons que ce n’est que le début du chemin.