
Chez Wolfox, cela rejoint notre conviction la plus profonde : le design ne peut plus être une simple couche finale. Il doit être au cœur de la conception des systèmes intelligents — non seulement pour rendre l’expérience agréable, mais pour répondre à des questions de responsabilité et de compréhension des décisions automatisées.
Dans leur article, Deffains & Fluet montrent que les systèmes d’IA prennent des décisions avec une certaine probabilité d’erreur, dépendant de la qualité de conception du modèle, des données et de l’architecture .
Les régimes juridiques classiques (responsabilité pour faute, responsabilité du fait des produits, absence de responsabilité) ont tous des limites spécifiques dans ce contexte — notamment parce que :
👉 Pour les auteurs, la responsabilité objective du producteur (c’est-à-dire la mise à la charge du concepteur du système de la réparation des dommages, indépendamment de la faute) est souvent la solution la plus efficace du point de vue économique pour inciter à investir dans la sécurité et la qualité du système d’IA .
Mais qu’est-ce que cela veut dire pour un designer UX/UI ?
L’un des enseignements les plus puissants de l’article — et qui a une implication directe pour le design — est que les décisions automatisées ne sont pas neutres : elles affectent les utilisateurs, souvent sans qu’ils en comprennent les mécanismes .
Dans ce contexte :
Si un système prend des décisions qui peuvent avoir un impact sur la vie, le travail ou les droits d’un utilisateur, il ne suffit pas de cacher ces décisions dans une interface minimaliste.
Un bon design doit aider l’utilisateur à :
C’est une question de clarté, mais aussi de responsabilité sociale.
Les systèmes d’IA feront toujours des erreurs (même rares). Pour Deffains & Fluet, ce n’est pas une anomalie, c’est une conséquence statistique de toute prise de décision en incertitude .
Le rôle du design est ici essentiel :
Ce n’est pas une option esthétique : c’est une exigence pour réduire l’écart entre comportement algorithmique et attente humaine.
L’article montre que les régimes juridiques ne fonctionnent que si les utilisateurs comprennent les risques associés à une technologie — ce qui est rarement le cas avec des boîtes noires algorithmiques .
Or la méconnaissance des risques réduit la capacité des utilisateurs à prendre des décisions éclairées, à faire valoir leurs droits, ou même à refuser une décision automatique.
Un design responsable doit donc :

Le plus grand enseignement pour la pratique du design est peut-être le suivant : ce n’est plus seulement la question “est-ce que c’est utilisable ?” qui compte, mais “est-ce que c’est compréhensible et maîtrisable ?”.
Quand l’utilisateur ne comprend pas ce que fait l’IA, il ne peut pas :
Et selon Deffains & Fluet, c’est précisément cette incapacité à comprendre qui empêche les régimes classiques de responsabilité de fonctionner correctement .
L’article Algorithmes de prise de décision : responsabilité du producteur et défis de l’intelligence artificielle pose un cadre rigoureux pour penser la responsabilité en contexte algorithmique.
Mais sa logique pousse directement à une conclusion qui dépasse le droit ou l’ingénierie :
👉 le design UX/UI est un vecteur essentiel de responsabilité.
Parce qu’un système d’IA qui n’est pas compréhensible n’est pas seulement mauvais pour l’expérience, il est mauvais pour l’utilisateur, pour la confiance et pour la sécurité juridique.
Chez Wolfox, nous ne voyons plus le design comme une étape finale.
Nous le considérons comme une médiation nécessaire entre les décisions automatisées et les utilisateurs réels, car c’est là que se joue :