Opinion.
L’intention de l’utilisateur est censée être sacrée dans la conception de produit. Vous tapez une requête, cliquez sur un bouton, faites une sélection, et le système l’exécute. Un de nos rédacteurs nous a demandé d’examiner ce qui se passe quand ce contrat se brise, quand les grandes plateformes décident qu’elles savent mieux que vous ce que vous vouliez vraiment. Il s’avère que le problème est avéré, bien documenté, et probablement en train d’empirer.
Un test simple. Allez sur Google, mettez une expression entre guillemets, et lancez la recherche. Les guillemets, dans tout moteur de recherche depuis les années 1990, ont toujours voulu dire la même chose : trouvez exactement cette expression. Google ne le fait plus de manière fiable. Cherchez « une expression exacte » et vous obtiendrez des résultats qui ne contiennent ni l’expression ni tous les mots qui la composent. L’opérateur existe encore. Il ne fonctionne simplement pas toujours. Le Search Liaison de Google lui-même a reconnu que les recherches entre guillemets peuvent ne pas renvoyer de correspondances exactes. L’explication de l’entreprise : ses systèmes déterminent parfois que d’autres résultats sont « plus utiles. »
Relisez ça. Vous avez dit exactement à la machine ce que vous vouliez. La machine a décidé que vous aviez tort.
Le schéma du contournement de l’intention de l’utilisateur
Ce n’est pas un problème propre à Google. C’est une tendance structurelle qui émerge dès qu’une plateforme atteint une échelle et une domination de marché suffisantes pour que les utilisateurs ne puissent pratiquement plus partir. Le mécanisme est simple : une fois les coûts de migration assez élevés, la plateforme peut commencer à substituer ce qu’elle veut vous montrer à ce que vous avez demandé à voir, parce que vous n’avez nulle part où aller.
La fonction de recherche de YouTube est l’exemple le plus visible après Google lui-même. Cherchez un titre de vidéo spécifique, un créateur ou un sujet, et YouTube vous renverra quelques résultats vaguement liés suivis d’un mur de contenus recommandés par l’algorithme qui n’ont rien à voir avec votre requête. La plateforme a progressivement transformé sa barre de recherche d’un outil de recherche en une nouvelle surface de recommandation. Vous avez tapé une requête ; YouTube a entendu « montre-moi ce qui maximise le temps de visionnage. » Les utilisateurs l’ont abondamment documenté, et YouTube ne l’a pas nié. L’incitation est claire : une recherche qui renvoie exactement ce que vous vouliez peut vous envoyer vers une seule vidéo. Un algorithme qui ignore votre recherche et vous sert du contenu optimisé vous maintient en train de défiler.
X (anciennement Twitter) est allé encore plus loin. Le fil « Pour vous » est la vue par défaut, et il met agressivement en avant des contenus de comptes que vous ne suivez pas, sur des sujets pour lesquels vous n’avez exprimé aucun intérêt, avec des schémasCadres mentaux de représentations compressées et d'attentes que le cerveau utilise pour encoder, stocker et récupérer les informations. Lorsque vous vous souvenez de quelque chose, votre cerveau la reconstruit en utilisant des schémas plus tous les indices contextuels présents. d’engagement qui suggèrent une amplification algorithmiquePromotion algorithmique de contenu au-delà de sa portée organique, indépendamment de la pertinence ou de l'intention de l'utilisateur. Les plateformes l'utilisent pour maximiser les métriques d'engagement indépendamment de ce que demandent les utilisateurs. plutôt qu’une portée organique. Vous pouvez basculer sur « Abonnements », qui est censé ne montrer que les comptes que vous avez choisis, mais même ce fil n’est pas chronologique et contient des contenus injectés. La plateforme ne complète pas simplement vos choix ; elle les écrase. L’intention de l’utilisateur, dans ce modèle, est une suggestion, pas une directive.
Les résultats de recherche d’Amazon constituent un autre cas d’étude. Cherchez un produit spécifique et les premiers résultats sont fréquemment « sponsorisés », c’est-à-dire que des annonceurs ont payé pour leur placement indépendamment de leur pertinence. La première page de résultats d’Amazon pour de nombreuses requêtes est désormais largement occupée par des résultats sponsorisés. Le produit que vous avez cherché peut figurer sur la page, mais il a été relégué sous des produits qui ont payé pour y être. Les vendeurs Amazon paient désormais un montant estimé à 50 % ou plus de leurs revenus en diverses commissions de plateforme, selon Marketplace Pulse. Ces coûts sont répercutés sur les consommateurs, mais ils signifient aussi que les résultats de recherche reflètent de plus en plus les budgets publicitaires plutôt que la pertinence.
Les preuves académiques sur l’intention de l’utilisateur
Ce n’est pas simplement la frustration des utilisateurs habillée en analyse. Des chercheurs de l’Université de Leipzig et de la Bauhaus-Universität Weimar ont mené une étude d’un an portant sur 7 392 termes de recherche de comparatifs de produits sur Google, Bing et DuckDuckGo. Leurs résultats, publiés en 2024, sont sans appel : les pages mieux classées étaient en moyenne davantage optimisées pour les algorithmes de recherche, davantage monétisées via le marketing d’affiliation, et présentaient des signes d’une qualité de texte inférieure. La majorité des comparatifs de produits bien classés utilisaient le marketing d’affiliation, alors que seule une petite fraction des comparatifs sur le Web en général recourt aux liens d’affiliation. Les moteurs de recherche ne mettaient pas en avant le meilleur contenu. Ils mettaient en avant le contenu le plus optimisé, ce qui est fondamentalement différent.
L’étude a confirmé ce que les utilisateurs répétaient depuis des années : les résultats de recherche se dégradent. Pas dans un sens vague et nostalgique de « l’internet était mieux avant », mais avec un déclin mesurable et documenté dans la relation entre ce que les utilisateurs cherchent et ce qu’ils reçoivent.
Pourquoi cela se produit : la dégradation en trois phases
Le cadre d' »enshittificationUn modèle en trois phases où les plateformes attirent d'abord les utilisateurs, puis les exploitent pour les clients commerciaux, puis exploitent ces clients tout en dégradant tous les bénéficiaires antérieurs. Terme inventé par Cory Doctorow. » (dégradation progressive et délibérée des plateformes) de Cory Doctorow décrit le mécanisme avec une précision inconfortable. Les plateformes suivent un cycle de vie : d’abord, elles sont bonnes envers les utilisateurs pour construire une audience. Ensuite, elles exploitent les utilisateurs pour attirer des clients professionnels (annonceurs, vendeurs, créateurs de contenu). Enfin, elles exploitent ces clients professionnels pour extraire le maximum de valeur pour la plateforme elle-même. À chaque étape, la plateforme dégrade l’expérience du bénéficiaire précédent.
Les fondateurs de Google avaient compris ce risque dès le début. Dans leur article de Stanford de 1998, Sergey Brin et Larry Page écrivaient que « les moteurs de recherche financés par la publicité seront intrinsèquement biaisés en faveur des annonceurs et au détriment des besoins des consommateurs. » Ils décrivaient un danger hypothétique. Vingt-sept ans plus tard, ils décrivent leur propre entreprise.
Le schéma n’est pas propre à la tech. C’est un résultat standard quand une entreprise acquiert suffisamment de pouvoir de marché pour que le coût de la perte de clients devienne inférieur aux revenus générés par la dégradation de leur expérience. Les compagnies aériennes l’ont fait avec l’espacement des sièges. Les câblo-opérateurs l’ont fait avec les offres groupées. Les banques l’ont fait avec les frais de découvert. La différence avec les plateformes numériques, c’est la vitesse et l’échelle : elles peuvent ajuster la dégradation de manière algorithmique, en temps réel, pour chaque utilisateur individuellement, et mesurer exactement jusqu’où elles peuvent dégrader les choses avant que quelqu’un ne parte vraiment.
La substitution du jugement à l’intention de l’utilisateur
Ce qui rend cela particulièrement corrosif, c’est l’épistémologie implicite. Quand un moteur de recherche passe outre votre requête entre guillemets, quand une plateforme vidéo ignore vos termes de recherche, quand un réseau social remplit votre fil de contenus que vous n’avez pas demandés, la plateforme formule une affirmation : elle sait mieux que vous ce que vous voulez. Et elle a peut-être même raison, au sens étroit où ses métriques d’engagement augmentent probablement. Vous cliquez probablement sur la vidéo recommandée. Vous passez probablement plus de temps à défiler sur le fil algorithmique qu’en vue chronologique.
Mais « vous avez cliqué dessus » n’est pas la même chose que « vous le vouliez. » Les machines à sous ont d’excellentes métriques d’engagement. La question n’est pas de savoir si les plateformes peuvent capter plus d’attention en ignorant l’intention de l’utilisateur. La question est de savoir si cette attention est librement consentie ou structurellement contrainte. Quand toutes les alternatives ont été dégradées ou éliminées, quand les coûts de migration incluent des années de données, de connexions sociales et de réflexes acquis, « l’utilisateur a choisi de rester » fait beaucoup de travail rhétorique.
Ted Gioia a décrit l’état final de cette trajectoire comme une « culture de la dopamineConception de plateforme qui passe de la fourniture de contenu que les utilisateurs recherchent à la fourniture de stimuli qui déclenchent l'engagement compulsif—passif et involontaire plutôt qu'actif et intentionnel. », où les plateformes passent de la livraison de contenus recherchés par les utilisateurs à la production de stimuli qui déclenchent un engagement compulsif. La distinction est importante : chercher est actif, intentionnel, et s’arrête quand on est satisfait. L’engagement compulsif est passif, non choisi, et ne s’arrête pas parce que la satisfaction n’a jamais été l’objectif de conception. L’algorithme ne veut pas que vous trouviez ce que vous cherchez. Il veut que vous continuiez à chercher.
La suppression discrète des contrôles utilisateur
Tout aussi révélateur est ce que les plateformes suppriment. Google a progressivement abandonné les opérateurs de recherche avancée au fil des ans. L’opérateur « + », qui forçait l’inclusion d’un terme, a été supprimé en 2011 (officiellement pour libérer le symbole pour Google+, un produit qui n’existe plus). L’outil « verbatim », censé remplacer la fonctionnalité de correspondance exacte, est enterré dans l’interface et ne produit pas toujours de résultats verbatim. Les opérateurs booléens fonctionnent de manière incohérente. Le message est clair : vous n’êtes pas censé avoir un contrôle précis sur vos résultats de recherche. La précision est l’ennemie de l’engagement.
YouTube a supprimé la possibilité de trier les résultats de recherche par date pour de nombreuses requêtes. Twitter a supprimé le tri chronologique comme vue par défaut. Le fil d’actualité de Facebook n’a jamais donné aux utilisateurs un contrôle significatif sur son algorithme de classement. Instagram est passé des fils chronologiques aux fils algorithmiques en 2016, malgré l’opposition générale des utilisateurs. Dans chaque cas, l’entreprise a expliqué que le changement était ce que les utilisateurs « voulaient vraiment », ou qu’il « améliorait l’expérience », ou qu’il « mettait en avant des contenus plus pertinents. » Dans chaque cas, les utilisateurs n’avaient pas demandé ce changement et beaucoup l’ont activement contesté.
Le schéma est suffisamment cohérent pour constituer une philosophie de conception : les utilisateurs ne devraient pas pouvoir spécifier ce qu’ils veulent avec trop de précision, car l’exécution précise de l’intention de l’utilisateur est commercialement sous-optimale.
À quoi ressemblerait le respect de l’intention de l’utilisateur
Une plateforme qui respecterait l’intention de l’utilisateur ferait quelque chose de remarquablement simple : quand vous cherchez quelque chose, elle vous montre cette chose. Quand vous mettez une expression entre guillemets, elle trouve cette expression. Quand vous suivez des comptes spécifiques, elle vous montre ces comptes. Quand vous triez par date, elle trie par date. Quand vous cliquez sur « rechercher », elle recherche.
Rien de tout cela n’est techniquement difficile. Tout cela était une fonctionnalité standard il y a quinze ans. La technologie n’a pas régressé. Le modèle économique, si. Ce que les utilisateurs ont perdu, ce n’est pas la capacité, mais la priorité. Ils sont passés du statut de client à celui de produit, et quand vous êtes le produit, vos préférences sont une variable à optimiser, pas une contrainte à respecter.
La solution n’est pas la nostalgie, et elle ne viendra probablement pas des entreprises elles-mêmes. Elle viendra, si elle vient, de la réglementation (le Digital Markets Act de l’UE est un début), de la concurrence (des outils plus petits comme Kagi qui facturent directement les utilisateurs et ont donc des incitations alignées), ou des utilisateurs développant suffisamment d’irritation collective pour que les coûts de migration en valent la peine. D’ici là, les plateformes continueront à faire ce qu’elles ont toujours fait quand elles atteignent une échelle suffisante : décider qu’elles savent mieux que les personnes qu’elles servent.
Généralement, ce n’est pas le cas.



