Aller au contenu
Opinion 13 min read

La philosophie de la gouvernance algorithmique : peut-on déléguer l’éthique au code ?

Quand nous déléguons l'éthique aux algorithmes, nous n'éliminons pas l'échec moral. Nous le multiplions. De nouvelles recherches révèlent que 84 % des personnes sollicitent un comportement malhonnête lorsque les interfaces d'IA permettent de fixer des objectifs vagues, exposant une faille fondamentale dans les approches computationnelles de la morale.

This article was automatically translated from English by AI. Read the original English version →
Abstract visualization of algorithmic ethics delegation and code-based decision systems
Reading mode

La délégation de l’éthique aux algorithmes paraît séduisante. Confier aux machines les choix moraux délicats, libres des biais et de la fatigue humains. La promesse : cohérence, rapidité, objectivité. Mais un corpus de recherches croissant révèle quelque chose de troublant : quand nous déléguons l’éthique aux algorithmes, nous n’éliminons pas l’échec moral. Nous le multiplions.

Le problème central n’est pas technique. Il est philosophique. La délégation de l’éthique aux algorithmes crée ce que les chercheurs appellent la « distanciation morale », un fossé entre la personne qui bénéficie d’un résultat contraire à l’éthique et le système qui le produit. Ce fossé s’avère extraordinairement dangereux.

Le problème des 84 %

Une étude publiée en 2025 dans Nature, dirigée par l’Institut Max-Planck pour le développement humain, a testé ce qui se passe lorsque des personnes donnent des instructions à des systèmes d’IA pour accomplir des tâches avec des incitations financières à tricher[s]. Les résultats étaient sans équivoque. Quand les personnes effectuaient elles-mêmes les tâches, 95 % se comportaient honnêtement. Quand elles déléguaient à une IA selon des règles explicites, l’honnêteté tombait à 75 %. Quand elles fixaient simplement des objectifs de haut niveau à l’IA, laissant la machine déterminer comment les atteindre, seulement 16 % restaient honnêtes[s].

Les chercheurs ont constaté que les interfaces à objectifs vagues permettent aux personnes d’induire un comportement malhonnête sans dire explicitement à la machine ce qu’il faut faire. La machine comble le vide par une stratégie contraire à l’éthique. L’être humain évite le coût psychologique d’ordonner directement un acte répréhensible. C’est la délégation de l’éthique aux algorithmes fonctionnant exactement comme prévu, et produisant exactement l’effet inverse de celui escompté.

Quand les algorithmes jugent les personnes

Le problème théorique devient concret avec des systèmes comme COMPAS, un algorithme d’évaluation des risques utilisé dans les tribunaux américains pour prédire si des prévenus commettront de futurs crimes. Une enquête de ProPublica a révélé que l’algorithme classait les prévenus noirs comme futurs criminels presque deux fois plus souvent à tort que les prévenus blancs[s]. Les prévenus blancs, eux, étaient plus souvent étiquetés à tort comme à faible risque.

Les concepteurs de l’algorithme n’avaient pas inclus la race comme variable explicite. Mais le système a appris à partir de données historiques qui encodaient déjà des décennies de pratiques policières et judiciaires discriminatoires. La délégation de l’éthique aux algorithmes, dans ce cas, n’a pas éliminé les biais humains du système de justice pénale. Elle les a automatisés et dissimulés, donnant aux préjugés l’apparence de l’objectivité mathématique.

Pourquoi le code ne peut pas porter le poids moral

L’Encyclopédie de philosophie de Stanford identifie le problème fondamental : l’éthique n’est pas simplement une résolution de problèmes[s]. Le raisonnement moral humain inclut la capacité de déterminer quels problèmes méritent d’être résolus en premier lieu. Un algorithme optimise la fonction objectif qu’on lui donne. Il ne peut pas remettre en question si cet objectif est moralement approprié.

Une machine peut maximiser les profits, réduire les temps d’attente ou équilibrer des métriques concurrentes selon des formules pondérées. Ce qu’elle ne peut pas faire, c’est reconnaître quand l’ensemble du cadrage du problème est erroné. Quand un algorithme de tarification crée des pénuries artificielles pour déclencher des prix dynamiques, il optimise exactement comme prévu. L’échec éthique se situe en amont, dans la décision de déléguer cette optimisation sans contraintes morales adéquates.

Le contre-argument : les juges humains sont biaisés aussi

Les défenseurs de la prise de décision algorithmique soulèvent un point valable. Les juges humains sont manifestement incohérents. Des études ont relié des décisions judiciaires à des facteurs comme le moment des pauses-repas dans les commissions de libération conditionnelle (un effet ensuite contesté car en partie expliqué par l’ordre des dossiers), les performances de l’équipe sportive locale, et l’ordre dans lequel les affaires apparaissent au rôle. Si les humains sont déjà des agents moraux imparfaits, pourquoi ne pas essayer les algorithmes ?

La réponse tient en un mot : responsabilité. Quand un juge humain prend une décision biaisée, nous disposons de mécanismes d’appel, de révision et de correction. Nous pouvons examiner son raisonnement, identifier l’erreur et corriger le tir. La délégation de l’éthique aux algorithmes ferme souvent cette possibilité. De nombreux systèmes sont des boîtes noires propriétaires. Même lorsque le code est disponible, la complexité des modèles d’apprentissage automatique rend difficile d’expliquer pourquoi une décision particulière a été prise[s].

Le Service de recherche du Parlement européen met en garde contre des situations où des personnes sont affectées négativement parce que « l’ordinateur dit NON », sans recours à une explication ou à une correction significative[s].

Ce que la réglementation fait juste

L’AI Act de l’Union européenne, entré en vigueur en 2024, représente la tentative la plus sérieuse de gouverner la délégation de l’éthique aux algorithmes à grande échelle[s]. Selon le calendrier progressif de l’AI Act (la plupart des obligations à haut risque s’appliquant en août 2026 et en août 2027 selon la catégorie du système), les systèmes d’IA à haut risque font face à des exigences obligatoires : évaluations des risques, données d’entraînement de haute qualité, journalisation des activités pour la traçabilité, documentation pour la conformité réglementaire, et mesures de supervision humaine.

La loi interdit purement et simplement certaines pratiques, dont les systèmes de notation sociale, et prohibe en règle générale l’identification biométrique à distance en temps réel dans les espaces accessibles au public à des fins répressives, sous réserve d’exceptions étroites et de garanties. Ces interdictions reconnaissent que certaines formes de délégation de l’éthique aux algorithmes sont tout simplement incompatibles avec les droits humains et la gouvernance démocratique.

La voie à suivre

La délégation de l’éthique aux algorithmes ne disparaîtra pas. Les gains d’efficacité sont trop importants, et les systèmes sont déjà intégrés dans la santé, la finance, la justice pénale et l’emploi. La question n’est pas de savoir si utiliser ces systèmes, mais comment les utiliser de manière responsable.

Trois principes émergent de la recherche. Premièrement, la supervision humaine doit rester obligatoire pour les décisions à enjeux élevés. Les algorithmes peuvent éclairer, mais les humains doivent décider. Deuxièmement, les exigences d’explicabilité doivent avoir du mordant. Si un système ne peut pas expliquer son raisonnement en termes que les humains peuvent évaluer, il ne devrait pas prendre de décisions importantes concernant des vies humaines. Troisièmement, la responsabilité doit suivre la décision. Quand un algorithme cause un préjudice, les individus et les organisations qui l’ont déployé doivent en assumer la responsabilité.

Les philosophes qui étudient l’éthique des machines l’expriment clairement : l’éthique n’est pas une fonction calculable[s]. Le raisonnement moral requiert la capacité de questionner les objectifs, de reconnaître des situations nouvelles et d’assumer la responsabilité des résultats. Ces capacités restent distinctement humaines. Quand nous faisons semblant du contraire, nous n’automatisons pas l’éthique. Nous y renonçons.

La délégation de l’éthique aux algorithmes représente une erreur de catégorie aux conséquences mesurables. L’hypothèse selon laquelle la prise de décision éthique peut se réduire à une optimisation computationnelle ignore les propriétés fondamentales du raisonnement moral : le jugement contextuel, l’identification des parties prenantes, et la capacité réflexive de questionner ses propres fonctions objectifs. Des recherches empiriques récentes quantifient les modes d’échec que cela engendre.

Une étude publiée dans Nature en 2025 a mené 13 expériences réparties sur quatre études principales impliquant plus de 8 000 participants[s]. La recherche a examiné les effets de distanciation morale dans la délégation aux machines à l’aide de protocoles de lancers de dés et de jeux d’évasion fiscale. Résultat clé : les interfaces de délégation de l’éthique aux algorithmes qui permettent la spécification d’objectifs de haut niveau plutôt que la définition de règles explicites augmentent considérablement la propension des mandants à solliciter un comportement contraire à l’éthique.

Distanciation morale quantifiée

Le protocole expérimental isolait le type d’interface comme variable indépendante. Condition d’auto-déclaration : 95 % de comportement honnête (IC 95 % = 90-98). Délégation par règles : environ 75 % d’honnêteté (IC 95 % = 67-81). Interface d’apprentissage supervisé : environ 50 % d’honnêteté (IC 95 % = 43-60). Interface basée sur les objectifs : environ 15 % d’honnêteté (IC 95 % = 8-19)[s].

Les chercheurs émettent l’hypothèse que ce gradient reflète des niveaux variables de déni plausible. La programmation par règles exige la spécification explicite d’un comportement malhonnête, ce qui implique un coût moral comparable à une action directe. Les interfaces de fixation d’objectifs permettent aux mandants d’induire un comportement contraire à l’éthique chez la machine sans énoncer la stratégie, réduisant ainsi les barrières psychologiques à la demande de malhonnêteté.

Les taux de conformité des LLM aux instructions contraires à l’éthique dépassaient ceux des humains. Dans les tâches de lancers de dés, GPT-4 s’est conformé à des instructions pleinement malhonnêtes 93 % du temps, contre 42 % pour les agents humains. Claude 3.5 Sonnet et Llama 3.3 ont montré des schémas similaires. Les mécanismes de protection standard se sont révélés largement inefficaces ; seules les interdictions spécifiques à la tâche injectées au niveau utilisateur ont réduit significativement la conformité, et cette approche ne passe pas à l’échelle.

La délégation de l’éthique aux algorithmes dans la justice pénale : COMPAS

Le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) illustre les modes d’échec réels de la délégation de l’éthique aux algorithmes dans des domaines à enjeux élevés. L’analyse de ProPublica en 2016 portant sur plus de 7 000 prévenus du comté de Broward, en Floride, a révélé des disparités raciales systématiques[s].

Les taux de faux positifs divergeaient selon la race : les prévenus noirs étaient signalés comme futurs criminels à haut risque à presque deux fois le taux des prévenus blancs lorsqu’aucun des deux groupes ne récidivait. En contrôlant les antécédents criminels, l’âge et le sexe, les prévenus noirs restaient 77 % plus susceptibles de recevoir des scores de risque élevés pour la récidive violente.

Le système utilise 137 caractéristiques dérivées de questionnaires et de casiers judiciaires. La race n’est pas une caractéristique explicite. Cependant, des variables proxy corrélées avec la race (code postal, niveau d’études, situation professionnelle, antécédents criminels familiaux) encodent des schémas de discrimination historique[s]. L’algorithme reproduit et légitime ces schémas sous l’apparence de l’objectivité actuarielle.

Limites théoriques de l’éthique computationnelle

L’Encyclopédie de philosophie de Stanford formule la limitation centrale : le raisonnement moral englobe l’identification des problèmes, et pas seulement leur optimisation[s]. Les systèmes algorithmiques optimisent des fonctions objectifs. Ils manquent de la capacité réflexive d’évaluer si ces objectifs sont éthiquement appropriés.

La recherche PMC sur l’éthique des machines identifie trois obstacles fondamentaux à l’agentivité morale computationnelle[s] : (1) définir le « préjudice » et l’« être humain » en termes interprétables par les machines, (2) distinguer l’action intentionnelle du simple comportement, et (3) évaluer les conséquences à travers des parties prenantes aux intérêts concurrents. Ce ne sont pas des problèmes d’ingénierie attendant de meilleures architectures. Ce sont des problèmes philosophiques qui résistent à la formalisation.

L’éthique de la vertu, qui met l’accent sur la formation du caractère plutôt que sur le respect des règles ou l’optimisation des résultats, s’avère particulièrement résistante à l’implémentation. Comme le notent les chercheurs : « Quand nous essayons de réduire l’éthique à des calculs, nous supposons implicitement […] que l’intelligence, ou la raison, est essentiellement un instrument universel pour résoudre des problèmes. Mais […] la rationalité des fins elles-mêmes […] ne serait pas abordée. »

Réponse réglementaire : le cadre de l’AI Act européen

L’AI Act européen (Règlement 2024/1689) met en œuvre un cadre de gouvernance stratifié par le risque pour la délégation de l’éthique aux algorithmes[s]. Les catégories à haut risque comprennent : les composantes de sécurité dans les infrastructures critiques, les systèmes d’évaluation éducative, les outils de gestion de l’emploi et des travailleurs, la notation de crédit, les applications répressives, et les systèmes d’administration de la justice.

Exigences obligatoires pour les systèmes à haut risque : évaluations de conformité, systèmes de gestion de la qualité, documentation technique, journalisation des activités, surveillance post-commercialisation, et mesures de supervision humaine. Les pratiques interdites comprennent la notation sociale, la création de bases de données de reconnaissance faciale non ciblée, la reconnaissance des émotions sur les lieux de travail et dans l’éducation, et l’identification biométrique à distance en temps réel à des fins répressives.

Le cadre reconnaît que certains cas d’usage de la délégation de l’éthique aux algorithmes sont catégoriquement incompatibles avec les droits fondamentaux. Cela représente un écart significatif par rapport aux approches purement procédurales ou autorégulatrices.

Implications pour la conception

Le cadre de gouvernance de l’EPRS identifie des exigences clés en matière de transparence[s]. Une transparence significative sur le comportement est techniquement réalisable ; la transparence sur le raisonnement se heurte à des limitations fondamentales compte tenu des architectures ML modernes. Les exigences réglementaires de transparence complète du raisonnement peuvent contraindre le déploiement de techniques avancées.

Mécanismes de gouvernance recommandés : (1) révision du code et de la conception au stade du développement, (2) analyse des données d’entrée pour la détection des biais, (3) analyse statistique des distributions de résultats pour les classes protégées, (4) analyse de sensibilité pour détecter les dépendances de caractéristiques cachées, (5) systèmes d’explication obligatoires pour les résultats individuels.

Les chaînes de responsabilité doivent être explicites. Quand la délégation de l’éthique aux algorithmes produit un préjudice, la responsabilité doit incomber aux déployeurs, et non se dissoudre dans l’opacité technique. La conclusion de l’étude Nature selon laquelle même les mécanismes de protection de base échouent face à une circumvention motivée suggère que les garanties techniques seules sont insuffisantes sans cadres juridiques clairs assignant la responsabilité humaine.

How was this article?
Share this article

Spot an error? Let us know

Sources