Actualités & Analyse 18 min de lecture

La Maison-Blanche veut éliminer toutes les lois étatiques sur l’IA. Les États ripostent.

Cet article a été traduit automatiquement de l'anglais par une IA. Lire la version originale en anglais →
Audition du Congrès sur les lois étatiques sur l'IA et le débat de préemption fédérale
🎧 Écouter
Mar 30, 2026
Mode de lecture

La bataille sur la préemption fédéralePrincipe juridique par lequel la loi fédérale prévaut sur les lois étatiques contradictoires, empêchant les États de réglementer dans les domaines que le Congrès s'est réservés. de l’IA est le combat de politique technologique le plus déterminant aux États-Unis en ce moment, et la plupart des Américains n’en ont jamais entendu parler. L’administration Trump veut priver les États de leur pouvoir de réguler l’intelligence artificielle, en remplaçant des dizaines de lois étatiques par un cadre fédéral unique que ses critiques qualifient d’absence totale de régulation. Les États, soutenus par une coalition bipartisane de 36 procureurs généraux, résistent vigoureusement.

Voici ce qui se passe, pourquoi cela compte, et ce qui vient ensuite.

Ce que la préemption fédérale de l’IA signifie pour vous

Aujourd’hui, les États sont les seuls gouvernements qui protègent activement les Américains contre les risques liés à l’IA. Le Colorado dispose d’une loi obligeant les entreprises à prévenir la discrimination algorithmique dans les décisions d’embauche, de logement et de santé. La Californie a adopté des réglementations encadrant l’usage de l’IA par les employeurs dans les processus d’embauche. L’Illinois oblige les employeurs à informer leurs salariés lorsque l’IA intervient dans des décisions les concernant. Ces lois ont demandé des années de travail pour être adoptées.

La Maison-Blanche veut toutes les abroger.

Le 11 décembre 2025, le président Trump a signé un décret intitulé « Garantir un cadre de politique nationale pour l’intelligence artificielle ». Le décret soutient que les lois étatiques créent un « patchwork de 50 régimes réglementaires différents » qui menace la domination américaine dans le domaine de l’IA. Il demande aux agences fédérales d’identifier les lois étatiques sur l’IA jugées « contraignantes », de les contester en justice et de priver de financements fédéraux les États qui refusent de se conformer.

Le 20 mars 2026, la Maison-Blanche a suivi avec un cadre législatif de quatre pages demandant au Congrès de supplanter largement les lois étatiques sur l’IA tout en s’opposant à toute « responsabilité illimitée » pour les entreprises d’IA. Le cadre ne propose aucun nouvel organisme de réglementation, aucun nouveau pouvoir d’application, et aucune protection fédérale pour remplacer celles des États qu’il veut éliminer.

Le bilan jusqu’ici

L’administration a tenté trois fois de supplanter les lois étatiques sur l’IA par voie législative. Elle a échoué à chaque fois.

Premièrement, les républicains à la Chambre ont inséré un moratoire de dix ans sur la réglementation étatique de l’IA dans le projet de loi budgétaire, le « Big Beautiful Bill ». Le moratoire aurait privé les États de 500 millions de dollars de financement pour le haut débit s’ils appliquaient leurs propres lois sur l’IA. La réaction a été immédiate et bipartisane. Une coalition de 36 procureurs généraux d’États, des États très républicains comme l’Idaho et le Mississippi aux États démocrates comme la Californie et New York, a envoyé une lettre conjointe exhortant le Congrès à rejeter le moratoire. La sénatrice Marsha Blackburn, républicaine du Tennessee, qui avait initialement travaillé à un compromis avec Ted Cruz, a finalement retourné sa veste, avertissant que la disposition « pourrait permettre aux grandes entreprises technologiques de continuer à exploiter les enfants, les créateurs et les conservateurs ». Le Sénat a voté à 99 voix contre 1 pour supprimer le moratoire.

Deuxièmement, des partisans ont tenté d’insérer un langage de préemption dans la loi d’autorisation de la défense nationale fin 2025. Cette tentative a également échoué après que les divisions au sein des républicains et l’opposition bipartisane ont clairement montré qu’elle manquait de votes.

Troisièmement, le cadre de mars 2026 demande au Congrès d’adopter une législation de préemption. Les chefs républicains à la Chambre ont immédiatement soutenu la proposition. Mais tout projet de loi de ce type nécessiterait 60 votes au Sénat, ce qui implique le soutien des démocrates, et aucun démocrate n’a exprimé son soutien à une large préemption sans cadre réglementaire fédéral en place.

La campagne de pression

Dans l’incapacité d’obtenir le soutien du Congrès, l’administration utilise le pouvoir exécutif pour faire pression directement sur les États.

Le décret a créé une task force du DOJ sur le contentieux lié à l’IA, dirigée par la procureure générale Pam Bondi, dont la mission est de poursuivre les États pour leurs lois sur l’IA. La task force peut contester les lois étatiques au motif qu’elles pèsent inconstitutionnellement sur le commerce interétatique ou entrent en conflit avec les réglementations fédérales. Elle consulte le coordinateur IA de la Maison-Blanche, David Sacks, pour déterminer quelles lois cibler.

Le décret a également demandé au département du Commerce d’identifier les lois étatiques sur l’IA jugées « contraignantes » avant le 11 mars 2026, et de priver les États qui en disposent des financements pour les infrastructures haut débit. L’administration a signalé qu’elle pourrait utiliser des milliards de dollars du programme BEAD (Broadband Equity, Access, and Deployment) comme levier contre les États.

Les experts juridiques doutent que cette menace de financement survive à des contestations judiciaires. Comme l’a souligné le groupe de défense Public Knowledge, le Congrès a alloué les fonds BEAD au déploiement du haut débit, et « l’IA n’est pas mentionnée une seule fois dans la loi ».

Pourquoi les États ne cèdent pas

Les États qui s’opposent à la préemption fédérale de l’IA ne sont pas seulement des États démocrates inquiets de la déréglementation. La coalition des 36 procureurs généraux comprend des républicains de l’Idaho, de l’Indiana, du Kansas, de la Louisiane, du Mississippi, de l’Ohio, de Caroline du Sud, du Tennessee et de l’Utah. Leur argument est simple : quelqu’un doit protéger les Américains des risques liés à l’IA dès maintenant, et le Congrès ne le fait pas.

Comme l’ont écrit les procureurs généraux, les États ont déjà adopté des lois pour se protéger contre les deepfakes générés par l’IA, interdire les pratiques trompeuses ciblant les électeurs et les consommateurs, protéger les locataires contre la fixation algorithmique des loyers, et exiger des informations lorsque les gens interagissent avec une IA. Supprimer ces protections sans les remplacer au niveau fédéral laisserait les Américains sans rien.

Le sénateur Ed Markey, qui a mené l’opposition au moratoire budgétaire, l’a dit sans détour : « Ce vote à 99 contre 1 a envoyé un message clair : le Congrès ne vendra pas nos enfants et nos communautés locales pour remplir les poches des milliardaires de la Tech. »

La suite

La bataille est loin d’être terminée. Le sénateur Ted Cruz a promis que le moratoire « reviendra ». La sénatrice Blackburn a publié son propre projet de loi complet sur l’IA, le TRUMP AMERICA AI Act, le 18 mars, qui inclut certaines dispositions de préemption mais impose aussi de nouvelles obligations aux entreprises d’IA, dont un devoir de diligence et des exigences de sécurité pour les enfants.

Parallèlement, les lois étatiques sur l’IA continuent d’entrer en vigueur. La loi de l’Illinois sur la divulgation de l’IA pour les employeurs est entrée en vigueur le 1er janvier 2026. Les réglementations californiennes sur la transparence de l’IA et la discrimination à l’embauche sont désormais actives. La loi globale sur l’IA du Colorado, déjà reportée une fois sous la pression de l’industrie, est prévue pour le 30 juin 2026.

La question centrale est de savoir si le Congrès adoptera une législation fédérale sur l’IA qui protège réellement les Américains, ou si la « préemption » deviendra un synonyme de déréglementation. Comme l’a averti Brad Carson, président d’Americans for Responsible Innovation, le cadre de la Maison-Blanche offre « une nouvelle occasion aux entreprises technologiques de lancer des produits nuisibles sans aucune responsabilité ».

La bataille sur la préemption fédéralePrincipe juridique par lequel la loi fédérale prévaut sur les lois étatiques contradictoires, empêchant les États de réglementer dans les domaines que le Congrès s'est réservés. de l’IA est devenue le combat réglementaire central du 119e Congrès. L’administration Trump poursuit une stratégie multi-vecteurs pour supplanter la gouvernance étatique de l’IA : décrets orientant l’action des agences, task force contentieuse du DOJ, financements fédéraux conditionnels et recommandations législatives au Congrès. Après deux tentatives législatives échouées et un décret présidentiel, la question n’est plus de savoir si l’administration veut la préemption fédérale de l’IA, mais si elle peut l’obtenir sans offrir les protections fédérales substantielles que les deux partis ont réclamées comme condition préalable.

L’architecture de la préemption fédérale de l’IA

La campagne de préemption repose sur un décret intitulé « Garantir un cadre de politique nationale pour l’intelligence artificielle », signé le 11 décembre 2025. Le décret affirme que « les entreprises américaines d’IA doivent être libres d’innover sans réglementation contraignante » et identifie trois catégories de lois étatiques contestables : celles qui créent des charges de conformité par la fragmentation réglementaire, celles qui « obligent les entités à intégrer un biais idéologique dans les modèles » (citant nommément la loi du Colorado sur la discrimination algorithmique), et celles qui réglementent de manière inadmissible au-delà des frontières étatiques.

Le décret active simultanément quatre mécanismes institutionnels :

  • Task force contentieuse du DOJ sur l’IA (section 3) : annoncée le 9 janvier 2026 par la procureure générale Pam Bondi. Elle conteste les lois étatiques sur l’IA en vertu de la clause de commerce dormant, de la préemption fédérale et de tout autre fondement que la procureure générale juge approprié. Dirigée par des représentants de la division civile et du bureau du Solicitor General, avec autorité consultative accordée à David Sacks.
  • Évaluation du département du Commerce (section 4) : Le secrétaire au Commerce a été chargé de publier une évaluation des lois étatiques sur l’IA avant le 11 mars 2026, identifiant les lois « contraignantes » en conflit avec la politique fédérale et les transmettant à la task force.
  • Conditionnalité du financement BEAD (section 5) : Les États dont les lois sont jugées « contraignantes » sont inéligibles aux fonds non liés au déploiement dans le cadre du programme BEAD de 42 milliards de dollars. Les agences sont en outre chargées d’examiner si les subventions discrétionnaires peuvent être conditionnées au fait que les États n’adoptent pas de lois sur l’IA contraires à la politique fédérale.
  • Actions de préemption des agences (sections 6 à 7) : La FCC est chargée d’envisager l’adoption d’une norme fédérale de rapport sur l’IA qui primerait sur les lois étatiques. La FTC est chargée de publier une déclaration de politique expliquant dans quels cas les lois étatiques exigeant des « modifications des résultats véridiques des modèles d’IA » sont supplantées par la loi fédérale sur les pratiques déloyales et trompeuses.

Le 20 mars 2026, la Maison-Blanche a publié son cadre législatif, un document de quatre pages couvrant sept domaines : sécurité des enfants, effets sur les communautés, droit d’auteur, censure gouvernementale, réglementation fédérale, emploi et préemption des États. Le cadre préconise une large préemption, aucun nouvel organisme de réglementation, des normes « pilotées par l’industrie », des bacs à sable réglementaires permettant aux entreprises de demander des exemptions aux règles fédérales, et des protections contre toute « responsabilité illimitée ». Il propose explicitement que les États « ne devraient pas réguler le développement ni pénaliser les développeurs d’IA pour l’utilisation de leurs produits par des tiers ».

Le bilan législatif : trois échecs

Le bilan législatif de l’administration en matière de préemption est de 0 sur 3.

Réconciliation budgétaireProcédure parlementaire permettant à certains textes d'être adoptés au Sénat à la majorité simple plutôt qu'avec 60 voix, limitée aux mesures à impact budgétaire direct. (juillet 2025) : La commission sénatoriale du Commerce, présidée par Ted Cruz, a inséré un moratoire de dix ans sur la réglementation étatique de l’IA dans le « Big Beautiful Bill ». La disposition conditionnait 500 millions de dollars de nouveaux financements BEAD au fait que les États n’appliquent pas leurs lois sur l’IA. Après que la parlementaire du Sénat a statué que la disposition satisfaisait à la règle Byrd, Cruz et Blackburn ont négocié un compromis réduisant le moratoire à cinq ans avec des exemptions pour les lois « d’application générale ». Mais le libellé du compromis sur la « charge indue ou disproportionnée » a créé une incertitude sur les lois réellement protégées. Blackburn a retiré son soutien, qualifiant la disposition de vecteur pour « l’exploitation par les grandes entreprises technologiques ». Le Sénat a voté à 99 voix contre 1 pour supprimer le moratoire.

NDAA (décembre 2025) : Des partisans ont tenté d’insérer un langage de préemption dans la loi d’autorisation de la défense nationale pour l’exercice 2026. La disposition a été abandonnée après que les divisions au sein des républicains ont conduit le chef de la majorité à la Chambre, Steve Scalise, à reconnaître que le projet de loi sur la défense « n’était pas le meilleur endroit pour cela ». L’échec a incité Trump à signer le décret quelques jours plus tard.

Cadre législatif (mars 2026) : Le cadre de la Maison-Blanche demande au Congrès d’adopter une législation de préemption, mais tout projet de loi autonome nécessite 60 votes au Sénat. Aucun démocrate n’a approuvé une large préemption sans protections fédérales associées, et des républicains clés comme Blackburn ont conditionné leur soutien à des dispositions sur la sécurité des enfants, la protection des créateurs et la liberté d’expression conservatrice.

La coalition d’opposition

La résistance à la préemption fédérale de l’IA est inhabituellement large et bipartisane.

Trente-six procureurs généraux d’États, des États très républicains comme l’Idaho et le Mississippi aux États démocrates comme la Californie et New York, ont envoyé une lettre conjointe au Congrès le 25 novembre 2025, demandant le rejet de tout moratoire fédéral. La lettre soulignait que les États ont déjà adopté des lois contre les deepfakes générés par l’IA, la discrimination algorithmique, la tromperie des consommateurs et le ciblage des électeurs.

Le Center for American Progress a identifié des problèmes structurels dans l’approche du moratoire : des définitions du « système d’IA » rédigées si largement qu’elles pourraient couvrir pratiquement n’importe quel outil informatique, des mécanismes d’application permettant à des entités privées d’agir contre les États, et l’absence d’exemption pour le droit pénal dans la version sénatoriale, ce qui aurait bloqué les poursuites pour crimes liés à l’IA, y compris les matériaux d’abus sexuels sur enfants générés par deepfake.

La PDG du Center for Democracy and Technology, Alexandra Reeve Givens, a résumé la position de l’opposition après le vote à 99 contre 1 : « Si le Congrès n’est pas prêt à se montrer à la hauteur, il ne devrait pas empêcher les États de relever le défi. »

Préemption fédérale de l’IA et le paradoxe Blackburn

Le TRUMP AMERICA AI Act de la sénatrice Blackburn, présenté comme projet de discussion le 18 mars 2026, révèle une tension centrale dans le débat sur la préemption. Le titre complet du projet de loi, « The Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act », signale un alignementEn sécurité de l'IA, le processus garantissant que les objectifs et les comportements d'un système IA correspondent aux valeurs et intentions humaines. Un alignement insuffisant peut amener les systèmes IA à optimiser les métriques mesurables d'une manière contraire aux intérêts humains. sur le cadre dérégulateur du décret. Mais comme l’a noté l’analyse de Jones Walker, la « caractéristique la plus frappante du projet de loi est l’écart entre son objectif déclaré de déréglementation et sa densité réglementaire réelle ».

Le projet de loi impose des obligations de devoir de diligence avec pouvoir de réglementation de la FTC, plusieurs théories de responsabilité se chevauchant permettant des actions fédérales, étatiques et privées, une participation obligatoire aux programmes d’évaluation du DOE pour l’IA de frontière, des audits continus des biais pour les systèmes à haut risque, des rapports de transparence détaillés et des obligations de conception des plateformes. Il restreint également l’immunité prévue par la section 230. Ce n’est pas un cadre allégé. Les organisations qui ont investi dans la conformité aux lois étatiques, notamment au Colorado, en Californie et à New York, « feraient face à la perspective de remplacer un régime de conformité par un autre qui pourrait être tout aussi exigeant, voire plus ».

Le défi politique est que la préemption sans réglementation ne peut pas passer le Sénat, mais la préemption avec réglementation risque de ne pas satisfaire les intérêts de l’industrie ni la vision de la Maison-Blanche d’une gouvernance « à faible charge ».

Vulnérabilités juridiques

Les mécanismes d’application du décret sont confrontés à d’importants vents contraires juridiques. La conditionnalité du financement BEAD est la plus vulnérable : le Congrès a affecté les fonds BEAD au déploiement du haut débit, et l’IA n’est pas mentionnée dans la loi. Les tribunaux donneraient probablement raison aux États contestant la retenue de fonds pour le haut débit au motif de la gouvernance de l’IA, d’autant que la National Digital Inclusion Alliance a déjà intenté un procès concernant la réorientation unilatérale par l’administration de fonds connexes pour le haut débit.

La voie de préemption par la FCC est tout aussi limitée. La FCC n’a aucune autorité statutaire substantielle sur l’IA, et la commission actuelle n’a même pas invoqué son autorité Title II existante sur les services Internet. Toute tentative d’étendre la compétence de la FCC pour supplanter les lois étatiques sur l’IA ferait face à un défi juridique immédiat.

Les arguments de clause de commerce dormant de la task force du DOJ représentent une voie plus solide mais toujours incertaine. Les tribunaux ont historiquement hésité à invalider les lois étatiques traitant des préjudices locaux en vertu de la clause de commerce, et les États peuvent faire valoir que leurs lois sur l’IA traitent de la discrimination, de la protection des consommateurs et de la sécurité publique au sein de leurs frontières.

L’état des lieux

Pendant que le gouvernement fédéral débat de la préemption, les lois étatiques sur l’IA continuent de se multiplier et d’entrer en vigueur. La loi de l’Illinois sur la divulgation de l’IA pour les employeurs est entrée en vigueur le 1er janvier 2026. Les lois californiennes sur la transparence de l’IA et les réglementations FEHA sur la prise de décision automatisée sont désormais actives. La loi globale sur l’IA du Colorado, reportée au 30 juin 2026 après l’opposition de l’industrie et la pression fédérale, reste sur les rails.

Le schéma émergent ressemble aux premières réglementations d’Internet, à la protection des données et au droit de l’environnement : les États agissent en premier, le Congrès débat, et la question de la préemption fédérale devient une guerre par procuration sur la philosophie réglementaire. La différence clé est la vitesse. Comme l’a observé le Center for American Progress, il y a dix ans, il n’existait ni modèles Transformer ni grands modèles de langage. Les dirigeants de l’industrie de l’IA projettent désormais que l’intelligence artificielle généraleSystèmes d'IA avec des capacités équivalentes à l'intelligence humaine dans tous les domaines. Actuellement théorique ; les systèmes existants excellent dans des tâches spécifiques mais manquent d'adaptabilité générale. pourrait arriver dans la décennie même où un moratoire aurait exclu les États de toute législation.

La voie à suivre nécessitera probablement ce que Public Knowledge a appelé la « préemption 1:1 » : pour chaque loi étatique supplantée, une protection fédérale substantielle doit la remplacer. Savoir si le 119e Congrès peut négocier cet accord, avec une industrie poussant à la déréglementation, une administration brandissant le pouvoir exécutif et des États refusant de céder leur autorité, déterminera si les Américains auront une IA gouvernée ou une IA non gouvernée.

Qu'avez-vous pensé de cet article ?
Partager cet article

Une erreur ? Signalez-la

Sources