Dix États membres de l’UE, dont la France, l’Espagne et les Pays-Bas, ont officiellement rejeté en avril 2026 la proposition allemande de sortir l’IA industrielle du cadre principal de l’AI Act. Cette lettre commune suffit à bloquer toute adoption à la majorité qualifiée au Conseil. Décryptage d’un bras de fer européen majeur, à trois mois de l’entrée en vigueur complète du règlement.
Qui s’oppose et pourquoi
La coalition réunit l’Autriche, le Danemark, les Pays-Bas, la Slovaquie, la Slovénie, l’Espagne, la Grèce, le Portugal, la Roumanie et la Lettonie. Tous estiment que retirer l’IA industrielle du règlement créerait une zone grise dangereuse, notamment pour la sûreté au travail et la défense.
L’Allemagne, soutenue par certains industriels, soutenait le contraire : laisser l’IA industrielle sous des normes sectorielles existantes (machines, sécurité produit) sans surcouche AI Act.
Calendrier serré : août 2026
L’enjeu est temporel. À partir du 2 août 2026, l’application complète de l’AI Act entre en vigueur. Tous les systèmes d’IA utilisés en recrutement, allocation de tâches et monitoring de performance sont classés « haut risque ».
Cela impose : évaluations de risque, documentation technique, tests de biais, supervision humaine et obligations de transparence. Les amendes peuvent atteindre 7% du chiffre d’affaires mondial.
La position française
La France a soutenu la lettre tout en plaidant pour des allègements ciblés. Le ministre du Numérique a indiqué que la priorité est de simplifier les obligations administratives pour les startups, pas de retirer des secteurs entiers du cadre.
Cette position est compatible avec la stratégie de Mistral et des champions français : un cadre stable, prévisible, mais pas une dérégulation totale qui jouerait en faveur des géants américains.
Société civile mobilisée
ARTICLE 19 et 40 organisations de défense des droits ont écrit au Parlement européen pour s’opposer à l’AI Omnibus, la proposition qui affaiblirait certaines obligations. Leur crainte : les dispositions sur la biométrie et la surveillance de masse soient diluées.
Dans le même temps, des plaintes pour discrimination algorithmique se multiplient. Le procès Mobley aux États-Unis (Workday) est suivi de près à Bruxelles.
❓ Questions fréquentes
L’AI Act s’applique-t-il aux startups françaises ?
Oui, sans exception. Toutefois, les obligations sont proportionnées au risque : un chatbot grand public n’a pas les mêmes contraintes qu’un système de scoring de crédit ou de sélection RH. Les startups doivent classer leurs systèmes (interdit, haut risque, risque limité, minimal).
Quelles sanctions en cas de non-conformité ?
Les amendes peuvent atteindre 35M€ ou 7% du CA mondial pour les pratiques interdites, 15M€ ou 3% pour les manquements sur les systèmes haut risque. Plusieurs autorités nationales (CNIL en France) seront chargées du contrôle.
Comment se préparer concrètement ?
Trois actions : 1) inventaire des systèmes IA déployés et de leur classification, 2) documentation technique (data sheets, model cards) à jour, 3) processus de monitoring et d’incidents. Les guides ENISA et CNIL offrent des templates gratuits.