L’affrontement survenu en février 2026 entre la start-up Anthropic et le Département de la Défense des États-Unis marque une rupture majeure dans les relations entre l’État et l’industrie de la haute technologie. Au cœur de ce litige se trouve un contrat de 200 millions de dollars portant sur l’intégration de l’intelligence artificielle « Claude » dans des systèmes classifiés, une collaboration qui a sombré lorsque le gouvernement a exigé un accès sans aucune restriction à la technologie.
Ce conflit n’est pas une simple querelle commerciale, mais le révélateur d’une tension fondamentale entre la volonté de toute puissance d’un État au nom de l’« intérêt » de la Nation et la nécessité pour les entreprises de fixer des limites éthiques et juridiques à des outils dont la puissance pourrait, dans certains cas, saper les valeurs démocratiques qu’ils sont censés défendre.
L’impasse contractuelle : un conflit de doctrines fondamentales
La genèse de la crise repose sur une divergence doctrinale profonde concernant la maîtrise de l’outil technologique. D’un côté, l’administration Trump, par la voix de son secrétaire à la Défense Pete Hegseth, a soutenu qu’un contractant privé ne saurait dicter à l’armée les modalités d’utilisation d’un outil légalement acquis.
Pour le Pentagone, l’IA doit pouvoir être utilisée pour « toutes les fins licites », une exigence qualifiée de bon sens pour éviter de mettre en péril les opérations militaires et la vie des soldats. À l’inverse, Anthropic a argué que la nature même de l’IA, perçue non comme un simple logiciel mais comme une entité dotée d’une capacité de raisonnement sophistiquée, exige des garde-fous spécifiques que le droit actuel ne prévoit pas encore de manière adéquate. Cette opposition a cristallisé le débat sur la capacité de l’État à réquisitionner l’innovation privée au nom de la sécurité nationale face au droit de l’entreprise à préserver son intégrité éthique.
Les limites de la fiabilité technique
L’un des piliers de la position d’Anthropic, défendue par son P-DG Dario Amodei, est que les modèles d’IA actuels souffrent de limites techniques intrinsèques les rendant inaptes à certaines missions critiques. L’entreprise a souligné que ses systèmes ne sont pas encore assez fiables pour se voir confier des décisions létales sans une supervision humaine de dernier ressort.
Contrairement à des troupes humaines hautement qualifiées, l’IA ne possède pas le discernement nécessaire pour opérer dans le cadre d’armes totalement autonomes sans risquer de causer des dommages collatéraux imprévisibles pour les civils et les militaires eux-mêmes. Juridiquement, cette position suggère que le déploiement de l’IA dans ces contextes constituerait une faute de sécurité technique avant même d’être une faute morale, justifiant ainsi le refus de l’entreprise de fournir un produit qui mettrait sciemment des vies en danger.
L’établissement de bornes éthiques face aux injonctions de l’État
Pour se protéger contre d’éventuels usages abusifs, les entreprises doivent impérativement définir des lignes rouges contractuelles claires. Dans le cas d’Anthropic, deux domaines d’exclusion ont été identifiés comme non négociables : la surveillance de masse intérieure des citoyens américains et le déploiement d’armes létales entièrement autonomes.
Ces bornes visent à empêcher que l’IA ne devienne un instrument de violation des libertés fondamentales ou un acteur de guerre incontrôlé. La complexité de ces négociations a été illustrée par la demande du Pentagone d’utiliser Claude pour analyser des données de masse non classifiées, telles que la géolocalisation et les données de navigation web des citoyens. En exigeant une promesse légalement contraignante de ne pas utiliser sa technologie à ces fins, Anthropic a affirmé un rôle de gardien des droits civiques, refusant de se contenter de simples assurances verbales du gouvernement.
La résilience de l’entreprise face à la politisation et aux sanctions
La réaction de l’administration Trump face à cette résistance a été d’une violence inédite, transformant un différend technique en une bataille politique frontale. Le président Trump a qualifié Anthropic d’entreprise de « gauche radicale » et de « woke », l’accusant de vouloir contrôler personnellement l’armée américaine.
Cette politisation a abouti à une sanction historique : la désignation d’Anthropic comme un « risque pour la chaîne d’approvisionnement », une étiquette juridique habituellement réservée aux entreprises étrangères hostiles comme celles basées en Chine ou en Russie. Cette mesure vise à couper l’entreprise de toute collaboration avec le gouvernement fédéral et ses partenaires.
Face à cette intimidation, Anthropic a choisi la voie judiciaire, dénonçant une décision infondée et un précédent dangereux pour toute entreprise américaine négociant avec l’État. Cette capacité à tenir tête aux injonctions politiques, même au prix de contrats lucratifs, définit un nouveau modèle de courage managérial dans le secteur technologique. Un modèle à suivre.
Le rôle de la cohésion interne et de la pression des talents
La force d’une entreprise face aux pressions politiques réside également dans le soutien de sa base sociale. Les employés d’Anthropic ont ouvertement soutenu leurs dirigeants dans ce bras de fer avec le Département de la Défense. Ce mouvement a dépassé les frontières de l’entreprise, puisque des centaines d’employés d’entreprises concurrentes tels que Google et OpenAI ont signé des pétitions pour exhorter leurs propres directions à ne pas céder aux exigences du Pentagone.
Cette dynamique souligne que, dans l’économie de l’IA, le talent est une ressource plus précieuse que les contrats gouvernementaux. Les entreprises qui sacrifient leur éthique risquent une fuite massive de leurs ingénieurs vers des concurrents plus vertueux, ce qui constitue une limite naturelle et puissante aux compromis excessifs avec le pouvoir politique.
Une concurrence divergente : l’exemple du compromis d’OpenAI
Le conflit a également mis en lumière les différentes stratégies adoptées par les géants de la tech. Alors qu’Anthropic maintenait une position de principe, OpenAI a conclu un accord avec le Pentagone juste après l’expiration de l’ultimatum imposé à sa rivale. Sam Altman, le président d’OpenAI, a justifié ce choix en affirmant que les entreprises privées ne doivent pas dicter la politique du gouvernement, tout en assurant avoir intégré des « garanties techniques » internes pour prévenir les abus.
Cette approche, qui privilégie la collaboration tout en tentant de garder un contrôle technologique, pose la question de l’efficacité réelle de garde-fous purement techniques face à une volonté politique déterminée à utiliser l’IA pour toutes les « fins légales » définies unilatéralement par l’État.
Responsabilité humaine, transparence technique et droits fondamentaux
En conclusion, l’affaire Anthropic démontre que les règles régissant l’IA ne peuvent plus être laissées au seul arbitraire de l’État et des contrats commerciaux classiques. Un nouveau cadre de gouvernance doit impérativement s’articuler autour de trois piliers fondamentaux.
Premièrement, le principe de responsabilité humaine doit être sanctuarisé : aucune décision létale ou de surveillance massive ne devrait être automatisée sans un contrôle humain effectif et éclairé, afin d’éviter les risques d’escalade incontrôlée.
Deuxièmement, la transparence technique doit devenir une norme juridique, permettant aux entreprises de conserver un droit d’alerte sur la fiabilité de leurs modèles pour des usages spécifiques.
Enfin, la protection des droits fondamentaux doit être inscrite explicitement dans les contrats de défense, excluant formellement l’usage de l’IA commerciale pour la surveillance des citoyens. Seule une telle structure de règles, respectée par les entreprises et protégée par les tribunaux contre l’arbitraire politique, pourra garantir que l’intelligence artificielle demeure un outil au service de la démocratie et non un instrument de sa disparition.
Alexandre Duval-Stalla
Olivier Dion - Alexandre Duval-Stalla
Alexandre Duval-Stalla est avocat au barreau de Paris et écrivain. Ancien secrétaire de la Conférence du barreau de Paris (2005) et ancien membre de la commission nationale consultative des droits de l’homme, il est le président fondateur de l’association Lire pour en sortir, qui promeut la réinsertion par la lecture des personnes détenues, et du prix littéraire André Malraux.
Pour télécharger ce document, vous devez d'abord acheter l'article correspondant.
