Anthropic, le créateur de l’assistant Claude, vient d’attaquer le Département de la Défense américain en justice. Le motif : avoir été blacklisté comme « risque supply chain » (risque pour la chaîne d’approvisionnement) pour avoir refusé de laisser l’armée utiliser son IA sans garde-fous. Une affaire qui dépasse largement le cadre commercial.
Le contexte : un contrat qui tourne mal
Tout commence avec une renégociation contractuelle. Selon Tom’s Hardware, le Pentagone voulait un accès « sans restriction » à Claude pour « tout usage légal ». Anthropic a posé deux conditions non négociables.
Première condition : interdiction d’utiliser Claude pour des armes létales entièrement autonomes, sans supervision humaine. Deuxième condition : interdiction de l’utiliser pour la surveillance de masse des citoyens américains.
Le Pentagone a refusé ces limites. Sa position, selon Tom’s Hardware : une entreprise privée ne peut pas dicter comment le gouvernement utilise la technologie dans des scénarios de sécurité nationale.
Les négociations ont échoué fin février. Le secrétaire à la Défense Pete Hegseth a formellement émis la désignation « supply chain risk » le 27 février, via un post sur X. Anthropic en a été officiellement notifié le 4 mars, date à laquelle l’entreprise a reçu la lettre formelle du Département de la Défense — confirmé par le blog officiel d’Anthropic.
La désignation : une arme juridique habituellement réservée aux étrangers
C’est là que l’affaire devient franchement bizarre. La loi sur les risques liés à la chaîne d’approvisionnement a été conçue pour cibler des entreprises étrangères considérées comme des menaces. Huawei, par exemple. Jamais une entreprise américaine n’avait reçu ce label, selon Clubic et Next.
Les conséquences sont lourdes. Selon The Verge, la désignation ne bloque pas seulement Anthropic sur les contrats militaires. Elle blackliste aussi tous les sous-traitants et partenaires qui utilisent des produits Anthropic dans leurs travaux pour le Pentagone. Ils doivent choisir : virer Claude ou perdre leurs contrats.
Jessica Tillipman, doyenne adjointe à la faculté de droit de George Washington University, est citée par Clubic via The New York Times : « Ils transforment ce qui est conçu comme un outil de sécurité nationale en levier commercial. »
Le même jour que la désignation officielle (27 février), Donald Trump a ordonné via Truth Social à toutes les administrations fédérales de cesser d’utiliser les technologies Anthropic « immédiatement ». La période de transition de six mois, elle, est prévue dans la désignation formelle de Hegseth, pas dans le post Truth Social.

Deux procédures, un argument constitutionnel
Anthropic a saisi deux juridictions simultanément. Le tribunal fédéral du district nord de Californie, d’une part. La Cour d’appel du circuit de Washington D.C., d’autre part. Selon Clubic et Tom’s Hardware, les deux plaintes reposent sur les mêmes arguments : violation du Premier Amendement (liberté d’expression) et violation des droits à une procédure régulière (due process).
Dans son dépôt auprès du tribunal californien, Anthropic écrit, selon Tom’s Hardware : « La Constitution ne permet pas au gouvernement d’utiliser son énorme pouvoir pour punir une entreprise pour ses prises de position protégées. »
L’entreprise demande aux tribunaux d’annuler la désignation, de bloquer son application, et d’obliger les agences fédérales à retirer leurs directives d’abandon des outils Claude. Les enjeux financiers sont concrets : Anthropic évoque « des centaines de millions de dollars » de revenus menacés à court terme, selon Tom’s Hardware.
Selon Next, le CEO Dario Amodei conteste également la portée réelle de la mesure. Il affirme que la désignation s’applique « clairement uniquement à l’utilisation de Claude par les clients dans le cadre direct de contrats avec le ministère de la Guerre ». Microsoft a confirmé cette lecture à The New York Times, selon Next : les produits Anthropic restent disponibles pour ses clients hors contrats Défense.
Le soutien inattendu : des employés d’OpenAI et Google
Quelques heures après le dépôt des plaintes, près de 40 employés d’OpenAI et Google ont déposé un amicus brief (mémoire d’amicus curiae) en soutien à Anthropic. Parmi les signataires : Jeff Dean, directeur scientifique de Google DeepMind et responsable du programme Gemini, selon The Verge et TechCrunch.
Ces professionnels se présentent comme « ingénieurs, chercheurs, scientifiques et autres professionnels employés dans des laboratoires d’IA de pointe américains », selon The Verge. Ils affirment agir « à titre individuel » et non comme porte-paroles de leurs entreprises.
Leur argumentaire technique est précis. Sur les armes autonomes : les systèmes d’IA « ne peuvent pas être fiables pour identifier des cibles avec une précision parfaite » dans des conditions imprévues, selon The Verge. Le risque d’hallucination (production de résultats erronés) rend indispensable la supervision humaine avant tout tir létal.
Sur la surveillance de masse, le brief est particulièrement alarmant. Les données sur les citoyens américains existent déjà partout : caméras, géolocalisation, réseaux sociaux, transactions financières. Ce qui n’existe pas encore, selon ces employés cités par The Verge : « la couche IA qui transforme ce paysage de données fragmentées en un appareil de surveillance unifié et en temps réel. »
Selon TechCrunch, le brief affirme que si le Pentagone « n’était plus satisfait des termes convenus de son contrat avec Anthropic », il aurait pu « simplement annuler le contrat et acheter les services d’une autre entreprise d’IA ».
La concurrence s’engouffre dans la brèche
La dimension concurrentielle de l’affaire est troublante. Selon Tom’s Hardware, Sam Altman d’OpenAI a signé un nouveau contrat avec le Pentagone dans les heures suivant la désignation d’Anthropic. Altman a publiquement affirmé que le Département de la Défense partageait les principes d’OpenAI sur la supervision humaine des armes et l’opposition à la surveillance de masse.
xAI, l’entreprise d’Elon Musk, a également été autorisée à opérer sur les réseaux classifiés du Pentagone, selon Tom’s Hardware.
La situation est paradoxale à un autre niveau. Malgré la désignation officielle, les systèmes d’Anthropic continuent d’être utilisés au sein du Département de la Défense, sur des réseaux classifiés, pour analyser des données de renseignement, selon Clubic. Plusieurs médias — dont le Wall Street Journal, Axios, CNBC et le Times of Israel — rapportent que des heures après l’annonce de la désignation par Hegseth, l’armée américaine aurait utilisé Claude lors de l’opération ayant conduit à la mort du guide suprême iranien Ali Khamenei.
Selon Next, la sénatrice démocrate Kirsten Gillibrand a réagi : « Le fait que le gouvernement attaque ouvertement une entreprise américaine pour avoir refusé de compromettre ses propres mesures de sécurité est quelque chose que l’on attendrait de la Chine, pas des États-Unis. »
Dario Amodei a également dû gérer la fuite d’un mémo interne. Dans ce document obtenu par The Information, il écrivait que la vraie raison du conflit était qu’Anthropic n’avait « pas fait de dons à Trump » et n’avait « pas fait d’éloges à Trump dignes d’un dictateur (contrairement à Sam [Altman]) ». Amodei s’en est excusé publiquement sur le blog d’Anthropic, selon Next.

Ce que cette affaire révèle
Cette procédure judiciaire dépasse le simple différend commercial entre une startup et son client gouvernemental. Quelques points à retenir :
- Un précédent juridique inédit : jamais la loi « supply chain risk » n’avait été appliquée à une entreprise américaine. Son usage ici soulève des questions constitutionnelles réelles.
- Des garde-fous techniques légitimes : les arguments techniques d’Anthropic sur les limites des IA autonomes sont soutenus par des experts de ses propres concurrents. Ce n’est pas anodin.
- La concurrence comme arme : OpenAI a signé avec le Pentagone dans les heures suivant le blacklistage d’Anthropic. La vitesse de ce mouvement interroge sur la nature réelle de cet épisode.
- Un paradoxe opérationnel : Claude est toujours utilisé sur des réseaux classifiés malgré la désignation. L’État sanctionne d’un côté ce qu’il utilise de l’autre.
- Un signal pour l’industrie : si cette désignation est maintenue, elle envoie un message clair à toute entreprise tech : imposer des limites éthiques à l’usage gouvernemental de ses produits peut coûter très cher.
L’issue judiciaire reste incertaine. Anthropic dit rester ouverte au dialogue malgré les procédures en cours, selon Clubic. Ce qui est certain : la question de savoir qui contrôle les garde-fous des IA déployées dans des opérations militaires vient d’entrer dans les prétoires américains.
Sources principales : Tom’s Hardware, Clubic, Next, The Verge, TechCrunch, Anthropic Blog, CNBC


Laisser un commentaire