arrow_backRetour

Anthropic contre le Pentagone : le procès qui pourrait redessiner les règles de l'IA militaire

La juge Rita Lin se prononce aujourd'hui à San Francisco sur le bras de fer entre Anthropic et le Pentagone. En jeu : le droit d'une entreprise d'IA à refuser que sa technologie serve à la surveillance de masse et aux armes autonomes.

24 mars 2026

Anthropic contre le Pentagone : le procès qui pourrait redessiner les règles de l'IA militaire

C'est aujourd'hui, mardi 24 mars, que la juge Rita Lin doit se prononcer à San Francisco sur l'une des affaires les plus explosives de l'histoire de l'intelligence artificielle américaine. Anthropic, le créateur de Claude, demande une injonction préliminaire contre le Département de la Défense des États-Unis, qui l'a désigné comme un "risque pour la chaîne d'approvisionnement" — une étiquette habituellement réservée aux adversaires étrangers comme certaines entreprises chinoises. L'enjeu dépasse largement un simple contrat gouvernemental : c'est la question fondamentale du droit d'une entreprise technologique à poser des limites éthiques à l'utilisation de ses produits par l'État qui est sur la table.

Le conflit a éclaté fin février lorsque les négociations entre Anthropic et le Pentagone ont achoppé sur deux lignes rouges tracées par l'entreprise : que Claude ne soit pas utilisé pour la surveillance de masse des citoyens américains, et qu'il ne serve pas à des armes autonomes sans supervision humaine. Le secrétaire à la Défense Pete Hegseth a répondu par la manière forte, ordonnant à toutes les agences fédérales et à tous les sous-traitants militaires de cesser immédiatement toute activité commerciale avec Anthropic. La startup, qui approche les 19 milliards de dollars de revenus annualisés, a riposté en déposant deux plaintes le 9 mars, arguant que cette désignation est "sans précédent et illégale".

Un dossier truffé de contradictions

Les documents judiciaires déposés le 20 mars ont révélé un détail troublant : le Pentagone aurait confié à Anthropic que les deux parties étaient "presque alignées" dans leurs négociations, à peine une semaine avant que l'administration Trump ne déclare la relation terminée. Anthropic affirme dans ses déclarations sous serment que les arguments du gouvernement reposent sur des "malentendus techniques" et que certaines objections n'avaient "jamais été soulevées pendant les mois de négociation". La sénatrice Elizabeth Warren a elle-même qualifié la décision de "représailles" dans une lettre adressée à Pete Hegseth le 23 mars, soulignant que le Pentagone aurait pu simplement résilier son contrat plutôt que de recourir à une désignation aussi stigmatisante.

Une solidarité inédite dans l'industrie

Fait remarquable, plus de 30 employés d'OpenAI et de Google DeepMind — les deux principaux concurrents d'Anthropic — ont signé une déclaration commune soutenant la position de l'entreprise dans cette affaire. Cette solidarité entre rivaux traduit une inquiétude profonde : si le gouvernement peut punir une entreprise d'IA pour avoir refusé un usage sans restriction de sa technologie, aucun acteur du secteur n'est à l'abri. L'affaire soulève aussi un paradoxe géopolitique : pendant que Washington s'attaque à l'un de ses champions technologiques, des laboratoires chinois ont déjà produit des versions distillées des modèles américains, disponibles en open source et sans aucune restriction d'usage.

La décision de la juge Lin pourrait créer un précédent déterminant. Si Anthropic obtient son injonction, cela établirait que les entreprises d'IA conservent un droit constitutionnel à fixer des garde-fous éthiques sur leurs technologies, même face aux exigences de la sécurité nationale. Dans le cas contraire, c'est un message clair qui serait envoyé à toute l'industrie : en matière de défense, c'est l'État qui dicte les règles du jeu, et les principes d'une entreprise ne pèsent rien face à la raison d'État.

Commentaires

Pas encore de commentaire. Sois le premier !

Connecte-toi pour commenter.