Anthropic vs Trump : la justice refuse de voir l'IA comme un « risque national »

Par: Michael Korgs | Mise à jour aujourd'hui, 12:15
Logo Anthropic devant un tribunal fédéral américain Logo Anthropic devant un tribunal fédéral américain. Source: AI

Dans un climat politique où la technologie est souvent prise en otage par l'idéologie, la juge Rita F. Lin du district nord de Californie a tranché. Elle a ordonné à l'administration Trump de suspendre son décret désignant Anthropic comme un « risque pour la chaîne d'approvisionnement ». Ce label, habituellement réservé aux acteurs étrangers hostiles, visait à forcer les agences fédérales à rompre tout lien avec l'entreprise dirigée par Dario Amodei.

Une tentative de « paralyser » l'innovation

La juge Lin n'a pas mâché ses mots lors de l'audience, qualifiant l'action gouvernementale de tentative flagrante pour « paralyser » la société. Selon le Wall Street Journal, le tribunal a estimé que les ordonnances de la Maison Blanche bafouaient les protections liées à la liberté d'expression. En effet, imposer des restrictions arbitraires sur la manière dont une entreprise développe et distribue son logiciel revient, selon cette interprétation juridique, à museler sa voix technique et ses principes fondamentaux.

Le conflit des valeurs : IA éthique vs usage militaire

L'origine de cette guérilla juridique remonte à une dispute sur les directives d'utilisation des modèles Claude. Anthropic, fidèle à sa philosophie de sécurité, souhaitait imposer des limites strictes : interdiction d'utiliser ses outils dans les systèmes d'armes autonomes ou pour la surveillance de masse. Un refus catégorique de la part du Pentagone, qui y a vu une obstruction à la puissance technologique américaine.

L'administration n'a pas tardé à sortir l'artillerie lourde médiatique, qualifiant Anthropic d'entreprise « de gauche radicale » et « woke », mettant prétendument en péril la sécurité nationale des États-Unis. Dario Amodei, de son côté, a dénoncé des mesures qu'il juge « de représailles et punitives », soulignant que la sécurité de l'IA ne devrait pas être un terrain de jeu politique.

C'est une tentative de paralyser Anthropic.
— Rita F. Lin, Juge fédérale

Un précédent majeur pour l'industrie

Cette victoire temporaire est un signal fort pour toute la Silicon Valley. Elle pose une question fondamentale : une entreprise privée a-t-elle le droit de dicter les limites éthiques de ses produits lorsqu'ils sont utilisés par l'État ? Pour l'instant, la justice semble dire que oui. Dans une déclaration transmise à TechCrunch, Anthropic s'est dite satisfaite que la cour reconnaisse le bien-fondé de ses arguments, tout en affirmant vouloir continuer à travailler de manière « productive » avec le gouvernement pour que l'IA bénéficie à tous les Américains.

Le bras de fer ne fait que commencer, mais pour les partisans d'une IA encadrée, c'est une bouffée d'oxygène face à une administration qui semble vouloir transformer chaque ligne de code en outil de puissance régalienne sans concession.

En parlant d'IA omniprésente, il est intéressant de noter comment d'autres géants intègrent ces technologies dans notre quotidien, comme avec Google Search Live qui s'immisce désormais dans nos recherches les plus courantes.