Skip to content

L’essentiel du jour, rien que pour vous.

Sanctionnée par l’administration Trump et désignée comme « à risque », Anthropic va contester en justice cette décision qui pourrait en définitive profiter à la concurrence chinoise

Anthropic a été informée par le ministère de la Défense de son ajout à la liste des entreprises « à risque ». Réservée jusqu’ici aux adversaires des États-Unis, cette désignation interdit théoriquement à tout fournisseur de l’Etat fédéral américain de faire affaire avec la société.

C’est officiel, Anthropic est considérée comme une entreprise « à risque » aux États-Unis. La start-up d’intelligence artificielle a été informée par le ministère de la Défense de son ajout à la liste jusqu’ici réservée aux adversaires des Etats-Unis, dont l’équipementier chinois Huawei ou le spécialiste russe des logiciels antivirus Kaspersky.

Les entreprises considérées comme représentant « un risque pour les approvisionnements » par le gouvernement américain sont théoriquement privées de tout contrat public. Outre un engagement du ministère de la Défense, signé en juillet, et qui portait sur 200 millions de dollars, Anthropic était aussi liée à plusieurs ministères et agences gouvernementales, notamment le Trésor, qui a annoncé lundi la résiliation de son partenariat.

Donald Trump avait déjà ordonné le 27 février à son gouvernement de « cesser immédiatement toute utilisation » des logiciels d’Anthropic, sanction liée au refus de l’entreprise de lever des restrictions d’usage à son IA. La start-up se refuse ainsi à voir ses modèles servir à de la surveillance de masse de la population américaine ou à l’automatisation d’attaques mortelles.

Les excuses après les critiques

La classification « à risque » intervient alors que le patron d’Anthropic, Dario Amodei, a tenté d’apaiser les tensions ces derniers jours. Lors d’une intervention dans le cadre d’une conférence organisée mardi par la banque Morgan Stanley, il a déclaré être toujours en contact avec le ministère de la Défense et tenter de « désamorcer » le contentieux et de « trouver un accord ».

Le patron d’Anthropic espérait en effet pouvoir reprendre les négociations avec le Département de la défense américain. Même si la situation semble pour l’instant mal engagée, Emil Michael, ministre de la Défense délégué à la Recherche et à l’Ingénierie , indiquait hier sur X: « Je veux mettre un terme à toute spéculation: il n’y a pas de négociation active entre le (ministère de la Défense) et Anthropic ».

Dario Amodei a également présenté ces excuses dans un article de blog publié jeudi, après qu’un mémo interne dans lequel il critique Donald Trump a fuité dans la presse. Il y affirme que l’administration Trump n’aime pas son entreprise parce qu’elle ne lui a pas fait de dons financiers ni prodigué d’éloges « dignes d’un dictateur », comme le mentionne le Telegraph.

Dario Amodei s’est alors justifié en indiquant que ce mémo avait été rédigé quelques heures après que Donald Trump a annoncé le retrait d’Anthropic de tous les systèmes fédéraux sur Truth Social et le message du secrétaire à la Défense, Pete Hesgeth, sur X menaçant de désigner la start-up comme « risque pour les approvisionnements ». L’annonce de l’accord entre OpenAI et le gouvernement a également mis du sel sur la plaie.

« Ce fut une journée difficile pour l’entreprise, et je m’excuse pour le ton de cette publication. Elle ne reflète pas mon point de vue réfléchi. De plus, elle a été rédigée il y a six jours et constitue une évaluation obsolète de la situation actuelle », a affirmé Dario Amodei.

La start-up a également indiqué qu’elle va contester cette décision devant la justice américaine. « Nous n’estimons pas que cette action soit fondée juridiquement », a écrit Dario Amodei dans ce même article de blog, « et nous ne voyons pas d’autre choix que de la contester devant les tribunaux. »

Un cadeau pour la Chine

Outre le gouvernement américain, la désignation d’Anthropic comme « risque pour les approvisionnements » interdit aussi théoriquement à tout autre fournisseur de l’Etat fédéral américain de faire affaire avec la société. Or, tous les géants de l’informatique à distance (cloud) travaillent avec le gouvernement américain. Une rupture éventuelle de leur relation avec Anthropic priverait la start-up de la puissance de calcul sans laquelle elle ne peut développer et faire fonctionner son IA.

L’administration Trump n’y a probablement pas pensé, mais en considérant la jeune pousse derrière Claude comme une entreprise « à risque », elle pourrait donner un avantage considérable à la Chine en matière de compétition. Car contrairement à Anthropic, les start-up chinoises comme Deepseek, malgré les inquiétudes qu’elles suscitent, notamment par leurs avancées, n’ont pas été placées sur la liste du ministère de la Défense.

Les entreprises utilisant les modèles de la société californienne, qui sont considérés par beaucoup, dont le Pentagone, comme supérieurs aux autres, pourraient se tourner vers des alternatives chinoises, comme le pointe Axios. En plus d’être open source, les modèles de Pékin coûtent moins cher et ne sont également pas régulés. Le patron d’Airbnb a déjà confirmé qu’ils utilisaient ces derniers en raison de leur prix. Et si les entreprises et le gouvernement américains utilisent des modèles chinois, cela donnerait un avantage compétitif au pays.

Une désignation pas claire

Il n’est pourtant pas sûr que la Chine sorte victorieuse de cette affaire. Anthropic ne l’interprète en effet pas de la même manière que l’administration Trump. « Le langage utilisé par le département de la Guerre (autre nom du ministère de la Défense, NDLR) dans sa lettre (…) correspond à notre déclaration de vendredi selon laquelle la grande majorité de nos clients ne sont pas concernés par une désignation de risque pour les approvisionnements », a déclaré Dario Amodei.

« La lettre du département a une portée limitée, car la loi applicable (…) l’est également. Elle vise à protéger le gouvernement plutôt qu’à punir un fournisseur; en fait, la loi exige que le secrétaire à la Guerre utilise les moyens les moins restrictifs nécessaires pour atteindre l’objectif de protection de la chaîne d’approvisionnement », a-t-il expliqué.

Autrement dit, seule l’utilisation de son chatbot, Claude, par les clients dans le cadre de contrats directs avec le département de la Guerre est concernée, a avancé le PDG, et non toute utilisation par les clients ayant conclu de tels contrats. Un avis que semble partager Microsoft. Travaillant avec le gouvernement américain, l’entreprise basée à Redmond, propose des modèles d’IA d’Anthropic à travers ses plateformes, Microsoft 365 et Github. Et elle prévoit de continuer à le faire malgré l’ajout de la start-up à la liste des entreprises « à risque ».

« Nos avocats ont étudié la désignation et ont conclu que les produits Anthropic, y compris Claude, peuvent rester disponibles pour nos clients – autres que le département de la Guerre (…) et que nous pouvons continuer à travailler avec Anthropic sur des projets non liés à la défense », a assuré un porte-parole de Microsoft à CNBC.

C’est la première grande société à oser une telle déclaration, qui ne va probablement pas plaire à Donald Trump et son administration.

Source

No comment yet, add your voice below!


Add a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Initiales logo Exotik Garden
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.