Le Pentagone aurait utilisé l’IA Claude, d’Anthropic, pour planifier l’opération visant Nicolás Maduro au Venezuela, même si son rôle exact reste flou. Cette utilisation militaire de l’IA soulève des questions éthiques, y compris dans la Silicon Valley.
Une opération… « artificielle ». Le Pentagone est aujourd’hui l’un des plus fervents promoteurs de l’intelligence artificielle dans l’armée américaine, poussant les grandes entreprises du secteur comme OpenAI ou Anthropic à intégrer leurs technologies directement sur ses réseaux classifiés, malgré des règles d’usage strictes.
Au point d’intégrer des IA lors d’opérations militaires très sérieuses. Ainsi, lors de l’opération « Absolute Resolve » visant à capturer le président vénézuélien Nicolás Maduro, c’est le modèle d’IA Claude, développé par Anthropic, qui aurait été utilisé par l’armée américaine pour aider à la planification et à la conduite de l’intervention, selon le Wall Street Journal.
Le raid américain mené contre le Venezuela s’était traduit par des frappes sur la capitale, Caracas, faisant 83 morts d’après le ministère vénézuélien de la Défense. L’affaire interpelle d’autant plus que Anthropic proscrit officiellement l’usage de son modèle d’IA pour la violence, la conception d’armes ou la surveillance.
Or, l’entreprise serait la première du secteur de l’IA à voir l’un de ses outils impliqué dans une opération classifiée du département de la Défense des États-Unis, même si les conditions exactes d’emploi de cette technologie, capable d’analyser des documents complexes et d’interagir avec des systèmes autonomes, restent mal connues.
Table des matières
Une utilisation militaire en question
Un porte-parole d’Anthropic a refusé de confirmer l’usage de Claude lors de l’opération, mais a rappelé que son utilisation a dû respecter ses règles internes. Le département de la Défense des États-Unis n’a pas commenté ces allégations. Le Wall Street Journal a évoqué, en citant des sources anonymes, un possible recours à l’outil via le partenariat avec Palantir Technologies, qui a également refusé de répondre.
De son côté, le journal britannique The Guardian, rappelle que Les États-Unis et d’autres puissances militaires intègrent de plus en plus l’intelligence artificielle à leurs capacités de défense. L’armée d’Israël a notamment employé des drones autonomes et des systèmes d’IA pour le ciblage dans la bande de Gaza, tandis que les forces américaines ont eu recours au ciblage assisté par IA lors de frappes en Irak et en Syrie.
Cette montée en puissance s’accompagne toutefois de critiques, certains experts alertant sur les risques d’erreurs de ciblage lorsque des algorithmes participent à décider de l’usage de la force létale.
Face à ces enjeux, les entreprises du secteur s’interrogent sur la place de leurs technologies dans le domaine militaire. Dario Amodei, dirigeant d’Anthropic, a plaidé pour un cadre réglementaire afin de limiter les dérives et a exprimé des réserves sur les armes létales autonomes et la surveillance.
Le Pentagone trop peu prudent?
Cette prudence aurait agacé le Département de la Défense des États-Unis, dont le secrétaire à la Défense, Pete Hegseth, a affirmé que l’armée ne retiendrait pas de modèles d’IA susceptibles de restreindre sa capacité à faire la guerre. Il y a quelques semaines, le Pentagone a déjà affiché son désaccord avec Anthropic au sujet des garde-fous destinés à empêcher l’usage de son IA pour le ciblage autonome d’armes ou la surveillance intérieure.
Selon des sources militaires, citées par Reuters, ces échanges servent de test grandeur nature pour mesurer si la Silicon Valley, revenue en grâce à Washington après des années de tensions, peut réellement peser sur la manière dont l’IA est employée par l’armée et les services de renseignement sur le terrain.
Hormis Anthropic et son IA Claude, le Pentagone avait en outre annoncé en janvier qu’il collaborerait avec xAI, la société d’Elon Musk. Le ministère de la Défense utilise également une version personnalisée des systèmes de Google et d’OpenAI pour appuyer ses recherches.

No comment yet, add your voice below!