Vendredi 27 février, Donald Trump a ordonné à toutes les agences du gouvernement des États-Unis de cesser immédiatement toute utilisation de la technologie d’intelligence artificielle d’Anthropic.
Anthropic pose des conditions à l’usage de sa technologie
Le Président américain réagit à la décision d’Anthropic de poser ses conditions d’utilisation de ses technologies par le ministère de la guerre américain. Cela a mis hors de lui le Président qui accuse la startup de ne pas respecter la Constitution des Etats-Unis et de mettre en danger des vies américaines, les troupes et la sécurité nationale.
Une période de transition de six mois sera mise en place pour les agences comme le Département de la Guerre qui utilisent Anthropic
Le Président des Etats-Unis dénonce Anthropic comme étant une entreprise « d’extrêmistes de gauche ». « C’est nous qui déciderons du sort de notre pays – et non une entreprise d’IA d’extrême gauche incontrôlable, dirigée par des personnes totalement déconnectées de la réalité » affirme-t-il.
Donald Trump affirme ne pas avoir besoin d’Anthropic
Pour Donald Trump, les États-Unis d’Amérique ne permettront jamais à une entreprise d’extrême gauche, adepte du « woke », de dicter la manière dont ses forces armées mènent et gagnent les guerres. « Cette décision revient à votre commandant en chef et aux excellents dirigeants que je nomme pour diriger nos forces armées » poursuit-il, déclarant ne pas avoir besoin d’Anthropic. « Nous n’en avons pas besoin, nous n’en voulons pas et nous ne ferons plus jamais affaire avec eux ! » écrit-il sur son réseau social TruthSocial.
Anthropic est accusé de mettre en danger la sécurité nationale après que son DG a refusé de céder sur la surveillance de masse ou les armes autonomes
Côté Anthropic, la startup met en avant son patriotisme tout en restant inflexible sur ses lignes rouges. « Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les États-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques » déclare le DG d’Anthropic. Il souligne qu’Anthropic a œuvré de manière proactive pour déployer ses modèles auprès du Département de la Guerre et de la communauté du renseignement.
Anthropic défend sa bonne foi et sa volonté de coopérer avec le gouvernement
Le DG rappelle les actions d’Anthropic au service des Etats-Unis. « Nous avons été la première entreprise d’IA de pointe à déployer nos modèles au sein des réseaux classifiés du gouvernement américain, la première à les déployer dans les Laboratoires nationaux et la première à fournir des modèles personnalisés aux clients du secteur de la sécurité nationale » défend-il.
Claude est employé pour l’analyse du renseignement, la modélisation et la simulation, la planification opérationnelle et les cyber opérations
Le DG met en avant la loyauté nationale de sa société. « Nous avons choisi de renoncer à plusieurs centaines de millions de dollars de revenus pour empêcher l’utilisation de Claude par des entreprises liées au Parti communiste chinois dont certaines ont été désignées comme entreprises militaires chinoises par le Département de la Guerre » se félicite-t-il. “Nous avons déjoué des cyberattaques commanditées par le PCC [Parti communiste chinois] qui tentaient d’exploiter Claude et nous avons plaidé en faveur de contrôles stricts à l’exportation des processeurs afin de garantir un avantage démocratique” poursuit-il.
Protéger les valeurs démocratiques
Le DG d’Anthropic pose cependant ses lignes rouges, à la fois dues aux limites actuelles de l’IA et aux atteintes aux valeurs démocratiques. « Dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques. Certaines utilisations dépassent également les capacités de la technologie actuelle, qui permet de garantir la sécurité et la fiabilité » explique-t-il.
« Nous soutenons l’utilisation de l’IA pour des missions légitimes de renseignement et de contre-espionnage à l’étranger »
Il s’oppose également aux armes entièrement autonomes gérées par l’IA pour des raisons d’insuffisance de fiabilité actuellement. « Les armes partiellement autonomes, comme celles utilisées aujourd’hui en Ukraine, sont essentielles à la défense de la démocratie. Même les armes entièrement autonomes celles qui éliminent totalement l’intervention humaine et automatisent la sélection et l’engagement des cibles pourraient s’avérer cruciales pour notre défense nationale » reconnaît-il.
L’IA n’est pas fiable pour des armes autonomes
Mais il estime que l’IA n’est pas assez fiable pour piloter des armes de manière entièrement autonome. « Aujourd’hui, les systèmes d’IA de pointe ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes » prévient-il.
« Nous ne fournirons pas sciemment un produit qui mette en danger les militaires et les civils américains »
Le DG déclare avoir proposé de collaborer directement avec le Département de la Guerre sur la recherche et le développement afin d’améliorer la fiabilité de ces systèmes, mais que cette offre a été refusée. « Sans supervision adéquate, on ne peut se fier aux armes entièrement autonomes pour faire preuve du même jugement critique que nos troupes professionnelles et hautement entraînées au quotidien. Leur déploiement doit être encadré par des garde-fous appropriés, qui n’existent pas actuellement » alerte-t-il.
Anthropic deviendrait un risque pour la chaîne d’approvisionnement
Le DG déclare que les conditions posées par le Département de la Guerre étaient d’accepter « toute utilisation légale » et de supprimer les gardes fous qu’il veut mettre en place sur la surveillance de masse et des armes autonomes. Il déplore que le Département de la Guerre les menace de désigner Anthropic comme un « risque pour la chaîne d’approvisionnement ».
“Quoi qu’il en soit, ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande“
Le DG se déclare prêt à continuer de coopérer avec le département de la guerre avec les conditions posées. « Il appartient au Département de choisir les prestataires dont la vision correspond le mieux à la sienne. Mais compte tenu de la valeur considérable que la technologie d’Anthropic apporte à nos forces armées, nous espérons qu’il reviendra sur sa décision » ajoute-t-il.
Le DG d’Anthropic ne cédera pas sur les conditions d’usage
Il se prépare cependant à assurer une transition en douceur vers un autre fournisseur, afin d’éviter toute perturbation des activités militaires en cours, de la planification, des opérations ou des autres missions critiques. « Nos modèles resteront disponibles aux conditions étendues que nous avons proposées, aussi longtemps que nécessaire » finit-il.
Selon l’Associated Press, Anthropic a annoncé son intention de porter plainte contre la décision de Pete Hegseth
Anthropic a déclaré qu’elle contesterait ce qu’elle qualifie d’action juridiquement infondée « jamais appliquée publiquement auparavant à une entreprise américaine ». Une éventuelle bataille juridique et le basculement des budgets militaires vers d’autres fournisseurs pourraient avoir des répercussions majeures sur le développement des géants américains de la technologie dans l’IA, qu’il s’agisse d’Amazon, Microsoft, Meta, Google, Grok, OpenAI et Anthropic.
Top lectures en ce moment
L'IA clé de nos besoins vitaux dans l'eau, l'électricité et le gaz
Marchés de l’eau : l’IA générative arrive dans les réponses aux appels d’offres des collectivités
Saur, spécialiste de la distribution d’eau potable, fait évoluer son processus de réponse aux appels d’offres des collectivités et des industriels en y injectant de l’IA géné…
Stockage de l’électricité : l’IA générative outil d’accélération clé chez Engie
Le stockage de l’électricité est un enjeu stratégique. Engie s’y attelle et mobilise pour cela l’IA générative de type RAG, c'est-à-dire basée sur le traçage des documents source. …
Nouvelle donne dans le gaz naturel : GRDF s’adapte en utilisant l’IA
GRDF, leader de la distribution du gaz naturel en France, affine sa stratégie d’IA. Il s’appuie sur des serveurs internes pour la confidentialité des données de ses clients. GRDF c…





Et vous, qu’en pensez-vous ?
Votre réaction, vos questions ou vos suggestions ? Déposez votre avis ci-dessous.
Je réagis à cet article