En février 2026, le Pentagone a déclaré Anthropic « supply chain risk » et ordonné aux agences fédérales de cesser d’utiliser Claude. Dans les 48 heures, Claude est passé de la 42e à la 1ère place sur l’App Store d’Apple. Ce retournement résume mieux que n’importe quel discours où en est le débat sur l’IA et le militaire en 2026.
Ce qui s’est passé avec Anthropic et le Pentagone
L’affaire est simple dans ses faits, complexe dans ses implications. Le Pentagone avait demandé à Anthropic de lever ses restrictions contractuelles contre l’utilisation de Claude dans des armes létales autonomes et la surveillance de masse intérieure. Anthropic a refusé. Le Pentagone a répondu en blacklistant l’entreprise et en interdisant aux agences fédérales américaines d’utiliser ses produits.
Ce qui s’est passé ensuite est fascinant à observer. Les utilisateurs américains, apparemment séduits par cette prise de position éthique, ont massivement téléchargé Claude. L’application a explosé dans les classements. En 48 heures, Anthropic avait plus d’utilisateurs que jamais. Et l’armée américaine, selon des informations disponibles, continuait à utiliser Claude pour préparer des analyses stratégiques — quelques heures seulement après l’annonce officielle de rupture.
Je trouve cette situation révélatrice d’une réalité que beaucoup préfèrent ignorer : une fois qu’un outil est intégré dans des workflows critiques, il est extrêmement difficile de l’en retirer. Les décisions politiques et les interdictions officielles se heurtent à la réalité de la dépendance opérationnelle. On l’a vu avec les données personnelles, on le revoit avec l’IA.
La lettre « We Will Not Be Divided » : 600 ingénieurs qui disent non
En parallèle de l’affaire Anthropic, plus de 600 employés de Google et OpenAI ont signé une lettre ouverte baptisée « We Will Not Be Divided ». La demande : des limites claires et contraignantes sur l’usage militaire de l’IA développée par leurs entreprises.
Ce n’est pas la première fois que des ingénieurs du secteur tech se mobilisent contre des contrats militaires. En 2018, des employés de Google avaient protesté contre Project Maven — un programme de reconnaissance d’images pour drones militaires — et obtenu que Google ne renouvelle pas ce contrat. Ça avait été considéré comme une victoire symbolique majeure.
Huit ans plus tard, le contexte a changé. Les enjeux sont devenus exponentiellement plus grands. Les modèles d’IA actuels ne font plus de la reconnaissance d’images pour des drones — ils peuvent potentiellement aider à planifier des opérations militaires entières, à automatiser des décisions qui impliquent des vies humaines, à créer des armes biologiques accessibles à une plus large palette d’acteurs. La lettre « We Will Not Be Divided » n’est pas une protestation contre un contrat isolé. C’est une déclaration sur la direction que devrait prendre toute une industrie.
Mon point de vue sur cette fracture
Je ne suis pas ingénieur en IA ni expert en éthique technologique. Je suis consultant SEO, et je regarde cette situation depuis la perspective de quelqu’un qui utilise ces outils au quotidien. Ce qui me frappe, c’est à quel point cette fracture est réelle et profonde. Ce n’est pas du theatre. Ce sont des gens qui risquent leur emploi pour des convictions. Et leurs entreprises — qui ont besoin de leurs cerveaux pour continuer à exister — ne peuvent pas simplement les ignorer.
Ce que ça révèle sur la structure de l’industrie IA
Il y a quelque chose de structurellement intéressant dans ce conflit. Les grandes entreprises d’IA ont besoin de deux choses en apparente contradiction : des contrats gouvernementaux et militaires massifs pour financer leurs coûts d’infrastructure astronomiques, et les meilleurs ingénieurs du monde pour construire leurs modèles. Or, une partie significative de ces ingénieurs refuse catégoriquement de travailler sur des applications militaires létales.
Ce n’est pas une crise passagère. C’est une tension structurelle qui va s’intensifier à mesure que les modèles deviennent plus puissants et que les applications militaires deviennent plus sophistiquées. La question n’est plus « est-ce que l’IA va être utilisée dans des contextes militaires ? » — elle l’est déjà, massivement. La question est « qui décide des limites, et comment ces décisions sont-elles appliquées ? »
Anthropic a répondu à cette question d’une façon : en les inscrivant dans les contrats et en refusant d’y déroger, même sous pression gouvernementale. OpenAI a répondu différemment, en acceptant un contrat Pentagone. Google navigue entre les deux. Ces choix vont définir non seulement l’image de ces entreprises, mais probablement aussi leur capacité à recruter les meilleurs talents dans les années qui viennent.
La Corée du Nord, les deepfakes et la cybersécurité IA
Pendant qu’on débat des usages militaires officiels, il y a une autre dimension de cette histoire qui mérite l’attention. Des informations récentes indiquent que des acteurs liés à la Corée du Nord utilisent des outils d’IA — modificateurs de voix, faux profils renforcés par des identités volées — pour décrocher des emplois distants dans le secteur tech et renvoyer leurs salaires vers Pyongyang. Le groupe de cybercriminels Transparent Tribe, lié au Pakistan, utilise des outils de programmation IA pour déployer des malwares. Des cybercriminels exploitent Claude et ChatGPT pour accéder aux données d’agences gouvernementales.
Ce que je retiens de tout ça : le débat sur l’IA et la sécurité n’est pas seulement un débat philosophique sur les limites éthiques des entreprises américaines. C’est aussi un problème très concret où les mêmes outils que j’utilise pour optimiser mon site WordPress sont utilisés ailleurs pour des activités profondément nuisibles. La question de la gouvernance de l’IA n’est pas abstraite. Elle touche à la sécurité des données de mes clients, à la fiabilité des informations qui circulent en ligne, et à la confiance globale dans les systèmes numériques.
L’Oregon, premier état américain à légiférer sur les chatbots
Une information passée un peu inaperçue dans ce flot d’actualités : l’Oregon est devenu le premier état américain à adopter une loi spécifique sur les chatbots, exigeant notamment que les utilisateurs soient clairement informés quand ils interagissent avec une IA plutôt qu’avec un humain. En France, l’AI Act européen entre progressivement en vigueur en 2026 avec des exigences similaires de transparence sur les systèmes à haut risque.
Je suis convaincu que la régulation de l’IA — aussi imparfaite et lente qu’elle soit — est nécessaire. Pas pour ralentir l’innovation, mais pour créer un cadre de confiance sans lequel l’adoption de masse restera fragile. Les scandales et les incidents — Claude Code qui supprime des bases de données de production, des deepfakes utilisés pour des fraudes, des chatbots qui influencent des adolescents vulnérables — érodent cette confiance. Et sans confiance, les outils les plus puissants du monde restent sous-utilisés.
Les entreprises qui prendront de l’avance sur la conformité réglementaire et la transparence éthique ne verront pas ça comme une contrainte. Elles verront ça comme un avantage concurrentiel durable.
Ce que j’en retiens pour ma pratique
Je travaille avec l’IA tous les jours. Claude automatise une partie importante de ma production de contenu. Et cette actualité me rappelle que les outils que j’utilise ne sont pas neutres — ils sont le produit de décisions d’entreprises qui ont des valeurs, des positions politiques, des modèles économiques, et des vulnérabilités.
Choisir quel modèle utiliser n’est plus seulement une décision technique. C’est aussi une décision sur l’entreprise qu’on soutient, sur les usages qu’on cautionne implicitement, sur la façon dont on veut que cette technologie se développe. Je ne pense pas que la plupart des consultants et entrepreneurs qui lisent cet article réfléchissent à ça régulièrement. Moi non plus, honnêtement, jusqu’à ces dernières semaines.
La décision d’Anthropic de tenir sa position face au Pentagone — et le retournement de popularité qui a suivi — m’a rappelé que les consommateurs ont plus de pouvoir qu’ils ne le pensent dans cette industrie. Et que les signaux qu’on envoie avec nos choix d’adoption comptent.
Vous avez des questions sur l’intégration responsable de l’IA dans votre activité ? Échangeons.

