Anthropic
L’entreprise qui veut bâtir l’IA la plus sûre et la plus puissante du monde
En 2021, sept chercheurs quittent OpenAI pour fonder Anthropic. Leur conviction : l’IA la plus puissante du monde doit aussi être la plus sûre. Cinq ans plus tard, leur modèle Claude est n°1 sur l’App Store d’Apple et valorisé à 380 milliards de dollars.
Fondée en 2021 · San Francisco · 380 Mds$ de valorisation · Claude n°1 App Store
Anthropic n’est pas une entreprise d’IA comme les autres. C’est une Public Benefit Corporation légalement obligée d’équilibrer profit et mission d’intérêt général — une structure délibérément choisie pour éviter que les intérêts financiers ne prennent le dessus sur la sécurité.
Fondée en 2021 à San Francisco par d’anciens membres d’OpenAI, Anthropic a développé Claude — une famille de modèles de langage considérée comme l’une des plus performantes et des plus fiables du marché. En 2026, l’entreprise est valorisée à 380 milliards de dollars, avec Amazon (8 Mds$) et Google (2 Mds$) comme principaux investisseurs minoritaires.
Cette page retrace l’histoire complète d’Anthropic : ses fondateurs, sa philosophie, la méthode Constitutional AI, son financement, et la trajectoire de Claude de 2021 à aujourd’hui.
Pourquoi Anthropic a été fondée : le départ d’OpenAI
En 2019, Microsoft investit un milliard de dollars dans OpenAI. Pour Dario et Daniela Amodei — alors VP Recherche et VP Opérations — ce tournant représente une menace. Ils craignent que la pression commerciale ne l’emporte sur la sécurité.
En 2021, ils quittent OpenAI avec cinq autres chercheurs d’élite. Leur conviction fondatrice : construire une IA à la fois très puissante et rigoureusement sûre. Pas l’un ou l’autre — les deux. Cette philosophie donne naissance à Anthropic et à sa méthode signature, la Constitutional AI.
Dario Amodei — CEO et architecte scientifique
Né en 1983 à San Francisco, Dario est titulaire d’un doctorat en physique computationnelle de Princeton. Chez OpenAI, il était VP Recherche et a contribué directement au développement de GPT-2 et GPT-3. En 2026, sa fortune est estimée à 7 milliards de dollars. En 2025, Time le classe parmi les 100 personnes les plus influentes du monde. Il a publié deux essais fondateurs : Machines of Loving Grace (2024) sur le potentiel de l’IA pour accélérer la médecine et la science, et The Adolescence of Technology (2026) sur les cinq risques majeurs de l’IA.
Daniela Amodei — Présidente et architecte de la croissance
Sœur de Dario, diplômée du MIT en physique. Chez OpenAI, elle dirigeait les opérations. Chez Anthropic, elle pilote la stratégie commerciale et les partenariats. C’est elle qui a structuré les deals Amazon (8 Mds$) et Google (2 Mds$), et qui supervise l’expansion internationale — Royaume-Uni, Union Européenne, Inde (2e marché mondial de Claude en 2026).
Les 7 cofondateurs : un groupe de chercheurs d’élite
Tom Brown — auteur principal du papier GPT-3, l’un des articles les plus influents de l’histoire de l’IA.
Chris Olah — pionnier de l’interprétabilité des réseaux de neurones, ses travaux permettent de comprendre ce qui se passe à l’intérieur des modèles.
Jared Kaplan — co-auteur des lois d’échelle des LLM, qui prédisent mathématiquement comment les modèles s’améliorent avec plus de données et de calcul.
Jack Clark — ancien responsable politique chez OpenAI, cofondateur de l’AI Index.
Sam McCandlish et Nelson Elhage — chercheurs en apprentissage automatique spécialisés en sécurité et alignement.
La Constitutional AI : la méthode qui distingue Anthropic
C’est la contribution intellectuelle majeure d’Anthropic à l’industrie de l’IA. Une approche d’entraînement radicalement différente du RLHF utilisé par OpenAI — plus scalable, plus cohérente, plus transparente.
La constitution numérique
Claude est entraîné avec un ensemble de principes explicites — inspirés de la Déclaration universelle des droits de l’homme et de principes philosophiques. Ce document, la « constitution », guide chaque réponse. Le modèle génère d’abord une réponse, s’autocritique selon ces principes, puis révise. Sans intervention humaine à chaque étape. Cette constitution est publique — Anthropic la rend accessible à tous.
RLAIF vs RLHF
Là où ChatGPT utilise le RLHF (retour humain pour corriger le modèle), Claude utilise le RLAIF — le modèle se corrige lui-même selon sa constitution. Résultat : un processus plus scalable, plus cohérent, et moins dépendant de la qualité variable des annotateurs humains. C’est ce qui explique pourquoi Claude reste plus fiable sur les longues conversations complexes.
L’interprétabilité
Anthropic investit massivement dans la recherche en interprétabilité — comprendre ce qui se passe à l’intérieur des réseaux de neurones. Chris Olah, cofondateur, est l’un des chercheurs les plus reconnus dans ce domaine. L’objectif : expliquer pourquoi un modèle produit telle réponse, et détecter les comportements problématiques avant le déploiement. Une approche radicalement différente des autres labs qui traitent leurs modèles comme des boîtes noires.
La chronologie d’Anthropic : de 2021 à 2026
En cinq ans, Anthropic est passé d’une startup de sept personnes à l’une des entreprises d’IA les plus valorisées au monde. Voici les jalons qui ont tout changé.
2021-2022
Fondation, 124 M$ de Jaan Tallinn, 500 M$ de FTX (Sam Bankman-Fried). Premier modèle Claude entraîné en été 2022 — non publié par prudence.
2 ans
de R&D en interne avant de lancer le premier modèle public en mars 2023.
2023-2024
Mars 2023 : Claude lancé. Juillet 2023 : Claude 2 avec 100k tokens. Mars 2024 : Claude 3 dépasse GPT-4 sur les benchmarks MMLU et HumanEval.
8 Mds $
investis par Amazon en 2023-2024, faisant d’AWS le partenaire cloud stratégique d’Anthropic.
2025-2026
Mai 2025 : Claude 4 + Claude Code lancés. Fév. 2026 : Opus 4.6 avec 1M de tokens. Claude n°1 App Store Apple après le conflit avec le Pentagone.
380 Mds $
de valorisation estimée en février 2026 — en 5 ans, Anthropic est devenue l’une des startups les plus valorisées de l’histoire de la tech.
Le financement d’Anthropic : Amazon, Google et les autres
En cinq ans, Anthropic a levé plus de 20 milliards de dollars. Un niveau de financement exceptionnel qui reflète les enjeux considérables de l’IA générative et la confiance des investisseurs dans l’approche d’Anthropic.
Amazon — 8 milliards de dollars : Plus grand investisseur externe d’Anthropic. AWS est le fournisseur cloud principal. Claude est disponible nativement sur Amazon Bedrock. Anthropic utilise les infrastructures AWS pour l’entraînement et le déploiement de ses modèles.
Google — 2 milliards de dollars : Actionnaire minoritaire avec environ 14 % du capital. Claude est disponible sur Google Vertex AI. Le partenariat inclut l’accès à 1 million de TPU Google — soit plus d’un gigawatt de puissance de calcul d’ici 2026.
Autres investisseurs : Jaan Tallinn (Skype, 124 M$ au premier tour), Spark Capital, Lightspeed Venture Partners, Iconiq Capital, Dustin Moskovitz (cofondateur de Facebook et Asana), Eric Schmidt (ex-PDG de Google). En septembre 2025, Anthropic lève 13 milliards supplémentaires valorisant l’entreprise à 183 milliards — avant d’atteindre 380 milliards en février 2026.
Anthropic aujourd’hui : structure, mission et ambitions
En 2026, Anthropic emploie plus de 3 000 personnes avec des bureaux à San Francisco, Londres et Dublin. Sa structure de Public Benefit Corporation reste son principal bouclier contre les dérives commerciales.
Le Long-Term Benefit Trust : détient des actions de classe T — sans dividendes, non négociables — mais avec le droit de nommer 3 des 5 directeurs du conseil d’administration. Un mécanisme conçu pour protéger la mission d’Anthropic même si les investisseurs souhaitaient changer de cap.
La position face aux gouvernements : en février 2026, le Pentagone a déclaré Anthropic « supply chain risk » et ordonné aux agences fédérales de cesser d’utiliser Claude. Raison : Anthropic refusait de lever ses restrictions contre l’utilisation de Claude dans des armes létales autonomes et la surveillance de masse intérieure. Dans les 48 heures, Claude passe de la 42e à la 1ère place sur l’App Store — explosion de popularité liée à la sympathie du public pour cette prise de position.
Les ambitions : Dario Amodei défend une vision où l’IA pourrait compresser 50 à 100 ans de progrès scientifique en 5 à 10 ans — notamment en médecine, biologie et énergie. Anthropic investit dans la recherche fondamentale sur l’interprétabilité, les agents autonomes, et la sécurité des modèles de prochaine génération. → Retour au guide complet Claude IA
Claude n°1 App Store — fév. 2026
Vous voulez intégrer Claude IA dans votre stratégie digitale ?
J’accompagne les entrepreneurs, consultants et TPE à intégrer Claude dans leur workflow : rédaction SEO, automatisation WordPress, stratégie de contenu. Un échange de 30 minutes pour voir concrètement ce que Claude peut faire pour vous.
Questions fréquentes sur Anthropic et l’histoire de Claude IA
Qui a fondé Anthropic et pourquoi ?
Anthropic a été fondée en avril 2021 à San Francisco par Dario et Daniela Amodei et cinq autres ex-chercheurs d’OpenAI — Tom Brown, Chris Olah, Jared Kaplan, Jack Clark, Sam McCandlish et Nelson Elhage. La raison principale : des divergences sur la direction prise par OpenAI suite à l’investissement de Microsoft (1 milliard en 2019). Les fondateurs craignaient que la pression commerciale ne compromette la priorité accordée à la sécurité de l’IA. Ils ont voulu créer une structure où la sécurité est la mission centrale, pas une contrainte.
Qu'est-ce que la Constitutional AI d'Anthropic ?
La Constitutional AI est la méthode d’entraînement développée par Anthropic. Au lieu de s’appuyer uniquement sur des retours humains (RLHF), Claude est entraîné à suivre une « constitution » — un ensemble de principes explicites inspirés de la Déclaration universelle des droits de l’homme. Le modèle génère une réponse, s’autocritique selon ces principes, puis révise. Ce processus s’appelle RLAIF (Reinforcement Learning from AI Feedback). Plus scalable et plus cohérent que le RLHF. Cette constitution est publique — Anthropic l’a rendue accessible à tous.
Pourquoi l'IA s'appelle Claude ?
Le nom « Claude » est un hommage à Claude Shannon (1916-2001), mathématicien américain considéré comme le père de la théorie de l’information. Son article fondateur de 1948, A Mathematical Theory of Communication, a posé les bases mathématiques de la transmission de données numériques — le socle théorique de toute l’informatique moderne et donc de l’IA. Ce choix de nom reflète la philosophie d’Anthropic : ancrer l’IA dans une rigueur intellectuelle et scientifique profonde.
Qui sont les principaux investisseurs d'Anthropic ?
Amazon est le plus grand investisseur externe avec 8 milliards de dollars engagés (2023-2024). AWS est le fournisseur cloud principal d’Anthropic. Google a investi 2 milliards et détient environ 14 % du capital. Claude est disponible sur Google Vertex AI. Parmi les autres investisseurs : Jaan Tallinn (cofondateur de Skype, premier investisseur), Spark Capital, Lightspeed, Iconiq Capital, Dustin Moskovitz (Facebook) et Eric Schmidt (ex-PDG de Google). Malgré ces investissements massifs, Amazon et Google restent minoritaires et n’ont pas de pouvoir décisionnel opérationnel.
Quelle est la valorisation d'Anthropic en 2026 ?
Anthropic est valorisée à environ 380 milliards de dollars en février 2026 selon les estimations. C’est l’une des valorisations les plus élevées du secteur IA non coté — devant OpenAI (300 Mds$ à la même période). La trajectoire est impressionnante : 300 millions en 2021 → 4 milliards en 2023 → 183 milliards en septembre 2025 → 380 milliards en février 2026. Cette progression reflète l’explosion des usages de l’IA générative et la position de plus en plus dominante de Claude.
Qu'est-ce que le Long-Term Benefit Trust d'Anthropic ?
Le Long-Term Benefit Trust est une structure juridique unique créée par Anthropic pour protéger sa mission dans le temps. Il détient des actions de classe T — sans dividendes, non négociables — mais avec le droit de nommer 3 des 5 directeurs du conseil d’administration. Concrètement : même si Amazon ou Google souhaitaient faire pression pour changer la direction stratégique d’Anthropic, le Trust peut bloquer ces décisions. C’est un bouclier légal contre la prise de contrôle par des investisseurs à des fins purement commerciales.
Qu'est-ce que la Public Benefit Corporation (PBC) ?
Une Public Benefit Corporation (PBC) est une structure juridique du droit américain (Delaware) qui oblige légalement l’entreprise à équilibrer profit et mission d’intérêt général. Contrairement à une corporation classique où les dirigeants ont l’obligation légale de maximiser la valeur pour les actionnaires, une PBC peut prendre des décisions qui réduisent les profits si elles servent mieux la mission. Anthropic a délibérément choisi cette structure pour éviter qu’une pression commerciale ne compromette son engagement en faveur de la sécurité de l’IA.
Quand Claude a-t-il été lancé pour la première fois ?
La première version de Claude a été entraînée en été 2022 mais n’a pas été publiée — Anthropic a préféré attendre pour effectuer des tests de sécurité supplémentaires. Claude et Claude Instant ont été lancés en accès restreint en mars 2023, puis ouverts au grand public en avril 2023. Claude 2 a suivi en juillet 2023 avec une fenêtre de contexte de 100 000 tokens — une première mondiale. Claude 3 (mars 2024) a marqué la rupture avec GPT-4. Claude 4 est sorti en mai 2025, et Claude Opus 4.6 en février 2026.
Pourquoi le Pentagone a-t-il bloqué Anthropic en 2026 ?
En février 2026, le Pentagone a déclaré Anthropic « supply chain risk » et ordonné aux agences fédérales américaines de cesser d’utiliser Claude. La raison : Anthropic refusait de lever ses restrictions contractuelles contre l’utilisation de Claude dans des armes létales autonomes et la surveillance de masse intérieure. Anthropic a maintenu sa position. Dans les 48 heures suivant cette décision, Claude est passé de la 42e à la 1ère place sur l’App Store d’Apple — une explosion de popularité liée à la sympathie du public pour la posture d’Anthropic.
Quelle est la vision long terme de Dario Amodei pour l'IA ?
Dans son essai Machines of Loving Grace (octobre 2024), Dario Amodei développe une vision où l’IA pourrait compresser 50 à 100 ans de progrès scientifique en 5 à 10 ans — notamment en médecine (cancer, maladies mentales, vieillissement), en biologie, en énergie propre et en économie mondiale. Il identifie aussi cinq risques majeurs dans The Adolescence of Technology (janvier 2026) : comportements mal alignés, armes biologiques accessibles à tous, concentration du pouvoir, risques d’infrastructure, et manipulation de l’information à grande échelle.












