Aller au contenu principal
Portrait – 5 infos à connaître sur Dario Amodei, le patron d’Antropic qui a dit non à Donald Trump
BusinessPresse-citron6sem

Portrait – 5 infos à connaître sur Dario Amodei, le patron d’Antropic qui a dit non à Donald Trump

Résumé IASource uniqueImpact UE
Source originale ↗·

Dario Amodei n'est pas le PDG d'Anthropic par hasard. Ancien vice-président de la recherche chez OpenAI, il a claqué la porte en 2021 avec une poignée de collègues — dont sa sœur Daniela Amodei — pour fonder une entreprise fondée sur un principe radical : la sécurité avant la vitesse. Depuis, il est devenu l'une des voix les plus influentes et les plus indépendantes de l'industrie de l'IA, jusqu'à refuser de se plier aux pressions politiques de l'administration Trump.

Ce positionnement tranche dans un secteur où les grands noms de la tech se bousculent pour s'afficher à la Maison-Blanche. Là où Sam Altman (OpenAI), Elon Musk (xAI) ou Jensen Huang (Nvidia) ont multiplié les gestes d'ouverture envers le nouvel exécutif américain, Amodei a choisi une ligne différente : maintenir une indépendance intellectuelle et éthique, quitte à se mettre à dos des cercles d'influence puissants. Pour lui, une IA "sous contrôle" n'est pas un frein à l'innovation — c'est sa condition de survie.

Né en 1983 à San Francisco, Amodei est titulaire d'un doctorat en biophysique computationnelle de Princeton. Avant OpenAI, il a travaillé chez Google Brain. Anthropic, qu'il co-dirige depuis 2021, a levé à ce jour plus de 7 milliards de $, avec des investissements majeurs d'Amazon (4 milliards de $) et de Google (2 milliards de $). La société est à l'origine du modèle Claude, concurrent direct de GPT-4o, et publie régulièrement des travaux sur l'interprétabilité des modèles — une discipline visant à comprendre ce qui se passe réellement à l'intérieur des LLMs.

La trajectoire d'Amodei illustre une fracture profonde au sein de la Silicon Valley entre ceux qui considèrent la régulation de l'IA comme une contrainte et ceux, comme lui, qui y voient une nécessité existentielle. Son refus de se soumettre aux injonctions de l'administration américaine — notamment sur des questions liées aux usages militaires de l'IA — positionne Anthropic comme un acteur atypique : puissant, bien financé, mais délibérément en marge du consensus industriel dominant.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Dario Amodei, le patron ambivalent d'Anthropic qui s'élève contre Donald Trump
1Le Monde Pixels 

Dario Amodei, le patron ambivalent d'Anthropic qui s'élève contre Donald Trump

Dario Amodei, PDG d'Anthropic, s'est opposé publiquement à Donald Trump lors d'un événement de The New York Times DealBook Summit 2025 à New York le 3 décembre 2025. Amodei, connu pour ses positions controversées, a exprimé ses préoccupations quant à l'utilisation de l'IA par des personnalités politiques controversées comme Trump.

BusinessOpinion
1 source
Anthropic envisage une introduction en bourse dès le quatrième trimestre
2The Information AI 

Anthropic envisage une introduction en bourse dès le quatrième trimestre

Anthropic, la société américaine d'intelligence artificielle fondatrice du modèle Claude, envisage une introduction en bourse (IPO) dès le quatrième trimestre 2025. Selon des sources proches du dossier, les banques d'affaires qui se positionnent pour accompagner l'opération anticipent une levée de plus de 60 milliards de dollars lors de cette cotation. Les montants définitifs ne seront arrêtés qu'au dernier moment, peu avant le lancement effectif de l'offre. Une telle valorisation placerait l'IPO d'Anthropic parmi les plus grandes de l'histoire des marchés technologiques américains. Elle ne serait dépassée que par celle de SpaceX, attendue dès cet été avec une levée potentielle allant jusqu'à 75 milliards de dollars. Pour les investisseurs institutionnels, une cotation d'Anthropic représenterait une rare opportunité d'accéder publiquement à l'un des acteurs centraux de la course mondiale aux grands modèles de langage, jusqu'ici financé exclusivement par des tours privés. Anthropic a levé plusieurs milliards de dollars ces dernières années, notamment auprès d'Amazon et de Google, dans un contexte de compétition intense avec OpenAI et les divisions IA de grandes technologiques. Une entrée en bourse permettrait à la société de consolider son financement à long terme et d'accroître sa visibilité, tout en offrant une sortie aux premiers investisseurs. Le timing envisagé — fin 2025 — coïnciderait avec une fenêtre de marchés potentiellement favorable, si l'appétit des investisseurs pour les valeurs IA reste soutenu.

BusinessActu
1 source
Anthropic a testé le retrait de Claude Code du plan Pro
3Ars Technica AI 

Anthropic a testé le retrait de Claude Code du plan Pro

Anthropic a brièvement semé la confusion chez ses utilisateurs développeurs en faisant apparaître sur sa page de tarification que Claude Code, son outil de développement agentique, ne serait plus accessible aux abonnés du plan Pro à 20 dollars par mois. Les nouveaux inscrits au plan Pro se sont retrouvés dans l'impossibilité d'accéder à Claude Code, tandis que les abonnés existants n'ont constaté aucune interruption de service. L'information s'est rapidement propagée sur Reddit et X, où de nombreux développeurs ont signalé la modification visible sur la page officielle d'Anthropic : Claude Code apparaissait comme non pris en charge en Pro, et uniquement disponible à partir du plan Max, facturé 100 dollars par mois minimum. Amol Avasare, responsable de la croissance chez Anthropic, a finalement pris la parole sur les réseaux sociaux pour préciser qu'il s'agissait d'un "test limité à environ 2 % des nouveaux abonnés prosumer". Ce type de test de tarification, même discret, a des implications concrètes pour les milliers de développeurs indépendants et de petites équipes qui s'appuient sur Claude Code à travers l'abonnement Pro comme alternative économique aux offres professionnelles plus coûteuses. Déplacer Claude Code vers le palier Max multiplierait par cinq le coût mensuel, ce qui représente un seuil significatif pour les utilisateurs individuels. La réaction rapide et visible de la communauté illustre à quel point les outils d'assistance au développement par IA sont devenus centraux dans les flux de travail quotidiens, et à quel point leur accessibilité tarifaire est scrutée de près. Claude Code s'est imposé en quelques mois comme l'un des environnements de développement assisté par IA les plus appréciés du marché, en concurrence directe avec GitHub Copilot, Cursor et d'autres outils similaires. Anthropic navigue actuellement entre deux impératifs : rendre ses modèles accessibles pour stimuler l'adoption, tout en trouvant un modèle économique viable pour des fonctionnalités à forte consommation de compute comme les agents autonomes. Ce test, même avorté ou limité, révèle que l'entreprise explore activement comment repositionner ses outils les plus puissants dans des offres mieux monétisées, une tendance que l'on observe également chez OpenAI et Google avec leurs propres produits destinés aux développeurs.

UELes développeurs indépendants français et européens abonnés au plan Pro pourraient voir leur coût mensuel multiplié par cinq si Anthropic décidait de réserver Claude Code au plan Max.

BusinessOpinion
1 source
Anthropic publie par erreur le code de son outil pour développeurs : ce qu'il faut savoir
4ZDNET FR 

Anthropic publie par erreur le code de son outil pour développeurs : ce qu'il faut savoir

Anthropic, la startup californienne fondatrice de l'assistant Claude, a reconnu avoir publié par inadvertance une partie substantielle du code source de Claude Code, son outil de développement en ligne de commande. L'incident, confirmé par l'entreprise, concerne des fichiers appartenant au cœur de l'outil — dont le fonctionnement était jusqu'alors tenu secret pour protéger les avantages compétitifs d'Anthropic face à des rivaux comme OpenAI ou Google DeepMind. La divulgation, bien qu'involontaire, soulève des questions sensibles sur la propriété intellectuelle et la confidentialité des systèmes d'IA commerciaux. Anthropic a indiqué qu'aucune faille de sécurité directe n'avait été identifiée pour ses utilisateurs, mais l'exposition du code permet potentiellement à des concurrents ou à des acteurs malveillants d'analyser les mécanismes internes de l'outil et d'identifier des vulnérabilités futures. Cet épisode illustre une tension croissante dans le secteur : la course effrénée au déploiement de nouveaux produits d'IA raccourcit les cycles de validation et augmente le risque d'erreurs opérationnelles. Anthropic, valorisée à plusieurs dizaines de milliards de dollars après ses dernières levées de fonds, n'est pas la première entreprise d'IA à subir ce type d'incident — une tendance qui pousse l'industrie à repenser ses protocoles de gestion du code propriétaire.

BusinessActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour