Aller au contenu principal
Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé
AutreSiècle Digital2h

Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé

1 source couvre ce sujet·Source originale ↗·

Anthropic travaille sur un nouveau modèle d'intelligence artificielle baptisé Claude Mythos, décrit en interne comme le système le plus puissant jamais développé par l'entreprise. Selon des documents internes dont le contenu a été révélé par le magazine Fortune, ce modèle surpasse les capacités de tous les modèles Claude actuellement disponibles. Malgré ses performances exceptionnelles, Anthropic a décidé de ne pas le lancer publiquement, du moins pas dans l'immédiat.

La raison de cette retenue est précisément la puissance du modèle : Mythos serait jugé trop capable pour être diffusé sans précautions supplémentaires. Ce type de décision illustre un dilemme croissant dans le secteur — plus les modèles progressent, plus les questions de sécurité et d'évaluation des risques deviennent centrales avant tout déploiement. Pour les utilisateurs professionnels et les entreprises qui dépendent des API d'Anthropic, cela signifie que la frontière technologique réelle est désormais en avance sur ce qui est commercialement accessible.

Anthropic se distingue depuis sa fondation en 2021 par une approche dite de « sécurité d'abord », à rebours d'OpenAI dont elle est issue. La fuite de ces informations internes intervient dans un contexte de compétition acharnée entre laboratoires d'IA — OpenAI, Google DeepMind, Meta et xAI se livrant une course aux modèles toujours plus puissants. Le cas Mythos soulève une question stratégique : jusqu'où les labos peuvent-ils retenir leurs meilleurs modèles sans perdre du terrain commercial, et comment définir objectivement le seuil au-delà duquel un modèle est « trop dangereux » pour être publié ?

Impact France/UE

Les développeurs et entreprises européens utilisant l'API d'Anthropic n'auront pas accès aux capacités les plus avancées de Mythos, creusant l'écart entre la frontière technologique réelle et les outils commercialement disponibles.

À lire aussi

La Californie impose ses propres règles IA aux prestataires de l'État, en résistance à la politique fédérale
1The Decoder 

La Californie impose ses propres règles IA aux prestataires de l'État, en résistance à la politique fédérale

Le gouverneur de Californie Gavin Newsom a signé lundi un décret exécutif imposant aux entreprises titulaires de contrats avec l'État de mettre en place des garde-fous contre les usages abusifs de l'intelligence artificielle. Cette mesure concerne l'ensemble des prestataires privés travaillant pour les agences et administrations californiennes, qui devront démontrer que leurs systèmes d'IA respectent des critères de transparence, de responsabilité et de gestion des risques. La Californie devient ainsi l'un des premiers États américains à intégrer des exigences IA directement dans ses contrats publics. Cette décision a une portée considérable : la Californie est la cinquième économie mondiale et l'un des plus gros acheteurs publics du pays, ce qui signifie que les entreprises tech souhaitant accéder à ce marché devront se conformer à ces règles, qu'elles le veuillent ou non. En pratique, cela crée un effet de levier réglementaire indirect — sans passer par une loi, l'État conditionne l'accès à ses marchés au respect de standards IA précis. Ce décret s'inscrit en opposition directe à la politique fédérale de l'administration Trump, qui a cherché à démanteler les régulations IA héritées de Biden et à privilégier une approche de laissez-faire pour stimuler la compétitivité américaine. La Californie, qui avait déjà tenté de faire passer plusieurs projets de loi IA (dont certains bloqués par Newsom lui-même en 2024), choisit cette fois la voie du pouvoir exécutif pour avancer. D'autres États pourraient suivre ce modèle contractuel, contournant ainsi le blocage fédéral sur la régulation de l'IA.

AutreReglementation
1 source
2The Information AI 

Alibaba’s New Multimodal AI Model is Not Open-Source

Autre
1 source
OpenAI révèle pourquoi il a vraiment tué Sora (ce n’est pas ce que vous croyez)
3Le Big Data 

OpenAI révèle pourquoi il a vraiment tué Sora (ce n’est pas ce que vous croyez)

OpenAI a annoncé le 24 mars 2026 la fermeture de Sora, son réseau social entièrement propulsé par l'intelligence artificielle, moins d'un an après son lancement. L'application avait pourtant connu un démarrage fulgurant : près d'un million de téléchargements et une place parmi les plus populaires de l'App Store aux États-Unis. Lancée en parallèle du modèle vidéo Sora 2, la plateforme offrait une expérience sociale complète — génération de vidéos par IA, publication, partage, likes, commentaires et remixage des créations d'autres utilisateurs. Son interface, inspirée de TikTok et Instagram, enchaînait des vidéos réalistes mais jamais totalement convaincantes, provoquant ce malaise bien connu théorisé par Masahiro Mori sous le nom de « vallée de l'étrange ». Malgré des performances comparables à celles de Gemini et son modèle Veo 3, les vidéos trahissaient parfois leur origine artificielle : incohérences visuelles, mouvements erratiques, artefacts sonores. La fermeture s'explique par une équation économique intenable. Selon TechCrunch, faire tourner Sora coûtait environ un million de dollars par jour, pour des revenus mensuels estimés à seulement 367 000 dollars. Contrairement à ChatGPT, massivement adopté dans les entreprises, Sora restait cantonné au divertissement — un segment nettement moins rentable. Mais au-delà des finances, le projet s'est heurté à un problème de désinformation structurel. OpenAI avait intégré un filigrane pour signaler les vidéos générées par IA, mais des utilisateurs ont rapidement trouvé des moyens de le supprimer. Une fois effacé, il devenait quasi impossible de distinguer une vraie vidéo d'une création artificielle. Le potentiel de manipulation — déjà amplifié par la nature virale du réseau social — rendait la plateforme particulièrement exposée aux abus à grande échelle. La trajectoire de Sora illustre les tensions profondes auxquelles se confrontent les grandes entreprises d'IA en tentant de combiner génération de contenu synthétique et dynamiques de réseau social. Le modèle économique des plateformes sociales repose sur le volume et la publicité, deux logiques difficilement compatibles avec le coût astronomique de l'inférence vidéo. OpenAI, qui cherche à rentabiliser ses investissements colossaux avant une introduction en Bourse attendue, ne pouvait se permettre de subventionner indéfiniment un service déficitaire. L'arrêt de Sora ne signifie pas l'abandon du modèle vidéo — l'API restera accessible — mais marque la fin d'une tentative risquée de transformer une capacité technique spectaculaire en produit grand public viable. D'autres acteurs, Google et Meta en tête, observeront attentivement cet échec avant de s'aventurer sur le même terrain.

AutreOpinion
1 source
Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile
4FrenchWeb 

Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile

À huit mois des élections de mi-mandat de novembre 2026, l'intelligence artificielle s'impose comme un enjeu politique majeur aux États-Unis. David Sacks, nommé « AI & Crypto Czar » par Donald Trump en janvier 2025, pilote une offensive réglementaire et rhétorique visant à faire des États-Unis le leader mondial de l'IA. L'administration Trump a déjà signé un décret exécutif abrogeant les restrictions imposées par Biden sur les modèles d'IA, et prépare un cadre favorable aux grandes entreprises technologiques comme OpenAI, Google, Microsoft et Meta, dont les dirigeants entretiennent des liens étroits avec la Maison-Blanche. L'enjeu est considérable : selon plusieurs sondages récents, une majorité d'Américains se déclarent inquiets des effets de l'IA sur l'emploi, la désinformation et la vie privée. Cette méfiance croissante constitue un handicap politique potentiel pour les républicains, qui risquent de se retrouver en porte-à-faux avec une base électorale peu enthousiaste à l'idée de financer massivement une technologie perçue comme menaçante pour les travailleurs. Cette tension reflète un clivage plus profond entre les intérêts des grandes plateformes technologiques, qui investissent des centaines de milliards de dollars dans l'IA générative, et une société civile qui réclame davantage de garde-fous. Les démocrates cherchent à exploiter ce fossé pour les midterms, tandis que Sacks et ses alliés parient sur la promesse de compétitivité face à la Chine pour rallier l'opinion. Le résultat de ce bras de fer idéologique influencera directement la trajectoire réglementaire de l'IA aux États-Unis pour les années à venir.

UELa trajectoire réglementaire pro-IA de l'administration Trump crée une asymétrie croissante avec l'AI Act européen, risquant de désavantager les entreprises soumises aux exigences de conformité européennes face à des acteurs américains moins contraints.

AutreReglementation
1 source