À lire aussi

Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé
Anthropic travaille sur un nouveau modèle d'intelligence artificielle baptisé Claude Mythos, décrit en interne comme le système le plus puissant jamais développé par l'entreprise. Selon des documents internes dont le contenu a été révélé par le magazine Fortune, ce modèle surpasse les capacités de tous les modèles Claude actuellement disponibles. Malgré ses performances exceptionnelles, Anthropic a décidé de ne pas le lancer publiquement, du moins pas dans l'immédiat. La raison de cette retenue est précisément la puissance du modèle : Mythos serait jugé trop capable pour être diffusé sans précautions supplémentaires. Ce type de décision illustre un dilemme croissant dans le secteur — plus les modèles progressent, plus les questions de sécurité et d'évaluation des risques deviennent centrales avant tout déploiement. Pour les utilisateurs professionnels et les entreprises qui dépendent des API d'Anthropic, cela signifie que la frontière technologique réelle est désormais en avance sur ce qui est commercialement accessible. Anthropic se distingue depuis sa fondation en 2021 par une approche dite de « sécurité d'abord », à rebours d'OpenAI dont elle est issue. La fuite de ces informations internes intervient dans un contexte de compétition acharnée entre laboratoires d'IA — OpenAI, Google DeepMind, Meta et xAI se livrant une course aux modèles toujours plus puissants. Le cas Mythos soulève une question stratégique : jusqu'où les labos peuvent-ils retenir leurs meilleurs modèles sans perdre du terrain commercial, et comment définir objectivement le seuil au-delà duquel un modèle est « trop dangereux » pour être publié ?
UELes développeurs et entreprises européens utilisant l'API d'Anthropic n'auront pas accès aux capacités les plus avancées de Mythos, creusant l'écart entre la frontière technologique réelle et les outils commercialement disponibles.

OpenAI révèle pourquoi il a vraiment tué Sora (ce n’est pas ce que vous croyez)
OpenAI a annoncé le 24 mars 2026 la fermeture de Sora, son réseau social entièrement propulsé par l'intelligence artificielle, moins d'un an après son lancement. L'application avait pourtant connu un démarrage fulgurant : près d'un million de téléchargements et une place parmi les plus populaires de l'App Store aux États-Unis. Lancée en parallèle du modèle vidéo Sora 2, la plateforme offrait une expérience sociale complète — génération de vidéos par IA, publication, partage, likes, commentaires et remixage des créations d'autres utilisateurs. Son interface, inspirée de TikTok et Instagram, enchaînait des vidéos réalistes mais jamais totalement convaincantes, provoquant ce malaise bien connu théorisé par Masahiro Mori sous le nom de « vallée de l'étrange ». Malgré des performances comparables à celles de Gemini et son modèle Veo 3, les vidéos trahissaient parfois leur origine artificielle : incohérences visuelles, mouvements erratiques, artefacts sonores. La fermeture s'explique par une équation économique intenable. Selon TechCrunch, faire tourner Sora coûtait environ un million de dollars par jour, pour des revenus mensuels estimés à seulement 367 000 dollars. Contrairement à ChatGPT, massivement adopté dans les entreprises, Sora restait cantonné au divertissement — un segment nettement moins rentable. Mais au-delà des finances, le projet s'est heurté à un problème de désinformation structurel. OpenAI avait intégré un filigrane pour signaler les vidéos générées par IA, mais des utilisateurs ont rapidement trouvé des moyens de le supprimer. Une fois effacé, il devenait quasi impossible de distinguer une vraie vidéo d'une création artificielle. Le potentiel de manipulation — déjà amplifié par la nature virale du réseau social — rendait la plateforme particulièrement exposée aux abus à grande échelle. La trajectoire de Sora illustre les tensions profondes auxquelles se confrontent les grandes entreprises d'IA en tentant de combiner génération de contenu synthétique et dynamiques de réseau social. Le modèle économique des plateformes sociales repose sur le volume et la publicité, deux logiques difficilement compatibles avec le coût astronomique de l'inférence vidéo. OpenAI, qui cherche à rentabiliser ses investissements colossaux avant une introduction en Bourse attendue, ne pouvait se permettre de subventionner indéfiniment un service déficitaire. L'arrêt de Sora ne signifie pas l'abandon du modèle vidéo — l'API restera accessible — mais marque la fin d'une tentative risquée de transformer une capacité technique spectaculaire en produit grand public viable. D'autres acteurs, Google et Meta en tête, observeront attentivement cet échec avant de s'aventurer sur le même terrain.

Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile
À huit mois des élections de mi-mandat de novembre 2026, l'intelligence artificielle s'impose comme un enjeu politique majeur aux États-Unis. David Sacks, nommé « AI & Crypto Czar » par Donald Trump en janvier 2025, pilote une offensive réglementaire et rhétorique visant à faire des États-Unis le leader mondial de l'IA. L'administration Trump a déjà signé un décret exécutif abrogeant les restrictions imposées par Biden sur les modèles d'IA, et prépare un cadre favorable aux grandes entreprises technologiques comme OpenAI, Google, Microsoft et Meta, dont les dirigeants entretiennent des liens étroits avec la Maison-Blanche. L'enjeu est considérable : selon plusieurs sondages récents, une majorité d'Américains se déclarent inquiets des effets de l'IA sur l'emploi, la désinformation et la vie privée. Cette méfiance croissante constitue un handicap politique potentiel pour les républicains, qui risquent de se retrouver en porte-à-faux avec une base électorale peu enthousiaste à l'idée de financer massivement une technologie perçue comme menaçante pour les travailleurs. Cette tension reflète un clivage plus profond entre les intérêts des grandes plateformes technologiques, qui investissent des centaines de milliards de dollars dans l'IA générative, et une société civile qui réclame davantage de garde-fous. Les démocrates cherchent à exploiter ce fossé pour les midterms, tandis que Sacks et ses alliés parient sur la promesse de compétitivité face à la Chine pour rallier l'opinion. Le résultat de ce bras de fer idéologique influencera directement la trajectoire réglementaire de l'IA aux États-Unis pour les années à venir.
UELa trajectoire réglementaire pro-IA de l'administration Trump crée une asymétrie croissante avec l'AI Act européen, risquant de désavantager les entreprises soumises aux exigences de conformité européennes face à des acteurs américains moins contraints.

LiteLLM rompt avec la startup controversée Delve
LiteLLM, une startup américaine qui propose une passerelle unifiée permettant aux développeurs d'accéder à des dizaines de modèles d'IA via une interface commune, a annoncé cette semaine qu'elle mettait fin à son partenariat avec Delve, une startup de conformité de sécurité dont la réputation est devenue problématique. LiteLLM avait fait appel à Delve pour obtenir deux certifications de conformité en matière de sécurité — des accréditations essentielles pour convaincre les clients entreprises. Cette rupture intervient quelques jours après que LiteLLM a été victime d'un logiciel malveillant de vol de credentials, une attaque particulièrement sérieuse qui a compromis des informations d'authentification sensibles. L'incident souligne les risques de la chaîne d'approvisionnement logicielle dans l'écosystème des outils d'IA, où des startups en croissance rapide s'appuient sur des tiers pour des fonctions critiques comme la sécurité et la conformité. Pour les entreprises clientes de LiteLLM — souvent des équipes techniques qui routent leurs appels API vers OpenAI, Anthropic ou d'autres fournisseurs à travers cette passerelle — une compromission de credentials peut signifier une exposition directe de leurs propres systèmes et données. Delve, déjà considérée comme controversée dans le secteur, voit sa position encore fragilisée par cet épisode. LiteLLM, de son côté, devra reconstruire sa crédibilité sécurité auprès de ses clients enterprise, dans un marché des outils d'infrastructure IA où la confiance est un différenciateur majeur face à des concurrents comme PortKey ou des solutions maison. Les suites judiciaires ou techniques de l'attaque malware restent à préciser.
UELes équipes techniques européennes utilisant LiteLLM pour router leurs appels vers des LLMs doivent vérifier et renouveler leurs credentials API, car une compromission pourrait exposer directement leurs propres systèmes et données.