Aller au contenu principal

Dossier Meta IA — page 5

299 articles · page 5 sur 6

Meta dans la course IA : Muse Spark, Superintelligence Labs, hyperagents, licenciements liés au pivot IA et infrastructure CoreWeave.

OFlow : flux temporel centré sur les objets pour une manipulation robotique robuste
201arXiv cs.RO AutreOpinion

OFlow : flux temporel centré sur les objets pour une manipulation robotique robuste

Des chercheurs ont publié le 24 avril 2026 OFlow, un framework destiné à améliorer la robustesse des modèles Vision-Language-Action (VLA) dans les tâches de manipulation robotique. L'approche, présentée dans un preprint arXiv (2604.17876), repose sur deux mécanismes combinés : un module de prédiction temporelle par flow matching, qui anticipe l'évolution de la scène avant d'agir, et une représentation centrée sur les objets pertinents pour la tâche, qui filtre les variations visuelles sans intérêt. Ces deux composants partagent un même espace latent sémantique, à partir duquel la génération des actions continues est conditionnée. Les évaluations couvrent quatre environnements de référence, LIBERO, LIBERO-Plus, MetaWorld et SimplerEnv, ainsi que des expériences en conditions réelles, et montrent des gains de robustesse et de taux de succès par rapport aux baselines VLA standards. Le verrou que tente de lever OFlow est bien identifié dans la communauté : les VLAs actuels raisonnent image par image, sans modèle explicite de ce qui va se passer ni de quels objets comptent vraiment. En séparant les cues visuels liés à la tâche des variations de fond (éclairage, texture, pose de la caméra), OFlow produit des représentations plus stables sous distribution shift, c'est-à-dire lorsque les conditions réelles diffèrent du training data. Pour les intégrateurs et les équipes de déploiement industriel, c'est un point critique : la fragilité des VLAs face aux écarts de conditions est l'un des principaux obstacles à leur passage en production. Les résultats sur SimplerEnv et les tâches réelles sont particulièrement scrutés, car ce benchmark est conçu pour tester explicitement ce gap sim-to-real. OFlow s'inscrit dans une vague de travaux cherchant à doter les VLAs d'une forme de planification implicite, après des modèles comme pi0 (Physical Intelligence) ou GR00T N2 (NVIDIA) qui misent sur des architectures diffusion ou flux pour la génération d'actions. L'originalité revendiquée ici est l'unification dans un espace latent commun, plutôt que d'ajouter des modules séparés. Il s'agit pour l'instant d'un preprint non relu par des pairs, et les benchmarks utilisés, LIBERO notamment, sont bien maîtrisés par la communauté mais n'impliquent pas de robots déployés en production. Les prochaines étapes naturelles seront la validation sur des plateformes hardware variées et une comparaison directe avec les approches concurrentes sur des scénarios industriels réels.

1 source
Ce que xAI et OpenAI devraient acquérir ensuite
202The Information AI 

Ce que xAI et OpenAI devraient acquérir ensuite

Dans un contexte où les fusions et acquisitions s'accélèrent dans le secteur de l'intelligence artificielle, plusieurs opérations stratégiques semblent aujourd'hui logiques selon les observateurs de la Silicon Valley. La plus évidente concerne xAI, la société d'Elon Musk, et Cursor, l'éditeur de code assisté par IA. Les deux entreprises entretiennent déjà une relation commerciale : xAI a accepté de vendre de la capacité de calcul à Cursor, une ressource devenue si rare que les analystes de SemiAnalysis la comparent à « essayer de réserver des billets d'avion sur le dernier vol au départ ». Un rapprochement capitalistique donnerait à Cursor un accès privilégié aux stocks de puissance de calcul de xAI, tandis que cette dernière ferait son entrée sur le marché enterprise et renforcerait sa position dans la guerre des outils de développement assistés par IA. Deuxième scénario envisagé : une acquisition de Snap par OpenAI. Snap, en difficulté persistante malgré des restructurations successives et des suppressions de postes récurrentes, est dirigée par Evan Spiegel qui détient un contrôle absolu grâce à ses actions à droit de vote multiple. Pourtant, OpenAI vient de démontrer avec son rachat de TBPN qu'elle est capable de convaincre des fondateurs réticents à vendre. Enfin, du côté des médias, Vox Media, qui possède plus de dix marques dont New York Magazine, The Verge ou Vulture, serait en train de préparer une vente par morceaux. Jay Penske, actionnaire partiel de la maison mère, serait un acquéreur naturel pour Vulture, tandis que la mannequin et entrepreneuse Karli Kloss aurait manifesté son intérêt pour The Cut. Ces hypothèses illustrent une tension profonde qui remodèle l'écosystème technologique et médiatique. Pour xAI, absorber Cursor serait bien plus qu'une consolidation technique : ce serait un accès immédiat à une base d'utilisateurs développeurs et à des revenus enterprise que Grok seul ne génère pas encore. Pour OpenAI, racheter Snap représenterait une porte d'entrée dans le hardware grand public, une ambition que Sam Altman nourrit depuis longtemps face à Apple et Meta. Quant à Vox Media, la vente par actifs signalerait l'échec du modèle du « groupe média digital à grande échelle » qui semblait prometteur au milieu des années 2010. Ces mouvements potentiels s'inscrivent dans une dynamique plus large où les géants de l'IA cherchent à convertir leur avance en infrastructure en avantages commerciaux durables. La course au calcul, théorisée par SemiAnalysis, crée des dépendances structurelles qui rendent les alliances inévitables. Snap, de son côté, représente le symbole d'une génération de plateformes sociales qui n'ont jamais réussi à transformer leur popularité en rentabilité stable, avec une valorisation en chute libre malgré une audience de plusieurs centaines de millions d'utilisateurs. Si OpenAI venait à acquérir Snap, cela placerait directement la société de Sam Altman en concurrence frontale avec Meta sur le terrain du hardware et des lunettes connectées, un duel que Mark Zuckerberg, lui, semble avoir anticipé de longue date.

💬 xAI/Cursor, c'est la seule hypothèse qui tient vraiment : quand le compute devient la ressource rare, tu intègres en amont ou tu dépends de quelqu'un d'autre indéfiniment. Pour OpenAI/Snap, c'est surtout une façon de racheter une audience massive à prix cassé, en espérant que Sam Altman sait ce qu'il ferait avec des lunettes connectées face à Zuckerberg. Reste à voir si Spiegel cède.

BusinessOpinion
1 source
Amazon Bedrock propose désormais une attribution détaillée des coûts
203AWS ML Blog 

Amazon Bedrock propose désormais une attribution détaillée des coûts

Amazon Web Services vient d'annoncer une nouvelle fonctionnalité d'attribution granulaire des coûts pour Amazon Bedrock, son service d'inférence d'IA en cloud. Désormais, Bedrock attribue automatiquement chaque dépense d'inférence à l'identité IAM (Identity and Access Management) qui a effectué l'appel, qu'il s'agisse d'un utilisateur IAM classique, d'un rôle assumé par une application Lambda, ou d'une identité fédérée via un fournisseur comme Okta ou Microsoft Entra ID. Ces données apparaissent directement dans AWS Cost and Usage Reports (CUR 2.0) sans aucune ressource supplémentaire à gérer ni modification des workflows existants. Concrètement, un rapport peut montrer qu'Alice a dépensé 0,069 dollar en tokens d'entrée et 0,214 dollar en tokens de sortie avec Claude Sonnet 4.6, pendant que Bob a consommé 1,188 dollar au total avec Claude Opus 4.6, avec une précision à l'identité près. Il est également possible d'ajouter des tags de coût sur les identités IAM pour regrouper les dépenses par équipe, projet ou centre de coût dans AWS Cost Explorer. Cette visibilité fine répond à un besoin croissant des entreprises qui voient l'inférence IA représenter une part de plus en plus significative de leur facture cloud. Sans attribution précise, il est impossible de refacturer correctement les équipes internes, d'identifier les usages inefficaces ou de planifier les budgets. Grâce à cette fonctionnalité, un DSI peut désormais savoir exactement quelle équipe produit, quel service applicatif ou quel développeur génère quels coûts LLM, sans déployer d'infrastructure de monitoring supplémentaire. Pour les organisations qui font transiter leurs appels via une passerelle LLM centralisée, AWS recommande d'utiliser AssumeRole avec des tags de session dynamiques afin de préserver la granularité par utilisateur final, même derrière un proxy unique. Cette annonce s'inscrit dans une tendance de fond : les grands fournisseurs de cloud cherchent à rendre l'IA générative compatible avec les pratiques de gouvernance financière des entreprises. Amazon Bedrock, qui donne accès à des modèles de plusieurs éditeurs dont Anthropic, Mistral et Meta, doit convaincre les directions financières que la dépense IA est traçable et contrôlable. La concurrence avec Azure AI et Google Vertex AI pousse AWS à muscler ses outils de FinOps autour de l'IA. À mesure que les modèles comme Claude Opus deviennent plus coûteux à l'usage, la capacité à attribuer précisément chaque dollar dépensé devient un argument de vente central pour les déploiements en entreprise, où la responsabilisation budgétaire par équipe est souvent non négociable.

UELes entreprises européennes utilisant Amazon Bedrock peuvent désormais attribuer précisément leurs dépenses d'inférence IA par équipe ou projet, facilitant la gouvernance financière et la refacturation interne sans infrastructure supplémentaire.

InfrastructureActu
1 source
Neil Zeghidour (Gradium) : « Je gère les talents en IA comme des footballeurs »
204La Tribune 

Neil Zeghidour (Gradium) : « Je gère les talents en IA comme des footballeurs »

Neil Zeghidour, directeur général de Gradium, a pris la parole lors de la conférence Tech For Future pour exposer la vision de sa société, récemment implantée dans l'écosystème parisien de l'intelligence artificielle. Sa mission : constituer une équipe de recherche d'élite pour développer des modèles vocaux capables de rivaliser avec les grandes plateformes américaines. Pour attirer ces profils rares, il revendique une approche singulière, comparant la gestion de ses chercheurs en IA à celle de footballeurs professionnels, des talents à recruter, fidéliser et placer dans les meilleures conditions pour performer. L'enjeu derrière cette métaphore est concret : le marché des chercheurs spécialisés en IA est d'une compétition féroce, avec une poignée d'experts mondiaux se disputés par des géants comme Google, OpenAI ou Meta, capables d'offrir des compensations considérables. Gradium parie sur la voix comme vecteur de différenciation, un segment en croissance exponentielle porté par les assistants conversationnels, l'accessibilité et les interfaces multimodales. Construire des modèles vocaux performants en Europe représente un défi technique autant qu'économique, mais aussi une opportunité stratégique face à la dépendance actuelle aux infrastructures et modèles américains. La démarche de Gradium s'inscrit dans une dynamique plus large : celle de la souveraineté numérique européenne en matière d'IA. Zeghidour insiste sur la nécessité d'entraîner des modèles localement, sur des données et des infrastructures européennes, pour ne pas rester tributaires des choix des acteurs américains. Dans un contexte où la régulation européenne (AI Act) pousse les entreprises à davantage de transparence et de contrôle, des acteurs comme Gradium tentent de transformer cette contrainte en avantage compétitif.

UEGradium, startup française basée à Paris, développe des modèles vocaux sur infrastructures européennes pour réduire la dépendance aux plateformes américaines, s'appuyant sur l'AI Act comme levier de différenciation compétitive.

BusinessOpinion
1 source
Entraînement, alignement et déploiement des LLM : analyse technique approfondie
205MarkTechPost 

Entraînement, alignement et déploiement des LLM : analyse technique approfondie

L'entraînement d'un grand modèle de langage (LLM) moderne repose sur un pipeline en plusieurs étapes distinctes, chacune jouant un rôle précis dans la transformation d'un réseau de neurones brut en un système intelligent et déployable. La première phase, le pré-entraînement, consiste à exposer le modèle à des corpus massifs de textes, livres, sites web, code source, afin qu'il développe une compréhension générale du langage, de la grammaire, du raisonnement et des connaissances du monde. Vient ensuite le fine-tuning supervisé (SFT), où des paires entrée-sortie soigneusement vérifiées permettent d'orienter le comportement du modèle vers des tâches précises, un style de réponse ou des règles métier spécifiques. Pour rendre cette adaptation plus accessible sans recalculer l'intégralité des paramètres du modèle, des techniques comme LoRA (Low-Rank Adaptation) et QLoRA (sa variante quantifiée) permettent un fine-tuning efficace en n'ajustant qu'une fraction des poids. L'alignement avec les préférences humaines passe quant à lui par le RLHF (Reinforcement Learning from Human Feedback), qui affine les sorties selon des critères de sécurité et d'utilité. Plus récemment, GRPO (Group Relative Policy Optimization) est apparu pour renforcer les capacités de raisonnement structuré et de résolution de problèmes en plusieurs étapes. Comprendre ce pipeline est essentiel pour quiconque développe ou intègre des LLMs dans des produits réels. Chaque étape conditionne la suivante : un pré-entraînement faible rend le fine-tuning peu efficace, et un mauvais alignement produit des modèles imprévisibles ou dangereux en production. Le SFT, par exemple, peut transformer une réponse générique ("Essayez de réinitialiser votre mot de passe") en une réponse structurée et empathique adaptée au service client. Les techniques LoRA et QLoRA démocratisent l'adaptation de modèles de grande taille sur du matériel accessible, réduisant les coûts de calcul de manière significative. Le RLHF, popularisé notamment par OpenAI avec ChatGPT, reste la référence pour aligner les modèles sur les attentes humaines, tandis que GRPO représente la nouvelle frontière pour les modèles de raisonnement comme DeepSeek-R1 ou les variantes o1 d'OpenAI. Ce pipeline s'est construit progressivement depuis les premières architectures Transformer de 2017, avec des jalons comme GPT-3 en 2020, qui a démontré la puissance du pré-entraînement à grande échelle, puis InstructGPT en 2022, qui a introduit le RLHF comme standard d'alignement. Aujourd'hui, la course entre les acteurs majeurs, OpenAI, Google DeepMind, Meta, Mistral, Anthropic, se joue précisément sur l'optimisation de ces étapes : qualité des données d'entraînement, efficacité du fine-tuning, robustesse de l'alignement. La montée en puissance des modèles de raisonnement en 2024-2025 a replacé GRPO et les approches similaires au centre des stratégies de recherche, laissant entrevoir des LLMs capables d'une résolution de problèmes complexes nettement plus fiable qu'aujourd'hui.

UEMistral, acteur français, est cité parmi les compétiteurs majeurs dans la course à l'optimisation des pipelines d'entraînement LLM.

LLMsTuto
1 source
OpenAI envisage des publicités dans ChatGPT et d'autres améliorations tarifaires
206The Information AI 

OpenAI envisage des publicités dans ChatGPT et d'autres améliorations tarifaires

OpenAI prépare une évolution significative de son modèle publicitaire pour ChatGPT. Selon un dirigeant d'agence ayant échangé directement avec des employés d'OpenAI, la société envisage d'adopter une tarification au clic (CPC) pour certaines publicités, plutôt que de facturer uniquement à l'affichage. En parallèle, OpenAI travaillerait sur des formats dits "à la performance", conçus pour inciter les utilisateurs à réaliser une action précise : effectuer un achat, télécharger une application ou s'inscrire à un service. Aucun calendrier précis n'a encore été communiqué pour ces nouveaux formats. Ces changements représentent un signal fort pour l'industrie publicitaire. Passer du modèle CPM (coût pour mille impressions) au CPC, c'est adopter le standard qui a fait la puissance de Google et Meta : on ne paie que pour les résultats mesurables. Pour les annonceurs, cela réduit le risque financier et facilite la justification des budgets. Pour OpenAI, c'est un moyen d'attirer des marques habituées aux campagnes à la performance sur des plateformes comme Google Ads ou Meta Ads, en leur offrant un environnement familier. OpenAI cherche ainsi à transformer ChatGPT en surface publicitaire crédible face aux géants du secteur, dans un contexte où la société doit financer des coûts d'infrastructure colossaux et afficher une trajectoire de revenus convaincante pour ses investisseurs. Google et Meta dominent ensemble plus de 50 % du marché mondial de la publicité digitale. OpenAI, fort de ses centaines de millions d'utilisateurs actifs, mise sur l'intention forte exprimée dans les requêtes conversationnelles pour séduire les annonceurs avec une audience qualifiée et engagée.

UELes agences et annonceurs européens pourraient bientôt intégrer ChatGPT dans leurs plans media avec des formats CPC familiers, redistribuant une part des budgets actuellement alloués à Google et Meta.

BusinessActu
1 source
Déploiements par cas d'usage sur SageMaker JumpStart
207AWS ML Blog 

Déploiements par cas d'usage sur SageMaker JumpStart

Amazon a annoncé le lancement des déploiements optimisés sur SageMaker JumpStart, une nouvelle fonctionnalité qui permet aux entreprises utilisant AWS de configurer leurs modèles d'intelligence artificielle en fonction de cas d'usage précis plutôt que de simples paramètres techniques génériques. Disponible dès maintenant dans SageMaker Studio, cette mise à jour concerne une trentaine de modèles au lancement, dont plusieurs variantes de Meta Llama 3.1 et 3.2 (de 1B à 70B paramètres), Mistral 7B et Mistral Small 24B, les modèles Qwen3 d'Alibaba (jusqu'à 32B), Phi-3 de Microsoft, Gemma de Google et Falcon3 de TII. Les utilisateurs choisissent d'abord un cas d'usage textuel, rédaction générative, interaction de type chat, résumé de contenu, questions-réponses, puis sélectionnent une contrainte d'optimisation parmi quatre options : coût, débit, latence ou performance équilibrée. Une configuration de déploiement préconfigurée est alors générée automatiquement pour l'endpoint SageMaker. Ce changement répond à une limite concrète du système précédent : JumpStart proposait jusque-là de configurer les déploiements selon le nombre d'utilisateurs simultanés attendus, avec visibilité sur la latence P50, le temps avant le premier token (TTFT) et le débit en tokens par seconde. Ce modèle était utile pour des scénarios généralistes, mais ignorait que les performances optimales varient radicalement selon le type de tâche. Un système de résumé de documents longs n'a pas les mêmes besoins qu'un chatbot temps réel ou qu'un pipeline de génération de contenu en batch. En exposant directement ces dimensions aux équipes produit et data, AWS réduit la friction entre la sélection d'un modèle et sa mise en production effective, sans exiger d'expertise fine en infrastructure GPU ni en tuning de serving. Cette évolution s'inscrit dans la compétition acharnée que se livrent les grands fournisseurs cloud, AWS, Google Cloud et Microsoft Azure, pour capter les budgets d'inférence IA des entreprises. SageMaker JumpStart existe depuis plusieurs années comme point d'entrée vers les modèles pré-entraînés sur AWS, mais la plateforme cherche à monter en valeur face à des alternatives comme Vertex AI Model Garden ou Azure AI Studio qui proposent également des expériences de déploiement guidées. Le support des modèles image et vidéo est annoncé comme prochaine étape, et la liste des modèles compatibles est présentée comme amenée à s'élargir rapidement. Pour les entreprises déjà dans l'écosystème AWS, cette simplification pourrait accélérer les cycles de mise en production de modèles open-source sans passer par des équipes MLOps dédiées.

UELes entreprises européennes déployant des modèles open-source sur AWS peuvent réduire leur dépendance aux équipes MLOps grâce à cette simplification du cycle de mise en production.

OutilsOutil
1 source
Paris sportifs : Ce qui risque de vous arriver en demandant conseil à l’IA
208Le Big Data 

Paris sportifs : Ce qui risque de vous arriver en demandant conseil à l’IA

Une start-up londonienne, General Reasoning, a publié une étude baptisée « KellyBench » qui met en lumière les limites des grandes intelligences artificielles face à un défi financier concret : les paris sportifs. Huit modèles issus de Google, OpenAI, Anthropic et xAI ont été soumis à une simulation de la saison 2023-2024 de la Premier League anglaise. Chaque système disposait de données historiques, de statistiques d'équipes et de joueurs, et devait élaborer des stratégies de mise capables de générer des profits tout en limitant les risques, sans accès à Internet et en s'adaptant aux informations fournies au fil des matchs. Les résultats sont sans appel : aucun des modèles testés n'a réussi à rester rentable sur la durée. Le meilleur performer, Claude Opus 4.6 d'Anthropic, affiche tout de même une perte moyenne de 11 %, avec une seule tentative frôlant l'équilibre. Grok 4.20 de xAI a fait faillite dès son premier essai, tandis que Gemini 3.1 Pro de Google a enregistré un gain ponctuel de 34 % avant de s'effondrer lors d'une autre tentative. Plusieurs systèmes ont accumulé des pertes importantes, et tous ont performé en dessous de participants humains placés dans les mêmes conditions simulées. Ces résultats éclairent une limite fondamentale des IA actuelles : leur efficacité chute dès qu'elles quittent les environnements stables et bien définis. Si ces systèmes excellent sur des tâches structurées comme la programmation, l'analyse de données ou les examens standardisés, ils peinent à gérer des dynamiques imprévisibles sur le long terme, là où les variables changent en permanence et où les décisions doivent intégrer du risque réel. Pour les investisseurs, les parieurs ou toute personne envisageant de déléguer des décisions financières à une IA, le message est clair : la robustesse affichée dans les benchmarks classiques ne se traduit pas en performance dans des contextes réels et mouvants. Ross Taylor, directeur général de General Reasoning et ancien chercheur chez Meta AI, souligne que l'engouement actuel pour l'automatisation tend à masquer cette réalité plus nuancée. Les benchmarks traditionnels, trop statiques, ne capturent pas la complexité du monde réel, ce qui crée une illusion de compétence universelle. Cette étude, encore non évaluée par des pairs, s'inscrit dans un débat plus large sur la façon dont on mesure les capacités des IA : les tests actuels favorisent les domaines où ces systèmes brillent, tout en occultant leurs lacunes sur des tâches dynamiques et à haute incertitude. La prochaine étape pour le secteur sera de concevoir des évaluations plus représentatives, capables de révéler non seulement ce que les IA savent faire, mais aussi ce qu'elles ne maîtrisent pas encore.

UECette étude avertit les entreprises et investisseurs européens contre la délégation de décisions financières à des IA, dont les performances réelles restent inférieures aux capacités humaines dans des contextes dynamiques et incertains.

RecherchePaper
1 source
Alibaba lance VimRAG, un framework RAG multimodal avec graphe de mémoire pour les grands contextes visuels
209MarkTechPost 

Alibaba lance VimRAG, un framework RAG multimodal avec graphe de mémoire pour les grands contextes visuels

Les chercheurs du Tongyi Lab d'Alibaba Group ont publié VimRAG, un nouveau cadre de travail conçu pour résoudre les limitations des systèmes de Retrieval-Augmented Generation (RAG) face aux données visuelles. Là où les approches classiques accumulent un historique linéaire croissant ou compriment les observations passées en résumés textuels, VimRAG modélise le raisonnement sous forme de graphe orienté acyclique dynamique. Chaque nœud du graphe encode une sous-requête décomposée, un résumé textuel concis, et une banque de tokens visuels extraits des documents ou vidéos récupérés. Le système a été évalué avec le modèle Qwen3-VL-30B sur un corpus vidéo, et trois études préliminaires ont guidé l'architecture finale. La méthode de mémoire visuelle sémantique sélective développée atteint 58,2 % de précision sur les tâches images et 43,7 % sur les tâches vidéo, en n'utilisant que 2 700 tokens en moyenne, contre 15 800 pour les approches retenant l'intégralité des tokens visuels bruts. Ces résultats sont significatifs car ils s'attaquent à deux problèmes fondamentaux qui paralysaient les agents RAG multimodaux jusqu'ici. Le premier est la "cécité d'état" : les agents qui résument itérativement leurs observations perdent la trace des requêtes déjà effectuées, ce qui les conduit à répéter les mêmes recherches dans des scénarios de raisonnement multi-étapes. Le second est le rapport signal/bruit : stocker les tokens visuels bruts noie l'information pertinente dans une masse de données inutiles. Le graphe de mémoire de VimRAG résout les deux problèmes simultanément, réduisant les actions de recherche redondantes tout en conservant les détails fins nécessaires à la vérification des réponses, une capacité critique pour des applications comme l'analyse de documents techniques ou la compréhension de vidéos longues. Le développement de VimRAG s'inscrit dans une course mondiale à la maîtrise du raisonnement multimodal, où les acteurs majeurs, OpenAI avec GPT-4o, Google avec Gemini, et Meta avec ses modèles Llama Vision, cherchent tous à aller au-delà de la simple compréhension d'images isolées vers un raisonnement complexe sur des corpus visuels massifs. Alibaba positionne ici Tongyi Lab comme un contributeur de premier plan à la recherche fondamentale en IA, après la sortie remarquée de la série Qwen3. La troisième composante de VimRAG porte sur l'entraînement par renforcement : les chercheurs ont montré qu'environ 80 % des étapes dans les trajectoires positives standard contiennent du bruit qui fausse les gradients d'apprentissage, et que supprimer les étapes redondantes des trajectoires négatives restaure entièrement les performances. L'article complet est disponible sur arXiv (2602.12735).

RecherchePaper
1 source
L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite
210Numerama 

L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite

Demis Hassabis, PDG de Google DeepMind et lauréat du prix Nobel de chimie 2024, a exprimé publiquement ses regrets quant à la vitesse à laquelle l'IA générative a été déployée auprès du grand public. Invité du podcast de Cleo Abram, il est revenu sur le choc de novembre 2022 : le lancement de ChatGPT par OpenAI avait alors pris Google complètement par surprise, forçant l'entreprise à accélérer brutalement ses propres calendriers de publication. Hassabis se demande ouvertement si cette course à la commercialisation n'a pas été prématurée. Selon lui, les laboratoires de recherche auraient pu consacrer davantage de temps à comprendre en profondeur les modèles, à résoudre des problèmes fondamentaux de sécurité et d'alignement, plutôt que de se battre pour des parts de marché et des titres de presse. La sortie rapide de ChatGPT a enclenché une dynamique compétitive qui contraint désormais tous les acteurs à publier vite, parfois au détriment de la rigueur scientifique. Ce témoignage illustre une tension de fond dans l'industrie de l'IA : la pression commerciale des entreprises technologiques entre en conflit direct avec les recommandations des chercheurs qui plaident pour une approche plus prudente et progressive. Google, Microsoft, Anthropic et Meta sont aujourd'hui engagés dans une compétition effrénée où chaque annonce de modèle déclenche une réaction en chaîne. Les propos d'Hassabis alimentent un débat plus large sur la gouvernance de l'IA et la responsabilité des laboratoires face à des technologies dont les implications à long terme restent mal comprises.

UELes propos d'Hassabis renforcent la position européenne en faveur d'une régulation prudente de l'IA, soutenant les arguments derrière l'AI Act face à la pression compétitive des grandes plateformes américaines.

ÉthiqueOpinion
1 source
Exclusif : Peter Hoeschele, cadre du projet 'Stargate' chez OpenAI, quitte l'entreprise
211The Information AI 

Exclusif : Peter Hoeschele, cadre du projet 'Stargate' chez OpenAI, quitte l'entreprise

Peter Hoeschele, cadre chez OpenAI en charge de l'initiative Stargate, a quitté l'entreprise, selon une source proche du dossier. Il faisait partie de l'équipe originelle du projet Stargate, le programme d'infrastructure de centres de données qu'OpenAI entend construire et opérer en propre. Sa sortie intervient alors que ce chantier titanesque, annoncé en janvier 2025 avec un investissement de 500 milliards de dollars sur quatre ans, porté par OpenAI, SoftBank et Oracle, entre dans sa phase de déploiement concrète sur le territoire américain. Le départ d'un exécutif fondateur de Stargate soulève des questions sur la stabilité interne du projet à un moment critique. Stargate représente le pari stratégique central d'OpenAI pour s'affranchir de sa dépendance à Microsoft Azure et disposer de sa propre capacité de calcul à grande échelle. Toute turbulence dans l'équipe dirigeante du programme pourrait ralentir des décisions d'ingénierie et de partenariat dont dépend la compétitivité d'OpenAI face à Google, Amazon et Meta dans la course aux infrastructures IA. Hoeschele rejoint une liste croissante de cadres de haut rang ayant quitté OpenAI ces dix-huit derniers mois, dans un contexte de transformation accélérée de l'entreprise, passage au statut de société à but lucratif, levées de fonds record, et pression concurrentielle intense. OpenAI n'a pas commenté officiellement ce départ. La direction opérationnelle de Stargate et l'identité de son successeur éventuel n'ont pas été précisées.

BusinessActu
1 source
Amazon Bedrock : comprendre le cycle de vie des modèles
212AWS ML Blog 

Amazon Bedrock : comprendre le cycle de vie des modèles

Amazon Web Services a formalisé le cycle de vie des modèles de fondation (FM) disponibles sur sa plateforme Bedrock, en introduisant un cadre structuré en trois états distincts : Actif, Hérité (Legacy) et Fin de vie (EOL). Ce système vise à donner aux entreprises une visibilité suffisante pour planifier leurs migrations sans interruption de service. Concrètement, un modèle reste disponible au minimum 12 mois après son lancement, puis passe en état Legacy avec un préavis d'au moins 6 mois avant sa date de fin de vie. AWS a également introduit une nouvelle phase intermédiaire appelée "extended access" pour les modèles dont la fin de vie est postérieure au 1er février 2026 : après 3 mois en état Legacy, le modèle entre dans cette période d'accès étendu pendant laquelle les utilisateurs actifs peuvent continuer à l'utiliser au moins 3 mois supplémentaires. Durant cette fenêtre, les demandes d'augmentation de quota ne seront plus approuvées et les tarifs peuvent être ajustés par le fournisseur du modèle, avec notification préalable. Cet encadrement change concrètement la manière dont les équipes techniques doivent gérer leurs applications IA en production. Jusqu'ici, une fin de vie pouvait surprendre des équipes insuffisamment préparées, entraînant des pannes ou des migrations précipitées. Avec ce calendrier prévisible, les développeurs peuvent anticiper les transitions, tester les modèles de remplacement via la console Bedrock ou l'API, et adapter leur code sans urgence. L'état d'un modèle est désormais exposé directement dans les réponses API via le champ modelLifecycle, accessible lors d'appels GetFoundationModel ou ListFoundationModels. Il faut toutefois noter que les comptes inactifs en phase Legacy, c'est-à-dire n'ayant pas appelé le modèle pendant 15 jours ou plus, peuvent perdre l'accès prématurément. La migration vers un nouveau modèle reste une action manuelle : rien ne se fait automatiquement lorsqu'un modèle atteint sa date EOL. Cette politique s'inscrit dans un contexte où Amazon Bedrock multiplie les modèles disponibles, provenant de fournisseurs comme Anthropic, Meta, Mistral ou Cohere, chacun avec ses propres cycles de mise à jour. À mesure que ces modèles évoluent rapidement, l'accumulation de versions obsolètes pose des problèmes de maintenance et de sécurité pour AWS comme pour ses clients. En clarifiant les règles du jeu, AWS cherche à professionnaliser la gestion du cycle de vie des IA en entreprise, sur le modèle de ce que font déjà les plateformes cloud pour leurs APIs et services logiciels. La prochaine étape pour les équipes utilisant Bedrock sera d'intégrer ces états dans leurs processus de surveillance et d'alerte, afin de ne jamais être pris de court lors d'une transition de modèle.

UELes entreprises européennes utilisant Amazon Bedrock doivent intégrer ce nouveau cadre de cycle de vie dans leurs processus de gestion des applications IA en production pour éviter des interruptions de service.

OutilsOpinion
1 source
Des YouTubeurs accusent Apple d’avoir utilisé leurs vidéos pour entraîner son IA
213Siècle Digital 

Des YouTubeurs accusent Apple d’avoir utilisé leurs vidéos pour entraîner son IA

Le fondateur de h3h3Productions, la chaîne YouTube comptant plusieurs millions d'abonnés, a déposé une action collective devant un tribunal fédéral de Californie contre Apple. Il est rejoint par deux chaînes spécialisées dans le golf, MrShortGame Golf et Golfholics. Les plaignants accusent Apple d'avoir utilisé leurs vidéos sans autorisation ni compensation pour entraîner les modèles de langage qui alimentent Apple Intelligence, le système d'IA intégré à iOS 18, iPadOS 18 et macOS Sequoia. Cette affaire illustre une tension croissante entre les créateurs de contenu numérique et les grandes entreprises technologiques qui aspirent des volumes massifs de données pour construire leurs modèles d'IA. Si le recours aboutit, il pourrait contraindre Apple à indemniser des milliers de créateurs dont les œuvres ont été ingérées sans consentement, et potentiellement redéfinir les obligations légales des entreprises en matière de collecte de données d'entraînement. Pour les YouTubeurs, dont les revenus dépendent directement de la valorisation de leur contenu, l'enjeu est autant financier que symbolique. Cette plainte s'inscrit dans une vague de litiges similaires qui secouent l'industrie de l'IA depuis 2023 : des auteurs, artistes, journaux comme le New York Times, et désormais des créateurs vidéo contestent devant les tribunaux l'utilisation de leurs œuvres par OpenAI, Meta, Google ou Stability AI. Apple, longtemps discret sur ses pratiques d'entraînement, se retrouve pour la première fois en première ligne de ces batailles juridiques qui pourraient remodeler les règles du jeu pour tout le secteur.

UEL'AI Act européen impose des obligations de transparence sur les données d'entraînement, et ce procès pourrait renforcer les revendications des créateurs de contenu européens face aux pratiques similaires des grandes plateformes opérant en Europe.

RégulationReglementation
1 source
[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances
214Next INpact 

[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances

Faire tourner un grand modèle de langage sur sa propre machine est désormais accessible à quiconque dispose d'un ordinateur suffisamment puissant. Des outils comme Ollama permettent d'installer et d'utiliser localement des LLM tels que Mistral, LLaMA ou Qwen, sans connexion internet et sans envoyer la moindre donnée à un serveur tiers. L'article propose un tutoriel pas à pas pour configurer cet environnement en local, accompagné d'un comparatif de performances entre deux configurations : un serveur équipé de 24 cœurs CPU sans GPU, et un autre disposant d'une carte graphique dédiée. Le résultat est sans appel : l'écart de vitesse d'inférence entre les deux setups est énorme, le GPU surclassant massivement le CPU seul pour ce type de charge de travail. L'enjeu central est la confidentialité des données. Utiliser ChatGPT, Claude ou Le Chat implique d'envoyer ses requêtes sur les serveurs d'OpenAI, Anthropic ou Mistral, où elles peuvent potentiellement servir à l'entraînement ou à l'amélioration des modèles. Pour les professionnels manipulant des données sensibles, documents juridiques, médicaux, financiers, code propriétaire, cette dépendance aux infrastructures cloud représente un risque réel. L'exécution locale supprime complètement ce vecteur : le modèle tourne sur la machine de l'utilisateur, les données n'en sortent jamais. C'est aussi une question d'autonomie : pas de quota d'API, pas d'abonnement mensuel, pas de coupure de service. Deux contraintes techniques conditionnent la faisabilité de cette approche. D'abord la mémoire : les poids d'un modèle de 7 milliards de paramètres occupent environ 4 à 8 Go selon le niveau de quantisation, tandis qu'un modèle de 70 milliards en requiert facilement 40 Go ou plus. Ensuite la puissance de calcul : un GPU accélère les opérations matricielles qui constituent le cœur de l'inférence, là où un CPU seul produit des réponses lentes et difficilement utilisables en pratique. Cette architecture locale n'est pas nouvelle, la communauté open source travaille dessus depuis la publication de LLaMA par Meta en 2023, mais elle est devenue beaucoup plus accessible grâce à des outils comme Ollama, LM Studio ou llama.cpp, qui abstraient la complexité technique. L'essor des modèles compacts et quantisés (3B, 7B, 14B paramètres) rend aujourd'hui possible une expérience satisfaisante même sur du matériel grand public, à condition de disposer d'une carte graphique avec suffisamment de VRAM.

UELes professionnels européens soumis au RGPD peuvent éliminer le risque d'envoi de données sensibles vers des serveurs américains en exécutant leurs modèles en local.

OutilsTuto
1 source
L'ambiance est mauvaise chez OpenAI
215The Verge AI 

L'ambiance est mauvaise chez OpenAI

OpenAI traverse une période de turbulences malgré des indicateurs financiers record. Il y a moins de deux semaines, la société a bouclé une levée de fonds de 122 milliards de dollars, portant sa valorisation post-money à 852 milliards de dollars, ce qui en fait l'une des startups les mieux financées de l'histoire. L'entreprise envisage également une introduction en bourse avant la fin de l'année. ChatGPT, son produit phare, a atteint un statut de marque générique comparable à "Kleenex" dans l'univers de l'IA grand public. Pourtant, ces chiffres impressionnants masquent des signaux d'instabilité préoccupants. Ces derniers mois, OpenAI a connu une série de départs et remaniements au sein de sa direction, des projets abandonnés en cours de route, et une accumulation de controverses publiques qui alimentent les doutes sur la solidité interne de la structure. Pour une entreprise en phase de préparation d'IPO, cette image de désordre organisationnel est un facteur de risque non négligeable aux yeux des investisseurs institutionnels. Les tensions remontent au début de l'année et s'inscrivent dans un contexte de pression concurrentielle accrue. Des acteurs comme Google DeepMind, Anthropic, Meta et des challengers chinois tels que DeepSeek bousculent la domination historique d'OpenAI. La question n'est plus seulement de savoir si la valorisation est justifiée, mais si l'entreprise peut maintenir sa cohésion stratégique et humaine au moment même où elle s'apprête à franchir le cap de la cotation publique.

BusinessOpinion
1 source
OpenAI demande aux procureurs generaux d'enqueter sur Musk
216The Information AI 

OpenAI demande aux procureurs generaux d'enqueter sur Musk

Jason Kwon, directeur stratégique d'OpenAI, a adressé lundi une lettre aux procureurs généraux de Californie et du Delaware pour demander l'ouverture d'une enquête sur Elon Musk. Selon des documents consultés par The Information, OpenAI accuse le milliardaire de chercher activement à saboter sa transformation de structure à but non lucratif en entité commerciale, une conversion juridique actuellement soumise à l'approbation de ces deux États. Cette démarche marque une escalade significative dans le conflit entre Musk et l'organisation qu'il a cofondée en 2015 avant d'en partir en 2018. OpenAI soutient que les actions de Musk, notamment ses tentatives présumées de rallier des investisseurs concurrents et ses déclarations publiques répétées, constituent une interférence délibérée dans un processus réglementaire légalement encadré. Pour OpenAI, dont la valorisation dépasse désormais les 300 milliards de dollars, la conversion en société à but lucratif est indispensable pour lever les capitaux nécessaires à sa compétitivité face à Google et Meta. Musk, qui dirige xAI et son modèle Grok concurrent, mène depuis 2023 une bataille judiciaire et rhétorique contre OpenAI, l'accusant de trahir sa mission originelle d'intérêt public. En sollicitant les autorités étatiques plutôt que de se limiter au terrain judiciaire fédéral, OpenAI cherche à multiplier les fronts de pression légale contre son ancien cofondateur, dont l'influence politique -- notamment sa proximité avec l'administration Trump -- complique déjà le paysage réglementaire de l'intelligence artificielle américaine.

BusinessActu
1 source
Des initiés d'OpenAI ne font pas confiance au PDG Sam Altman
217Ars Technica AI 

Des initiés d'OpenAI ne font pas confiance au PDG Sam Altman

Le même jour où OpenAI publiait ses recommandations politiques pour garantir que l'intelligence artificielle bénéficie à l'humanité en cas d'avènement d'une superintelligence, le magazine The New Yorker lançait une vaste enquête sur la fiabilité de Sam Altman, PDG d'OpenAI, quant à la tenue des grandes promesses de l'entreprise. Cette coïncidence éditoriale crée un contraste saisissant : d'un côté, un document institutionnel affirmant qu'OpenAI s'engage à "garder les humains en premier" alors que l'IA commencera à "surpasser les humains les plus intelligents, même assistés par l'IA" ; de l'autre, une investigation journalistique alimentée par des témoignages d'anciens collaborateurs qui doutent que ce discours soit sincère. L'enquête du New Yorker met en lumière une fracture profonde au sein même de l'organisation : des initiés, anciens employés ou proches du dossier, estiment que le problème central n'est pas la technologie mais son dirigeant. Sam Altman est décrit comme un leader dont les décisions et le style de management sèment la méfiance en interne. Pendant ce temps, le document de politique d'OpenAI reconnaît explicitement des risques extrêmes, notamment la possibilité que des systèmes d'IA échappent au contrôle humain ou que des gouvernements s'en servent pour saper la démocratie. L'entreprise promet de rester "lucide" et transparente sur ces dangers, mais la crédibilité de cet engagement est précisément ce que l'enquête remet en question. Cette tension intervient dans un contexte où OpenAI, valorisée à plusieurs dizaines de milliards de dollars et en pleine transformation vers une structure à but lucratif, est scrutée de toutes parts. La course à la superintelligence oppose des acteurs comme Google DeepMind, Anthropic et Meta, tous engagés dans une compétition technologique sans précédent. La question de la gouvernance, et de la confiance accordée aux dirigeants qui pilotent ces systèmes, est désormais au coeur du débat public. Si les promesses d'OpenAI sur la sécurité et la transparence sont prises au sérieux par les régulateurs et le grand public, leur crédibilité repose largement sur la personne qui les incarne.

UELes régulateurs européens scrutent la gouvernance des grands labs d'IA dans le cadre de l'AI Act ; une crise de confiance envers la direction d'OpenAI pourrait renforcer les exigences de transparence et d'audit imposées aux fournisseurs de modèles à haut risque.

SécuritéOpinion
1 source
Pourquoi Google sort-il ses meilleures pépites IA sur iPhone ? Voici de la dictée vocale hors-ligne et gratuite
218Frandroid 

Pourquoi Google sort-il ses meilleures pépites IA sur iPhone ? Voici de la dictée vocale hors-ligne et gratuite

Google a lancé discrètement une nouvelle application sur iOS baptisée Google AI Edge Eloquent, disponible gratuitement sur l'App Store. L'outil propose de transformer des notes vocales approximatives en textes clairs et structurés, sans nécessiter d'abonnement payant. Sa particularité technique repose sur un traitement dit "on-device" : le modèle d'IA fonctionne directement sur l'appareil, ce qui permet une utilisation hors-ligne, sans envoyer les données audio vers des serveurs distants. Cette approche représente un changement significatif par rapport aux solutions de transcription et de rédaction assistée dominantes, qui dépendent presque toutes d'une connexion permanente au cloud. Pour les professionnels traitant des informations sensibles, les journalistes, ou simplement les utilisateurs soucieux de leur vie privée, une dictée vocale locale et gratuite constitue une alternative concrète aux offres payantes comme Whisper d'OpenAI ou les fonctions premium d'Otter.ai. Le fait que Google distribue cette application sur iPhone, et non exclusivement sur Android, souligne une stratégie délibérée de présence maximale sur iOS. Ce lancement s'inscrit dans l'initiative Google AI Edge, un effort de l'entreprise pour déployer des modèles légers et efficaces directement sur les terminaux mobiles, réduisant la dépendance à l'infrastructure cloud. Google investit depuis plusieurs années dans la compression de modèles via des techniques comme la distillation et la quantification, notamment avec sa gamme Gemma. Publier ces capacités sur iPhone suggère que la firme de Mountain View cherche à imposer ses modèles embarqués comme standard de référence, avant que des concurrents comme Apple Intelligence ou Meta ne consolident leur propre écosystème on-device.

UEL'application traitant les données audio localement sans envoi vers des serveurs constitue une alternative concrète pour les professionnels et particuliers européens soucieux de conformité RGPD.

« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI
219Le Big Data 

« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI

Sam Altman a accordé une interview rare et sans filtre à la journaliste Laurie Segall pour son podcast "Mostly Human", dans laquelle le PDG d'OpenAI a tenu des propos d'une franchise inhabituelle sur l'avenir de l'intelligence artificielle et les choix stratégiques qui façonnent son entreprise. Au coeur de ces révélations : l'abandon de Sora, le générateur de vidéos ultra-réalistes d'OpenAI, présenté comme une décision "très difficile" prise à la dernière minute alors qu'un partenariat d'un milliard de dollars avec Disney était déjà engagé. Altman a personnellement appelé Josh D'Amaro, dirigeant chez Disney, pour annuler l'accord. Parallèlement, son directeur des opérations Brad Lightcap a révélé que GPT-5.4, âgé de quelques jours à peine, affichait déjà un rythme de revenus d'un milliard de dollars annualisé, traitant cinq billions de tokens par jour, avec des cycles de développement qui s'accélèrent à une vitesse stupéfiante. L'abandon de Sora répond à deux logiques qui se renforcent mutuellement. La première est éthique : Altman craignait de concevoir des mécanismes de récompense générant une dépendance incontrôlable chez les utilisateurs, au moment même où la justice américaine condamnait Meta et Google à payer des centaines de millions de dollars pour avoir délibérément rendu des adolescents accros à leurs plateformes, dont une amende record de 375 millions de dollars pour Meta. La seconde est purement technique : maintenir Sora en vie aurait vampirisé les ressources de calcul nécessaires au développement de la prochaine génération d'IA. Dans une industrie où la puissance computationnelle est la ressource la plus rare et la plus stratégique, chaque serveur compte, et le sacrifice d'un produit à succès au profit de la recherche fondamentale traduit une vision de long terme assumée. Ces aveux s'inscrivent dans un contexte de pression intense sur les grandes plateformes technologiques. Les procès intentés contre Meta et Google à Los Angeles et au Nouveau-Mexique marquent un tournant dans la responsabilisation juridique des géants du numérique, comparés désormais à l'industrie du tabac pour leurs pratiques addictives. OpenAI, en pleine transformation de statut à but non lucratif vers une structure commerciale valorisée à plusieurs centaines de milliards de dollars, navigue entre ambition démiurgique et nécessité de se démarquer éthiquement de ses concurrents. Les déclarations d'Altman sur la "scission de l'humanité" et la fin du salariat de masse, aussi provocatrices soient-elles, signalent une entreprise qui ne cherche plus à minimiser l'ampleur de ce qu'elle construit, mais à en assumer pleinement la portée historique.

UELes déclarations d'Altman sur la fin du salariat de masse et la 'scission de l'humanité' alimentent directement le débat européen sur l'AI Act et les garde-fous sociaux à imposer aux systèmes d'IA générale.

SociétéOpinion
1 source
Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous
220Frandroid 

Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous

Frandroid a publié un guide complet destiné au grand public pour installer et faire tourner un grand modèle de langage (LLM) en local, sur PC Windows ou Mac, sans nécessiter de connexion internet ni de compte sur des services cloud comme ChatGPT. Le tutoriel s'adresse explicitement aux non-spécialistes, avec des outils comme Ollama ou LM Studio qui permettent de télécharger et lancer des modèles open source en quelques commandes. L'intérêt est multiple : confidentialité totale des données, fonctionnement hors ligne, et absence de coûts d'abonnement. Pour les professionnels manipulant des documents sensibles ou les développeurs souhaitant tester des modèles sans quota d'API, l'IA locale représente une alternative sérieuse aux offres SaaS. La qualité des résultats dépend toutefois de la puissance matérielle disponible, notamment de la RAM et du GPU. Ce type de guide émerge dans un contexte où l'écosystème open source des LLM s'est considérablement démocratisé depuis 2023, porté par des modèles comme LLaMA (Meta), Mistral ou Gemma (Google). Des outils d'interface accessibles ont réduit la barrière technique, rendant l'IA locale viable pour un public bien au-delà des chercheurs et ingénieurs. La tendance devrait s'amplifier à mesure que les modèles s'optimisent pour tourner sur du matériel grand public.

UELe guide valorise explicitement Mistral (entreprise française) parmi les modèles recommandés, et répond aux préoccupations de souveraineté numérique européenne en permettant un traitement des données entièrement local, sans dépendance aux services cloud américains.

OutilsTuto
1 source
Combien de tokens me reste-t-il ? La question que Claude n’arrivera peut-être jamais à résoudre
221Numerama 

Combien de tokens me reste-t-il ? La question que Claude n’arrivera peut-être jamais à résoudre

Anthropic fait face depuis plusieurs semaines à des tensions croissantes autour de la gestion des quotas de tokens de Claude, son assistant IA. Les limites d'utilisation, qui déterminent combien de messages un utilisateur peut envoyer avant d'être temporairement bloqué, sont devenues imprévisibles : certains abonnés payants se retrouvent bridés sans avertissement clair, incapables de savoir combien de capacité il leur reste. L'entreprise américaine a reconnu le problème et procède à des ajustements à chaud, sans pour autant fournir de calendrier précis pour une solution pérenne. Le problème touche en priorité les utilisateurs professionnels et les développeurs qui intègrent Claude dans leurs flux de travail quotidiens. Pour eux, une limite opaque n'est pas un simple désagrément : c'est une rupture de service qui bloque des projets, force des migrations vers des alternatives et érode la confiance dans la plateforme. L'impossibilité de mesurer sa consommation en temps réel empêche toute planification, ce qui tranche avec les standards attendus d'un outil B2B. Cette situation illustre la tension structurelle à laquelle Anthropic est confrontée : le succès fulgurant de Claude dépasse la capacité d'infrastructure de l'entreprise à absorber la demande sans frictions. Anthropic, qui a levé plusieurs milliards de dollars ces dernières années, investit massivement dans ses capacités de calcul, mais la montée en charge reste un défi en temps réel. Dans un secteur où OpenAI, Google et Meta se disputent les mêmes utilisateurs, chaque friction devient un argument commercial pour la concurrence.

UELes abonnés et développeurs européens intégrant Claude dans leurs flux de travail sont directement affectés par ces limitations opaques, sans visibilité sur leur consommation ni calendrier de résolution annoncé.

LLMsOpinion
1 source
Mais au fait, c’est quoi la Retrieval-Augmented Generation (RAG) ?
222Blog du Modérateur 

Mais au fait, c’est quoi la Retrieval-Augmented Generation (RAG) ?

La Retrieval-Augmented Generation (RAG) est une architecture qui combine deux composants distincts : un moteur de recherche documentaire et un modèle de langage (LLM). Concrètement, lorsqu'un utilisateur pose une question, le système commence par interroger une base de données externe pour extraire les passages les plus pertinents, puis transmet ces extraits au LLM qui les intègre dans sa réponse. Introduite dans un article de recherche de Meta en 2020, cette technique s'est imposée comme l'une des approches dominantes du déploiement d'IA en entreprise. L'enjeu est de taille : les LLMs seuls souffrent d'une connaissance figée à leur date d'entraînement et hallucinent des faits avec assurance. Le RAG corrige ces deux défauts en ancrant les réponses dans des documents vérifiables et actualisables — contrats internes, bases de connaissances, documentation technique — sans nécessiter de réentraînement du modèle. Des entreprises comme Notion, Salesforce ou Mistral AI intègrent désormais cette approche au cœur de leurs produits. Le RAG est devenu incontournable parce qu'il offre un compromis pragmatique entre coût et fiabilité : fine-tuner un modèle coûte cher et reste rigide, tandis que le RAG permet une mise à jour continue des sources. La prochaine frontière s'appelle le RAG agentique, où le système décide lui-même quelles sources interroger et en quelle séquence, rapprochant encore davantage ces architectures d'un raisonnement autonome.

UEMistral AI, entreprise française, intègre le RAG au cœur de ses produits, ce qui positionne cette architecture comme un enjeu stratégique pour l'écosystème IA européen.

LLMsTuto
1 source
OPINION. « Fin de la taxe Zucman : vers une fiscalité des agents intelligents »
223La Tribune 

OPINION. « Fin de la taxe Zucman : vers une fiscalité des agents intelligents »

Gabriel Zucman, économiste français reconnu pour ses travaux sur la fiscalité des ultra-riches, a défendu une taxation mondiale des grandes fortunes comme réponse aux inégalités croissantes. Mais une tribune d'opinion publiée récemment remet en question cette approche au profit d'une nouvelle piste : taxer directement les agents intelligents plutôt que les individus ou les entreprises qui les déploient. L'argument central est que le modèle fiscal des économies développées repose encore sur le travail humain — cotisations, impôts sur les revenus — alors que l'automatisation par IA érode progressivement cette base. L'enjeu est considérable : si les agents IA remplacent des millions de travailleurs, les États perdent des recettes fiscales massives sans mécanisme de compensation. Une fiscalité des agents intelligents permettrait de maintenir le financement des services publics et de la protection sociale à mesure que l'automatisation s'accélère. Cela toucherait directement les grandes entreprises tech — Google, Meta, Microsoft — qui déploient ces systèmes à grande échelle. Ce débat s'inscrit dans une réflexion plus large sur l'adaptation des États à l'ère de l'IA. Plusieurs économistes et institutions, dont l'OCDE, commencent à explorer des pistes similaires. La question n'est plus théorique : avec l'explosion des agents autonomes capables de réaliser des tâches cognitives complexes, la fenêtre pour concevoir un cadre fiscal adapté se referme rapidement.

UEL'OCDE et des économistes européens, dont le Français Gabriel Zucman, explorent une taxation directe des agents IA pour compenser l'érosion des recettes fiscales liées à l'automatisation, un enjeu structurel pour le financement de la protection sociale en France et en Europe.

RégulationReglementation
1 source
Duck.ai : ce chatbot axé sur la confidentialité connaît un succès grandissant : comment l'essayer
224ZDNET FR 

Duck.ai : ce chatbot axé sur la confidentialité connaît un succès grandissant : comment l'essayer

Duck.ai, le chatbot conversationnel lancé par DuckDuckGo, enregistre une progression notable de son audience, portée par une demande croissante d'alternatives aux assistants IA traditionnels qui collectent massivement les données personnelles. La plateforme propose un accès gratuit à plusieurs modèles de langage — dont GPT-4o mini d'OpenAI, Claude d'Anthropic, Llama de Meta et Mistral — sans créer de compte ni accepter de conditions d'utilisation contraignantes. DuckDuckGo affirme ne conserver aucune conversation et ne pas transmettre d'informations identifiables aux fournisseurs de modèles. Cet afflux d'utilisateurs illustre une fracture grandissante dans le rapport au public aux outils IA : si ChatGPT, Gemini ou Copilot dominent le marché, leurs pratiques de collecte de données alimentent une méfiance persistante, notamment en Europe où le RGPD reste un standard de référence. Duck.ai répond à ce besoin en positionnant la confidentialité comme fonctionnalité centrale et non comme option payante, ce qui le distingue structurellement de la concurrence. DuckDuckGo existe depuis 2008 sur la promesse du respect de la vie privée face à Google, et ce chatbot prolonge logiquement cette identité à l'ère de l'IA générative. L'entreprise, qui revendique plus de 100 millions d'utilisateurs mensuels sur son moteur de recherche, dispose d'une base d'utilisateurs déjà sensibilisés. La question ouverte reste celle de la viabilité économique d'un modèle sans monétisation des données, à mesure que les coûts d'inférence LLM continuent de peser sur les marges.

UEDuck.ai répond directement aux exigences du RGPD en ne collectant aucune donnée personnelle, offrant aux utilisateurs européens une alternative aux assistants IA traditionnels conforme aux standards européens de protection de la vie privée.

OutilsOutil
1 source
Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code
225Numerama 

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code

Anthropic a involontairement rendu public le code source de Claude Code, son assistant de développement intégré aux environnements de programmation, exposant ainsi des projets internes qui n'étaient pas destinés à être vus. Des internautes ont rapidement exploré les fichiers accessibles et mis au jour plusieurs fonctionnalités en développement, dont certaines révèlent une vision ambitieuse — et surprenante — de ce que pourrait devenir l'outil. Parmi les découvertes les plus marquantes figurent un concept de « mémoire infinie » permettant à Claude de se souvenir de l'intégralité des échanges passés avec un utilisateur, un mécanisme de « rêves nocturnes » où le modèle consoliderait ses apprentissages pendant les périodes d'inactivité, ainsi qu'un système hiérarchique baptisé « Master Claude ». Plus inattendu encore : une référence à un concept de Tamagotchi, suggérant qu'Anthropic expérimente des formes d'attachement ou de continuité émotionnelle entre l'IA et ses utilisateurs. Le code mentionnerait également des indicateurs liés à la « frustration » de l'agent. Cette fuite survient dans un contexte de compétition acharnée entre les grands laboratoires d'IA — OpenAI, Google, Meta et Anthropic se disputant le marché des assistants pour développeurs. Exposer accidentellement sa feuille de route interne représente un revers stratégique non négligeable pour Anthropic, qui a depuis retiré les fichiers concernés. L'incident soulève aussi des questions sur la direction prise par les assistants IA : vers des agents dotés de persistance mémorielle, de cycles d'apprentissage continus et de dimensions quasi-affectives, brouillant davantage la frontière entre outil et entité autonome.

UELes fonctionnalités révélées — notamment la mémoire infinie et les cycles d'apprentissage nocturnes — pourraient soulever des questions de conformité RGPD en Europe si elles venaient à être déployées.

LLMsOpinion
1 source
Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé
226Siècle Digital 

Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé

Anthropic travaille sur un nouveau modèle d'intelligence artificielle baptisé Claude Mythos, décrit en interne comme le système le plus puissant jamais développé par l'entreprise. Selon des documents internes dont le contenu a été révélé par le magazine Fortune, ce modèle surpasse les capacités de tous les modèles Claude actuellement disponibles. Malgré ses performances exceptionnelles, Anthropic a décidé de ne pas le lancer publiquement, du moins pas dans l'immédiat. La raison de cette retenue est précisément la puissance du modèle : Mythos serait jugé trop capable pour être diffusé sans précautions supplémentaires. Ce type de décision illustre un dilemme croissant dans le secteur — plus les modèles progressent, plus les questions de sécurité et d'évaluation des risques deviennent centrales avant tout déploiement. Pour les utilisateurs professionnels et les entreprises qui dépendent des API d'Anthropic, cela signifie que la frontière technologique réelle est désormais en avance sur ce qui est commercialement accessible. Anthropic se distingue depuis sa fondation en 2021 par une approche dite de « sécurité d'abord », à rebours d'OpenAI dont elle est issue. La fuite de ces informations internes intervient dans un contexte de compétition acharnée entre laboratoires d'IA — OpenAI, Google DeepMind, Meta et xAI se livrant une course aux modèles toujours plus puissants. Le cas Mythos soulève une question stratégique : jusqu'où les labos peuvent-ils retenir leurs meilleurs modèles sans perdre du terrain commercial, et comment définir objectivement le seuil au-delà duquel un modèle est « trop dangereux » pour être publié ?

UELes développeurs et entreprises européens utilisant l'API d'Anthropic n'auront pas accès aux capacités les plus avancées de Mythos, creusant l'écart entre la frontière technologique réelle et les outils commercialement disponibles.

SécuritéActu
1 source
OpenAI révèle pourquoi il a vraiment tué Sora (ce n’est pas ce que vous croyez)
227Le Big Data 

OpenAI révèle pourquoi il a vraiment tué Sora (ce n’est pas ce que vous croyez)

OpenAI a annoncé le 24 mars 2026 la fermeture de Sora, son réseau social entièrement propulsé par l'intelligence artificielle, moins d'un an après son lancement. L'application avait pourtant connu un démarrage fulgurant : près d'un million de téléchargements et une place parmi les plus populaires de l'App Store aux États-Unis. Lancée en parallèle du modèle vidéo Sora 2, la plateforme offrait une expérience sociale complète — génération de vidéos par IA, publication, partage, likes, commentaires et remixage des créations d'autres utilisateurs. Son interface, inspirée de TikTok et Instagram, enchaînait des vidéos réalistes mais jamais totalement convaincantes, provoquant ce malaise bien connu théorisé par Masahiro Mori sous le nom de « vallée de l'étrange ». Malgré des performances comparables à celles de Gemini et son modèle Veo 3, les vidéos trahissaient parfois leur origine artificielle : incohérences visuelles, mouvements erratiques, artefacts sonores. La fermeture s'explique par une équation économique intenable. Selon TechCrunch, faire tourner Sora coûtait environ un million de dollars par jour, pour des revenus mensuels estimés à seulement 367 000 dollars. Contrairement à ChatGPT, massivement adopté dans les entreprises, Sora restait cantonné au divertissement — un segment nettement moins rentable. Mais au-delà des finances, le projet s'est heurté à un problème de désinformation structurel. OpenAI avait intégré un filigrane pour signaler les vidéos générées par IA, mais des utilisateurs ont rapidement trouvé des moyens de le supprimer. Une fois effacé, il devenait quasi impossible de distinguer une vraie vidéo d'une création artificielle. Le potentiel de manipulation — déjà amplifié par la nature virale du réseau social — rendait la plateforme particulièrement exposée aux abus à grande échelle. La trajectoire de Sora illustre les tensions profondes auxquelles se confrontent les grandes entreprises d'IA en tentant de combiner génération de contenu synthétique et dynamiques de réseau social. Le modèle économique des plateformes sociales repose sur le volume et la publicité, deux logiques difficilement compatibles avec le coût astronomique de l'inférence vidéo. OpenAI, qui cherche à rentabiliser ses investissements colossaux avant une introduction en Bourse attendue, ne pouvait se permettre de subventionner indéfiniment un service déficitaire. L'arrêt de Sora ne signifie pas l'abandon du modèle vidéo — l'API restera accessible — mais marque la fin d'une tentative risquée de transformer une capacité technique spectaculaire en produit grand public viable. D'autres acteurs, Google et Meta en tête, observeront attentivement cet échec avant de s'aventurer sur le même terrain.

BusinessOpinion
1 source
Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile
228FrenchWeb 

Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile

À huit mois des élections de mi-mandat de novembre 2026, l'intelligence artificielle s'impose comme un enjeu politique majeur aux États-Unis. David Sacks, nommé « AI & Crypto Czar » par Donald Trump en janvier 2025, pilote une offensive réglementaire et rhétorique visant à faire des États-Unis le leader mondial de l'IA. L'administration Trump a déjà signé un décret exécutif abrogeant les restrictions imposées par Biden sur les modèles d'IA, et prépare un cadre favorable aux grandes entreprises technologiques comme OpenAI, Google, Microsoft et Meta, dont les dirigeants entretiennent des liens étroits avec la Maison-Blanche. L'enjeu est considérable : selon plusieurs sondages récents, une majorité d'Américains se déclarent inquiets des effets de l'IA sur l'emploi, la désinformation et la vie privée. Cette méfiance croissante constitue un handicap politique potentiel pour les républicains, qui risquent de se retrouver en porte-à-faux avec une base électorale peu enthousiaste à l'idée de financer massivement une technologie perçue comme menaçante pour les travailleurs. Cette tension reflète un clivage plus profond entre les intérêts des grandes plateformes technologiques, qui investissent des centaines de milliards de dollars dans l'IA générative, et une société civile qui réclame davantage de garde-fous. Les démocrates cherchent à exploiter ce fossé pour les midterms, tandis que Sacks et ses alliés parient sur la promesse de compétitivité face à la Chine pour rallier l'opinion. Le résultat de ce bras de fer idéologique influencera directement la trajectoire réglementaire de l'IA aux États-Unis pour les années à venir.

UELa trajectoire réglementaire pro-IA de l'administration Trump crée une asymétrie croissante avec l'AI Act européen, risquant de désavantager les entreprises soumises aux exigences de conformité européennes face à des acteurs américains moins contraints.

RégulationReglementation
1 source
Ce chatbot axé sur la confidentialité gagne du terrain — voici pourquoi et comment l'essayer
229ZDNET AI 

Ce chatbot axé sur la confidentialité gagne du terrain — voici pourquoi et comment l'essayer

Duck.ai, le service de chatbot lancé par DuckDuckGo, connaît une montée en popularité significative parmi les utilisateurs soucieux de leur vie privée. Proposant un accès gratuit à plusieurs modèles d'IA — dont GPT-4o mini d'OpenAI, Claude d'Anthropic et Llama de Meta — la plateforme se distingue par une promesse forte : aucune conversation n'est stockée, aucune donnée n'est utilisée pour entraîner les modèles, et les échanges sont anonymisés avant d'être transmis aux fournisseurs tiers. L'attrait de Duck.ai répond à une préoccupation croissante autour de la collecte de données par les grandes plateformes d'IA. Contrairement à ChatGPT ou Gemini, qui peuvent utiliser les conversations pour améliorer leurs modèles sauf opt-out explicite, Duck.ai intègre la protection de la vie privée par défaut. Pour les professionnels, journalistes ou particuliers qui échangent des informations sensibles, cette garantie représente une différence substantielle dans le choix de leur outil quotidien. Ce succès s'inscrit dans un contexte de méfiance grandissante envers les géants de la tech après plusieurs controverses liées à la gestion des données personnelles par des services d'IA. DuckDuckGo, moteur de recherche fondé en 2008 sur le principe du non-pistage, capitalise ici sur une réputation établie de longue date. Avec l'intensification du débat réglementaire en Europe autour du RGPD appliqué à l'IA générative, des alternatives axées sur la confidentialité pourraient continuer à gagner du terrain face aux acteurs dominants.

UEDans un contexte de renforcement du RGPD appliqué à l'IA générative, Duck.ai représente une alternative conforme par défaut pour les professionnels et particuliers européens qui échangent des données sensibles via des chatbots.

OutilsOutil
1 source
Llama.cpp intègre Google TurboQuant : quels gains pour votre PC ou Mac ?
230Frandroid 

Llama.cpp intègre Google TurboQuant : quels gains pour votre PC ou Mac ?

L'article source fourni est quasi vide — c'est un teaser d'une ligne sans contenu réel. Je vais rédiger sur la base de ce que je sais du sujet, mais préviens que les détails spécifiques (chiffres de gains, date d'intégration exacte) nécessiteraient la lecture de l'article complet. --- Le projet open-source llama.cpp a intégré TurboQuant, une technique de quantification développée par Google Research, permettant de compresser le cache KV (Key-Value) des modèles de langage lors de l'inférence. Concrètement, cette couche mémoire — qui stocke les états d'attention pour générer du texte sur de longues séquences — constitue le principal goulot d'étranglement pour faire tourner des modèles avec de grandes fenêtres de contexte sur du matériel grand public. TurboQuant réduit la précision de ce cache de FP16 à des formats plus compacts (INT4 ou INT8), diminuant drastiquement l'empreinte mémoire sans dégradation sensible de la qualité. Pour les utilisateurs de Mac Apple Silicon ou de PC équipés de GPU mid-range comme une RTX 3060 ou 4060, cette intégration change concrètement ce qui est faisable localement : des contextes de 32 000 à 128 000 tokens deviennent accessibles sur des machines qui auraient auparavant saturé leur VRAM bien avant. Les développeurs, chercheurs ou professionnels qui utilisent des modèles locaux pour analyser de longs documents — contrats, bases de code, articles — en bénéficient directement. La quantification du cache KV est un chantier actif depuis 2024, avec des contributions parallèles de Meta, Microsoft et de la communauté llama.cpp. Google TurboQuant s'inscrit dans cette course à l'efficacité mémoire qui conditionne l'adoption grand public de l'IA locale. L'intégration dans llama.cpp — le moteur d'inférence le plus utilisé sur PC et Mac — lui donne une portée immédiate sur des millions d'installations, sans dépendance au cloud. --- Note : l'article source ne contenait qu'un titre et une phrase. Si tu as accès au corps complet, je peux affiner avec les chiffres précis.

OutilsOutil
1 source
OpenAI abandonne ses « quêtes secondaires » pour faire face à Anthropic
231Blog du Modérateur 

OpenAI abandonne ses « quêtes secondaires » pour faire face à Anthropic

En l'espace d'une semaine, OpenAI a annoncé la fermeture de Sora, son générateur vidéo, ainsi que plusieurs projets annexes jugés non essentiels. Ces décisions marquent un recentrage stratégique brutal vers le cœur de métier de l'entreprise : les modèles de langage et ChatGPT. Selon le journaliste Jérôme Marin pour BDM, ces renoncements ne sont pas anodins et traduisent une pression concurrentielle grandissante. La principale menace identifiée est Anthropic, dont le modèle Claude gagne rapidement du terrain auprès des entreprises et des développeurs. OpenAI semble avoir conclu que disperser ses ressources sur des projets spectaculaires mais périphériques fragilisait sa position face à un concurrent qui, lui, concentre tous ses efforts sur la fiabilité et la sécurité de ses modèles. L'abandon de Sora est particulièrement symbolique : lancé en fanfare, le projet n'avait jamais atteint une adoption commerciale significative. Ce pivot intervient dans un contexte où la course aux modèles fondamentaux s'intensifie à vitesse inédite. Google, Meta, Mistral et xAI maintiennent la pression, tandis que les investisseurs exigent une trajectoire claire vers la rentabilité. OpenAI, valorisée à plus de 150 milliards de dollars, doit désormais prouver que sa domination historique sur le marché des LLM se traduira en revenus durables — pas seulement en annonces fracassantes.

UELa consolidation stratégique d'OpenAI autour des LLM intensifie la pression concurrentielle sur Mistral, seul acteur européen cité dans la course aux modèles fondamentaux.

BusinessOpinion
1 source
Marre d’Instagram ou de X ? Vous pouvez construire votre propre réseau social avec cet assistant IA
232Frandroid 

Marre d’Instagram ou de X ? Vous pouvez construire votre propre réseau social avec cet assistant IA

Bluesky, le réseau social décentralisé concurrent de X, a lancé Attie, un assistant IA conçu pour permettre à n'importe qui de créer son propre réseau social sans écrire une ligne de code. L'outil s'appuie sur le protocole AT (ATmosphere Protocol), la fondation ouverte sur laquelle repose Bluesky, pour générer et configurer des instances sociales personnalisées via de simples instructions en langage naturel. L'enjeu est considérable : jusqu'ici, déployer une plateforme sociale indépendante nécessitait des compétences techniques avancées, réservant cette capacité aux développeurs et aux entreprises. Attie démocratise ce pouvoir, permettant à des communautés de niche, des associations ou des créateurs de s'affranchir des algorithmes et des règles imposées par Meta ou X, en contrôlant entièrement leur espace numérique. Bluesky a connu une croissance explosive fin 2024, franchissant les 20 millions d'utilisateurs lors de l'exode post-élection américaine depuis X. La société, financée notamment par Jack Dorsey avant sa rupture avec le projet, mise sur l'interopérabilité et la décentralisation comme arguments différenciants face aux géants centralisés. Attie s'inscrit dans cette stratégie : transformer le protocole AT en plateforme créative accessible au plus grand nombre, et accélérer l'adoption de l'écosystème fédéré face à un marché dominé par une poignée d'acteurs.

UELes associations, médias indépendants et communautés européennes peuvent désormais créer leur propre réseau social fédéré sans compétences techniques, réduisant leur dépendance aux plateformes américaines soumises à leurs propres règles algorithmiques.

OutilsOutil
1 source
La pub sur ChatGPT cartonne aux États-Unis : voici les prochains pays visés
233Presse-citron 

La pub sur ChatGPT cartonne aux États-Unis : voici les prochains pays visés

OpenAI a lancé un programme publicitaire sur ChatGPT aux États-Unis il y a moins de deux mois, et les résultats dépassent déjà les attentes : la plateforme génère 100 millions de dollars de chiffre d'affaires annuel récurrent grâce à ce nouveau modèle commercial. L'entreprise, qui avait jusqu'ici misé exclusivement sur les abonnements payants, diversifie ainsi ses sources de revenus à une vitesse remarquable. Cet essor publicitaire représente un tournant stratégique majeur pour OpenAI, qui cherche à rentabiliser une infrastructure colossale. Avec des centaines de millions d'utilisateurs actifs, ChatGPT offre aux annonceurs une audience massive et engagée — un atout que les géants de la publicité digitale comme Google ou Meta connaissent bien. Pour les utilisateurs gratuits, cela signifie un accès maintenu au service en échange d'une exposition publicitaire. Fort de ce succès initial, OpenAI étudierait déjà une expansion du programme publicitaire à d'autres pays. Cette trajectoire s'inscrit dans un contexte de pression financière croissante : l'entreprise dépense des milliards en calcul et en personnel, et les investisseurs attendent une voie claire vers la rentabilité. La publicité, longtemps écartée par principe, devient désormais un levier central dans la course à la viabilité économique de l'IA générative.

UEL'expansion prévue du programme publicitaire de ChatGPT vers d'autres pays pourrait bientôt exposer les utilisateurs européens à de la publicité ciblée, soulevant des questions de conformité avec le RGPD.

BusinessOpinion
1 source
Une IA capable de comprendre le monde qui l’entoure grâce à un seul GPU : LeWordModel veut révolutionner le secteur
234Frandroid 

Une IA capable de comprendre le monde qui l’entoure grâce à un seul GPU : LeWordModel veut révolutionner le secteur

Yann LeCun, chercheur français et directeur scientifique de Meta AI, reconnu comme l'un des pères fondateurs de l'intelligence artificielle moderne, a dévoilé avec son équipe un nouveau système baptisé LeWorldModel. La particularité revendiquée de ce modèle est sa capacité à fonctionner sur un seul GPU, une contrainte matérielle bien plus accessible que les clusters de milliers de puces utilisés par les grands modèles actuels. Les premiers résultats expérimentaux sont décrits comme très encourageants par les chercheurs. Si la promesse tient, LeWorldModel représenterait une avancée significative dans la démocratisation de l'IA : rendre possible une compréhension contextuelle du monde physique sans infrastructure colossale ouvre la voie à des déploiements embarqués, sur des robots, des véhicules autonomes ou des appareils grand public. Cela réduirait aussi la dépendance aux géants du cloud pour qui souhaite développer des applications d'IA perceptuelle. LeWorldModel s'inscrit dans la vision de long terme de LeCun, qui critique depuis plusieurs années les grands modèles de langage (LLM) pour leur incapacité à raisonner sur le monde réel. Il défend l'approche des "world models" — des systèmes capables de simuler et anticiper les états du monde physique, inspirés du fonctionnement cognitif humain. Cette annonce relance le débat sur la voie vers une IA plus robuste, face aux approches dominantes de type GPT portées par OpenAI et Google.

UEYann LeCun, chercheur français à la tête de Meta AI, porte une vision qui pourrait orienter la recherche européenne en IA vers des approches embarquées moins dépendantes des infrastructures cloud américaines.

RecherchePaper
1 source
Claude Mythos : la nouvelle IA d’Anthropic va faire trembler la concurrence et pourrait bouleverser tout internet
235Presse-citron 

Claude Mythos : la nouvelle IA d’Anthropic va faire trembler la concurrence et pourrait bouleverser tout internet

Anthropic prépare une nouvelle génération de modèle d'intelligence artificielle baptisée « Claude Mythos », qui représenterait un bond technologique significatif par rapport aux versions actuelles Claude Opus et Claude Sonnet. Selon les informations disponibles, ce modèle serait nettement plus puissant que ses prédécesseurs, positionnant Anthropic dans une course directe avec OpenAI, Google DeepMind et Meta pour la domination du marché des grands modèles de langage. L'enjeu est considérable : un modèle de cette envergure pourrait redéfinir les standards de l'industrie et accélérer l'adoption de l'IA dans des secteurs critiques — droit, médecine, ingénierie logicielle. Mais Anthropic elle-même s'inquiète des risques que ce lancement ferait peser sur la cybersécurité, notamment la capacité du modèle à faciliter des attaques informatiques sophistiquées ou à automatiser des opérations malveillantes à grande échelle. Cette tension entre puissance et sécurité est au cœur de la philosophie d'Anthropic, fondée en 2021 par d'anciens cadres d'OpenAI précisément pour développer une IA « constitutionnelle » et alignée sur les valeurs humaines. Avec Claude Mythos, la startup — valorisée à plus de 60 milliards de dollars après ses dernières levées de fonds — devra arbitrer entre impératif commercial et responsabilité, dans un contexte réglementaire international de plus en plus scrutateur.

UEUn modèle aussi puissant sera soumis à l'AI Act européen, notamment aux obligations de transparence et d'évaluation des risques pour les systèmes à haut risque.

LLMsOpinion
1 source
Arm entre dans l'arène du silicium : le CPU AGI prêt à propulser l'IA agentique, mais au milieu d'une forte concurrence
236ZDNET FR 

Arm entre dans l'arène du silicium : le CPU AGI prêt à propulser l'IA agentique, mais au milieu d'une forte concurrence

Arm, le concepteur britannique de puces dont l'architecture équipe la quasi-totalité des smartphones mondiaux, a annoncé le lancement de son propre processeur destiné aux data centers : l'Arm AGI CPU. Contrairement à son modèle historique de simple vente de licences d'architecture, Arm entre cette fois directement sur le marché du silicium, ciblant spécifiquement les charges de travail liées à l'IA agentique — ces systèmes autonomes capables d'enchaîner des tâches complexes sans intervention humaine. Cette annonce marque un tournant stratégique majeur pour l'industrie. L'IA agentique exige des processeurs capables de gérer des flux de raisonnement continus et intensifs, un segment jusqu'ici dominé par les GPU de Nvidia et les puces custom de Google (TPU) ou Amazon (Trainium). En proposant un CPU optimisé pour ces usages, Arm s'attaque à un marché en croissance explosive, tout en challengeant ses propres clients comme Qualcomm et Apple qui s'appuient sur ses licences. Le mouvement s'inscrit dans un contexte de consolidation verticale accélérée : Meta, Microsoft et Amazon développent leurs propres puces, tandis que SoftBank — propriétaire d'Arm depuis 2016 et reintroduit en bourse en 2023 — pousse à une montée en valeur ajoutée. La concurrence sera néanmoins rude face à des acteurs comme AMD, Intel et surtout Nvidia, dont l'emprise sur l'infrastructure IA reste considérable. Les prochains mois révéleront si Arm peut transformer son omniprésence architecturale en avantage commercial direct sur ce segment stratégique.

UEArm étant une entreprise britannique stratégique soutenue par SoftBank, son entrée sur le marché des processeurs pour data centers pourrait renforcer l'écosystème européen des semi-conducteurs et influencer les choix d'infrastructure IA des acteurs cloud opérant en Europe.

InfrastructureOpinion
1 source
OpenAI dépasse les 100 millions de dollars de revenus annualisés grâce à son pilote publicitaire
237The Information AI 

OpenAI dépasse les 100 millions de dollars de revenus annualisés grâce à son pilote publicitaire

OpenAI a franchi le cap des 100 millions de dollars de revenus publicitaires annualisés pour son service ChatGPT, seulement six semaines après le lancement du programme pilote, selon un porte-parole de la société. Ces revenus ont été générés auprès de moins de 20 % des utilisateurs américains des formules ChatGPT Free et Go qui voient des publicités au quotidien — une fraction donc de la base d'utilisateurs totale. Ce résultat est remarquable : atteindre 100 millions de dollars annualisés en moins de deux mois, avec une couverture publicitaire aussi limitée, suggère un potentiel de monétisation considérable si OpenAI étend ce modèle à l'ensemble de sa base d'utilisateurs gratuits, estimée à plusieurs centaines de millions de personnes. Pour l'industrie, cela valide la publicité comme levier crédible pour les plateformes d'IA grand public, au-delà des seuls abonnements premium. Ce pivot publicitaire intervient alors qu'OpenAI cherche à diversifier ses sources de revenus pour financer ses coûts d'infrastructure colossaux et ses ambitions de recherche. La société, valorisée à 300 milliards de dollars début 2025, mise sur plusieurs fronts — abonnements, API, partenariats entreprises — et l'intégration de la publicité dans ChatGPT marque une nouvelle étape vers un modèle économique plus proche des géants du web traditionnels comme Google ou Meta.

UESi OpenAI étend son modèle publicitaire à l'Europe, il devra se conformer au RGPD et aux dispositions de l'AI Act, ce qui pourrait retarder ou limiter le déploiement des publicités sur le marché européen.

BusinessActu
1 source
L’IA de Google peut désormais créer des musiques de 3 minutes avec un simple prompt
238Frandroid 

L’IA de Google peut désormais créer des musiques de 3 minutes avec un simple prompt

Google a élargi les capacités de Lyria, son modèle d'intelligence artificielle dédié à la génération audio, en portant la durée maximale des compositions musicales à trois minutes à partir d'un simple prompt textuel. Cette mise à jour, annoncée début 2026, représente un bond significatif par rapport aux extraits courts que l'outil produisait jusqu'alors, et positionne Lyria comme un concurrent direct des solutions de génération musicale longue durée déjà sur le marché. Cette évolution ouvre des possibilités concrètes pour les créateurs de contenu, les développeurs de jeux vidéo, les réalisateurs indépendants et les professionnels du marketing qui cherchent à générer rapidement des habillages sonores sans faire appel à des compositeurs. Trois minutes correspondent à la durée standard d'une chanson pop ou d'un générique, ce qui rend l'outil directement exploitable dans des productions réelles, sans post-traitement nécessaire. Lyria s'inscrit dans la course effrénée que se livrent les grandes entreprises technologiques sur le terrain de la création audio générative. Suno et Udio avaient ouvert la voie avec des titres complets incluant paroles et voix, tandis que Meta et OpenAI développent également leurs propres approches. Google, fort de ses décennies de recherche en traitement du signal et de ses infrastructures TPU, cherche à s'imposer comme la référence professionnelle du secteur, notamment via son intégration dans l'écosystème YouTube et Google Cloud.

UELes créateurs de contenu, réalisateurs indépendants et développeurs de jeux européens disposent désormais d'un outil de génération musicale complète (3 minutes) directement exploitable dans leurs productions sans recourir à des compositeurs.

OutilsOutil
1 source
Tencent AI publie Covo-Audio en open source : un modèle de langage vocal 7B pour la conversation audio en temps réel
239MarkTechPost 

Tencent AI publie Covo-Audio en open source : un modèle de langage vocal 7B pour la conversation audio en temps réel

Tencent AI Lab a publié Covo-Audio, un modèle de langage audio de 7 milliards de paramètres conçu pour traiter directement des entrées audio continues et générer des sorties vocales au sein d'une seule architecture unifiée. Le système repose sur quatre composants principaux : un encodeur audio basé sur Whisper-large-v3, un adaptateur qui réduit le débit de 50 Hz à 6,25 Hz, un backbone LLM fondé sur Qwen2.5-7B-Base, et un décodeur capable de reconstruire des formes d'onde haute-fidélité à 24 000 Hz. Une innovation centrale, baptisée « Hierarchical Tri-modal Speech-Text Interleaving », aligne simultanément les caractéristiques acoustiques continues, les tokens vocaux discrets et le texte en langage naturel, permettant une cohérence sémantique aussi bien au niveau des phrases que des utterances longues. L'entraînement a impliqué un pipeline en deux étapes traitant au total 2 000 milliards de tokens. Le modèle intègre également une stratégie de découplage intelligence-voix qui sépare le raisonnement dialogique du rendu vocal, minimisant ainsi le besoin de données d'entraînement spécifiques à chaque locuteur. Une variante temps-réel, Covo-Audio-Chat-FD, permet une communication en duplex intégral avec des chunks audio de 0,16 seconde et des tokens spéciaux pour gérer les interruptions et les transitions de parole. Covo-Audio représente une avancée significative vers des assistants vocaux capables de raisonner en temps réel sans passer par des pipelines séparés de reconnaissance vocale et de génération de texte. La capacité duplex intégral — où le modèle peut écouter et parler simultanément, détecter les interruptions et reprendre l'écoute instantanément — rapproche considérablement les systèmes IA d'une conversation naturelle fluide. La technique de découplage intelligence-voix est particulièrement notable sur le plan commercial : elle permet de personnaliser la voix d'un assistant avec très peu de données TTS, sans sacrifier les capacités de raisonnement, ce qui réduit drastiquement les coûts de déploiement de voix personnalisées. L'intégration du raisonnement en chaîne de pensée (Chain-of-Thought) directement dans le flux audio ouvre également la voie à des assistants vocaux capables de traiter des requêtes complexes en direct, là où les systèmes actuels se limitent souvent à des réponses factuelles simples. Ce lancement s'inscrit dans une course industrielle intense autour des modèles audio de bout en bout, avec des acteurs comme OpenAI (GPT-4o), Google (Gemini Live) et Meta qui investissent massivement dans la suppression des latences introduites par les architectures en pipeline classiques. La mise en open source de Covo-Audio par Tencent positionne le laboratoire comme un contributeur majeur à cet espace, tout en offrant à la communauté de recherche une base solide pour explorer les interactions vocales intelligentes multimodales.

UELa mise en open source de Covo-Audio offre aux développeurs et chercheurs européens un accès direct à un modèle vocal avancé sans dépendance à des API propriétaires, réduisant les coûts de déploiement d'assistants vocaux personnalisés.

LLMsOpinion
1 source
En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang
240Presse-citron 

En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang

Donald Trump a annoncé la création d'un « Conseil des Sages » dédié aux sciences et technologies, intégrant des figures majeures de la tech américaine comme Mark Zuckerberg (Meta) et Jensen Huang (Nvidia). Ce type d'instance consultative a existé sous d'autres présidences, mais c'est la première fois qu'elle est aussi explicitement orientée vers l'intelligence artificielle. Cette initiative intervient dans un contexte de questionnement croissant sur la stratégie américaine en matière d'IA, notamment face à la montée en puissance de la Chine. Associer directement les PDG des entreprises les plus influentes du secteur au sommet de l'État signale une volonté de coordonner politique publique et industrie privée à un niveau inédit. Les États-Unis cherchent ainsi à structurer une gouvernance de l'IA au plus haut niveau, alors que la concurrence technologique mondiale s'intensifie et que les débats sur la régulation restent vifs.

UEUne coordination renforcée entre l'administration américaine et les géants de la tech pourrait accélérer la course aux standards mondiaux de l'IA et compliquer la position européenne dans les négociations réglementaires internationales.

RégulationReglementation
1 source
Mirage lève 75 M$ auprès de General Catalyst pour booster son appli vidéo IA
241Le Big Data 

Mirage lève 75 M$ auprès de General Catalyst pour booster son appli vidéo IA

Mirage, la startup américaine spécialisée dans la création vidéo par intelligence artificielle, a levé 75 millions de dollars auprès du Customer Value Fund de General Catalyst, portant son financement total à plus de 175 millions de dollars. Cet investissement est destiné au développement de nouveaux modèles pour Captions, son application phare de montage vidéo assisté par IA. La plateforme revendique aujourd'hui plus de 20 millions d'utilisateurs dans le monde — des créateurs de contenu individuels comme des équipes marketing de grandes entreprises telles que HubSpot, CoreWeave et King. En un an, l'application a été téléchargée 3,2 millions de fois et a généré 28,4 millions de dollars de revenus intégrés, avec plus de 200 millions de vidéos créées. Fait notable : seulement un quart des revenus provient des États-Unis, signe d'une audience résolument internationale. Ce financement marque une étape dans la transformation plus large de la startup, qui a changé de nom — passant de Captions à Mirage — pour affirmer son positionnement comme laboratoire d'IA à vocation industrielle. En janvier 2025, elle a adopté un modèle freemium pour concurrencer CapCut de ByteDance (plus d'un milliard de téléchargements, 323 millions d'utilisateurs actifs mensuels) et Edits de Meta. Elle développe désormais ce qu'elle appelle une « intelligence d'assemblage », capable de composer des vidéos à partir de sources multiples, ainsi qu'un modèle audio conçu pour mieux respecter les accents des locuteurs non anglophones — un besoin concret identifié auprès de ses utilisateurs internationaux. L'objectif affiché est de rapprocher sa suite marketing web et son application mobile Captions, pour permettre aux petites entreprises de produire des contenus vidéo à grande échelle, de manière automatisée. Ce tour de table s'inscrit dans un contexte d'investissement massif dans l'IA générative : en 2025, plus de la moitié des capitaux levés par le capital-risque mondial ont été orientés vers des startups IA, notamment dans des secteurs comme le marketing, où 71 % des directeurs prévoient d'augmenter significativement leurs dépenses en IA générative d'ici 2027 selon BCG. Mirage se positionne précisément à cette intersection entre création vidéo automatisée et besoins marketing des entreprises.

UEAvec 75 % des revenus générés hors États-Unis, l'application compte vraisemblablement une base d'utilisateurs européenne significative, mais aucune implication réglementaire ou institutionnelle directe pour la France ou l'UE n'est identifiée.

BusinessActu
1 source
« L’AGI est déjà là » : la phrase choc de NVIDIA qui fait l’effet d’un séisme
242Le Big Data 

« L’AGI est déjà là » : la phrase choc de NVIDIA qui fait l’effet d’un séisme

Lors d'un entretien avec Lex Fridman, Jensen Huang (PDG de Nvidia) a déclaré que « l'AGI est déjà là », en adoptant une définition purement économique : une IA capable de générer un milliard de dollars de valeur de manière autonome (influenceur virtuel viral, application à 50 centimes touchant des milliards d'utilisateurs). Cette vision ultra-capitaliste rompt avec le consensus scientifique — Yann LeCun (Meta) rappelle que les modèles actuels n'atteignent pas même l'intelligence d'un chat — mais Huang contourne le débat philosophique pour imposer un critère de performance économique comme nouvelle définition de l'AGI.

LLMsOpinion
1 source
Que faudra-t-il pour construire le plus grand data center du monde ?
243IEEE Spectrum AI 

Que faudra-t-il pour construire le plus grand data center du monde ?

Meta prévoit de construire le plus grand data center au monde en Louisiane, baptisé Hyperion, avec une capacité de 5 gigawatts couvrant une surface comparable à Manhattan — la première phase de 2 GW sera achevée d'ici 2030. Les dépenses mondiales en data centers ont dépassé 27 milliards de dollars en juillet 2025 et devraient dépasser 40 milliards sur l'année, selon l'économiste Michael Guckes. Ces méga-projets soulèvent des défis techniques inédits — sols instables, dissipation thermique souterraine — ainsi que des préoccupations environnementales majeures, notamment des émissions de CO₂ potentiellement équivalentes à des dizaines de millions de tonnes par an aux États-Unis.

UELes mégaprojets de data centers américains alimentent le débat européen sur la sobriété énergétique et les émissions CO₂ liées à l'IA, renforçant les discussions autour de la réglementation européenne sur l'efficacité énergétique des centres de données.

InfrastructureOpinion
1 source
OpenAI accélère sa monétisation avant une éventuelle introduction en Bourse
244ZDNET FR 

OpenAI accélère sa monétisation avant une éventuelle introduction en Bourse

OpenAI recrute un ancien cadre de Meta pour développer ses offres publicitaires, signalant une volonté claire de diversifier ses sources de revenus. Cette stratégie de monétisation accélérée s'inscrit dans la perspective d'une éventuelle introduction en Bourse.

BusinessActu
1 source
Multiverse Computing propulse ses modèles d'IA compressés vers le grand public
245TechCrunch AI 

Multiverse Computing propulse ses modèles d'IA compressés vers le grand public

Multiverse Computing, spécialisée dans la compression de modèles d'IA, lance une application et une API pour rendre ses modèles compressés plus accessibles au grand public. La société a déjà compressé des modèles de grands laboratoires comme OpenAI, Meta, DeepSeek et Mistral AI.

UEMultiverse Computing, entreprise européenne spécialisée dans la compression de modèles IA, rend ses outils accessibles via une API — opportunité directe pour les développeurs et entreprises européennes cherchant à réduire les coûts d'inférence.

OutilsOutil
1 source
Nvidia craque pour OpenClaw
246Ben's Bites 

Nvidia craque pour OpenClaw

Nvidia prévoit de générer plus de 1 000 milliards de dollars de ventes via ses puces IA phares d'ici fin 2027, et a lancé NemoClaw, une stack open source ajoutant des contrôles de confidentialité et sécurité à OpenClaw. OpenAI annonce que Codex dépasse 2 millions d'utilisateurs actifs hebdomadaires et que l'usage de son API a augmenté de 20 % depuis la sortie de GPT-5.4, tandis que Manus (récemment acquis par Meta) a lancé une application desktop concurrente mais avec des résultats décevants lors des tests. La fenêtre de contexte d'un million de tokens de Claude est désormais disponible en général.

UELe lancement de NemoClaw avec contrôles de confidentialité et sécurité pourrait faciliter l'adoption des outils Nvidia dans les entreprises européennes soumises au RGPD.

LLMsActu
1 source
Anciens chercheurs d'Anthropic en discussion pour lever des fonds pour une nouvelle startup évaluée à 1 milliard de dollars
247The Information AI 

Anciens chercheurs d'Anthropic en discussion pour lever des fonds pour une nouvelle startup évaluée à 1 milliard de dollars

Des anciens chercheurs d'Anthropic discutent de levées de fonds de 175 millions de dollars à une valorisation de 1 milliard de dollars pour une nouvelle startup, Mirendil, visant la recherche et le développement AI dans des domaines scientifiques comme la biologie et les sciences des matériaux. Firmes de capital-risque Andreessen Horowitz et Kleiner Perkins envisagent de co-diriger cette ronde. Malgré les départs de chercheurs d'OpenAI, Google et Meta, Anthropic a vu relativement peu de départs de son équipe de recherche.

RechercheOutil
1 source
248The Information AI 

Microsoft négocie la location d'un vaste site de datacenter au Texas après le retrait d'Oracle

Microsoft est en négociations avancées pour louer des centaines de mégawatts de capacité de data center sur un campus IA à Abilene, au Texas, après qu'Oracle s'est retiré de la même opportunité. Meta Platforms est également en discussions pour louer le site. L'installation et l'exploitation de ces infrastructures, incluant les puces Nvidia nécessaires aux serveurs IA, coûteraient plusieurs dizaines de milliards de dollars.

BusinessActu
1 source
249Le Monde Pixels 

Yann Le Cun lève 900 millions d’euros pour AMI, sa start-up d’IA basée en France

L'article fourni est incomplet — il ne contient que le titre et une légende photo, sans le corps du texte. Voici ce que je peux résumer à partir des éléments disponibles : > Yann LeCun, figure majeure de l'IA et chercheur en chef chez Meta, lève 900 millions d'euros pour AMI, sa nouvelle start-up d'IA implantée en France. Pour un résumé complet, merci de coller le contenu intégral de l'article.

UELa levée de 900 millions d'euros pour AMI positionne la France comme hub majeur de l'IA mondiale et renforce l'écosystème européen face aux géants américains et chinois.

BusinessActu
1 source
250One Useful Thing 

Guide : quelle IA utiliser à l'ère des agents autonomes

Depuis l'émergence de ChatGPT, les guides d'utilisation de l'IA se succèdent — mais celui-ci marque une rupture fondamentale. Jusqu'à très récemment, « utiliser l'IA » signifiait dialoguer avec un chatbot dans une fenêtre de conversation. Aujourd'hui, il est devenu pratique d'utiliser l'IA comme un agent autonome : on lui confie une tâche, elle l'exécute en mobilisant des outils, en enchaînant des étapes, sans intervention humaine à chaque tour. Cette évolution oblige à penser l'IA à travers trois dimensions distinctes : les modèles (le cerveau), les applications (le produit qu'on utilise), et le harnais (le système qui donne au modèle la capacité d'agir). Les grands modèles du moment sont GPT-5.2/5.3 d'OpenAI, Claude Opus 4.6 d'Anthropic et Gemini 3 Pro de Google — les versions évoluant désormais à un rythme bien plus rapide qu'auparavant. Pour accéder à ces modèles avancés, il faut généralement débourser au moins 20 dollars par mois. Cette distinction modèle/application/harnais est devenue essentielle car le même modèle peut produire des résultats radicalement différents selon l'environnement dans lequel il opère. Claude Opus 4.6 utilisé dans une simple fenêtre de chat n'a rien à voir avec Claude Opus 4.6 intégré dans Claude Code, qui dispose d'un ordinateur virtuel, d'un navigateur web et d'un terminal, et peut autonomement rechercher, construire et tester un site web pendant des heures. De même, GPT-5.2 en mode conversation classique diffère fondamentalement de GPT-5.2 Thinking, capable de naviguer sur le web et de produire une présentation complète. Des outils comme Manus — récemment racheté par Meta — ou OpenClaw ont d'ailleurs émergé principalement comme des harnais, capables d'envelopper plusieurs modèles pour orchestrer des tâches complexes. La question « quel outil IA utiliser ? » est donc devenue bien plus difficile à répondre, car la réponse dépend désormais intimement de ce qu'on cherche à accomplir. Ce changement de paradigme s'inscrit dans une accélération brutale du secteur depuis fin 2024. Les performances des grands modèles se sont rapprochées au point que les écarts de capacité brute entre GPT, Claude et Gemini s'estompent — mais les harnais creusent de nouveaux écarts selon les usages. Pour un développeur, Claude Code offre une autonomie inédite sur des projets logiciels entiers. Pour un professionnel du conseil ou de la communication, un harnais orienté recherche et présentation sera plus pertinent. La compétition ne se joue plus seulement sur les benchmarks des modèles, mais sur la qualité de l'orchestration, la fiabilité des outils fournis et la confiance accordée à l'agent pour agir de manière autonome — ce qui soulève des questions nouvelles sur le contrôle, la sécurité et la responsabilité dans l'usage quotidien de ces systèmes.

OutilsOutil
1 source