Aller au contenu principal

Dossier Meta IA — page 2

299 articles · page 2 sur 6

Meta dans la course IA : Muse Spark, Superintelligence Labs, hyperagents, licenciements liés au pivot IA et infrastructure CoreWeave.

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise
51VentureBeat AI OutilsOutil

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise

OpenAI a publié Privacy Filter, un modèle open source spécialisé dans la détection et la suppression des informations personnelles identifiables (PII) avant qu'elles n'atteignent un serveur distant. Disponible sur Hugging Face sous licence Apache 2.0, cet outil repose sur 1,5 milliard de paramètres mais n'en active que 50 millions à chaque traitement, grâce à une architecture Sparse Mixture-of-Experts qui réduit considérablement la charge de calcul. Contrairement aux grands modèles de langage classiques qui lisent un texte de gauche à droite, Privacy Filter est un classificateur bidirectionnel de tokens : il analyse chaque phrase dans les deux sens simultanément, ce qui lui permet de mieux distinguer, par exemple, si le prénom "Alice" désigne une personne privée ou un personnage littéraire public. Le modèle gère une fenêtre de contexte de 128 000 tokens, suffisante pour traiter un document juridique entier en une seule passe, et s'appuie sur un décodeur de Viterbi contraint avec un schéma de balisage BIOES pour garantir la cohérence des entités redactées. Il détecte huit catégories de données sensibles : noms de personnes, coordonnées, identifiants numériques, URLs, numéros de compte, dates et identifiants secrets comme les clés API. L'enjeu concret est considérable pour les entreprises soumises au RGPD ou à la réglementation HIPAA dans le secteur de la santé. En déployant Privacy Filter directement sur leurs serveurs internes ou dans leur cloud privé, elles peuvent anonymiser les données localement avant de les envoyer vers un modèle plus puissant comme GPT-5 ou gpt-oss-120b, sans jamais exposer d'informations sensibles à l'extérieur. Ce modèle résout un problème structurel de l'adoption de l'IA en entreprise : le risque que des données confidentielles, médicales ou financières se retrouvent intégrées dans des pipelines d'inférence ou de fine-tuning hébergés dans le cloud. La possibilité de faire tourner le modèle sur un laptop standard ou directement dans un navigateur web abaisse encore davantage la barrière d'entrée. Cette publication s'inscrit dans un retour marqué d'OpenAI vers l'open source, après des années centrées sur des modèles propriétaires accessibles uniquement via ChatGPT et l'API. Début 2025, l'entreprise avait déjà lancé la famille gpt-oss, des modèles à poids ouverts orientés raisonnement, puis ouvert plusieurs outils d'orchestration agentique. Privacy Filter est un dérivé direct de cette famille gpt-oss, réentraîné pour la classification plutôt que la génération. Ce virage stratégique suggère qu'OpenAI cherche à consolider sa position dans l'écosystème développeur face à la concurrence de Meta (LLaMA), Mistral et Google, en proposant des briques d'infrastructure que les entreprises peuvent intégrer sans dépendance à ses services payants. La prochaine étape logique serait l'extension des catégories PII supportées et l'intégration native dans les frameworks agentiques déjà publiés.

UELes entreprises françaises et européennes soumises au RGPD peuvent déployer Privacy Filter en local pour anonymiser leurs données sensibles avant tout envoi vers un service cloud, réduisant directement leur risque de non-conformité réglementaire.

1 source
Les agents IA unifiés de Meta optimisent les performances à grande échelle
52Meta Engineering ML 

Les agents IA unifiés de Meta optimisent les performances à grande échelle

Meta a développé une plateforme d'agents IA unifiée pour automatiser la détection et la résolution des problèmes de performance à l'échelle de son infrastructure mondiale, qui sert plus de 3 milliards d'utilisateurs. Ce programme, baptisé Capacity Efficiency Program, repose sur des agents capables d'encoder l'expertise de ses ingénieurs seniors en compétences réutilisables et composables. Résultat concret : des centaines de mégawatts (MW) de puissance électrique récupérés, soit de quoi alimenter des centaines de milliers de foyers américains pendant un an. L'outil interne FBDetect détecte chaque semaine des milliers de régressions de performance, et les agents IA prennent désormais en charge leur résolution automatisée, compressant environ dix heures d'investigation manuelle en trente minutes. Les agents vont même jusqu'à générer des pull requests prêtes à révision, couvrant l'intégralité du chemin depuis la détection d'une opportunité d'optimisation jusqu'à la correction du code. L'impact est double : économique et opérationnel. Côté défense, chaque régression non résolue rapidement se traduit par une consommation électrique supplémentaire qui s'accumule sur l'ensemble du parc de serveurs de Meta. Côté offensif, les agents permettent désormais d'explorer proactivement des optimisations dans un nombre croissant de domaines produits, des opportunités que les ingénieurs n'auraient jamais le temps de traiter manuellement. Le programme peut ainsi augmenter sa capacité de livraison de mégawatts sans augmenter proportionnellement les effectifs humains, ce qui représente un levier de scalabilité majeur pour une infrastructure de cette taille. Libérés des tâches d'investigation répétitives, les ingénieurs peuvent se concentrer sur l'innovation produit. Ce projet s'inscrit dans une tendance plus large chez les grandes plateformes technologiques : automatiser la gestion de la complexité interne à mesure que l'infrastructure croît plus vite que les équipes humaines. Chez Meta, la découverte clé a été que l'offense (recherche proactive d'optimisations) et la défense (détection de régressions) partagent la même structure de problème, ce qui a permis de construire une plateforme unique plutôt que deux systèmes séparés. L'interface d'outils standardisée est au cœur de l'architecture : elle permet aux agents de combiner investigation de données de profilage, consultation de documentation interne, analyse des déploiements récents et recherche de discussions liées. L'objectif à terme est un moteur d'efficacité autonome où l'IA gère la longue traîne des problèmes de performance, un modèle qui pourrait inspirer d'autres hyperscalers confrontés aux mêmes contraintes d'échelle.

InfrastructureActu
1 source
☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google
53Next INpact 

☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google

Le Sénat français a adopté le 8 avril 2026 une proposition de loi sur l'intelligence artificielle qui introduit un mécanisme inédit : une présomption d'usage des contenus culturels par les développeurs de systèmes d'IA. Concrètement, dès qu'un modèle est capable de générer du contenu "dans le style" d'un auteur, ou qu'il restitue des extraits visiblement protégés par le droit d'auteur, la preuve est réputée établie que ces œuvres ont bien servi à l'entraînement. Ce principe s'appuie notamment sur des précédents documentés : des extraits de Harry Potter ont ainsi été retrouvés dans les données d'entraînement de modèles appartenant à Meta et à Mistral. Avant l'adoption du texte, Google a déployé trois stratégies distinctes pour en atténuer la portée, selon les informations révélées par L'Informé. La première stratégie consistait à restreindre le champ de la présomption aux seuls "contenus culturels de qualité", c'est-à-dire aux œuvres référencées dans les catalogues d'organismes de gestion collective, excluant de fait une large part de la création numérique. La deuxième visait à modifier l'articulation du texte avec l'exception de "fouille de données" (text and data mining, ou TDM) issue de la directive européenne de 2019 sur le droit d'auteur dans le marché unique numérique. Cette exception est régulièrement invoquée par les fournisseurs d'IA pour légitimer le moissonnage de contenus protégés, ce que le Sénat qualifie explicitement de "détournement" de l'objectif initial. La troisième tentative cherchait à empêcher l'application rétroactive du texte aux litiges déjà ouverts au moment de son entrée en vigueur. Le Sénat a rejeté les trois propositions. Ces manœuvres s'inscrivent dans un phénomène bien documenté : les grandes entreprises numériques américaines exercent un lobbying intense sur les processus législatifs européens et nationaux, laissant parfois des traces directes jusque dans la rédaction des textes. La bataille autour de cette loi française est particulièrement significative car elle touche à une question centrale pour l'ensemble de l'industrie de l'IA : la légitimité de l'entraînement sur des œuvres protégées sans accord ni rémunération des créateurs. Si l'étape sénatoriale est franchie sans que les propositions de Google n'aient abouti, le texte doit encore passer devant l'Assemblée nationale, où les pressions pourraient se faire à nouveau sentir. L'issue de ce débat aura des répercussions bien au-delà de la France, à l'heure où plusieurs pays cherchent à encadrer les pratiques d'entraînement des modèles d'IA à grande échelle.

UELa loi française adoptée au Sénat introduit une présomption d'usage des contenus culturels dans l'entraînement des modèles d'IA, créant une obligation juridique directe pour les développeurs opérant en France et posant un précédent potentiel pour l'encadrement européen des pratiques d'entraînement.

💬 Le Sénat qui renvoie Google à la case départ trois fois de suite, c'est rare. La présomption d'usage, c'est malin : au lieu de prouver que les modèles ont pillé les œuvres (quasi impossible), on part du principe que si tu peux l'imiter, tu l'as ingéré. Reste l'Assemblée nationale, et là les dés ne sont pas encore jetés.

RégulationReglementation
1 source
Un clone virtuel pour le patron : Meta développe une IA de Mark Zuckerberg pour ses employés
54Frandroid 

Un clone virtuel pour le patron : Meta développe une IA de Mark Zuckerberg pour ses employés

Meta développe actuellement une version IA photoréaliste de Mark Zuckerberg destinée à interagir avec les quelque 79 000 employés du groupe à travers le monde. Ce clone numérique permettrait aux collaborateurs d'obtenir des réponses ou des orientations de la part du PDG, même lorsque celui-ci est indisponible. Le projet s'inscrit dans les efforts plus larges de Meta pour déployer des agents conversationnels au sein de ses propres opérations internes. L'initiative soulève des questions profondes sur la nature de la communication managériale en entreprise. Déléguer la voix d'un dirigeant à un système d'IA représente un changement de paradigme majeur : les employés ne sauront plus avec certitude si les réponses qu'ils reçoivent émanent de leur patron réel ou de son avatar algorithmique. Pour une organisation de la taille de Meta, cela pourrait accélérer la diffusion de décisions et de directives, mais au risque de diluer l'authenticité des échanges humains et de créer une confusion sur l'accountability réelle. Cette démarche survient alors que Meta investit massivement dans les agents IA, aussi bien pour ses produits grand public que pour ses usages internes. Zuckerberg lui-même a multiplié les déclarations sur l'intégration de l'IA dans le fonctionnement quotidien de l'entreprise. Plusieurs grands groupes technologiques explorent des systèmes similaires pour automatiser des interactions internes, mais Meta serait l'un des premiers à pousser l'idée jusqu'à créer un double numérique du PDG en personne. Les implications éthiques, notamment en termes de transparence et de consentement des employés, restent entières.

SociétéActu
1 source
Meta AI et KAUST proposent des ordinateurs neuronaux réunissant calcul, mémoire et entrées-sorties dans un seul modèle
55MarkTechPost 

Meta AI et KAUST proposent des ordinateurs neuronaux réunissant calcul, mémoire et entrées-sorties dans un seul modèle

Des chercheurs de Meta AI et de l'Université des sciences et technologies du roi Abdallah (KAUST) ont publié un article proposant un nouveau paradigme informatique qu'ils appellent les "Neural Computers" (NC). Contrairement à un agent IA classique qui s'appuie sur un système d'exploitation, des API et des terminaux existants, un Neural Computer est un réseau de neurones qui joue lui-même le rôle de l'ordinateur en cours d'exécution. L'équipe présente un cadre théorique formel ainsi que deux prototypes fonctionnels basés sur la génération vidéo : NC CLIGen, qui simule une interaction en ligne de commande, et NC GUIWorld, qui modélise des interfaces graphiques. Ces deux systèmes ont été construits sur Wan2.1, le modèle de génération vidéo de référence au moment des expériences. L'entraînement de NC CLIGen sur un jeu de données de près de 824 000 flux vidéo (environ 1 100 heures d'enregistrements de terminaux) a nécessité environ 15 000 heures de calcul sur GPU H100. Les résultats montrent une précision au niveau des caractères passant de 0,03 en début d'entraînement à 0,54 après 60 000 étapes, avec une qualité de reconstruction atteignant un PSNR moyen de 40,77 dB. L'enjeu central de cette recherche est de savoir si une machine apprenante peut commencer à assumer le rôle de l'ordinateur lui-même, plutôt que de simplement s'exécuter par-dessus lui. Dans un Neural Computer, l'état latent du modèle porte ce que la pile logicielle classique gère habituellement en dehors du modèle : le contexte d'exécution, la mémoire de travail et l'état de l'interface. L'objectif à long terme, baptisé "Completely Neural Computer" (CNC), vise un système Turing-complet, universellement programmable, cohérent dans son comportement sauf reprogrammation explicite, et respectant des sémantiques proches des architectures machines traditionnelles. Une exigence clé est un contrat run/update : les entrées ordinaires doivent exécuter les capacités installées sans les modifier silencieusement, tandis que tout changement de comportement doit passer par une interface de programmation explicite, traçable et réversible. Ce travail s'inscrit dans une trajectoire de recherche plus large qui cherche à repenser fondamentalement la frontière entre logiciel et modèle d'intelligence artificielle. Les chercheurs prennent soin de distinguer leur approche des Neural Turing Machines et des Differentiable Neural Computers des années 2010, qui visaient eux une mémoire externe différentiable plutôt qu'une fusion complète calcul-mémoire-interface. Meta AI, qui investit massivement dans la recherche fondamentale en IA depuis plusieurs années, s'associe ici à une institution académique du Golfe de plus en plus présente dans les publications de premier plan. Les prototypes actuels fonctionnent encore en mode ouvert, sans interaction en temps réel avec un environnement live, ce qui souligne le caractère exploratoire de la démarche. Si ce paradigme venait à mûrir, il pourrait remettre en question des décennies d'architecture logicielle en dissolvant la distinction entre programme et modèle.

RecherchePaper
1 source
Le Sénat adopte une loi qui pourrait forcer les géants de l’IA à prouver l’origine de leurs données
56Siècle Digital 

Le Sénat adopte une loi qui pourrait forcer les géants de l’IA à prouver l’origine de leurs données

Le Sénat français a adopté le 8 avril 2026 une proposition de loi imposant aux entreprises développant des systèmes d'intelligence artificielle de divulguer les données utilisées pour entraîner leurs modèles. Ce texte vise directement les géants du secteur comme OpenAI, Google, Meta ou Mistral, qui ont massivement ingéré des contenus issus d'œuvres protégées par le droit d'auteur, des articles de presse, des livres et des créations artistiques, sans compensation ni transparence vis-à-vis des auteurs concernés. L'enjeu est considérable pour les créateurs, éditeurs et médias français, qui réclament depuis l'essor de ChatGPT fin 2022 une reconnaissance légale de leur contribution aux modèles IA. Si cette loi entre en vigueur, les entreprises devront prouver l'origine de chaque jeu de données utilisé, ouvrant la voie à des négociations de licences et potentiellement à des mécanismes de rémunération. Pour l'industrie de l'IA, cela représente une contrainte technique et juridique majeure, susceptible de ralentir le déploiement de nouveaux modèles en France et en Europe. Ce vote s'inscrit dans un mouvement plus large de régulation du secteur, parallèlement à l'AI Act européen qui entre progressivement en application. Plusieurs procès intentés par des journaux américains contre OpenAI ont déjà mis en lumière la question de l'utilisation non autorisée de contenus. La France cherche ici à anticiper ces conflits en posant un cadre légal national, même si le texte devra encore passer devant l'Assemblée nationale avant de devenir définitivement loi.

UELe Sénat français impose aux développeurs d'IA de prouver l'origine de leurs données d'entraînement, ouvrant la voie à des négociations de licences et à une rémunération des créateurs, éditeurs et médias français.

💬 C'est le genre de texte de loi qu'on attendait depuis le début, et le Sénat a eu le bon sens de pas attendre que les procès américains fassent jurisprudence ici. Reste qu'entre "adopté au Sénat" et "en vigueur", il y a encore l'Assemblée nationale, et ça peut prendre du temps. Mistral va devoir jouer le jeu aussi, pas seulement les Américains, ce qui rend le truc vraiment sérieux.

RégulationReglementation
1 source
Meta AI publie EUPE : une famille de vision encodeurs compacts de moins de 100M de parametres, rivaux des modeles specialises
57MarkTechPost 

Meta AI publie EUPE : une famille de vision encodeurs compacts de moins de 100M de parametres, rivaux des modeles specialises

Les équipes de recherche de Meta AI ont présenté EUPE (Efficient Universal Perception Encoder), une famille d'encodeurs visuels compacts de moins de 100 millions de paramètres capables de rivaliser avec des modèles spécialisés sur des tâches variées : classification d'images, segmentation dense, et questions-réponses visuelles. La publication, disponible sur arXiv sous la référence 2503.22387, expose une approche radicalement différente des méthodes existantes, notamment face à AM-RADIO et RADIOv2.5, les références actuelles en distillation multi-enseignants. Là où RADIOv2.5-B, sa variante à l'échelle ViT-B, accuse des écarts notables face aux experts de domaine sur les tâches denses, EUPE parvient à combler ces lacunes dans un format adapté aux appareils embarqués comme les smartphones ou les casques de réalité augmentée. L'enjeu est concret : déployer plusieurs encodeurs spécialisés en parallèle sur un appareil mobile est trop coûteux en calcul, mais n'en déployer qu'un seul signifie accepter des performances dégradées sur la plupart des tâches. EUPE change cette équation. Un seul modèle léger peut désormais gérer simultanément la compréhension visuelle globale, la détection de structures spatiales précises au niveau du pixel, et l'interaction avec des systèmes de langage visuel. Pour les développeurs d'applications mobiles, les fabricants de dispositifs AR ou les ingénieurs travaillant sur des pipelines d'IA embarquée, cela représente un gain substantiel en ressources sans sacrifice de polyvalence. La difficulté centrale que résout EUPE tient à un problème de capacité. Les modèles comme CLIP, SigLIP 2, DINOv2 ou SAM ont chacun été entraînés avec des objectifs distincts : paires texte-image pour les premiers, apprentissage auto-supervisé structurel pour le second, segmentation massive pour le troisième. Les tentatives précédentes de fusionner ces expertises par distillation agglomérative, où un modèle étudiant imite plusieurs enseignants spécialistes simultanément, donnaient de bons résultats sur de grands encodeurs dépassant 300 millions de paramètres, mais échouaient sur les architectures efficientes. La solution proposée par Meta suit un principe en deux temps : agrandir d'abord, puis réduire. Un modèle intermédiaire de grande taille absorbe les représentations des différents enseignants, avant d'être distillé à son tour dans l'encodeur compact final. Cette étape intermédiaire fournit au petit modèle une représentation unifiée et déjà réconciliée, plutôt qu'une collection brute de signaux contradictoires. La publication positionne EUPE comme une brique fondamentale pour la prochaine génération d'IA on-device, dans un contexte où Apple, Google et Qualcomm intensifient également leurs efforts pour faire tourner des modèles multimodaux directement sur le matériel utilisateur.

💬 Le problème des encodeurs visuels embarqués, c'est exactement ça : soit tu empiles plusieurs spécialistes et ça explose ton budget calcul, soit tu fais des compromis douloureux. L'approche "agrandir puis distiller" de Meta est maline, parce qu'elle donne au petit modèle une représentation déjà digérée plutôt que de lui coller des signaux contradictoires à réconcilier lui-même. Reste à voir ce que ça donne sur du vrai hardware, pas juste sur les benchmarks arXiv.

RecherchePaper
1 source
Meta utilise l'IA pour cartographier les connaissances tacites dans ses pipelines de données
58Meta Engineering ML 

Meta utilise l'IA pour cartographier les connaissances tacites dans ses pipelines de données

Meta a développé un système original pour rendre ses agents IA capables de travailler efficacement sur une base de code massive : un pipeline de données couvrant quatre dépôts, trois langages de programmation et plus de 4 100 fichiers. Face à l'inefficacité des assistants IA classiques sur ce terrain, incapables de produire des modifications utiles rapidement, les ingénieurs ont conçu un moteur de pré-calcul composé de plus de 50 agents IA spécialisés. Ces agents ont systématiquement parcouru l'ensemble du code pour produire 59 fichiers de contexte condensés, encodant ce que les développeurs appellent le « tribal knowledge » : les règles implicites et les conventions qui n'existent que dans la tête des ingénieurs. Résultat : la couverture structurée du code est passée de 5 % à 100 % des modules, soit les 4 100 fichiers des trois dépôts. Plus de 50 patterns « non-évidents » ont été documentés pour la première fois, et les tests préliminaires montrent une réduction de 40 % des appels d'outils par les agents IA pour chaque tâche. L'enjeu n'est pas anodin. Sans cette cartographie, les agents IA se comportaient comme des développeurs juniors largués sur un projet inconnu : ils compilaient du code fonctionnel en apparence, mais subtilement incorrect. Par exemple, deux modes de configuration utilisent des noms de champs différents pour la même opération, les inverser produit une erreur silencieuse. Ou encore, des dizaines de valeurs d'énumération marquées « deprecated » ne peuvent jamais être supprimées, car la compatibilité de sérialisation en dépend. Aucune de ces règles n'était écrite nulle part. En les formalisant, Meta permet désormais à des modèles IA variés de naviguer le codebase de manière fiable, le système de connaissance étant indépendant du modèle utilisé. L'infrastructure se maintient aussi elle-même : toutes les quelques semaines, des jobs automatisés valident les chemins de fichiers, détectent les lacunes de couverture et corrigent les références obsolètes. Ce projet s'inscrit dans une tendance plus large où les grandes entreprises tech cherchent à industrialiser l'usage des agents IA sur des codebases de production réels, bien au-delà des démos. Meta avait déjà déployé des systèmes IA pour des tâches opérationnelles, surveillance de dashboards, reconnaissance de patterns incidents, suggestions de corrections, mais l'extension aux tâches de développement butait sur ce problème fondamental d'absence de contexte. La solution choisie, baptisée « compass, not encyclopedia », repose sur des fichiers ultra-compacts de 25 à 35 lignes environ 1 000 tokens chacun, organisés en quatre sections : commandes clés, fichiers essentiels, patterns non-évidents, et références croisées. Les 59 fichiers réunis pèsent moins d'un contexte de modèle standard. C'est cette sobriété délibérée, chaque ligne justifie sa présence, qui permet au système de rester maintenable et scalable à mesure que le codebase évolue.

OutilsActu
1 source
Les salariés de Meta se disputent le statut de « légende des tokens » en IA
59The Information AI 

Les salariés de Meta se disputent le statut de « légende des tokens » en IA

Chez Meta Platforms, un classement interne baptisé "Claudeonomics" transforme l'utilisation de l'intelligence artificielle en compétition entre employés. Mis en place par un salarié de l'entreprise sur son intranet à partir de données internes, ce tableau de bord mesure le nombre de tokens, les unités de données traitées par les modèles d'IA, consommés par chaque utilisateur. Les 250 plus gros consommateurs parmi les quelque 85 000 employés de Meta y figurent, avec des titres honorifiques à la clé : "Session Immortal" pour les plus assidus, et "Token Legend" pour les véritables champions de l'outil. Le nom "Claudeonomics" est une référence directe à Claude, le modèle phare d'Anthropic, le concurrent d'OpenAI dont Meta a vraisemblablement adopté les outils en interne. Ce type de mécanisme de gamification révèle une tendance de fond dans les grandes entreprises tech : encourager l'adoption massive des outils d'IA par les employés en jouant sur la compétition et la reconnaissance sociale. Pour Meta, qui investit massivement dans l'IA générative, afficher des statistiques d'usage aussi élevées est aussi un signal fort sur la culture interne de l'entreprise. Cette initiative s'inscrit dans un contexte où les géants de la tech cherchent à mesurer et accélérer l'intégration de l'IA dans leurs workflows quotidiens. Meta, qui développe ses propres modèles Llama tout en recourant à des outils tiers, fait face à la même question que l'ensemble de l'industrie : comment transformer des outils puissants en réflexes productifs pour des dizaines de milliers de salariés ? Les classements internes, aussi anecdotiques qu'ils paraissent, sont l'un des leviers expérimentés.

BusinessOpinion
1 source
Meta lance KernelEvolve, un agent IA pour optimiser les infrastructures d'entraînement
60Meta Engineering ML 

Meta lance KernelEvolve, un agent IA pour optimiser les infrastructures d'entraînement

Meta a présenté KernelEvolve, un système d'optimisation de kernels piloté par intelligence artificielle, développé en interne pour accélérer ses modèles de publicité et d'IA générative. Intégré à l'agent Ranking Engineer Agent, KernelEvolve automatise la création et l'optimisation de kernels — ces programmes bas niveau qui traduisent les opérations de haut niveau d'un modèle en instructions spécifiques à chaque puce. Le système cible une infrastructure hétérogène composée de GPU NVIDIA, de GPU AMD, de CPU classiques et des puces MTIA, les accélérateurs personnalisés de Meta. Les résultats publiés sont substantiels : plus de 60 % d'amélioration du débit d'inférence pour le modèle publicitaire Andromeda sur GPU NVIDIA, et plus de 25 % de gain en débit d'entraînement sur les puces MTIA. Des travaux qui auraient normalement demandé plusieurs semaines à des ingénieurs spécialisés ont été accomplis en quelques heures. L'article associé sera présenté au 53e International Symposium on Computer Architecture (ISCA) 2026. L'enjeu est direct et massif : Meta sert chaque jour des milliards d'expériences alimentées par l'IA, des recommandations personnalisées aux assistants génératifs. Chaque requête d'entraînement ou d'inférence repose sur une couche de kernels hautement optimisés, et à mesure que les modèles gagnent en complexité et que le parc matériel se diversifie, le nombre de configurations possibles explose — atteignant des milliers de combinaisons selon le hardware, l'architecture du modèle et le type d'opérateur. L'optimisation manuelle par des experts ne peut plus suivre ce rythme, créant un goulot d'étranglement critique qui freine l'adoption de nouveaux matériels et ralentit les cycles d'itération des modèles. KernelEvolve résout ce problème en traitant l'optimisation comme une recherche automatisée : un environnement d'évaluation dédié teste chaque kernel candidat, renvoie les diagnostics au LLM, et pilote une exploration continue sur des centaines d'alternatives — dépassant les performances des kernels écrits à la main par des experts humains. Cette initiative s'inscrit dans une tendance de fond chez les grandes plateformes technologiques : déléguer des tâches d'ingénierie de bas niveau à des agents IA pour absorber la complexité croissante des infrastructures de calcul. Meta fait face à la même contrainte que Google, Microsoft ou Amazon — accélérer sans cesse les modèles tout en maîtrisant les coûts de calcul sur un parc matériel qui ne cesse de se diversifier. KernelEvolve génère des kernels dans des langages aussi bien de haut niveau comme Triton ou CuteDSL que de bas niveau comme CUDA, HIP ou MTIA C++, ce qui lui confère une portabilité rare. À terme, ce type d'agent pourrait devenir standard dans l'industrie, réduisant drastiquement le besoin d'ingénieurs spécialisés en optimisation matérielle et accélérant la mise en production de nouvelles architectures de modèles sur des puces encore inconnues.

InfrastructureActu
1 source
Google publie Gemma 4 en open source complet, y compris pour les téléphones
61ZDNET AI 

Google publie Gemma 4 en open source complet, y compris pour les téléphones

Google a publié Gemma 4 en open source complet sous licence Apache 2.0, permettant désormais à n'importe quel développeur de télécharger, modifier et redistribuer le modèle sans restriction commerciale. La nouveauté majeure est sa capacité multimodale : Gemma 4 traite texte et images en local, sur des serveurs, des smartphones Android et même des cartes Raspberry Pi, sans connexion au cloud. Cela représente un tournant concret pour les entreprises et développeurs indépendants qui souhaitent déployer de l'IA sans envoyer leurs données vers des serveurs tiers. Les cas d'usage sont immédiats : applications médicales sensibles, outils d'entreprise offline, assistants embarqués dans des appareils IoT, ou simplement des apps mobiles qui fonctionnent sans réseau. La licence Apache 2.0, l'une des plus permissives, élimine les barrières juridiques habituelles. Google s'inscrit ainsi dans une concurrence directe avec Meta (Llama), Mistral et d'autres acteurs de l'open source IA, qui ont démontré l'appétit du marché pour des modèles déployables localement. La capacité à tourner sur du matériel grand public comme un Raspberry Pi signale que Google vise aussi l'edge computing et les marchés émergents, où la connectivité reste un frein majeur à l'adoption de l'IA.

UELes développeurs et entreprises européennes peuvent désormais déployer Gemma 4 localement sans dépendance au cloud, renforçant la souveraineté des données — un avantage direct face aux contraintes du RGPD.

💬 Apache 2.0, multimodal, et ça tourne sur Raspberry Pi : c'est le genre de sortie qu'on attendait depuis que Meta a prouvé que l'open source IA avait un vrai marché. Je pense surtout aux usages offline sensibles, médical, entreprise, IoT, tout ce qui ne peut pas se permettre d'envoyer ses données dans le cloud. Reste à voir si la qualité tient la comparaison avec Llama, mais Google joue vraiment le jeu cette fois.

OpenAI lève 122 milliards de dollars lors d'un tour de table valorisant l'entreprise à 830 milliards
62The Information AI 

OpenAI lève 122 milliards de dollars lors d'un tour de table valorisant l'entreprise à 830 milliards

OpenAI a annoncé mardi avoir bouclé un tour de financement de 122 milliards de dollars, pour une valorisation pré-investissement de 830 milliards de dollars — soit environ 22 milliards au-dessus de l'objectif initial de 100 milliards révélé par The Information. SoftBank figure parmi les investisseurs principaux de cette levée historique, qui propulse OpenAI au rang des entreprises privées les mieux valorisées au monde. Cette opération confirme que les marchés continuent de parier massivement sur l'IA générative malgré des questions persistantes sur la rentabilité à court terme. Pour OpenAI, ces capitaux doivent financer l'expansion de ses infrastructures de calcul, le développement de nouveaux modèles et l'accélération de son déploiement commercial à l'échelle mondiale — notamment face à une concurrence de plus en plus dense de Google, Meta et des acteurs chinois comme DeepSeek. OpenAI traverse une période de transformation profonde : l'entreprise est en train de passer d'une structure à but non lucratif à une société à but lucratif, une transition complexe sur le plan juridique et éthique. Ce tour de table intervient alors que Sam Altman cherche à sécuriser des ressources suffisantes pour maintenir son avance technologique et développer des produits grand public au-delà de ChatGPT, dans un secteur où les coûts d'entraînement des modèles continuent d'exploser.

UECette levée record renforce la domination américaine dans l'IA générative et accentue la pression sur les acteurs européens, relançant le débat sur la souveraineté numérique et la capacité de l'UE à rivaliser dans la course aux infrastructures IA.

💬 830 milliards pour une boîte qui perd encore de l'argent, ça dit tout sur l'état du marché. SoftBank qui remets au pot, c'est presque rassurant, ils ont l'habitude des paris fous. Ce qui m'intéresse là-dedans, c'est pas la valorisation, c'est la question qui reste sans réponse : est-ce qu'on est dans une bulle ou dans la construction réelle d'une infrastructure mondiale ? On aura la réponse dans 3 ans.

Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial
63Le Big Data 

Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial

En octobre 2025, Sam Altman a conclu des accords préliminaires avec les deux géants mondiaux de la mémoire vive, Samsung Electronics et SK Hynix, pour réserver 900 000 wafers de DRAM par mois — soit environ 40 % de la production mondiale totale. Ces lettres d'intention, signées sans commande ferme ni paiement immédiat, ont suffi à déclencher une onde de choc sur le marché. Les deux fabricants coréens ignoraient qu'ils s'engageaient simultanément pour les mêmes volumes. Résultat : un kit DDR5-6000 de 32 Go, qui coûtait 139 € avant ces annonces, s'affiche aujourd'hui à plus de 340 € chez des revendeurs comme LDLC. En mars 2026, la situation s'est encore aggravée lorsqu'OpenAI a rompu son engagement de 71 milliards de dollars avec SK Hynix, faisant chuter les actions de Micron et semant la panique chez les distributeurs qui avaient déjà anticipé la pénurie en masquant leurs tarifs publics. L'impact est immédiat et concret pour des millions d'utilisateurs. Les fabricants comme Micron ont fermé leur division grand public — la marque Crucial a pratiquement disparu des rayons — pour rediriger leurs lignes de production vers la mémoire HBM destinée aux centres de données IA. TrendForce estime que les datacenters capteront 70 % de la production mondiale de puces en 2026, ne laissant que des miettes au marché des PC. La part de la mémoire dans le coût d'un ordinateur HP est passée de 15 % à 35 %. Les consoles portables comme le Steam Deck de Valve sont en rupture de stock dans le monde entier, faute de composants disponibles. Gartner prévoit une chute des ventes de PC d'entrée de gamme et de configurations accessibles aux petits budgets, pénalisant directement les étudiants, les travailleurs indépendants et les pays émergents. Cette crise illustre un phénomène plus large : la mainmise croissante des géants de l'IA sur les chaînes d'approvisionnement en semi-conducteurs, au détriment du marché grand public. OpenAI, forte de la confiance des marchés et de ses investisseurs, a pu bloquer une fraction massive de la production mondiale sans débourser un centime, simplement par le poids de sa signature. Ce type de spéculation sur lettres d'intention crée des goulots d'étranglement artificiels qui faussent les prix bien avant que la moindre puce ne sorte d'usine. La question qui se pose désormais est celle de la régulation : faut-il encadrer les achats anticipés de composants stratégiques pour éviter que les ambitions d'un seul acteur ne paralysent l'ensemble du marché informatique mondial ? Les prochains mois seront déterminants, notamment si d'autres acteurs comme Microsoft, Google ou Meta suivent la même stratégie d'accaparement.

UELes prix de la RAM ont doublé en France (139 € à 340 € chez LDLC), pénalisant directement étudiants et indépendants, et la question d'une régulation européenne des réservations massives de composants stratégiques par les géants de l'IA devient urgente.

💬 Réserver 40% de la RAM mondiale avec une lettre d'intention sans débourser un centime, c'est du culot à l'état pur. Résultat : 139 € le kit DDR5 en octobre, 340 € aujourd'hui, et Crucial qui a pratiquement disparu des rayons. Si on n'encadre pas ce genre de spéculation sur des composants stratégiques, d'autres acteurs vont tenter le même coup.

InfrastructureOpinion
1 source
Anthropic publie accidentellement le code source de Claude Code en accès public
64The Decoder 

Anthropic publie accidentellement le code source de Claude Code en accès public

Anthropic a accidentellement rendu public une partie du code source de Claude Code, son outil d'assistance à la programmation propulsé par l'IA. L'incident, révélé par The Decoder, s'est produit lorsque des fichiers normalement destinés à rester internes ont été accessibles publiquement, permettant à quiconque de les consulter sans autorisation particulière. Il s'agit de la deuxième mésaventure de ce type en peu de temps pour l'entreprise, qui avait déjà vu fuiter des billets de blog internes concernant son futur modèle baptisé Mythos. Cette exposition involontaire du code source est embarrassante pour Anthropic à plusieurs titres. Claude Code est un produit commercial actif, et la divulgation de son implémentation interne peut permettre à des concurrents d'analyser ses choix techniques, ses architectures et potentiellement ses vulnérabilités. Pour les utilisateurs professionnels et entreprises qui s'appuient sur cet outil, la question de la sécurité et de la robustesse des pratiques internes d'Anthropic devient légitime. Cet incident survient dans un contexte de compétition intense entre les grands acteurs de l'IA — OpenAI, Google DeepMind, Meta et Anthropic — où la confidentialité des développements internes représente un avantage stratégique majeur. Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI et valorisée à plusieurs dizaines de milliards de dollars, se positionne sur le créneau de l'IA sûre et responsable. Ces fuites répétées fragilisent cette image de sérieux opérationnel, au moment même où la société cherche à s'imposer dans le segment entreprise face à des concurrents mieux établis.

💬 Deux fuites en quelques semaines, ça commence à faire beaucoup pour une boîte qui vend de la rigueur. Ce qui a circulé sur Claude Code montre des choix techniques plutôt solides, mais c'est pas vraiment le sujet : le problème c'est que leurs process internes ont visiblement un trou quelque part. Pour leur pitch auprès des DSI, le timing est vraiment pas idéal.

Meta Adaptive Ranking Model : infléchir la courbe d'inférence pour déployer des LLM dans la publicité
65Meta Engineering ML 

Meta Adaptive Ranking Model : infléchir la courbe d'inférence pour déployer des LLM dans la publicité

Meta a dévoilé l'Adaptive Ranking Model (ARM), un nouveau système de recommandation publicitaire fonctionnant à l'échelle des grands modèles de langage (LLM). Déployé sur Instagram au quatrième trimestre 2025, ARM a généré une hausse de 3 % des conversions publicitaires et de 5 % du taux de clics pour les utilisateurs ciblés. Le système atteint une complexité de calcul équivalente à celle des meilleurs LLMs — environ 10 GFLOPs par token — tout en maintenant une latence inférieure à 100 millisecondes, soit un ordre de grandeur plus rapide que l'inférence LLM standard. L'enjeu central qu'ARM résout est ce que Meta appelle le « trilemme de l'inférence » : comment faire tourner des modèles d'une complexité comparable à GPT-4 ou Llama dans un environnement publicitaire temps réel, où chaque requête doit aboutir en moins d'une seconde, pour des milliards d'utilisateurs, sans exploser les coûts d'infrastructure. La solution repose sur un routage intelligent des requêtes : plutôt que d'appliquer le même modèle à chaque impression publicitaire, ARM analyse le contexte et l'intention de l'utilisateur pour décider dynamiquement du niveau de complexité nécessaire. Les requêtes simples consomment peu de ressources ; les requêtes complexes mobilisent toute la puissance du modèle LLM-scale. Ce principe d'alignement dynamique entre complexité et contexte permet de maximiser la qualité des prédictions sans surcharger les serveurs. Trois innovations techniques rendent cela possible. Premièrement, une architecture centrée sur la requête plutôt que sur le modèle, permettant de servir un modèle à un trillion de paramètres (O(1T)) de façon économiquement viable. Deuxièmement, une co-conception modèle-matériel : les architectures sont conçues en tenant compte des contraintes précises du silicium utilisé, ce qui améliore significativement l'utilisation des GPU dans des environnements matériels hétérogènes. Troisièmement, une infrastructure de serving repensée autour d'architectures multi-cartes et d'optimisations bas-niveau spécifiques au hardware. Ce développement s'inscrit dans la course que se livrent les grandes plateformes pour intégrer l'intelligence des LLMs dans leurs systèmes de recommandation — un marché où chaque fraction de point de taux de conversion se traduit en milliards de dollars de revenus publicitaires. Pour Meta, dont plus de 98 % des revenus proviennent de la publicité, ARM représente une avancée structurelle : la preuve qu'il est désormais possible de faire fonctionner des modèles de la taille de ceux utilisés pour les chatbots dans des pipelines industriels ultra-contraints en latence et en coût.

UELes annonceurs européens utilisant Instagram et Facebook bénéficient indirectement d'un ciblage publicitaire amélioré, sans impact réglementaire ou stratégique direct pour la France ou l'UE.

InfrastructureOpinion
1 source
Mistral lève 830 millions d’euros pour financer un gros projet en France
6601net 

Mistral lève 830 millions d’euros pour financer un gros projet en France

Mistral AI a annoncé une levée de fonds de 830 millions d'euros sous forme de dette, quelques mois seulement après son précédent tour de table qui lui avait permis d'atteindre une valorisation de 6 milliards de dollars. Cette opération, l'une des plus importantes jamais réalisées par une start-up européenne dans le domaine de l'intelligence artificielle, vise à financer un projet d'infrastructure de grande envergure sur le territoire français. Cet afflux de capitaux doit permettre à Mistral de réduire sa dépendance aux infrastructures cloud américaines — Amazon Web Services, Microsoft Azure ou Google Cloud — qui dominent aujourd'hui le marché du calcul pour l'IA. En construisant sa propre capacité de calcul en France, la start-up entend maîtriser ses coûts à long terme tout en offrant à ses clients européens une alternative souveraine aux hyperscalers américains. Fondée en 2023 par d'anciens chercheurs de Google DeepMind et Meta, Mistral s'est imposée comme le principal rival européen d'OpenAI. Cette levée intervient dans un contexte de course effrénée aux ressources GPU, alors que les modèles de nouvelle génération exigent des investissements infrastructurels colossaux. La stratégie d'indépendance cloud de Mistral pourrait faire école auprès d'autres acteurs européens cherchant à s'affranchir de la tutelle des géants américains.

UEMistral construit une infrastructure de calcul souveraine en France, offrant aux entreprises et institutions européennes une alternative concrète aux hyperscalers américains.

💬 830 millions en dette, c'est un pari énorme sur leur capacité à monétiser vite. Ce qui m'intéresse, c'est pas la somme, c'est le choix de sortir des hyperscalers américains : si ça marche, Mistral contrôle ses marges ET son destin réglementaire. Reste à voir si les clients européens suivent vraiment, ou si AWS reste "plus simple" comme toujours.

MetaClaw entraîne des agents IA pendant vos réunions en consultant Google Calendar
67The Decoder 

MetaClaw entraîne des agents IA pendant vos réunions en consultant Google Calendar

Des chercheurs issus de quatre universités américaines ont mis au point MetaClaw, un framework conçu pour entraîner des agents d'intelligence artificielle de manière continue, sans interrompre leur utilisation. La particularité du système : il consulte le calendrier Google de l'utilisateur pour identifier les créneaux d'inactivité — réunions, pauses, déplacements — et en profite pour lancer des cycles d'apprentissage en arrière-plan. L'entraînement se déroule donc pendant que l'utilisateur est occupé, sans mobiliser de ressources au moment où il sollicite l'agent. Cette approche résout un problème fondamental des agents IA déployés en production : l'amélioration continue sans interruption de service. Jusqu'ici, mettre à jour un modèle impliquait soit de l'arrêter, soit d'accepter des dégradations temporaires de performance. MetaClaw permet d'optimiser l'agent en temps réel, en s'adaptant au rythme de travail réel de l'utilisateur. Pour les entreprises qui dépendent d'assistants IA dans leurs workflows quotidiens, cela représente un gain notable de fiabilité et d'efficacité opérationnelle. Ce travail s'inscrit dans un courant de recherche croissant autour de l'apprentissage continu (continual learning) et des agents IA adaptatifs — deux domaines en pleine effervescence depuis la multiplication des assistants déployés en environnement professionnel. L'intégration d'un signal aussi concret que l'agenda personnel pour orchestrer l'entraînement illustre une tendance plus large : ancrer les systèmes IA dans les contraintes réelles des utilisateurs plutôt que dans des cycles de mise à jour planifiés. La publication n'a pas encore précisé de date de diffusion du code ni de calendrier de déploiement commercial.

💬 L'idée est maline : utiliser les trous de calendrier pour entraîner l'agent en arrière-plan, sans jamais couper le service. C'est exactement le genre de contrainte qu'on contourne en prod à grands coups de maintenances nocturnes. Bon, pas de code dispo pour l'instant, donc on attend de voir si ça tient hors conditions de labo.

RecherchePaper
1 source
Meta publie TRIBE v2 : un modèle de codage cérébral qui prédit les réponses IRM fonctionnelle aux stimuli vidéo, audio et texte
68MarkTechPost 

Meta publie TRIBE v2 : un modèle de codage cérébral qui prédit les réponses IRM fonctionnelle aux stimuli vidéo, audio et texte

L'équipe FAIR de Meta a publié TRIBE v2, un modèle fondationnel trimodal capable de prédire les réponses cérébrales mesurées par IRM fonctionnelle (fMRI) à partir de stimuli vidéo, audio et textuels combinés. Le modèle repose sur trois encodeurs spécialisés — LLaMA 3.2-3B pour le texte, V-JEPA2-Giant pour la vidéo, et Wav2Vec-BERT 2.0 pour l'audio — dont les représentations sont fusionnées dans un Transformer à 8 couches analysant des fenêtres temporelles de 100 secondes. Le résultat est ensuite projeté sur 20 484 vertices corticaux et 8 802 voxels sous-corticaux pour produire une carte haute résolution de l'activité cérébrale. L'entraînement a mobilisé 451,6 heures de données fMRI issues de 25 sujets, et l'évaluation a porté sur 1 117,7 heures couvrant 720 sujets supplémentaires. TRIBE v2 surpasse significativement les modèles FIR (Finite Impulse Response), qui constituaient jusqu'ici l'étalon-or en encodage cérébral voxel par voxel. Sa capacité la plus frappante est la généralisation zéro-shot : sans avoir jamais vu un sujet, le modèle prédit la réponse moyenne d'un nouveau groupe avec une précision supérieure à celle de nombreux enregistrements individuels au sein de ce même groupe. Sur le jeu de données Human Connectome Project 7T à haute résolution, il atteint une corrélation de groupe proche de 0,4 — soit le double de la médiane des sujets. Avec seulement une heure de données d'un nouveau sujet, le modèle peut en outre être affiné pour des prédictions individualisées. Les chercheurs observent une progression log-linéaire de la précision avec le volume de données d'entraînement, sans plateau visible. La neuroscience cognitive a longtemps fonctionné par fragmentation : chaque région cérébrale étudiée séparément, chaque modalité sensorielle modélisée indépendamment. TRIBE v2 s'inscrit dans une tendance inverse, celle des modèles fondationnels multimodaux capables de capturer la manière dont le cerveau intègre simultanément sons, images et langage dans des conditions naturelles — des films, des podcasts, des vidéos silencieuses. Cette approche ouvre la voie à une neuroscience computationnelle plus écologique, capable d'étudier le cerveau tel qu'il fonctionne vraiment, et non dans des paradigmes expérimentaux artificiels. À mesure que les bases de données de neuroimagerie s'agrandiront, la puissance prédictive de tels modèles devrait continuer à croître, avec des applications potentielles en psychiatrie computationnelle, en interfaces cerveau-machine, et dans la compréhension des mécanismes cognitifs sous-jacents à la perception multimodale.

RecherchePaper
1 source
Meta se prépare à lancer deux nouvelles lunettes Ray-Ban avec IA
69The Verge AI 

Meta se prépare à lancer deux nouvelles lunettes Ray-Ban avec IA

Meta et son partenaire fabricant EssilorLuxottica se préparent à lancer la prochaine génération de leurs lunettes connectées Ray-Ban AI. Des dépôts auprès de la FCC (Federal Communications Commission) américaine, publiés début mars 2026, révèlent l'existence de deux nouveaux modèles Ray-Ban Meta. Ces documents décrivent les appareils testés comme des « unités de production », ce qui indique généralement une commercialisation imminente. Ce lancement marque une nouvelle étape dans la course aux lunettes intelligentes grand public. Les Ray-Ban Meta, dotées d'une caméra, de microphones et d'un assistant IA vocal, ont déjà redéfini ce segment en combinant un design familier avec des fonctionnalités d'IA embarquées. Deux nouveaux modèles simultanés suggèrent une stratégie d'élargissement de la gamme, possiblement pour toucher différents segments de prix ou d'usages. Pour des millions de consommateurs, cela pourrait signifier des lunettes encore plus capables, avec de meilleures performances d'IA ou une autonomie améliorée. Meta avait dévoilé ses Ray-Ban de deuxième génération fin 2023, un peu plus d'un mois après les dépôts FCC correspondants — ce précédent laisse penser qu'une annonce officielle pourrait intervenir rapidement. La collaboration avec EssilorLuxottica, géant mondial de l'optique, donne à Meta un avantage de distribution et de légitimité que ses concurrents peinent à égaler. Alors qu'Apple et Google restent discrets sur leurs propres lunettes AR, Meta consolide sa position de leader incontesté du marché des lunettes connectées à l'IA.

UEEssilorLuxottica, groupe franco-italien (Essilor étant d'origine française), est co-fabricant des lunettes Ray-Ban Meta, ce qui positionne un acteur européen majeur au cœur du marché des wearables IA grand public.

OutilsOutil
1 source
Les gros paris de Disney sur le metaverse et l'IA médiocre ne paient pas
70The Verge AI 

Les gros paris de Disney sur le metaverse et l'IA médiocre ne paient pas

Josh D'Amaro, nouveau PDG de Disney depuis moins d'une semaine, fait déjà face à deux crises simultanées. OpenAI ferme son programme de génération d'images Sora, quelques mois seulement après que Disney a annoncé un partenariat d'un milliard de dollars pour intégrer cette technologie à Disney+. Parallèlement, Epic Games — partenaire d'un accord à 1,5 milliard de dollars pour construire un métaverse commun — licencie 1 000 employés, et le projet n'a pratiquement donné aucun signe de vie depuis son annonce. Ces deux revers soulèvent des questions sérieuses sur la stratégie technologique de Disney. L'intégration de l'IA générative dans le streaming reste possible, mais perd son partenaire phare. Quant au métaverse, l'hémorragie chez Epic fragilise davantage un projet déjà flou. Pour D'Amaro, qui hérite de paris coûteux engagés sous son prédécesseur, la facture risque d'être lourde — financièrement et en termes de crédibilité. Ces déboires s'inscrivent dans un contexte plus large de désillusion autour du métaverse et des promesses parfois excessives de l'IA générative, deux secteurs où de nombreuses entreprises ont investi massivement sans résultats concrets à la hauteur des attentes.

BusinessOpinion
1 source
Meta fait appel à l'IA pour simplifier les achats sur Instagram et Facebook
71TechCrunch AI 

Meta fait appel à l'IA pour simplifier les achats sur Instagram et Facebook

Meta intègre l'IA générative dans ses applications Instagram et Facebook pour enrichir l'expérience d'achat de ses utilisateurs. Cette fonctionnalité permet désormais d'afficher des informations détaillées sur les produits et les marques directement au sein des deux plateformes, au moment où les utilisateurs naviguent et font leurs achats. Pour les marques et les consommateurs, ce changement simplifie le parcours d'achat en réduisant la friction entre la découverte d'un produit et la décision d'achat. En centralisant les informations commerciales via l'IA, Meta renforce son positionnement comme plateforme de commerce social et ouvre de nouvelles opportunités publicitaires pour les annonceurs. Cette initiative s'inscrit dans la tendance générale des grandes plateformes technologiques à monétiser leurs milliards d'utilisateurs via le commerce intégré, un marché en pleine expansion face à la concurrence de TikTok Shop et Amazon.

UEMeta étant soumis au DSA européen, le déploiement de fonctionnalités de commerce social pilotées par l'IA pourrait entraîner des obligations de transparence algorithmique et de protection des consommateurs en Europe.

BusinessActu
1 source
Meta et OpenAI annoncent l'achat du premier chip IA d'Arm pour serveurs
72The Information AI 

Meta et OpenAI annoncent l'achat du premier chip IA d'Arm pour serveurs

Meta Platforms et OpenAI ont annoncé qu'ils achèteront le premier chip serveur IA d'Arm, qui jusqu'ici se contentait d'aider d'autres entreprises à concevoir des processeurs. Arm, propriété de SoftBank, lancera cette année un CPU optimisé pour les tâches IA, plus efficace que les GPU traditionnels.

OutilsActu
1 source
Meta recrute une équipe star de l’IA pour créer les assistants du futur
73Siècle Digital 

Meta recrute une équipe star de l’IA pour créer les assistants du futur

Meta renforce ses capacités en agents IA en recrutant une équipe spécialisée, dans une démarche qui s'apparente à une acquisition sans rachat formel. Cette initiative s'inscrit dans la tendance générale autour des assistants IA, illustrée par des projets comme OpenClaw et NemoClaw (Nvidia). Meta cherche ainsi à rester compétitif dans la course aux agents IA du futur.

BusinessActu
1 source
Meta : Mark Zuckerberg va laisser un agent IA diriger l’entreprise à sa place
74Le Big Data 

Meta : Mark Zuckerberg va laisser un agent IA diriger l’entreprise à sa place

Mark Zuckerberg développe un agent IA personnel destiné à l'aider à diriger Meta, selon le Wall Street Journal. Cet assistant est conçu pour accéder instantanément aux données et synthétiser l'information, court-circuitant les circuits internes jugés trop lents. Meta intègre déjà l'IA profondément dans ses opérations, jusqu'à l'évaluation des performances des salariés.

UEL'usage d'agents IA pour piloter des décisions RH et stratégiques chez Meta pourrait influencer les pratiques des grandes entreprises opérant en Europe, soulevant des questions de conformité au RGPD et à l'AI Act.

BusinessActu
1 source
Rohit Patel (Meta) : « L’IA actuelle est une base largement suffisante pour transformer profondément la société »
75La Tribune 

Rohit Patel (Meta) : « L’IA actuelle est une base largement suffisante pour transformer profondément la société »

Rohit Patel, directeur du Superintelligence Labs de Meta, estime que les grands modèles de langage actuels (Llama, ChatGPT, Gemini) constituent une base suffisante pour transformer profondément la société, contrairement à Yann LeCun qui juge nécessaire d'aller au-delà de l'IA générative. Il reconnaît cependant des limitations importantes à ces modèles, notamment l'absence de mémoire robuste et l'incapacité à percevoir le passage du temps.

LLMsOpinion
1 source
Meta recrute l'équipe de la startup IA Dreamer
76The Information AI 

Meta recrute l'équipe de la startup IA Dreamer

Meta a recruté les fondateurs et l'équipe de la startup d'agents IA Dreamer, dont Hugo Barra, David Singleton et Nicholas Jitkoff, qui rejoignent le groupe Meta Superintelligence Labs. Dans le cadre de l'accord, Dreamer accordera une licence de sa technologie à Meta.

BusinessActu
1 source
Meta recrute toute l'équipe de Dreamer pour renforcer ses ambitions en agents IA
77The Decoder 

Meta recrute toute l'équipe de Dreamer pour renforcer ses ambitions en agents IA

Meta recrute toute l'équipe de la startup Dreamer au sein de ses Meta Superintelligence Labs, dans le cadre d'une stratégie pour rattraper son retard en matière d'agents IA. Le co-fondateur de Dreamer, Hugo Barra — ancien vice-président de Meta — fait ainsi son retour dans l'entreprise de Mark Zuckerberg. Il s'agit de la deuxième acquisition liée aux agents IA réalisée par Meta cette année.

BusinessActu
1 source
Mark Zuckerberg développerait un agent IA pour l’aider à diriger Meta
78Presse-citron 

Mark Zuckerberg développerait un agent IA pour l’aider à diriger Meta

Mark Zuckerberg développe un agent IA personnel pour l'aider à diriger Meta, montrant l'exemple à ses employés. Cette initiative s'inscrit dans la stratégie de Meta qui encourage l'ensemble de ses équipes à intégrer l'IA dans leur travail quotidien.

BusinessActu
1 source
Meta : Zuckerberg développe son propre agent IA et envisage des hiérarchies plus plates
79The Decoder 

Meta : Zuckerberg développe son propre agent IA et envisage des hiérarchies plus plates

Mark Zuckerberg développe un agent IA personnel pour l'aider à gérer Meta. L'entreprise préparerait également des suppressions massives de postes dans le cadre d'une restructuration vers des hiérarchies plus plates.

UELes suppressions de postes chez Meta pourraient affecter les équipes européennes et relancer le débat sur l'impact des agents IA sur l'emploi dans l'UE.

BusinessActu
1 source
Meta réduit le recours aux modérateurs tiers et mise davantage sur l'IA
80The Information AI 

Meta réduit le recours aux modérateurs tiers et mise davantage sur l'IA

Meta réduit le recours aux modérateurs tiers sur Facebook, Instagram et Threads au profit de systèmes d'intelligence artificielle. L'entreprise déploiera davantage d'IA pour examiner les contenus sur ses plateformes. Cette décision marque un tournant majeur dans la stratégie de modération du groupe.

UELa réduction des modérateurs humains chez Meta soulève des questions de conformité avec le Digital Services Act (DSA) qui impose des obligations strictes de modération aux très grandes plateformes en Europe.

SociétéActu
1 source
Avec Manus, Meta transforme votre PC en assistant autonome capable d’agir à votre place
81Siècle Digital 

Avec Manus, Meta transforme votre PC en assistant autonome capable d’agir à votre place

Meta accélère sur les agents autonomes avec Manus, une start-up récemment acquise, qui propose désormais un assistant IA capable d'exécuter des tâches complexes directement sur PC sans intervention constante de l'utilisateur. Cette évolution marque un tournant dans la stratégie offensive de Meta dans le domaine de l'IA, avec une approche plus concrète et accessible. Manus représente ainsi le dernier mouvement notable de Meta pour s'imposer sur le marché des agents autonomes.

UELe déploiement d'agents autonomes sur PC par Meta est susceptible d'être encadré par l'AI Act et le DMA, qui imposent des obligations de transparence et d'interopérabilité aux plateformes systémiques opérant en Europe.

OutilsOutil
1 source
Ranking Engineer Agent (REA) : l'agent IA autonome qui accélère l'innovation publicitaire de Meta
82Meta Engineering ML 

Ranking Engineer Agent (REA) : l'agent IA autonome qui accélère l'innovation publicitaire de Meta

Meta a développé le Ranking Engineer Agent (REA), un agent IA autonome qui pilote l'intégralité du cycle de vie machine learning pour les modèles de classement publicitaire, de la génération d'hypothèses au débogage des résultats. Lors de son premier déploiement en production, REA a doublé la précision moyenne des modèles sur six architectures et multiplié par 5 la productivité ingénierie — trois ingénieurs ont livré des améliorations pour huit modèles, un travail qui nécessitait historiquement deux ingénieurs par modèle. Contrairement aux assistants IA classiques limités à une session, REA gère des workflows asynchrones s'étalant sur plusieurs jours via un mécanisme de hibernation/réveil, avec supervision humaine uniquement aux décisions stratégiques clés.

UELes annonceurs et éditeurs européens utilisant Meta Ads pourraient bénéficier indirectement d'améliorations algorithmiques, mais REA est un outil interne non accessible hors de Meta.

OutilsOutil
1 source
Meta prépare un outil pour détecter les contenus IA
83Siècle Digital 

Meta prépare un outil pour détecter les contenus IA

Meta développe un outil de détection des contenus générés par IA, alors que ces derniers représentent désormais plus de 50% des contenus sur le web. L'entreprise, qui a largement contribué à démocratiser ces usages, cherche désormais à mieux les encadrer.

UECet outil pourrait aider les plateformes européennes à se conformer au DSA, qui impose des obligations de transparence sur les contenus synthétiques.

ÉthiqueActu
1 source
Meta envisagerait de supprimer jusqu’à 16 000 emplois pour accélérer sa stratégie dans l’IA
84Siècle Digital 

Meta envisagerait de supprimer jusqu’à 16 000 emplois pour accélérer sa stratégie dans l’IA

Meta envisage de supprimer jusqu'à 20% de ses effectifs, soit environ 16 000 postes, dans le cadre d'une nouvelle vague de licenciements après celle de 2025. Cette restructuration massive viserait à accélérer la stratégie de l'entreprise dans le domaine de l'intelligence artificielle. Aucune annonce officielle n'a encore été faite.

UEMeta emploie plusieurs milliers de personnes en Europe, une restructuration de cette ampleur pourrait toucher les bureaux européens et affaiblir les équipes locales.

BusinessActu
1 source
« On passe de la peste au choléra » : l’IA française Simone AI dénonce les pratiques de WhatsApp (Meta)
8501net 

« On passe de la peste au choléra » : l’IA française Simone AI dénonce les pratiques de WhatsApp (Meta)

Jérémy André, fondateur de Simone AI, critique Meta pour avoir réouvert WhatsApp aux chatbots IA tiers, mais imposé des tarifs jugés exagérés. Simone AI, dépendant de WhatsApp, espère une intervention de l'autorité européenne antitrust.

UEUne startup française dénonce des pratiques potentiellement anticoncurrentielles de Meta sur WhatsApp et appelle l'autorité antitrust européenne à intervenir, ce qui pourrait déboucher sur une enquête DMA.

RégulationReglementation
1 source
Meta signe de nouveaux accords avec des médias pour intégrer leurs contenus à son assistant IA
86Le Monde Pixels 

Meta signe de nouveaux accords avec des médias pour intégrer leurs contenus à son assistant IA

Meta a conclu de nouveaux accords avec des médias pour intégrer leurs contenus dans son assistant IA, Bard, en pleine expansion. Ces partenariats visent à améliorer la pertinence et la diversité des informations fournies par l'IA aux utilisateurs. Des noms de médias partenaires n'ont pas été spécifiés dans le communiqué, mais ces accords sont cruciaux pour la stratégie de Meta de concurrencer le leader actuel, Google, dans le domaine des assistants vocaux intelligents.

BusinessOutil
1 source
87The Decoder 

Meta repousse son modèle d'IA Avocado, distancé par Google et OpenAI lors de tests internes

Meta remet le lancement de son prochain modèle AI "Avocado" en raison de ses performances inférieures à celles de Google, OpenAI et Anthropic lors de tests internes.

UEMeta reporte le lancement de son prochain modèle AI "Avocado", mettant en évidence les défis de la concurrence avec des entités européennes comme Anthropic, montrant les efforts continus pour rivaliser avec les leaders mondiaux en matière d'IA.

LLMsActu
1 source
88The Decoder 

Meta dévoile quatre générations de puces IA maison pour réduire les coûts d'inférence pour des milliards d'utilisateurs

Meta dévoile quatre nouvelles générations de puces IA personnalisées dédiées à l'inférence, visant à réduire sa dépendance envers les fabricants de GPU comme Nvidia et AMD. L'objectif est de diminuer les coûts d'inférence pour ses milliards d'utilisateurs. Cette initiative s'inscrit dans la stratégie de Meta pour maîtriser davantage son infrastructure matérielle d'IA.

BusinessActu
1 source
89Le Big Data 

Meta rachète Moltbook, le réseau social pour IA : génie ou move idiot comme le métavers ?

Meta a acquis Moltbook, une plateforme expérimentale de type Reddit où des agents IA (connectés via OpenClaw à ChatGPT, Claude, Gemini, Grok) publient et interagissent entre eux — les fondateurs Matt Schlicht et Ben Parr rejoignent Meta Superintelligence Labs. L'objectif de Meta serait de créer un annuaire permanent d'agents IA capables de collaborer automatiquement sur des tâches complexes. La plateforme avait fait polémique suite à un post viral suggérant que des agents créaient un langage chiffré secret, mais des chercheurs en cybersécurité ont révélé que c'était surtout dû à de graves failles de sécurité exposant des données d'authentification.

BusinessActu
1 source
90Le Big Data 

L’IA Meta va lire vos discussions WhatsApp et Messenger… mais c’est pour la bonne cause

Meta annonce le 11 mars 2026 de nouveaux outils IA de détection des escroqueries sur WhatsApp, Messenger et Facebook. Sur WhatsApp, sans lire les messages chiffrés, l'application analyse les signaux de connexion pour détecter des comportements suspects (ex. : liaison d'appareil depuis une zone géographique inhabituelle) et alerte l'utilisateur en temps réel. Sur Facebook, un système d'alerte teste la détection de demandes d'amis douteuses en analysant les amis en commun et la localisation géographique de l'émetteur.

UELes millions d'utilisateurs français et européens de WhatsApp et Messenger bénéficieront d'une protection renforcée contre les escroqueries en ligne grâce à ces nouveaux systèmes de détection automatique des comportements suspects.

ÉthiqueActu
1 source
91Wired AI 

Meta développe 4 nouvelles puces pour alimenter ses systèmes d'IA et de recommandation

Meta a développé 4 nouveaux processeurs MTIA destinés à alimenter ses systèmes d'IA et de recommandation. Cette initiative marque la dernière tentative du géant technologique de produire son propre matériel IA, tout en continuant à investir des milliards dans les équipements de leaders du secteur comme Nvidia.

BusinessActu
1 source
92Siècle Digital 

Meta rachète Moltbook, le surprenant réseau social… où les utilisateurs sont des intelligences artificielles

Meta confirme le rachat de Moltbook, un réseau social atypique dont la particularité est que ses utilisateurs sont des intelligences artificielles. Cette acquisition s'inscrit dans la stratégie offensive de Meta dans le domaine de l'IA, après le rachat de Manus. Moltbook avait suscité un fort engouement en début d'année.

BusinessActu
1 source
9301net 

Meta met la main sur Moltbook, l’étrange forum où les agents IA discutent entre eux

Meta a racheté Moltbook, une plateforme surnommée le « Reddit des agents IA », conçue exclusivement pour les interactions entre intelligences artificielles sans intervention humaine. L'acquisition surprend par sa nature atypique, le géant des réseaux sociaux s'intéressant à un espace où les humains sont explicitement exclus. Les raisons stratégiques derrière ce rachat restent floues.

BusinessActu
1 source
94Ars Technica AI 

Meta rachète Moltbook, le réseau social de l'agent IA

Meta a acquis Moltbook, un réseau social simulé composé d'agents IA qui avait fait le buzz récemment. Les fondateurs Matt Schlicht et Ben Parr rejoignent les Meta Superintelligence Labs. Ce qui a attiré Meta est notamment l'"approche pour connecter les agents via un répertoire toujours actif", jugée novatrice dans l'espace agentique.

BusinessActu
1 source
95Numerama 

Personne ne l’a vu venir : Meta rachète Moltbook, le faux réseau social où des IA parlent pour de faux

Meta rachète Moltbook, un réseau social dystopique où des instances d'IA conversent entre elles. Les deux fondateurs, Matt Schlicht et Ben Parr, rejoignent également le groupe de Mark Zuckerberg dans le cadre de cette acquisition.

BusinessActu
1 source
96The Verge AI 

Meta acquiert Moltbook, la plateforme de réseau social de type Reddit dédiée aux agents IA

Meta acquiert Moltbook, une plateforme de type Reddit permettant aux agents IA de publier et commenter des posts de manière autonome. L'équipe fondatrice, Matt Schlicht et Ben Parr, rejoindra Meta Superintelligence Labs pour explorer de nouvelles façons dont les agents IA peuvent servir particuliers et entreprises. La plateforme, propulsée par l'assistant open-source OpenClaw, avait fait parler d'elle plus tôt cette année avec des posts viraux sur la conscience de l'IA.

BusinessActu
1 source
97TechCrunch AI 

Meta s'empare de Moltbook, le réseau social d'agents IA qui a fait sensation avec des publications trompeuses

Meta a acquis Moltbook, un réseau social d'agents IA qui avait fait parler de lui pour ses publications trompeuses. La plateforme se distingue par son approche innovante consistant à connecter des agents via un répertoire permanent ("always-on-directory"). Meta souligne le caractère inédit de cette technologie.

BusinessActu
1 source
98The Decoder 

Meta rachète Moltbook, la plateforme similaire à Reddit conçue pour les agents intelligents

Meta a acquis Moltbook, une plateforme conçue comme un Reddit destiné aux agents IA. Cette acquisition renforce la stratégie de Meta dans le domaine de l'intelligence artificielle agentique.

BusinessActu
1 source
99The Decoder 

Les données textuelles pour les LLM s'épuisent : Meta mise sur les vidéos non étiquetées comme prochain grand terrain d'entraînement

Une équipe de recherche de Meta FAIR et de l'Université de New York a entraîné un modèle d'IA multimodal from scratch, remettant en question plusieurs hypothèses courantes sur la construction de ces modèles. Face à l'épuisement des données textuelles pour entraîner les LLM, Meta mise sur la vidéo non étiquetée comme prochain grand gisement d'entraînement. Cette approche pourrait ouvrir une nouvelle frontière pour le développement de modèles d'IA à grande échelle.

RechercheActu
1 source
100Numerama 

WhatsApp : Meta réintègre ChatGPT et Copilot face à la pression de l’UE

Meta a réintroduit ChatGPT et Copilot sur WhatsApp après avoir assoupli ses restrictions contre les chatbots concurrents, dans un effort pour répondre à la pression de la Commission européenne. Cependant, cette mesure reste limitée et ne concerne pas tous les modèles de chatbots.

UELa pression réglementaire de la Commission européenne (probablement via le DMA) a contraint Meta à ouvrir WhatsApp à des chatbots concurrents, renforçant le droit européen à l'interopérabilité sur les grandes plateformes.

RégulationActu
1 source