Aller au contenu principal

Dossier Meta IA — page 6

299 articles · page 6 sur 6

Meta dans la course IA : Muse Spark, Superintelligence Labs, hyperagents, licenciements liés au pivot IA et infrastructure CoreWeave.

Recherches en apprentissage automatique d'Apple à l'ICLR 2026
251Apple Machine Learning RecherchePaper

Recherches en apprentissage automatique d'Apple à l'ICLR 2026

Apple participe cette semaine à la quatorzième édition de l'International Conference on Learning Representations (ICLR 2026), qui se tient à Rio de Janeiro, au Brésil. L'entreprise y est présente en tant que sponsor officiel et y envoie plusieurs de ses chercheurs pour présenter des travaux couvrant un large spectre de sujets en apprentissage automatique et en intelligence artificielle. Ces contributions sont publiées et partagées avec la communauté scientifique internationale, conformément à la politique de diffusion ouverte qu'Apple a renforcée ces dernières années. Cette présence illustre l'ambition croissante d'Apple dans la recherche fondamentale en IA, un domaine où l'entreprise a longtemps été perçue comme moins visible que ses concurrents Google DeepMind, Meta AI ou Microsoft Research. Publier à l'ICLR, l'une des conférences les plus sélectives au monde en apprentissage profond, constitue un signal fort adressé à la communauté académique et au marché des talents, dans un contexte de recrutement intensément compétitif entre les grandes entreprises technologiques. Apple a sensiblement accéléré ses publications scientifiques depuis 2017, après avoir longtemps gardé ses recherches entièrement confidentielles. Cette ouverture progressive vise à attirer des chercheurs de haut niveau qui, dans d'autres structures, peuvent publier librement leurs travaux. L'ICLR 2026 intervient alors qu'Apple intègre davantage de fonctionnalités d'IA générative dans ses produits via Apple Intelligence, ce qui rend ses avancées en ML directement pertinentes pour des centaines de millions d'utilisateurs à travers le monde.

1 source
Tutoriel pratique : ASR avec identification du locuteur, TTS en temps réel et pipelines speech-to-speech avec Microsoft VibeVoice
252MarkTechPost 

Tutoriel pratique : ASR avec identification du locuteur, TTS en temps réel et pipelines speech-to-speech avec Microsoft VibeVoice

Microsoft a publié VibeVoice, un système de traitement de la parole combinant reconnaissance vocale avancée et synthèse vocale expressive, accompagné d'un tutoriel complet permettant de déployer l'ensemble du pipeline directement dans Google Colab. Le modèle ASR (reconnaissance automatique de la parole) pèse 7 milliards de paramètres et nécessite environ 14 Go de téléchargement lors de la première utilisation. Il s'appuie sur la bibliothèque Transformers de HuggingFace, avec un support spécifique via la classe VibeVoiceAsrForConditionalGeneration. Le tutoriel couvre l'installation des dépendances, le clonage du dépôt officiel depuis GitHub, et la configuration de l'environnement d'exécution, avant de plonger dans des cas d'usage concrets : transcription de podcasts avec identification des locuteurs, traitement audio par lots, génération de parole longue durée avec différents préréglages vocaux, et déploiement d'une interface interactive via Gradio. Un pipeline bout-en-bout speech-to-speech est également présenté, permettant de transformer directement une entrée audio en sortie vocale synthétisée. L'intérêt majeur de VibeVoice réside dans sa capacité à combiner dans un même système la diarisation des locuteurs, la transcription guidée par contexte et la synthèse vocale expressive multilingue, avec un exemple en allemand fourni dans les données de démonstration hébergées sur HuggingFace. Pour les développeurs et chercheurs, cela représente un gain concret : là où il fallait auparavant assembler plusieurs modèles spécialisés (un pour la transcription, un pour la détection des locuteurs, un pour la synthèse), VibeVoice propose une interface unifiée. La prise en charge native de device_map="auto" et du format float16 facilite également le déploiement sur GPU grand public sans optimisation manuelle. Le fait que le tutoriel soit conçu pour Colab rend le modèle accessible sans infrastructure locale dédiée. Microsoft s'inscrit avec VibeVoice dans une compétition intense autour des modèles de parole fondationnels, face à OpenAI Whisper, Meta SeamlessM4T ou encore Google USM. La publication simultanée d'un tutoriel détaillé et de jeux de données d'exemple sur HuggingFace suggère une stratégie d'adoption communautaire, cherchant à ancrer VibeVoice comme référence dans l'écosystème open source. L'intégration dans Transformers, bibliothèque centrale de l'industrie, est un signal fort : Microsoft ne veut pas que VibeVoice reste un projet isolé, mais qu'il devienne un composant standard dans les pipelines de traitement audio. Les prochaines étapes probables incluent des versions plus légères pour un déploiement embarqué, et une extension du support multilingue au-delà des langues déjà couvertes.

OutilsOutil
1 source
Le tokenmaxxing commence peut-être déjà à reculer
253The Information AI 

Le tokenmaxxing commence peut-être déjà à reculer

Chez Meta, un phénomène insolite a récemment été mis en lumière par The Information : des employés se livrent à une compétition interne baptisée "Claudeonomics", un classement mesurant qui consomme le plus de tokens d'IA dans son travail quotidien. Le record récent appartient à un employé ayant utilisé 328,5 milliards de tokens sur une période de 30 jours, ce qui représente une facture potentielle de près de 2 millions de dollars aux tarifs publics d'Anthropic. Ce comportement, surnommé "tokenmaxxing", consiste à maximiser délibérément sa consommation d'IA pour signaler son implication et sa productivité à l'entreprise. Ce phénomène révèle une fracture croissante entre les géants technologiques ultra-capitalisés et le reste des entreprises. Si Meta peut absorber des dépenses d'IA colossales pour ses ingénieurs, la grande majorité des organisations ne dispose pas de tels budgets. Le tokenmaxxing risque ainsi de devenir un indicateur trompeur de performance, encourageant une consommation artificielle plutôt qu'une utilisation réellement productive des outils d'IA. Ce cas intervient dans un contexte où les entreprises tech cherchent à quantifier l'adoption interne de l'IA et à mesurer le retour sur investissement de leurs abonnements aux modèles comme Claude d'Anthropic ou GPT d'OpenAI. La course aux classements internes illustre une tension plus profonde : comment distinguer l'usage pertinent de l'IA d'une simple démonstration ostentatoire ? À mesure que les coûts des modèles diminuent, cette dynamique pourrait évoluer, mais pour l'instant, le tokenmaxxing reste un luxe réservé aux plus grands acteurs de la Silicon Valley.

SociétéOpinion
1 source
L’IA augmente la productivité des ingénieurs, mais ne les remplacera pas encore, selon le PDG de Salesforce
254Siècle Digital 

L’IA augmente la productivité des ingénieurs, mais ne les remplacera pas encore, selon le PDG de Salesforce

Marc Benioff, PDG de Salesforce, a pris position dans le débat sur l'avenir des développeurs logiciels à l'ère de l'IA générative. Sa réponse à ceux qui prédisent la disparition prochaine du métier d'ingénieur est directe : il suffit d'ouvrir les pages carrières de Meta, Google, Anthropic et OpenAI pour constater que ces entreprises, dont les modèles sont censés automatiser le code, continuent de recruter massivement des ingénieurs logiciels. Pour Benioff, ce signal de marché est plus éloquent que n'importe quel discours alarmiste. Son argument central est que l'IA augmente la productivité des ingénieurs sans les rendre obsolètes. Les outils de génération de code accélèrent certaines tâches répétitives, mais la conception architecturale, la résolution de problèmes complexes et la supervision des systèmes restent l'apanage des humains. Cette position tranche avec les déclarations de certains dirigeants tech qui évoquent des réductions d'effectifs liées à l'automatisation, comme Shopify ou Duolingo l'ont laissé entendre récemment. Le débat s'inscrit dans un contexte de tension croissante entre les promesses des grands modèles de langage et les réalités du marché du travail. D'un côté, des outils comme GitHub Copilot ou Cursor transforment concrètement le quotidien des développeurs. De l'autre, la demande de profils techniques qualifiés reste soutenue, notamment pour entraîner, affiner et maintenir ces mêmes modèles. La thèse de Benioff est que l'IA redéfinit le métier d'ingénieur plutôt qu'elle ne l'élimine, du moins pour les années à venir.

UELe débat sur l'avenir des ingénieurs logiciels face à l'IA concerne indirectement le marché européen, où la demande de profils techniques qualifiés reste soutenue malgré l'essor des outils de génération de code.

SociétéOpinion
1 source
Le courtier IA Medicare à 3 milliards de dollars soutenu par deux vice-présidents
255The Information AI 

Le courtier IA Medicare à 3 milliards de dollars soutenu par deux vice-présidents

Chapter, une startup new-yorkaise spécialisée dans l'assurance Medicare pour les seniors, a triplé son chiffre d'affaires annualisé l'an dernier pour atteindre 100 millions de dollars, sans augmenter ses effectifs centraux, qui restent à 33 personnes selon son cofondateur et PDG Cobi Blumenfeld-Gantz. L'entreprise, valorisée à 3 milliards de dollars et soutenue par deux anciens vice-présidents américains, utilise l'intelligence artificielle pour simplifier radicalement l'inscription des personnes âgées aux plans Medicare, un processus notoirement complexe aux États-Unis. Ce cas illustre une tendance de fond dans la tech : des startups qui s'attaquent non pas à des secteurs glamour comme la découverte de matériaux ou le développement logiciel, mais à des services existants lourds et inefficaces, pour les réinventer par le logiciel. Le gain de productivité est ici spectaculaire, tripler ses revenus tout en maintenant son effectif à 33 personnes signifie que l'essentiel de la croissance est absorbé par l'automatisation, et non par l'embauche. Pour les consommateurs seniors, cela se traduit par un accompagnement plus rapide et potentiellement plus personnalisé dans un labyrinthe administratif où une mauvaise décision coûte des milliers de dollars par an. Chapter s'inscrit dans une vague de startups qui misent sur l'IA pour concurrencer des acteurs établis dans des secteurs traditionnels : Crosby dans le droit, Hanover Park dans la gestion de fonds. Ces entreprises partagent la même thèse, la valeur ne vient pas du volume humain mais de la qualité du logiciel déployé. La mention de Meta en ouverture n'est pas anodine : le contexte général est celui d'une accélération de l'IA dans tous les domaines, des benchmarks académiques aux applications grand public. Chapter, en choisissant un marché aussi prosaïque que Medicare, parie que les vraies opportunités de croissance se cachent là où personne ne regarde.

BusinessOpinion
1 source
Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch
256Frandroid 

Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch

Une développeuse a réussi à faire tourner Gemma 4, le modèle d'intelligence artificielle open source de Google, directement sur une Nintendo Switch, sans connexion à un serveur distant. L'exploit repose sur la version la plus compacte du modèle, publiée par Google en avril 2025 dans le cadre de sa gamme Gemma 4, qui décline plusieurs tailles allant de 1 à 27 milliards de paramètres. C'est la variante 1B, soit un milliard de paramètres, qui a été portée sur la console de Nintendo, dont le matériel repose sur une puce NVIDIA Tegra X1 et 4 Go de RAM partagée. Cet accomplissement illustre la progression rapide de la miniaturisation des modèles de langage et leur capacité à s'exécuter sur du matériel grand public, bien loin des serveurs GPU qui équipent habituellement ce type de charge de travail. Pour les développeurs embarqués et les constructeurs d'appareils connectés, cela ouvre des perspectives concrètes : intégrer des capacités d'inférence locale dans des terminaux à faible consommation, sans dépendance au cloud et sans coût de bande passante. Google a lancé la famille Gemma comme alternative ouverte à ses modèles propriétaires Gemini, ciblant explicitement les usages sur appareil. La Switch, conçue en 2017, n'était évidemment pas pensée pour l'IA générative, ce qui rend la démonstration d'autant plus symbolique. Elle s'inscrit dans une tendance plus large de course à l'efficience, où des acteurs comme Meta avec Llama, Microsoft avec Phi ou Apple avec ses modèles on-device cherchent tous à repousser les limites du possible sur silicium contraint.

LLMsActu
1 source
Top 10 des entreprises IA : qui domine vraiment la révolution mondiale ?
257Le Big Data 

Top 10 des entreprises IA : qui domine vraiment la révolution mondiale ?

Une poignée de géants technologiques concentre aujourd'hui l'essentiel de la puissance de l'intelligence artificielle mondiale. Microsoft, en tête, a réalisé un pivot stratégique majeur en investissant plusieurs milliards de dollars dans OpenAI, le laboratoire créateur de ChatGPT. En échange de ce partenariat exclusif, la firme de Redmond intègre les modèles GPT dans l'ensemble de son écosystème sous la marque Copilot : Windows, la suite Office, GitHub et ses outils de cybersécurité. Son cloud Azure sert simultanément de plateforme d'entraînement pour OpenAI et d'infrastructure pour les entreprises souhaitant déployer leurs propres applications d'IA. Alphabet, maison mère de Google, incarne quant à elle une présence encore plus ancienne dans le domaine : en 2017, ses chercheurs ont publié "Attention Is All You Need", le papier fondateur de l'architecture transformer sur laquelle reposent aujourd'hui la quasi-totalité des grands modèles de langage. Nvidia, OpenAI, Meta, Amazon, Apple, Anthropic et d'autres acteurs complètent ce cercle restreint qui contrôle modèles, puces et infrastructure cloud. Ce niveau de concentration a des conséquences directes sur l'ensemble de l'économie numérique. En contrôlant à la fois les algorithmes et l'infrastructure, ces entreprises deviennent les principaux distributeurs d'IA pour des centaines de millions d'utilisateurs et pour les entreprises qui cherchent à automatiser leurs processus. Microsoft et Google, en particulier, transforment des logiciels déjà massivement adoptés en interfaces d'intelligence artificielle, rendant l'adoption quasi-transparente pour l'utilisateur final. Les entreprises qui souhaitent développer leurs propres solutions d'IA se retrouvent en grande partie dépendantes de l'infrastructure cloud de ces mêmes acteurs, renforçant ainsi leur position dominante sur toute la chaîne de valeur, de la recherche fondamentale jusqu'à la distribution commerciale. Cette domination est le fruit de décennies d'investissement massif dans la recherche et l'infrastructure. Google Finance cette transformation depuis les années 2010 via DeepMind et Google Brain, tandis que Microsoft a su reconvertir sa position de leader du logiciel d'entreprise en levier d'adoption de l'IA générative. La barrière à l'entrée est désormais astronomique : entraîner un grand modèle de langage compétitif nécessite des dizaines de milliers de GPU et des investissements se chiffrant en milliards de dollars, ce que seuls quelques acteurs peuvent se permettre. La question qui se pose pour la suite est double : comment les régulateurs, notamment en Europe avec l'AI Act, vont-ils encadrer cette concentration de pouvoir technologique, et quels nouveaux entrants, à l'image d'Anthropic ou Mistral, parviendront à s'imposer face à des géants qui ont pris plusieurs longueurs d'avance ?

UELa concentration du pouvoir IA entre quelques géants américains renforce la dépendance des entreprises européennes à des infrastructures cloud étrangères, un enjeu central de l'AI Act et une menace directe pour la souveraineté numérique de l'UE.

BusinessActu
1 source
Boomi appelle cela l'activation des données et affirme qu'il s'agit du maillon manquant dans tout déploiement d'IA
258AI News 

Boomi appelle cela l'activation des données et affirme qu'il s'agit du maillon manquant dans tout déploiement d'IA

En 2026, le principal obstacle au déploiement de l'intelligence artificielle en entreprise n'est pas la qualité des modèles ni leur capacité à raisonner : c'est la fragmentation des données. C'est le constat que tire Boomi, spécialiste de l'intégration de données, après avoir analysé 75 000 agents IA en production chez ses clients. La société, qui revendique plus de 30 000 clients dans le monde dont plus d'un quart du Fortune 500, a présenté le 9 mars 2026 une mise à jour majeure de sa plateforme centrée sur ce qu'elle appelle l'"activation des données" pour l'IA agentique. Steve Lucas, PDG de Boomi, résume la position de l'entreprise : "L'IA ne crée de valeur que lorsque les données sont correctement activées, fiables et gouvernées au préalable." Pour répondre à ce problème, Boomi a lancé Meta Hub, un référentiel central conçu pour standardiser les définitions métier à travers l'entreprise et fournir un contexte cohérent à chaque agent IA. La mise à jour inclut également une extraction en temps réel des données SAP via la capture de données en continu, ainsi que de nouvelles fonctionnalités de gouvernance pour les agents Snowflake Cortex, avec journaux d'audit et traces de session intégrés dans l'Agent Control Tower de Boomi. L'enjeu est considérable pour les grandes organisations. Un agent IA qui croise des données clients issues d'un CRM avec des données tarifaires issues d'un ERP peut se retrouver à travailler à partir de définitions contradictoires d'un même concept, qu'il s'agisse d'un client ou d'un produit. Les résultats qu'il produit ne sont cohérents que si les standards de données sous-jacents le sont aussi. C'est précisément ce vide que Boomi cherche à combler : permettre aux agents de raisonner à partir d'une compréhension unifiée de la logique métier, plutôt que de synthétiser des interprétations disparates tirées de systèmes cloisonnés. La question de la gouvernance prend également de l'importance, les entreprises réclamant de plus en plus de visibilité sur les actions prises par leurs agents IA, jusqu'ici trop souvent opaques. Ce positionnement reçoit une validation externe significative. Le 16 mars, Gartner a classé Boomi parmi les Leaders de son Magic Quadrant 2026 pour les plateformes d'intégration en tant que service, pour la douzième année consécutive, en le plaçant en tête sur la capacité d'exécution. Le 31 mars, l'IDC MarketScape sur la gestion des API à l'échelle mondiale lui a accordé le même rang, soulignant sa stratégie centrée sur l'IA. Gartner note explicitement que "l'intégration prête pour l'IA" est désormais un critère d'évaluation stratégique à part entière, ce qui marque un tournant : les plateformes iPaaS ne sont plus jugées uniquement sur leurs capacités d'intégration traditionnelles, mais sur leur aptitude à rendre les agents IA fiables dans des processus métier réels. Le passage du pilote à la production reste bloqué pour beaucoup d'organisations non pas faute de modèles, mais faute d'infrastructure de données à la hauteur.

UELes entreprises européennes clientes de Boomi pourraient bénéficier de ces nouvelles capacités d'activation des données pour leurs déploiements d'agents IA, sans impact réglementaire ou stratégique spécifique à la France ou à l'UE.

OutilsActu
1 source
OpenAI reorganise sa direction après le retrait de cadres pour raisons de santé
259The Decoder 

OpenAI reorganise sa direction après le retrait de cadres pour raisons de santé

OpenAI traverse une période de turbulences organisationnelles avec le départ temporaire de trois cadres dirigeants, dont deux contraints de s'éloigner pour des raisons de santé. Face à ces absences simultanées au sommet, le président de l'entreprise, Greg Brockman, est intervenu pour absorber une partie des responsabilités laissées vacantes et assurer la continuité opérationnelle. Ce remaniement inattendu fragilise momentanément la chaîne de décision d'une des entreprises les plus influentes du secteur de l'intelligence artificielle, en pleine course au déploiement de modèles toujours plus puissants. La concentration de plusieurs absences simultanées au niveau exécutif soulève des questions sur la résilience organisationnelle d'OpenAI à un moment où la compétition avec Google, Anthropic et Meta s'intensifie. OpenAI a déjà connu des soubresauts majeurs à sa tête, notamment le licenciement puis la réintégration de Sam Altman fin 2023, qui avait ébranlé la confiance de ses partenaires et investisseurs. Greg Brockman, cofondateur de la société, avait lui-même pris un congé sabbatique en 2024 avant de revenir en force. Sa capacité à intervenir rapidement illustre la dépendance d'OpenAI envers un cercle restreint de fondateurs pour gérer les crises internes, une dynamique qui pourrait peser sur la gouvernance à long terme de l'entreprise.

BusinessOpinion
1 source
OpenAI s'offre un nouveau projet annexe et rachète l'émission tech TBPN
260Ars Technica AI 

OpenAI s'offre un nouveau projet annexe et rachète l'émission tech TBPN

OpenAI vient de racheter TBPN (Technology Business Programming Network), une émission de talk-show tech très suivie dans la Silicon Valley, pour un montant de l'ordre de "quelques centaines de millions de dollars", selon une source proche du dossier. La société cible, fondée en octobre 2024, ne compte que onze employés. Cette acquisition, confirmée ces derniers jours, marque une incursion inattendue du créateur de ChatGPT dans le secteur des médias et de la diffusion audiovisuelle. L'opération est d'autant plus surprenante qu'OpenAI avait récemment affiché sa volonté de se recentrer sur son coeur de métier et d'abandonner les projets périphériques, qualifiés en interne de "side quests". Racheter une émission de télévision technologique semble à rebours de ce discours. TBPN s'est pourtant imposée en moins de dix-huit mois comme une référence auprès des fondateurs de startups et de leurs investisseurs, ce qui lui confère une audience stratégique difficile à ignorer pour une entreprise cherchant à façonner le récit autour de l'intelligence artificielle. OpenAI, valorisée à 300 milliards de dollars après sa dernière levée de fonds début 2025, dispose des moyens financiers pour ce type d'opération, mais la logique stratégique reste à préciser. L'acquisition d'un média de niche très influent dans les cercles VC pourrait servir à renforcer la marque, à recruter des talents ou à contrôler davantage le narratif dans un secteur où la guerre de l'image entre OpenAI, Google DeepMind, Anthropic et Meta s'intensifie chaque trimestre.

BusinessOpinion
1 source
Fidji Simo d'OpenAI rachète le podcast TBPN malgré sa campagne contre les projets parallèles
261The Information AI 

Fidji Simo d'OpenAI rachète le podcast TBPN malgré sa campagne contre les projets parallèles

Fidji Simo, directrice générale du déploiement de l'AGI chez OpenAI, a annoncé jeudi l'acquisition de TBPN, un podcast technologique quotidien très suivi, animé par John Coogan et Jordi Hays. Cette décision intervient alors que Simo s'est imposée ces dernières semaines comme la figure de la rigueur au sein d'OpenAI, à mesure que la startup s'approche d'une introduction en bourse prévue fin 2025. Selon les informations communiquées aux équipes, les deux animateurs conserveront leur indépendance éditoriale tout en jouant un rôle de conseil auprès de l'entreprise en matière de marketing et de communication. La nouvelle a été si inattendue que certains employés d'OpenAI ont cru à un poisson d'avril en retard. L'acquisition surprend d'autant plus qu'elle contraste frontalement avec le discours que Simo tient en interne depuis plusieurs semaines. Le mois dernier, elle avait adressé un message de mise en garde aux équipes : OpenAI ne peut plus se permettre de courir après des "quêtes secondaires" qui détournent l'entreprise de ses priorités. Dans la foulée, Sora, l'outil de génération vidéo gourmand en ressources de calcul, a été abandonné. Une fonctionnalité de paiement express dans ChatGPT, à laquelle Simo s'était montrée sceptique, a également été retirée, et les plans permettant à ChatGPT de générer du contenu érotique ont été mis en suspens indéfiniment. Acquérir un podcast populaire dans ce contexte représente donc une rupture de ton notable. OpenAI, valorisé à 300 milliards de dollars après sa dernière levée de fonds de 40 milliards en mars 2025, cherche à soigner son image publique avant son entrée en bourse. La relation avec les médias et la maîtrise du récit sont devenues des enjeux stratégiques pour une entreprise sous intense scrutin réglementaire et concurrentiel. Intégrer TBPN dans son giron pourrait s'interpréter comme une tentative de capter directement une audience tech influente, dans un contexte où la guerre de perception entre OpenAI, Google, Anthropic et Meta se joue aussi sur les canaux informels. La question de l'indépendance éditoriale promise restera centrale pour la crédibilité de cette opération.

BusinessOpinion
1 source
Construire un pipeline IA de génération prêt pour la production avec Gemma 3 1B Instruct, Hugging Face Transformers et Colab
262MarkTechPost 

Construire un pipeline IA de génération prêt pour la production avec Gemma 3 1B Instruct, Hugging Face Transformers et Colab

Google a récemment mis à disposition Gemma 3 1B Instruct, un modèle de langage compact de 1 milliard de paramètres conçu pour être déployé dans des environnements contraints, notamment sur CPU ou GPU grand public. Un tutoriel détaillé publié sur la plateforme AnalyticsVidhya propose un pipeline complet et reproductible pour faire tourner ce modèle directement dans Google Colab, en s'appuyant sur la bibliothèque Hugging Face Transformers (version 4.51.0 minimum), ainsi que sur les outils accelerate, sentencepiece et safetensors. Le workflow couvre l'authentification sécurisée via un token Hugging Face, le chargement du tokenizer et du modèle avec détection automatique du matériel disponible (CUDA ou CPU), et l'utilisation de la précision bfloat16 pour optimiser la mémoire sur GPU. Ce type de guide a une valeur concrète pour les développeurs et data scientists qui souhaitent intégrer des LLM légers dans leurs applications sans recourir à des infrastructures coûteuses. Gemma 3 1B se distingue par sa taille réduite, ce qui le rend accessible à un large éventail de machines, y compris les environnements gratuits de Colab. Le tutoriel ne se limite pas au simple chargement du modèle : il propose des utilitaires réutilisables pour la génération de texte, la mise en forme des prompts en structure de conversation (chat template), et teste le modèle sur des cas d'usage réels — génération libre, réponses structurées au format JSON, chaînage de prompts, benchmarking de vitesse et résumé déterministe. Cette approche orientée production, plutôt que démonstration, répond à un besoin croissant de reproductibilité dans les projets d'IA appliquée. Gemma 3 est la troisième génération de la famille de modèles open-weights de Google DeepMind, lancée début 2025 pour concurrencer des modèles comme Llama 3 de Meta ou Phi-3 de Microsoft sur le segment des LLM légers et locaux. L'écosystème Hugging Face joue ici un rôle central de plateforme de distribution et d'intégration, avec des outils standardisés qui facilitent le passage du prototype à la production. La disponibilité de modèles performants sous 2 milliards de paramètres est un enjeu stratégique : elle permet des déploiements on-device, réduit les coûts d'inférence et ouvre la voie à des applications embarquées ou hors-ligne. Les prochaines étapes naturelles de ce type de pipeline incluent le fine-tuning sur données propriétaires, le déploiement via une API FastAPI ou Gradio, et l'intégration dans des workflows RAG (retrieval-augmented generation).

LLMsTuto
1 source
Alphabet : après Google, YouTube et Waymo, la prochaine révolution est l’algorithme TurboQuant
263Presse-citron 

Alphabet : après Google, YouTube et Waymo, la prochaine révolution est l’algorithme TurboQuant

Google a dévoilé TurboQuant, un nouvel algorithme de compression destiné à optimiser l'utilisation de la mémoire dans les systèmes d'intelligence artificielle. Développé en interne au sein d'Alphabet, cet outil n'est pas un produit grand public, mais une brique technique fondamentale visant à réduire la quantité de mémoire vive nécessaire pour faire fonctionner des modèles de grande taille. La présentation a eu lieu il y a quelques jours, sans annonce de disponibilité externe pour l'instant. L'enjeu est considérable : l'un des principaux freins au déploiement massif de l'IA reste le coût des infrastructures, notamment la mémoire GPU, extrêmement onéreuse. Un algorithme capable de compresser efficacement les poids des modèles sans dégrader leurs performances permettrait à Google de réduire significativement ses coûts opérationnels, tout en accélérant ses services — à commencer par son moteur de recherche, qui intègre désormais des résumés et réponses générés par IA à grande échelle. La compression de modèles, ou quantification, est un champ de recherche très actif où s'affrontent les grandes entreprises tech et les laboratoires académiques. Des techniques comme GPTQ, AWQ ou la quantification 4 bits ont déjà permis des gains importants, mais Google semble vouloir pousser plus loin avec une approche maison. TurboQuant s'inscrit dans une stratégie plus large d'Alphabet pour contrôler toute la chaîne technique de l'IA — des puces (TPU) aux algorithmes d'inférence — et maintenir son avance face à Microsoft, Meta et Amazon.

InfrastructureOpinion
1 source
76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse
264Siècle Digital 

76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse

Selon une nouvelle enquête publiée en 2026, 76 % des Américains déclarent ne pas faire confiance à l'intelligence artificielle, alors même que son usage progresse significativement : seulement 27 % affirment ne jamais l'avoir utilisée, contre 33 % en avril 2025. Les utilisateurs y ont recours principalement pour effectuer des recherches, rédiger des contenus, analyser des données ou gagner en productivité dans leur travail quotidien. La méfiance, elle, ne faiblit pas — elle s'aggrave d'une année à l'autre. Ce paradoxe révèle une fracture profonde entre adoption pratique et confiance institutionnelle. Des millions d'Américains intègrent l'IA dans leur quotidien professionnel tout en restant sceptiques quant à sa fiabilité, sa transparence ou les intentions des entreprises qui la développent. Pour l'industrie, ce signal est préoccupant : une adoption massive sans confiance limite la monétisation, expose les acteurs à des régulations plus strictes et fragilise l'acceptabilité sociale des usages les plus sensibles — santé, justice, finance. Ce déficit de confiance s'inscrit dans un contexte plus large de questionnements sur les biais algorithmiques, la désinformation générée par l'IA et l'opacité des grands modèles de langage. Les géants du secteur — OpenAI, Google, Meta, Anthropic — multiplient les initiatives de transparence et de sécurité, mais peinent à convaincre le grand public. À mesure que l'IA s'intègre dans des décisions à fort enjeu, la question de la confiance deviendra un levier concurrentiel déterminant, autant qu'un enjeu démocratique.

UECe déficit de confiance envers l'IA observé aux États-Unis reflète une tendance similaire en Europe, où l'Eurobaromètre signale régulièrement des réserves comparables, renforçant la pression sur les régulateurs européens pour exiger plus de transparence algorithmique dans le cadre de l'AI Act.

SociétéActu
1 source
Bluesky lance Attie, une IA capable de construire votre fil idéal en quelques secondes
265Siècle Digital 

Bluesky lance Attie, une IA capable de construire votre fil idéal en quelques secondes

Bluesky, le réseau social décentralisé concurrent de X, a lancé Attie, un assistant d'intelligence artificielle conçu pour créer automatiquement des fils d'actualité personnalisés en quelques secondes. L'outil permet aux utilisateurs de décrire en langage naturel le type de contenu qu'ils souhaitent voir — par thème, ton, ou communauté — et génère instantanément un fil sur mesure, sans que l'utilisateur ait à configurer manuellement des listes ou des filtres complexes. L'initiative est portée par Jay Graber, ancienne PDG de Bluesky et désormais responsable de l'innovation, qui formule une ambition claire : l'IA doit servir les utilisateurs, pas les plateformes. Cette position tranche avec le modèle dominant des grandes plateformes comme Meta ou X, où les algorithmes de recommandation sont optimisés pour maximiser l'engagement — et donc les revenus publicitaires — souvent au détriment de l'expérience utilisateur. Avec Attie, Bluesky mise sur un outil transparent et contrôlable, où c'est l'utilisateur qui définit ses propres critères de curation. Bluesky s'est imposé comme une alternative crédible à X depuis le rachat de Twitter par Elon Musk en 2022, attirant plusieurs millions d'utilisateurs en quête d'un environnement moins polarisé. La plateforme repose sur le protocole ouvert AT Protocol, ce qui la distingue structurellement des silos fermés de ses concurrents. Le lancement d'Attie s'inscrit dans une stratégie plus large visant à combiner les avantages de la décentralisation avec des outils d'IA accessibles, pour faire de Bluesky non seulement une alternative éthique, mais aussi une plateforme concrètement plus agréable à utiliser au quotidien.

OutilsOutil
1 source
Bluesky teste Attie, un assistant de recherche… basé sur l’IA
266Next INpact 

Bluesky teste Attie, un assistant de recherche… basé sur l’IA

Bluesky a profité de la conférence Atmosphere, organisée du 26 au 29 mars, pour dévoiler Attie, un agent IA conçu pour aider les utilisateurs à construire des flux de contenus personnalisés sur son réseau social. Plutôt que de recourir à une recherche classique par mots-clés, Attie permet d'exprimer en langage naturel ce que l'on souhaite voir — une liste de comptes spécialisés sur un sujet, des publications de poètes parmi ses abonnements, ou tout autre critère subjectif — et génère automatiquement une sélection de comptes ou de messages en réponse. Le service est actuellement en bêta fermée avec liste d'attente, accessible via un identifiant Bluesky. Jay Graber, ex-PDG de Bluesky devenue responsable de l'innovation, décrit l'expérience comme une « conversation » plutôt que comme une configuration logicielle : l'agent interprète la demande et construit le flux correspondant. L'enjeu dépasse largement la fonctionnalité de recherche elle-même. En démocratisant la création d'applications sur le protocole AT (Authenticated Transfer Protocol), Bluesky cherche à ouvrir son écosystème — qu'il appelle l'Atmosphere — à des développeurs non techniques. Jusqu'à présent, exploiter atproto nécessitait de savoir coder ; les outils de programmation automatisée, combinés à une IA capable d'interpréter des requêtes en langue naturelle, changeraient cette équation. Attie fonctionne ainsi comme un démonstrateur : si un agent peut créer dynamiquement un flux social à partir d'une description, il devient théoriquement possible de construire toutes sortes de nouvelles expériences sociales sur la même infrastructure ouverte. Pour les utilisateurs, la promesse est un fil d'actualité qui correspond vraiment à leurs centres d'intérêt, sans passer par les algorithmes opaques de plateformes fermées. Bluesky s'est construit sur une promesse de décentralisation et d'interopérabilité que son protocole AT incarne en théorie, même si la réalité reste très relative — l'essentiel de l'infrastructure demeure sous contrôle de Bluesky. C'est dans ce contexte que l'introduction de l'IA est surveillée de près par une communauté qui a précisément migré vers Bluesky pour fuir les dérives algorithmiques de X ou de Meta. L'accueil réservé à Attie lors de la conférence a été plutôt mitigé : si l'idée d'un flux entièrement personnalisable séduit, la méfiance envers toute forme d'IA générant ou filtrant du contenu reste forte chez une base d'utilisateurs attachée à la transparence. La prochaine étape logique serait d'intégrer les flux générés par Attie directement dans l'application Bluesky ou dans les clients tiers exploitant atproto — une évolution qui n'a pas encore été confirmée, mais qui conditionnerait l'utilité réelle de l'outil au-delà du stade expérimental.

OutilsOutil
1 source
AsgardBench : un benchmark pour la planification interactive ancrée dans la vision
267Microsoft Research 

AsgardBench : un benchmark pour la planification interactive ancrée dans la vision

Des chercheurs ont publié AsgardBench, un nouveau benchmark conçu pour évaluer la capacité des agents IA incarnés à adapter leurs plans d'action en temps réel en fonction de ce qu'ils observent visuellement. Le système repose sur 108 scénarios contrôlés répartis en 12 types de tâches, tous construits sur AI2-THOR, un environnement de simulation 3D interactif représentant des intérieurs domestiques. Concrètement, un agent reçoit une instruction ménagère — nettoyer une tasse, remplir un évier, éteindre une lumière — et doit proposer à chaque étape une séquence complète d'actions, dont seule la première s'exécute. Il reçoit ensuite une image mise à jour et un signal binaire (succès ou échec), puis doit réviser son plan en conséquence. Ce qui rend le benchmark exigeant : les objets peuvent se trouver dans des états variables (tasse propre ou sale, évier vide ou encombré), si bien que la même instruction peut nécessiter des séquences d'actions radicalement différentes selon ce que l'agent perçoit. L'intérêt d'AsgardBench est de cibler précisément une compétence souvent noyée dans les évaluations existantes : l'adaptation du plan à partir de l'observation visuelle. La plupart des benchmarks actuels mêlent navigation, perception et contrôle physique dans une seule épreuve, ce qui rend impossible de savoir si un agent performe grâce à sa compréhension de l'environnement ou simplement parce que l'environnement est suffisamment prévisible pour être scripté. En isolant la révision de plan — sans demander à l'agent de naviguer dans une pièce ni de raisonner sur l'emplacement précis d'un meuble — le benchmark permet de mesurer directement si le modèle utilise ce qu'il voit pour décider de ce qu'il fait. C'est une distinction critique pour les applications réelles : un robot ménager qui ignore qu'une tâche est déjà accomplie va gaspiller des ressources, voire causer des erreurs en chaîne. Ce travail s'inscrit dans un contexte de forte effervescence autour de l'IA incarnée (embodied AI), un domaine où des acteurs comme Google DeepMind, Meta et plusieurs laboratoires universitaires investissent massivement pour créer des agents capables d'agir dans des environnements physiques ou simulés. AI2-THOR, développé par l'Allen Institute for AI, est déjà largement utilisé comme terrain d'entraînement pour ces systèmes. AsgardBench ne cherche pas à remplacer les benchmarks existants mais à combler un angle mort : la capacité de replanning visuel sous feedback minimal. Les suites probables incluent des évaluations sur des environnements plus ouverts, des instructions plus ambiguës, ou l'intégration de modèles multimodaux de nouvelle génération comme GPT-4o ou Gemini 2.0, dont la capacité à raisonner visuellement en boucle fermée reste encore peu documentée dans des conditions aussi contrôlées.

RecherchePaper
1 source
OpenAI renonce à son mode érotique pour ChatGPT
268TechCrunch AI 

OpenAI renonce à son mode érotique pour ChatGPT

OpenAI a renoncé à son projet de mode de contenu érotique pour ChatGPT, devenant ainsi la dernière d'une série d'initiatives abandonnées par la startup en l'espace d'une semaine. La fonctionnalité, qui aurait permis à ChatGPT de générer des contenus pour adultes explicites, n'a jamais été officiellement lancée à grande échelle avant d'être écartée. Cette décision illustre les tensions croissantes au sein d'OpenAI entre sa volonté d'élargir les cas d'usage de ses modèles — et donc ses revenus — et les contraintes éthiques, réglementaires et d'image de marque qui pèsent sur l'entreprise. Un tel mode aurait pu ouvrir un marché lucratif, mais exposait également OpenAI à des critiques sur la protection des mineurs et la modération des contenus. Ce recul s'inscrit dans un contexte plus large de repositionnement stratégique pour OpenAI, qui jongle entre sa mission déclarée de développer une IA bénéfique pour l'humanité et une pression commerciale intense pour diversifier ses sources de revenus. Plusieurs projets annexes ont été abandonnés en parallèle, sans explication publique détaillée, suggérant une remise à plat interne des priorités alors que la concurrence avec Anthropic, Google et Meta s'intensifie.

UELes réglementations européennes sur la protection des mineurs et le cadre de l'AI Act auraient rendu ce type de contenu particulièrement risqué à déployer dans l'UE.

BusinessOpinion
1 source
Affiner les LLM avec des données non structurées via SageMaker Unified Studio et S3
269AWS ML Blog 

Affiner les LLM avec des données non structurées via SageMaker Unified Studio et S3

Amazon Web Services a annoncé une intégration entre Amazon SageMaker Unified Studio et les buckets Amazon S3 grand public, permettant d'exploiter des données non structurées directement dans les workflows de machine learning. Le cas d'usage présenté illustre l'affinage du modèle Llama 3.2 11B Vision Instruct — développé par Meta — pour des tâches de questions-réponses visuelles (VQA), comme l'extraction automatique d'informations depuis des reçus ou documents scannés. Le modèle de base atteint un score ANLS de 85,3 % sur le benchmark DocVQA, une métrique mesurant la similarité entre réponse prédite et réponse attendue. Pour l'affinage, AWS utilise le dataset DocVQA de Hugging Face, qui contient 39 500 exemples d'entraînement associant image, question et réponse. Trois versions affinées sont produites avec des volumes de données variables : 1 000, 5 000 et 10 000 images, orchestrées entièrement via SageMaker Unified Studio et évaluées avec Amazon SageMaker MLflow en mode serverless. Cet affinement ciblé permet aux équipes data de dépasser les limites d'un modèle généraliste sans reconstruire une infrastructure complexe de bout en bout. Pour les entreprises traitant des documents à haute valeur — contrats, factures, rapports médicaux — gagner quelques points de précision au-delà de 85 % peut représenter une différence opérationnelle significative. L'intégration native entre S3 et le catalogue SageMaker supprime une friction majeure : les données non structurées (images, PDF, textes bruts) deviennent des actifs directement exploitables par les équipes ML sans pipeline d'ingestion personnalisé. Le suivi des expériences via MLflow serverless permet en outre de comparer objectivement les trois variantes affinées et de documenter les gains de performance, une exigence croissante dans les déploiements enterprise. Cette annonce s'inscrit dans la stratégie d'AWS pour faire de SageMaker Unified Studio une plateforme unifiée couvrant l'ensemble du cycle MLOps, depuis l'ingestion des données brutes jusqu'au déploiement en production. La montée en puissance des modèles multimodaux — capables de traiter simultanément texte et image — crée une demande forte pour des outils d'affinage accessibles, sans que chaque équipe doive maîtriser les subtilités de l'entraînement distribué. AWS positionne ici SageMaker JumpStart comme point d'accès aux modèles fondamentaux, tandis que l'infrastructure d'entraînement repose sur des instances p4de.24xlarge, des GPU haute performance nécessitant une demande d'augmentation de quota. La prochaine étape logique pour AWS sera d'élargir cette intégration à d'autres formats de données non structurées et à davantage de modèles fondamentaux, dans un contexte où Google, Microsoft Azure et les plateformes spécialisées comme Modal ou Together AI se disputent le même terrain des équipes ML entreprise.

OutilsOutil
1 source
GroundedPlanBench : planification de tâches longues horizon pour la manipulation robotique avec ancrage spatial
270Microsoft Research 

GroundedPlanBench : planification de tâches longues horizon pour la manipulation robotique avec ancrage spatial

Des chercheurs ont publié GroundedPlanBench, un nouveau benchmark conçu pour évaluer la capacité des modèles de vision-langage (VLM) à planifier des séquences d'actions robotiques tout en déterminant précisément où chaque action doit s'effectuer dans l'espace. Le benchmark s'appuie sur 308 scènes de manipulation robotique issues du dataset DROID, à partir desquelles des experts ont défini 1 009 tâches allant de séquences courtes (1 à 4 actions) à des chaînes longues et complexes (jusqu'à 26 actions). Chaque tâche est formulée selon deux styles d'instruction : explicite ("poser une cuillère sur l'assiette blanche") ou implicite ("ranger la table"). Pour accompagner ce benchmark, l'équipe a également développé V2GP (Video-to-Spatially Grounded Planning), un framework qui convertit des vidéos de démonstration robotique en données d'entraînement spatialement ancrées, en exploitant notamment SAM3, le modèle de segmentation vidéo open-vocabulary de Meta, pour suivre les objets manipulés image par image. Ce processus a permis de générer 43 000 plans ancrés. L'enjeu est de taille : aujourd'hui, la plupart des systèmes robotiques fonctionnent en deux temps séparés — un VLM génère un plan en langage naturel, puis un second modèle le traduit en actions exécutables. Cette approche découplée introduit des erreurs en cascade, car le langage naturel reste ambigu ou halluciné lorsqu'il s'agit de préciser à la fois ce qu'il faut faire et à quel endroit. GroundedPlanBench force les modèles à traiter ces deux dimensions simultanément, ce que les VLMs actuels — qu'ils soient open-source ou propriétaires — peinent à faire sur des tâches longues. Les résultats montrent que l'approche de planification ancrée améliore à la fois le taux de réussite des tâches et la précision des actions, surpassant les architectures découplées aussi bien sur le benchmark qu'en conditions réelles avec de vrais robots. Ce travail s'inscrit dans un mouvement plus large visant à doter les robots d'une compréhension spatiale fine du monde réel, au-delà de la simple compréhension sémantique. Les VLMs ont transformé la planification robotique en rendant possible l'interprétation d'instructions en langage naturel, mais l'ancrage spatial — savoir précisément sur quel objet agir et où le déposer — reste un verrou majeur pour les tâches du quotidien. En proposant à la fois un protocole d'évaluation standardisé et une méthode pour générer automatiquement des données d'entraînement à partir de vidéos de démonstration existantes, cette contribution pourrait accélérer le développement de robots manipulateurs capables d'opérer de façon autonome dans des environnements non contrôlés. Les prochaines étapes probables concerneront l'extension à des scènes encore plus dynamiques et à des instructions encore plus ambiguës, là où la frontière entre compréhension linguistique et raisonnement spatial est la plus ténue.

RobotiquePaper
1 source
Grâce à Lyria 3 Pro, l’IA Gemini de Google peut maintenant créer de la musique de 3 minutes
271Presse-citron 

Grâce à Lyria 3 Pro, l’IA Gemini de Google peut maintenant créer de la musique de 3 minutes

Google a dévoilé Lyria 3 Pro, une version améliorée de son modèle de génération musicale par intelligence artificielle, quelques semaines seulement après le lancement de Lyria 3 en février 2026. Cette nouvelle itération est intégrée directement dans Gemini et réservée aux abonnés de la formule payante. Sa capacité principale : générer des morceaux de musique pouvant atteindre trois minutes, une durée bien supérieure à ce que proposaient les versions précédentes. Cette avancée est significative pour les créateurs de contenu, les musiciens amateurs et les professionnels cherchant à produire rapidement de la musique originale. Passer de courts extraits à des compositions de trois minutes ouvre la porte à des usages concrets : bandes originales, jingles, musiques d'ambiance pour vidéos ou podcasts. La qualité et la durée combinées font de Lyria 3 Pro un outil potentiellement compétitif face aux solutions dédiées comme Suno ou Udio. Google s'inscrit dans une course effrénée à la génération audio par IA, un segment en pleine expansion où OpenAI, Meta et plusieurs startups investissent massivement. En ancrant Lyria 3 Pro dans l'écosystème Gemini, Google mise sur la fidélisation de ses abonnés premium tout en consolidant sa position dans la création de contenu multimodal, après ses ambitions affichées dans l'image et la vidéo avec Imagen et Veo.

LLMsActu
1 source
Pourquoi il n'existe pas d'AlphaFold pour les matériaux — l'IA au service de la découverte des matériaux avec Heather Kulik
272Latent Space 

Pourquoi il n'existe pas d'AlphaFold pour les matériaux — l'IA au service de la découverte des matériaux avec Heather Kulik

La professeure Heather Kulik, pionnière de l'IA appliquée aux sciences des matériaux, explique pourquoi un équivalent d'AlphaFold pour les matériaux n'existe pas encore : contrairement à la biologie, le domaine manque de données structurées et nécessite une intégration profonde de l'expertise humaine. Son groupe a récemment utilisé l'IA pour concevoir des polymères quatre fois plus résistants, découvrant un effet purement quantique que les scientifiques n'avaient pas anticipé. Elle souligne cependant les limites actuelles des LLMs en chimie, illustrées par un test simple — concevoir un ligand de exactement 22 atomes lourds — que ni Claude ni ChatGPT ne réussissent de manière fiable, notamment pour les MOFs (Metal-Organic Frameworks).

RecherchePaper
1 source
Dreamer : l'OS d'agent personnel — David Singleton
273Latent Space 

Dreamer : l'OS d'agent personnel — David Singleton

En 2024, David Singleton (ex-CTO de Stripe) et Hugo Barra ont lancé en stealth /dev/agents, désormais rebaptisé Dreamer — une plateforme grand public pour découvrir, créer et utiliser des agents IA, centrée sur un assistant personnel appelé Sidekick capable de générer d'autres agents via le langage naturel. La plateforme se distingue par son approche "full stack" : SDK maison, base de données, gestion des prompts, fonctions serverless et exécution de code arbitraire sur leurs VMs. Peu après cet enregistrement, l'équipe Dreamer a annoncé rejoindre Meta Superintelligence Labs.

OutilsActu
1 source
Alibaba lance une plateforme d'agents IA pour les entreprises
274AI Business 

Alibaba lance une plateforme d'agents IA pour les entreprises

Alibaba a lancé une plateforme d'agents IA dédiée aux entreprises, dans un contexte de concurrence croissante sur le marché des agents IA en Chine. Nvidia et Meta ont également récemment fait leur entrée dans l'espace des agents personnels.

OutilsOutil
1 source
5 astuces ingénieuses qui boostent les data centers IA
275The Information AI 

5 astuces ingénieuses qui boostent les data centers IA

Face à l'explosion des besoins en électricité pour l'IA, les géants tech rivalisent d'ingéniosité : Meta a transformé ses datacenters traditionnels en clusters GPU en quelques mois et installé des "tent cities" à New Albany (Ohio), tandis que Google relie plusieurs datacenters via fibre optique pour mutualiser des gigawatts de puissance. Microsoft a racheté un sous-station électrique inutilisée construite pour Foxconn à Mount Pleasant (Wisconsin), permettant à son datacenter Fairwater de dépasser 350 MW. Ces approches — reconversion de sites industriels, récupération d'infrastructures abandonnées, et même utilisation de moteurs à réaction pour la production d'énergie — illustrent la course effrénée à la puissance de calcul qui redessine l'industrie.

InfrastructureActu
1 source
The Download : puces en verre et logos « sans IA »
276MIT Technology Review 

The Download : puces en verre et logos « sans IA »

Les puces IA du futur pourraient être construites sur du verre : la société sud-coréenne Absolics commence cette année à produire des panneaux en verre spéciaux pour rendre le matériel de nouvelle génération plus puissant et économe en énergie, une initiative également portée par Intel. Par ailleurs, la course est lancée pour créer un logo universel certifiant les contenus « sans IA », tandis que Meta prévoit des licenciements pouvant toucher plus de 20 % de ses effectifs pour compenser ses lourds investissements dans l'IA. Une startup chinoise atteint une valorisation de 18 milliards de dollars — plus de quatre fois sa valeur d'il y a trois mois — illustrant l'accélération fulgurante du secteur.

UELa course à un logo universel certifiant les contenus 'sans IA' pourrait influencer les standards européens de certification dans le cadre de l'AI Act.

InfrastructureActu
1 source
27701net 

Une IA qui « voit » le monde : le pari à 1 milliard de dollars de Yann LeCun

Yann LeCun, l'un des "parrains" de l'IA moderne et ancien responsable de l'IA chez Meta, a lancé une nouvelle start-up appelée AMI (Advanced Machine Intelligence). Elle a levé 1 milliard de dollars lors de son tour de table initial, avec des investisseurs comme Nvidia, Jeff Bezos, Samsung et Xavier Niel. AMI se distingue des grands modèles de langage en développant une IA capable de "voir" et comprendre le monde différemment.

UELa participation de Xavier Niel comme investisseur et les origines françaises de Yann LeCun positionnent la France comme actrice de ce projet d'IA de rupture doté d'un milliard de dollars.

RechercheActu
1 source
278Siècle Digital 

Le Français Yann Le Cun lève plus d’un milliard de dollars pour sa start up d’IA AMI Labs

Le chercheur français Yann LeCun, après plus d'une décennie chez Meta, lance sa start-up AMI Labs spécialisée dans l'IA. L'entreprise vient de lever plus d'un milliard de dollars lors d'un premier tour de table, une somme exceptionnellement rare à ce stade.

UELe lancement d'AMI Labs par le chercheur français Yann LeCun, avec plus d'un milliard de dollars levés, positionne la France comme berceau d'une potentielle grande puissance de l'IA mondiale.

BusinessActu
1 source
279The Decoder 

Des investisseurs misent 1 milliard de dollars sur la vision de Yann LeCun pour une IA au-delà des LLM

Yann LeCun, ancien chef scientifique IA chez Meta et lauréat du prix Turing, a levé plus d'un milliard de dollars pour sa nouvelle startup Advanced Machine Intelligence Labs (AMI Labs). Il s'agit du plus grand tour de financement seed jamais réalisé en Europe. AMI Labs vise à développer une approche de l'IA allant au-delà des grands modèles de langage (LLM).

UELe Français Yann LeCun réalise le plus grand tour de financement seed de l'histoire européenne, positionnant potentiellement l'Europe comme centre de la prochaine génération d'IA au-delà des LLM.

BusinessActu
1 source
280Numerama 

Que prépare Yann Le Cun avec sa startup française AMI Labs, qui vient de lever 1 milliard de dollars pour révolutionner l’IA ?

Yann Le Cun, pionnier de l'IA, a quitté Meta suite à des désaccords avec Mark Zuckerberg pour fonder AMI Labs, une startup française spécialisée dans les « world models ». La société vient de lever 1 milliard de dollars, atteignant une valorisation de 3,5 milliards de dollars.

UELa création d'AMI Labs par Yann Le Cun et sa levée d'un milliard de dollars positionnent une startup française parmi les acteurs majeurs mondiaux de l'IA, renforçant la souveraineté technologique européenne face aux géants américains.

BusinessActu
1 source
281Wired AI 

Yann LeCun lève 1 milliard de dollars pour développer une IA capable de comprendre le monde physique

Yann LeCun, ancien directeur scientifique en IA de Meta, lève 1 milliard de dollars pour financer sa nouvelle startup AMI. Sa thèse : l'intelligence artificielle au niveau humain passera par la compréhension du monde physique, et non par le langage. AMI ambitionne de concrétiser cette vision jusqu'ici défendue par LeCun face aux partisans des LLMs.

RechercheActu
1 source
282TechCrunch AI 

AMI Labs de Yann LeCun lève 1,03 milliard de dollars pour développer des modèles du monde

AMI Labs, la nouvelle entreprise cofondée par Yann LeCun (lauréat du prix Turing) après son départ de Meta, a levé 1,03 milliard de dollars à une valorisation pré-money de 3,5 milliards de dollars. La startup se consacre au développement de « world models », des modèles d'IA capables de comprendre et simuler le monde physique.

BusinessActu
1 source
283TechCrunch AI 

Après l'Europe, WhatsApp autorisera les entreprises rivales de l'IA à proposer des chatbots au Brésil

Meta autorise désormais des concurrents AI à proposer des chatbots sur WhatsApp pour les utilisateurs brésiliens contre rémunération, un jour après avoir confirmé une décision similaire pour les utilisateurs européens.

UEL'ouverture de WhatsApp aux chatbots concurrents en Europe, probablement imposée par le DMA, offre aux acteurs européens de l'IA comme Mistral AI une opportunité d'accéder à la vaste base d'utilisateurs européens de la plateforme.

BusinessActu
1 source
284Ars Technica AI 

Les consommateurs sont-ils condamnés à payer plus cher pour l'électricité en raison des dépenses d'agrandissement des centres de données?

Les consommateurs pourraient-ils être contraints de payer plus cher pour l'électricité en raison des développements des centres de données? Les grandes entreises technologiques, comme Amazon, Google, Meta, Microsoft, xAI, Oracle et OpenAI, s'engagent potentiellement à construire leurs propres centrales électriques pour les centres de données, conformément à une promesse soutenue par Donald Trump. Cependant, ces entreprises font face à des défis logistiques importants pour tenir cette promesse faite lors d'un événement au White House, assurant que "personne ne verra son prix augmenter" en raison de la demande énergétique des centres de données AI.

RechercheOpinion
1 source
285HuggingFace Blog 

Créer l'écosystème d'agents ouverts ensemble : Présentation d'OpenEnv

Dans un effort concerté, des chercheurs et des développeurs ont présenté OpenEnv, un environnement open-source destiné à favoriser le développement d'agents intelligents et leur interaction dans diverses simulations. OpenEnv, soutenu par la fondation OpenAI, vise à standardiser les cadres d'entraînement pour les agents artificiels, rendant ainsi le processus d'apprentissage plus transparent et collaboratif. Ce projet inclut des simulations comme Roboschool et Meta-World, et compte des contributeurs de renom comme le laboratoire d'intelligence artificielle de l'Université de California, Berkeley.

UEOpenEnv, un environnement open-source pour agents intelligents, soutenu par la fondation OpenAI, impacte les entreprises européennes de l'IA en standardisant les cadres d'entraînement, potentiellement facilitant la conformité avec l'AI Act et renforçant la transparence, tout en favorisant la collaboration et l'innovation dans des secteurs comme la robotique et la simulation.

RobotiqueOutil
1 source