Aller au contenu principal
Recherches en apprentissage automatique d'Apple à l'ICLR 2026
RechercheApple Machine Learning18h

Recherches en apprentissage automatique d'Apple à l'ICLR 2026

1 source couvre ce sujet·Source originale ↗·

Apple participe cette semaine à la quatorzième édition de l'International Conference on Learning Representations (ICLR 2026), qui se tient à Rio de Janeiro, au Brésil. L'entreprise y est présente en tant que sponsor officiel et y envoie plusieurs de ses chercheurs pour présenter des travaux couvrant un large spectre de sujets en apprentissage automatique et en intelligence artificielle. Ces contributions sont publiées et partagées avec la communauté scientifique internationale, conformément à la politique de diffusion ouverte qu'Apple a renforcée ces dernières années.

Cette présence illustre l'ambition croissante d'Apple dans la recherche fondamentale en IA, un domaine où l'entreprise a longtemps été perçue comme moins visible que ses concurrents Google DeepMind, Meta AI ou Microsoft Research. Publier à l'ICLR, l'une des conférences les plus sélectives au monde en apprentissage profond, constitue un signal fort adressé à la communauté académique et au marché des talents, dans un contexte de recrutement intensément compétitif entre les grandes entreprises technologiques.

Apple a sensiblement accéléré ses publications scientifiques depuis 2017, après avoir longtemps gardé ses recherches entièrement confidentielles. Cette ouverture progressive vise à attirer des chercheurs de haut niveau qui, dans d'autres structures, peuvent publier librement leurs travaux. L'ICLR 2026 intervient alors qu'Apple intègre davantage de fonctionnalités d'IA générative dans ses produits via Apple Intelligence, ce qui rend ses avancées en ML directement pertinentes pour des centaines de millions d'utilisateurs à travers le monde.

À lire aussi

AutoAdapt : adaptation automatique des grands modèles de langage à des domaines spécifiques
1Microsoft Research 

AutoAdapt : adaptation automatique des grands modèles de langage à des domaines spécifiques

Des chercheurs de Microsoft Research ont publié AutoAdapt, un cadre automatisé destiné à adapter les grands modèles de langage (LLM) à des domaines spécialisés à forts enjeux, comme le droit, la médecine ou la gestion d'incidents cloud. Présenté dans un article intitulé "AutoAdapt: An Automated Domain Adaptation Framework for Large Language Models", le système prend en entrée un objectif défini en langage naturel, des données de domaine et des contraintes pratiques (latence, matériel, budget, confidentialité), puis construit automatiquement un pipeline d'adaptation complet et reproductible. Pour y parvenir, AutoAdapt s'appuie sur trois composants : un graphe de configuration appelé Adaptation Configuration Graph (ACG) qui cartographie l'espace des possibles, un agent planificateur qui sélectionne et séquence les bonnes étapes, et une boucle d'optimisation budgétaire nommée AutoRefine qui affine le résultat dans les limites imposées. L'enjeu est considérable pour les équipes qui déploient des LLM en production. Aujourd'hui, spécialiser un modèle généraliste implique de choisir manuellement entre des approches comme la génération augmentée par récupération (RAG), le fine-tuning supervisé ou des méthodes à efficacité paramétrique comme LoRA, puis d'ajuster des dizaines d'hyperparamètres dans un espace de décision vaste et peu lisible. Ce processus prend des semaines, sans garantie de résultat reproductible. Pour une équipe qui gère une panne critique, un modèle qui dérive de ses exigences de domaine n'est tout simplement pas une option. AutoAdapt transforme ce tâtonnement coûteux en un pipeline exécutable en une fraction du temps, rendant les LLM fiables et prévisibles dans des contextes où les erreurs ont des conséquences réelles. Cette publication s'inscrit dans une tendance de fond qui vise à industrialiser le déploiement des LLM, au-delà de la simple performance sur des benchmarks génériques. Les entreprises qui adoptent ces modèles dans des secteurs régulés ou techniques se heurtent systématiquement au même mur : la spécialisation est longue, chère et fragile. Microsoft Research, qui présente ce travail dans le cadre de son Microsoft Research Forum, positionne AutoAdapt comme une réponse structurée à ce goulot d'étranglement. Le système ouvre la voie à une standardisation des pratiques d'adaptation, là où chaque équipe réinventait jusqu'ici sa propre méthode. La prochaine étape logique sera de voir si ce cadre peut être intégré directement dans des plateformes cloud comme Azure AI Studio, ce qui accélérerait son adoption à grande échelle.

UELes entreprises européennes déployant des LLM dans des secteurs réglementés (santé, droit, finance) pourraient réduire significativement leurs coûts et délais de spécialisation grâce à ce type de framework d'adaptation automatisé.

RecherchePaper
1 source
Un laboratoire robotisé mène 50 000 expériences et atteint 27 % d'efficacité pour les cellules solaires
2Interesting Engineering 

Un laboratoire robotisé mène 50 000 expériences et atteint 27 % d'efficacité pour les cellules solaires

Des chercheurs de la Hong Kong Polytechnic University ont mis au point un système robotique autonome capable de mener des recherches scientifiques en boucle fermée, sans intervention humaine, pour le développement de cellules solaires à base de pérovskite. Le dispositif repose sur une architecture d'intelligence artificielle à sept couches qui lit la littérature scientifique existante, génère de nouvelles formules chimiques et les traduit directement en instructions pour les machines. En l'espace d'une campagne expérimentale, le système a réalisé 50 764 expériences, contrôlé plus de 4 300 paramètres et généré 578 millions de tokens de données. Résultat: une efficacité de conversion énergétique record de 27,0%, avec une valeur certifiée indépendamment de 26,5%, plaçant ces cellules parmi les plus performantes jamais fabriquées de manière autonome. L'enjeu est considérable pour la filière photovoltaïque. La pérovskite est un matériau à fort potentiel, mais son développement bute depuis des années sur un processus d'essais et d'erreurs épuisant: plus de 100 000 recettes expérimentales ont déjà été testées dans le monde, avec des cycles de cristallisation extrêmement sensibles aux conditions environnementales et difficiles à reproduire. Les robots existants peuvent collecter des données rapidement, mais sont incapables d'interpréter les résultats ou d'ajuster les recettes en temps réel. Le nouveau système brise ce plafond en intégrant un modèle de langage spécialisé, le Recipe Language Model, qui traite en continu données de littérature et résultats expérimentaux pour affiner les formules chimiques, pendant que 11 modules robotiques interconnectés assurent la fabrication physique: stockage des produits chimiques, dépôt par centrifugation, traitement laser, caractérisation optique en temps réel. Ce travail s'inscrit dans une tendance de fond qui voit l'automatisation gagner les laboratoires de recherche en matériaux, domaine traditionnellement artisanal et fragmenté. La particularité de ce système réside dans sa capacité à transformer des opérations de boîtes à gants isolées en une chaîne de fabrication unifiée, pilotée par un jumeau numérique. Publié dans la revue Engineering, ce projet ouvre la voie à ce que ses auteurs appellent la "materials intelligence": une recherche scientifique pilotée par des agents autonomes capables d'apprendre, de raisonner et d'optimiser sans supervision humaine permanente. À plus long terme, une telle approche pourrait permettre de déployer des capacités de fabrication avancée dans des environnements extrêmes ou des zones isolées, là où la présence humaine est impraticable, de l'espace aux infrastructures offshore.

UECette avancée dans l'automatisation de la recherche sur les matériaux photovoltaïques pourrait à terme accélérer les programmes européens de développement de cellules solaires à pérovskite, dans le cadre des objectifs de souveraineté énergétique de l'UE.

RecherchePaper
1 source
L'IA au MIT
3MIT Technology Review 

L'IA au MIT

Au MIT, l'intelligence artificielle a cessé d'être un domaine spécialisé pour devenir l'infrastructure invisible de la recherche scientifique. Sili Deng, professeure associée en génie mécanique, illustre ce basculement : arrivée en 2019 pour étudier la cinétique de combustion, elle s'est tournée vers le machine learning pendant la pandémie de covid-19, contrainte d'interrompre les rénovations de son laboratoire. Son groupe a depuis développé un "jumeau numérique" capable de modéliser en temps réel le comportement de systèmes de combustion de carburant. Zachary Cordero, professeur associé en aérospatiale, a suivi une trajectoire différente : en 2024, sur recommandation de John Hart, directeur du département de génie mécanique, il a collaboré avec Faez Ahmed, spécialiste du machine learning, sur un projet financé par la DARPA. Ensemble, ils ont conçu un outil d'IA capable d'optimiser la composition matérielle d'un "blisk", disque à aubes central dans les turbines de moteurs à réaction et de fusées, avec des retombées directes sur la fiabilité des lanceurs réutilisables lourds. Ces cas ne sont pas des exceptions. Dans chaque département du MIT, l'IA transforme la recherche : développement de médicaments, neurosciences, métallurgie, robotique, préservation de la faune. Angela Koehler, professeure de bioingénierie et responsable du MIT HEALS, affirme que 90 % des comités de thèse auxquels elle participe comportent désormais une composante IA significative, contre une minorité cinq ans auparavant. Son propre groupe utilise des modèles d'IA pour cibler des molécules longtemps considérées comme "indruggables", comme les facteurs de transcription ou les cytokines. Ian Waitz, vice-président pour la recherche au MIT, résume : "Je ne connais pas un seul domaine de recherche ici qui n'ait pas été impacté par l'IA." Ce déploiement massif s'inscrit dans une histoire longue : le MIT est l'un des berceaux historiques de la recherche en IA, mais la vague actuelle marque une rupture qualitative. Les outils comme le machine learning, les grands modèles de langage et les réseaux de neurones ne servent plus seulement à des projets dédiés à l'IA, ils amplifient des disciplines qui n'avaient pas, jusqu'ici, de rapport direct avec l'informatique. Le professeur Ju Li pousse la réflexion plus loin : si on accorde à l'IA l'autonomie de mener des expériences, d'échouer et d'apprendre, elle pourrait évoluer vers quelque chose de proche de l'intelligence humaine. L'enjeu n'est plus de savoir si l'IA va transformer la science, mais à quelle vitesse les institutions sauront structurer cette transformation sans en perdre le contrôle.

RecherchePaper
1 source
Des scientifiques artificiels
4MIT Technology Review 

Des scientifiques artificiels

Les grandes entreprises d'intelligence artificielle ont longtemps brandi la promesse d'une science révolutionnée pour justifier leurs investissements massifs. Cette promesse prend aujourd'hui une forme concrète : en octobre 2025, OpenAI a lancé une équipe dédiée à l'IA pour la science et vient d'annoncer GPT-Rosalind, premier d'une série de modèles scientifiques spécialisés. Anthropic a simultanément dévoilé plusieurs fonctionnalités Claude orientées vers les sciences biologiques. Google DeepMind, pionnier dans ce domaine, avait déjà décroché le Nobel de chimie 2024 avec AlphaFold, le système de prédiction de structures protéiques développé par Demis Hassabis et John Jumper. En février 2026, Google publiait son propre outil de co-scientifique IA. Sous le capot, ces systèmes combinent généralement plusieurs agents spécialisés : l'outil de Google mobilise un agent superviseur, un agent de génération et un agent de classement pour produire hypothèses et plans de recherche à partir d'un objectif fourni par un chercheur humain. Des chercheurs de Stanford ont de leur côté créé un "laboratoire virtuel" multi-agents capable de concevoir de nouveaux fragments d'anticorps se liant au SARS-CoV-2. L'enjeu dépasse la simple assistance : OpenAI a officiellement désigné la construction d'un chercheur autonome comme sa "North Star". En février, la société a connecté GPT-5 aux laboratoires biologiques automatisés de Ginkgo Bioworks, permettant au système de proposer des expériences et d'interpréter les résultats avec une intervention humaine minimale. Résultat : après un volume d'expériences massif, le système a mis au point un protocole réduisant de 40 % le coût de synthèse d'une protéine spécifique. Cette capacité à itérer à grande vitesse, sans les contraintes physiques ou cognitives d'une équipe humaine, représente un avantage compétitif considérable pour les laboratoires pharmaceutiques, biotechs et centres de recherche fondamentale. Mais une étude publiée dans Nature apporte une nuance importante : si les scientifiques individuels tirent avantage de l'IA dans leur carrière, la science dans son ensemble pourrait en pâtir. En effet, les modèles d'IA excellent dans l'analyse de bases de données existantes et de littérature établie, ce qui pousse les chercheurs qui les utilisent à se concentrer sur des domaines déjà bien documentés, au détriment de territoires moins balisés mais potentiellement décisifs. Le risque est une homogénéisation progressive des sujets de recherche, laissant en jachère des problèmes complexes moins compatibles avec les approches algorithmiques. Pour que l'IA amplifie réellement la science plutôt que de l'uniformiser, la communauté scientifique devra coordonner activement ses efforts pour préserver la diversité et l'originalité de la recherche à l'ère des agents autonomes.

UEGoogle DeepMind, basé à Londres, est pionnier mondial de l'IA scientifique avec AlphaFold et son outil de co-scientifique, ce qui positionne l'Europe comme acteur clé dans la course à l'automatisation de la recherche scientifique.

RecherchePaper
1 source