Aller au contenu principal
ICML 2026 : les nouvelles frontières du machine learning se discutent à Séoul
RechercheFrenchWeb2h

ICML 2026 : les nouvelles frontières du machine learning se discutent à Séoul

Résumé IASource uniqueImpact UE
Source originale ↗·

Séoul accueille du 6 au 12 juillet 2026 la 43e édition de l'International Conference on Machine Learning (ICML), l'une des conférences scientifiques les plus influentes au monde dans le domaine de l'intelligence artificielle. Organisée dans la capitale sud-coréenne, cet événement rassemble chaque année des milliers de chercheurs, ingénieurs et représentants de l'industrie venus présenter et débattre des dernières avancées en apprentissage automatique. L'édition 2026 marque la première fois que la conférence se tient en Corée du Sud, témoignant de la montée en puissance de l'Asie dans l'écosystème mondial de la recherche en IA.

ICML est un point de convergence incontournable pour la communauté scientifique : les papiers acceptés y définissent souvent les directions de recherche pour les années suivantes. Les grandes entreprises tech, Google DeepMind, Meta AI, Microsoft Research, Anthropic, y dévoilent des travaux qui alimentent directement leurs produits. Pour les chercheurs académiques, une publication à ICML constitue une validation de premier rang, et la conférence sert de baromètre pour identifier les tendances émergentes, des architectures de modèles aux questions d'alignement et d'efficacité computationnelle.

Le choix de Séoul s'inscrit dans une dynamique plus large de reconnaissance des pôles asiatiques d'excellence en IA, la Corée du Sud investissant massivement dans ce secteur via des géants comme Samsung et LG, mais aussi via des startups et universités de rang mondial. ICML 2026 devrait notamment concentrer des débats autour des modèles multimodaux, de l'IA générative post-transformeurs et des approches d'apprentissage à faible coût énergétique, des enjeux devenus centraux dans un contexte de pression croissante sur les ressources de calcul.

Impact France/UE

Les chercheurs et labos européens participant à ICML bénéficieront des échanges scientifiques, mais la conférence n'a pas d'impact institutionnel direct sur la France ou l'UE.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Recherches en apprentissage automatique d'Apple à l'ICLR 2026
1Apple Machine Learning 

Recherches en apprentissage automatique d'Apple à l'ICLR 2026

Apple participe cette semaine à la quatorzième édition de l'International Conference on Learning Representations (ICLR 2026), qui se tient à Rio de Janeiro, au Brésil. L'entreprise y est présente en tant que sponsor officiel et y envoie plusieurs de ses chercheurs pour présenter des travaux couvrant un large spectre de sujets en apprentissage automatique et en intelligence artificielle. Ces contributions sont publiées et partagées avec la communauté scientifique internationale, conformément à la politique de diffusion ouverte qu'Apple a renforcée ces dernières années. Cette présence illustre l'ambition croissante d'Apple dans la recherche fondamentale en IA, un domaine où l'entreprise a longtemps été perçue comme moins visible que ses concurrents Google DeepMind, Meta AI ou Microsoft Research. Publier à l'ICLR, l'une des conférences les plus sélectives au monde en apprentissage profond, constitue un signal fort adressé à la communauté académique et au marché des talents, dans un contexte de recrutement intensément compétitif entre les grandes entreprises technologiques. Apple a sensiblement accéléré ses publications scientifiques depuis 2017, après avoir longtemps gardé ses recherches entièrement confidentielles. Cette ouverture progressive vise à attirer des chercheurs de haut niveau qui, dans d'autres structures, peuvent publier librement leurs travaux. L'ICLR 2026 intervient alors qu'Apple intègre davantage de fonctionnalités d'IA générative dans ses produits via Apple Intelligence, ce qui rend ses avancées en ML directement pertinentes pour des centaines de millions d'utilisateurs à travers le monde.

RecherchePaper
1 source
NeurIPS 2026 : la conférence où se joue l’avenir scientifique, industriel et géopolitique de l’IA
2FrenchWeb 

NeurIPS 2026 : la conférence où se joue l’avenir scientifique, industriel et géopolitique de l’IA

NeurIPS 2026 se tiendra du 6 au 13 décembre à Sydney, en Australie, avec deux éditions satellites simultanées à Atlanta et à Paris. Organisée chaque année depuis 1987, la conférence "Neural Information Processing Systems" est l'un des rendez-vous académiques les plus influents du secteur de l'intelligence artificielle, rassemblant chercheurs, ingénieurs et décideurs du monde entier autour des dernières avancées en apprentissage automatique. La formule multi-sites, avec des hubs sur trois continents, confirme l'ampleur croissante d'un événement devenu trop vaste pour un seul lieu. NeurIPS est aujourd'hui bien plus qu'un congrès scientifique : c'est un baromètre de l'état de l'art en IA et un lieu de recrutement stratégique pour les grands laboratoires. Google, Meta, OpenAI, Microsoft ou encore Mistral y exposent leurs travaux, signalent leurs priorités de recherche et captent les meilleurs talents académiques. La présence d'un satellite à Paris souligne par ailleurs la montée en puissance de l'écosystème européen, qui cherche à peser dans une compétition technologique dominée par les États-Unis et la Chine. La conférence s'inscrit dans un contexte de tension géopolitique autour du contrôle des modèles de pointe, des données d'entraînement et des puces spécialisées. Depuis l'émergence des grands modèles de langage à partir de 2022, NeurIPS est devenu un terrain d'observation pour gouvernements et investisseurs autant que pour la communauté scientifique. L'édition 2026 devrait refléter les débats en cours sur la régulation internationale de l'IA, la sécurité des systèmes et la course aux modèles multimodaux de prochaine génération.

UELa tenue d'un hub satellite à Paris pour NeurIPS 2026 offre aux chercheurs et entreprises françaises un accès direct à la conférence de référence mondiale en IA, renforçant la visibilité de l'écosystème européen face aux géants américains et chinois.

RecherchePaper
1 source
Les machines pourront-elles jamais être intelligentes ?
3Microsoft Research 

Les machines pourront-elles jamais être intelligentes ?

Dans le podcast The Shape of Things to Come de Microsoft Research, Doug Burger réunit Nicolò Fusi (Microsoft Research) et Subutai Ahmad (Numenta) pour explorer si les systèmes d'IA actuels sont véritablement intelligents. Ils comparent les grands modèles de langage (LLMs) basés sur les transformers avec l'architecture distribuée et en apprentissage continu du cerveau humain, en analysant les différences d'efficacité, de représentation et d'ancrage sensorimoteur. La question centrale : les architectures digitales et biologiques sont-elles sur une trajectoire convergente, ou fondamentalement incompatibles ?

RecherchePaper
1 source
Nous Research propose Lighthouse Attention : une attention hiérarchique par sélection qui accélère le pré-entraînement de 1,4 à 1,7× sur les longs contextes
4MarkTechPost 

Nous Research propose Lighthouse Attention : une attention hiérarchique par sélection qui accélère le pré-entraînement de 1,4 à 1,7× sur les longs contextes

Des chercheurs du laboratoire Nous Research ont publié le 12 mai 2026 une méthode baptisée Lighthouse Attention, conçue pour accélérer l'entraînement des grands modèles de langage sur de longues séquences de texte. Testée contre une base de référence cuDNN, elle atteint un gain de vitesse de 1,40 à 1,69 fois en temps réel d'horloge, tout en maintenant une perte d'entraînement finale équivalente ou inférieure. Le mécanisme repose sur un pipeline en quatre étapes : construction d'une pyramide multi-niveaux à partir des projections Q, K et V par pooling moyen, attribution de scores scalaires à chaque entrée via des normes ℓ₂ par tête d'attention, sélection des k entrées les plus pertinentes sur l'ensemble des niveaux de la pyramide, puis exécution du FlashAttention standard sur le sous-ensemble ainsi sélectionné. Toute la sélection s'opère en dehors du kernel d'attention, ce qui permet de réutiliser les implémentations optimisées existantes sans modification. L'enjeu central est économique et technique : l'attention standard scale quadratiquement en Θ(N²) avec la longueur de séquence N, ce qui rend l'entraînement sur de longs contextes extrêmement coûteux en calcul et en mémoire. FlashAttention avait résolu le problème mémoire via un découpage intelligent, mais le coût de calcul restait quadratique. Lighthouse s'attaque directement à ce calcul en réduisant le nombre de paires (Q, K) effectivement traitées, sans sacrifier la qualité du modèle produit. Contrairement aux méthodes d'attention sparse conçues pour l'inférence, Lighthouse s'évalue sur un critère plus exigeant : les poids issus de l'entraînement sparse doivent rester pleinement compatibles avec une inférence en attention dense classique. Ce critère est satisfait, ce qui en fait une méthode applicable directement au pré-entraînement de modèles de production. L'approche de Nous Research se distingue des travaux antérieurs comme NSA, HISA, DSA ou MoBA sur deux points structurels. D'abord, ces méthodes compressent asymétriquement : elles appliquent le pooling uniquement sur les clés et valeurs, laissant les requêtes à pleine résolution. Lighthouse applique le pooling de façon symétrique aux trois projections Q, K et V, produisant des triplets cohérents à chaque niveau de la pyramide. Ensuite, leurs logiques de sélection s'intègrent à l'intérieur même du kernel d'attention, ce qui empêche de réutiliser les kernels denses hautement optimisés pour les GPU modernes. Le top-K utilisé par Lighthouse est délibérément non différentiable, aucun estimateur straight-through, aucun Gumbel softmax, et les gradients ne traversent que les entrées Q, K, V sélectionnées, pas les indices de sélection. Un mécanisme de top-K stratifié par chunks évite en outre l'effondrement de l'attention sur un intervalle étroit, garantissant une couverture équilibrée sur toute la séquence. À mesure que la course aux contextes longs s'intensifie dans l'industrie, des méthodes comme Lighthouse pourraient devenir un composant standard du pré-entraînement.

💬 1,4× à 1,7× sur le pré-entraînement long contexte, c'est le genre de gain qu'on attendait depuis que l'attention quadratique commence vraiment à faire mal au budget. Ce que j'aime, c'est que tu entraînes sparse et tu sers en attention dense classique sans rien modifier à l'archi, donc c'est utilisable directement en prod. Nous Research n'est pas DeepMind, et pourtant ce papier est propre.

RecherchePaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour