Aller au contenu principal
Atelier interdisciplinaire sur l'intelligence mécanique : rapport de synthèse
RecherchearXiv cs.RO6j

Atelier interdisciplinaire sur l'intelligence mécanique : rapport de synthèse

Résumé IASource uniqueImpact UE
Source originale ↗·

Les 30 et 31 mai 2024, la National Science Foundation (NSF) a accueilli dans ses locaux un atelier interdisciplinaire de deux jours consacré à l'intelligence mécanique (MI, Mechanical Intelligence). L'événement a réuni 38 chercheurs académiques invités et 8 responsables de programmes NSF, soit 46 participants au total. Le format privilégiait les discussions en petits groupes (4 à 5 personnes) et en groupes élargis (9 à 10 personnes), chaque session aboutissant à des notes consignées dans des diaporamas partagés et présentées en clôture le second jour. Le rapport issu de ce workshop vient d'être déposé sur arXiv (2604.16381).

L'intelligence mécanique désigne la capacité de systèmes matériels, biologiques ou robotiques à encoder des fonctions cognitives, réactivité, adaptabilité, mémoire, apprentissage, directement dans leur structure physique, sans recourir à du calcul électronique ou à du code logiciel. C'est une rupture conceptuelle avec l'intelligence computationnelle classique : plutôt que de traiter l'information dans un processeur centralisé, le comportement intelligent émerge de la morphologie, de la compliance ou des propriétés des matériaux eux-mêmes. Pour les intégrateurs et concepteurs de systèmes robotiques, cette approche ouvre une voie vers des robots plus robustes, moins énergivores et capables d'opérer dans des environnements non structurés sans dépendre d'une boucle de contrôle lourde.

Ce workshop s'inscrit dans un intérêt croissant pour la robotique morphologique et la soft robotics, des champs où des institutions européennes comme l'EPFL, l'Università di Pisa ou des startups françaises proches de l'écosystème Inria jouent un rôle actif. La MI fait écho aux travaux sur les actionneurs compliant et aux recherches sur le sim-to-real gap : si l'intelligence est partiellement distribuée dans la mécanique, les besoins en simulation précise diminuent. Le rapport de synthèse, produit collectivement par les participants, constitue une feuille de route potentielle pour orienter les futurs appels à projets NSF dans ce domaine, et pourrait influencer des financements analogues côté ERC ou ANR dans les prochaines années.

Impact France/UE

L'EPFL, l'Università di Pisa et l'écosystème Inria sont actifs dans le champ couvert ; les conclusions du rapport pourraient orienter de futurs appels ERC et ANR en robotique morphologique et soft robotics.

À lire aussi

Le Québec mobilise des fonds pour faire de Montréal un leader mondial de l’intelligence artificielle
1Le Big Data 

Le Québec mobilise des fonds pour faire de Montréal un leader mondial de l’intelligence artificielle

Le gouvernement du Québec a annoncé un investissement de 36 millions de dollars en faveur de Mila, l'Institut québécois d'intelligence artificielle basé à Montréal. Ce financement s'inscrit dans une stratégie d'innovation quinquennale dotée d'un budget total de 7,5 milliards de dollars, dans le cadre de laquelle Québec s'était engagé à verser jusqu'à 80 millions de dollars à Mila sur cinq ans à compter de 2018. Au total, depuis 2017, la province a injecté plus de 700 millions de dollars dans la recherche, le développement et l'intégration de l'IA dans divers secteurs économiques. En parallèle, ScaleAI, une supergrappe fédérale installée à Montréal, a mobilisé des fonds supplémentaires pour accélérer l'adoption de l'IA par les entreprises locales, notamment en augmentant les capacités de calcul et en attirant des chercheurs internationaux. Cet engagement financier positionne Montréal comme prétendant sérieux au titre de capitale mondiale de l'IA, aux côtés de San Francisco, Londres et Singapour. Pour Mila, l'un des pôles de recherche en apprentissage automatique les plus réputés au monde, ce financement représente la possibilité de renforcer son rôle d'institut de recherche de référence et d'intensifier son accompagnement des entreprises québécoises dans leur transformation numérique. Au-delà de la recherche pure, les retombées sont concrètes : l'IA est déjà intégrée dans la finance, les services publics, la santé et d'autres secteurs stratégiques. L'écosystème montréalais bénéficie également d'une offre de formation en expansion, d'un réseau académique solide et de la capacité à recruter des talents étrangers, trois atouts que cet investissement est destiné à amplifier. Montréal n'est pas novice dans la course à l'IA. La ville s'est imposée dès les années 2010 comme un centre mondial en apprentissage automatique, portée notamment par les travaux de Yoshua Bengio, cofondateur de Mila et figure pionnière du deep learning. La stratégie québécoise s'appuie sur cet héritage académique pour construire une filière industrielle complète, alliant recherche fondamentale, formation de haut niveau et déploiement sectoriel. L'ambition est clairement géopolitique : dans un contexte où les États-Unis, la Chine et l'Union européenne se livrent une concurrence féroce pour dominer l'IA, le Québec entend faire valoir sa spécificité, notamment son approche ancrée dans l'éthique et la recherche ouverte. Les prochaines années seront déterminantes pour savoir si Montréal parvient à transformer ses avantages académiques en leadership économique durable face à des écosystèmes disposant de ressources financières bien supérieures.

UELa montée en puissance de Montréal comme concurrent direct des hubs européens de recherche en IA intensifie la pression sur l'UE pour consolider ses propres écosystèmes et éviter une fuite des talents vers l'Amérique du Nord.

RechercheOpinion
1 source
Comment la distillation de connaissances condense l'intelligence d'ensemble en un seul modèle IA
2MarkTechPost 

Comment la distillation de connaissances condense l'intelligence d'ensemble en un seul modèle IA

La distillation de connaissances est une technique de compression de modèles d'intelligence artificielle qui permet de transférer le savoir acquis par un grand modèle, ou un ensemble de modèles, vers un modèle plus petit et plus rapide. Dans l'expérience présentée, les chercheurs ont entraîné un ensemble de 12 modèles distincts jouant le rôle d'enseignant collectif, puis ont distillé leur intelligence combinée dans un seul modèle étudiant, plus léger. Le pipeline complet est construit en Python avec PyTorch sur un jeu de données synthétique de classification binaire (5 000 exemples, 20 variables), représentatif de problèmes concrets comme la prédiction de clics publicitaires. La clé du processus réside dans l'utilisation des sorties probabilistes "soft" de l'ensemble enseignant, avec une mise à l'échelle par température, plutôt que les simples étiquettes binaires du jeu de données. Résultat : le modèle étudiant récupère 53,8 % de l'avantage de précision de l'ensemble, avec une compression de facteur 160. Pour l'industrie, cette approche répond à un problème fondamental du déploiement en production : les ensembles de modèles sont précis mais trop lents et trop coûteux pour répondre à des contraintes de latence réelles. Un modèle seul, distillé depuis un ensemble de 12 réseaux, peut être servi en temps réel là où l'ensemble original serait inutilisable. La valeur ne vient pas seulement de la réduction de taille, mais de la qualité du signal transmis : les distributions de probabilité de l'enseignant portent une information bien plus riche que les étiquettes brutes, permettant à l'étudiant d'apprendre des nuances que l'entraînement standard ne capturerait pas. Cette technique est aujourd'hui centrale dans la mise en production des grands modèles de langage et des systèmes de vision par ordinateur, où des modèles comme DistilBERT ou les versions compressées de LLaMA sont directement issus de cette logique. La distillation de connaissances a émergé des travaux pionniers de Geoffrey Hinton et ses collègues chez Google en 2015, initialement pour compresser des ensembles en réseaux uniques. Depuis, elle est devenue un pilier de l'ingénierie ML à l'échelle : chaque fois qu'un modèle de recherche trop lourd doit être rendu opérationnel, la distillation est l'une des premières pistes explorées. L'enjeu est stratégique, les entreprises qui maîtrisent cette compression peuvent déployer des capacités de niveau "grand modèle" sur des infrastructures standard, réduisant drastiquement les coûts de calcul. Avec la prolifération des LLM de plusieurs centaines de milliards de paramètres, la distillation est devenue incontournable pour rendre l'IA générative accessible sur des appareils embarqués, des API à faible latence, ou des environnements edge où la puissance de calcul est limitée.

💬 La distillation de connaissances, c'est pas nouveau, Hinton 2015, DistilBERT, tout ça. Ce qui est bien expliqué ici, c'est pourquoi les soft labels avec la mise à l'échelle par température font toute la différence par rapport à un entraînement classique : l'élève apprend les nuances de l'enseignant, pas juste ses réponses binaires. Facteur 160 de compression avec 53% de l'avantage récupéré, c'est le genre de ratio qui explique pourquoi chaque labo qui sort un gros modèle sort aussi une version distillée dans les semaines qui suivent.

RecherchePaper
1 source
CuspAI, ou la promesse d’une science accélérée par l’intelligence artificielle
3FrenchWeb 

CuspAI, ou la promesse d’une science accélérée par l’intelligence artificielle

CuspAI, startup britannique fondée en 2024 par Chad Edwards, s'est imposée comme l'un des acteurs les plus prometteurs de l'IA appliquée à la découverte de matériaux. La société développe une plateforme d'intelligence artificielle capable de modéliser et prédire les propriétés de nouveaux matériaux en une fraction du temps qu'exigerait l'expérimentation classique en laboratoire. Après avoir levé plusieurs dizaines de millions de dollars auprès d'investisseurs spécialisés dans les deeptech, CuspAI entend accélérer des cycles de R&D qui s'étendent habituellement sur une décennie. L'enjeu est considérable : la découverte de nouveaux matériaux conditionne des secteurs entiers, des batteries pour véhicules électriques aux semi-conducteurs, en passant par les panneaux solaires et les matériaux de construction à faible empreinte carbone. En réduisant de plusieurs années le délai entre l'idée et le prototype validé, CuspAI pourrait déverrouiller des goulots d'étranglement qui freinent la transition énergétique et l'industrie manufacturière mondiale. Pour les laboratoires et les industriels, il s'agit d'un changement de paradigme comparable à ce que la simulation numérique a représenté dans les années 1980. Cette ambition s'inscrit dans une vague plus large d'IA scientifique, dite « AI for science », portée aussi bien par DeepMind avec AlphaFold que par des startups comme Insilico Medicine dans le médicament ou Orbital Materials dans les matériaux avancés. CuspAI se différencie par sa focalisation sur les matériaux solides et sa volonté de s'intégrer directement dans les flux de travail industriels, visant des partenariats avec de grands groupes chimiques et énergétiques plutôt qu'une approche purement académique.

UELes industriels européens engagés dans la transition énergétique (batteries, panneaux solaires, matériaux bas carbone) pourraient bénéficier directement de la plateforme CuspAI pour accélérer leurs cycles de R&D.

RecherchePaper
1 source
Import AI 448 : R&D en IA ; l'agent CUDA de ByteDance ; IA satellite embarquée
4Import AI 

Import AI 448 : R&D en IA ; l'agent CUDA de ByteDance ; IA satellite embarquée

Ajeya Cotra, chercheuse reconnue spécialisée dans les prévisions sur l'IA, vient de publier une mise à jour publique dans laquelle elle reconnaît avoir sous-estimé la vitesse de progression des systèmes d'intelligence artificielle. En janvier 2026, elle anticipait qu'un agent IA aurait un "horizon temporel" — c'est-à-dire la durée maximale de travail autonome qu'il peut mener sans assistance humaine — d'environ 24 heures d'ici fin 2026. Or, les derniers résultats de METR (une organisation qui évalue les capacités des agents IA) montrent que Claude Opus 4.6 d'Anthropic atteint déjà un horizon de 12 heures. Cotra révise donc ses estimations à la hausse : selon elle, d'ici la fin de l'année, les agents IA devraient dépasser les 100 heures d'autonomie sur des tâches logicielles complexes. Dans ce même numéro de la newsletter Import AI, des chercheurs de GovAI et de l'Université d'Oxford publient un cadre de 14 métriques conçu pour mesurer l'avancement de l'automatisation de la R&D en IA — c'est-à-dire la capacité des systèmes IA à construire d'autres systèmes IA. Ces développements ont des implications directes pour l'ensemble du secteur technologique. Un agent capable de travailler de manière autonome pendant plus de 100 heures représente l'équivalent de plusieurs semaines-homme de travail qualifié, ce qui remet en question le concept même de "temps de cycle" dans le développement logiciel. Pour les entreprises qui s'appuient sur des équipes d'ingénieurs, c'est un signal fort : l'IA ne se contente plus d'assister les développeurs, elle commence à les remplacer sur des tâches étendues et complexes. Les 14 métriques proposées par GovAI visent précisément à anticiper le moment où l'IA deviendrait capable d'amélioration récursive — c'est-à-dire de se perfectionner elle-même —, un seuil souvent décrit comme un point de bascule majeur, au-delà duquel l'accélération technologique pourrait devenir difficile à piloter. La notion d'amélioration récursive de l'IA est débattue depuis des années dans les cercles de la sécurité des systèmes avancés, mais elle était jusque-là considérée comme un horizon lointain. Les progrès récents de modèles comme Opus 4.6 signalent que cet horizon se rapproche beaucoup plus vite que prévu, y compris par celles et ceux dont c'est le métier de l'estimer. GovAI et Oxford proposent des indicateurs concrets — performance relative des IA versus équipes humaines, fréquence d'utilisation dans les décisions critiques, niveau de permissions accordées aux systèmes, taux de comportements indésirables en production — pour permettre aux régulateurs et aux laboratoires de suivre cette trajectoire avant qu'elle ne devienne incontrôlable. L'enjeu affiché est explicite : l'automatisation de la R&D en IA pourrait accélérer à la fois les bénéfices attendus et les risques les plus graves, incluant le développement d'armes de destruction massive ou des disruptions économiques massives liées au chômage technologique.

UELes 14 métriques publiées par GovAI et l'Université d'Oxford pour mesurer l'automatisation de la R&D en IA pourraient directement alimenter le cadre réglementaire européen, notamment les dispositions de l'AI Act relatives aux systèmes à haut risque et aux modèles à usage général.

RecherchePaper
1 source