Aller au contenu principal
Les machines pourront-elles jamais être intelligentes ?
RechercheMicrosoft Research6sem

Les machines pourront-elles jamais être intelligentes ?

Résumé IASource uniqueImpact UE
Source originale ↗·

La question de savoir si les machines peuvent être véritablement intelligentes est au cœur d'un nouveau podcast de Microsoft Research, intitulé The Shape of Things to Come. Animé par Doug Burger, directeur chez Microsoft Research, ce premier épisode réunit deux experts aux profils complémentaires pour disséquer ce que signifie réellement l'intelligence — et si les systèmes actuels en sont dotés.

L'enjeu dépasse la simple curiosité académique : la réponse déterminera si les grands modèles de langage (LLMs) actuels sont sur une trajectoire capable de surpasser l'intelligence humaine, ou si leurs architectures fondamentalement différentes les condamnent à exceller dans des domaines distincts sans jamais converger. Pour les décideurs politiques, les entreprises technologiques et la société en général, comprendre cette distinction est crucial pour anticiper l'impact réel de la transition IA.

Le débat oppose deux visions de l'intelligence. Nicolò Fusi, chercheur à Microsoft Research spécialisé en modèles transformeurs et théorie de l'information, représente l'approche numérique dominante. Face à lui, Subutai Ahmad de Numenta défend la perspective biologique, s'appuyant notamment sur les travaux de Jeff Hawkins — auteur de A Thousand Brains (2022) et On Intelligence (2005) — qui modélisent le fonctionnement du néocortex via les cellules de grille. Les deux approches divergent sur des points fondamentaux : efficacité énergétique, représentation distribuée, apprentissage continu et ancrage sensori-moteur.

Le podcast s'inscrit dans un moment charnière où la communauté scientifique multiplie les travaux sur l'alignement entre architectures biologiques et numériques — comme en témoigne la publication de mars 2026 sur le fine-tuning basé sur l'énergie pour les modèles de langage (Matching Features, Not Tokens). La série promet d'explorer ces tensions sur le long terme, avec l'ambition affichée de construire une compréhension partagée pour que la transition IA soit un bilan positif net pour l'humanité.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

« Que deviendront les intelligences artificielles si elles doivent sans cesse utiliser les mêmes données ? »
1Le Monde Pixels 

« Que deviendront les intelligences artificielles si elles doivent sans cesse utiliser les mêmes données ? »

L'article soulève la question de l'effondrement des modèles d'IA face à la saturation des données d'entraînement, notamment lorsque ces modèles commencent à s'entraîner sur du contenu généré par d'autres IA. Ce phénomène, illustré par des deepfakes comme une bagarre fictive entre Brad Pitt et Tom Cruise, pose un risque de dégradation progressive de la qualité et de la diversité des outputs. Le problème central est un cercle vicieux où les IA "s'auto-contaminent" avec leurs propres productions. --- Note : l'article fourni est très partiel (titre + légende d'image uniquement). Si tu as le corps complet de l'article, je peux faire un résumé plus précis.

UELes chercheurs et régulateurs européens s'interrogent sur la durabilité des modèles entraînés sur des données synthétiques, un enjeu clé pour les politiques d'IA de l'UE.

RecherchePaper
1 source
Le Québec mobilise des fonds pour faire de Montréal un leader mondial de l’intelligence artificielle
2Le Big Data 

Le Québec mobilise des fonds pour faire de Montréal un leader mondial de l’intelligence artificielle

Le gouvernement du Québec a annoncé un investissement de 36 millions de dollars en faveur de Mila, l'Institut québécois d'intelligence artificielle basé à Montréal. Ce financement s'inscrit dans une stratégie d'innovation quinquennale dotée d'un budget total de 7,5 milliards de dollars, dans le cadre de laquelle Québec s'était engagé à verser jusqu'à 80 millions de dollars à Mila sur cinq ans à compter de 2018. Au total, depuis 2017, la province a injecté plus de 700 millions de dollars dans la recherche, le développement et l'intégration de l'IA dans divers secteurs économiques. En parallèle, ScaleAI, une supergrappe fédérale installée à Montréal, a mobilisé des fonds supplémentaires pour accélérer l'adoption de l'IA par les entreprises locales, notamment en augmentant les capacités de calcul et en attirant des chercheurs internationaux. Cet engagement financier positionne Montréal comme prétendant sérieux au titre de capitale mondiale de l'IA, aux côtés de San Francisco, Londres et Singapour. Pour Mila, l'un des pôles de recherche en apprentissage automatique les plus réputés au monde, ce financement représente la possibilité de renforcer son rôle d'institut de recherche de référence et d'intensifier son accompagnement des entreprises québécoises dans leur transformation numérique. Au-delà de la recherche pure, les retombées sont concrètes : l'IA est déjà intégrée dans la finance, les services publics, la santé et d'autres secteurs stratégiques. L'écosystème montréalais bénéficie également d'une offre de formation en expansion, d'un réseau académique solide et de la capacité à recruter des talents étrangers, trois atouts que cet investissement est destiné à amplifier. Montréal n'est pas novice dans la course à l'IA. La ville s'est imposée dès les années 2010 comme un centre mondial en apprentissage automatique, portée notamment par les travaux de Yoshua Bengio, cofondateur de Mila et figure pionnière du deep learning. La stratégie québécoise s'appuie sur cet héritage académique pour construire une filière industrielle complète, alliant recherche fondamentale, formation de haut niveau et déploiement sectoriel. L'ambition est clairement géopolitique : dans un contexte où les États-Unis, la Chine et l'Union européenne se livrent une concurrence féroce pour dominer l'IA, le Québec entend faire valoir sa spécificité, notamment son approche ancrée dans l'éthique et la recherche ouverte. Les prochaines années seront déterminantes pour savoir si Montréal parvient à transformer ses avantages académiques en leadership économique durable face à des écosystèmes disposant de ressources financières bien supérieures.

UELa montée en puissance de Montréal comme concurrent direct des hubs européens de recherche en IA intensifie la pression sur l'UE pour consolider ses propres écosystèmes et éviter une fuite des talents vers l'Amérique du Nord.

RechercheOpinion
1 source
IMITATION LEARNING : définition, fonctionnement et cas d’usage en intelligence artificielle
3FrenchWeb 

IMITATION LEARNING : définition, fonctionnement et cas d’usage en intelligence artificielle

L'apprentissage par imitation — imitation learning en anglais — s'impose comme l'un des paradigmes les plus prometteurs de l'intelligence artificielle appliquée, notamment dans la robotique et les systèmes autonomes. Contrairement au reinforcement learning classique, qui oblige un agent à explorer son environnement par essais-erreurs en accumulant récompenses et pénalités, l'imitation learning repose sur un principe radicalement différent : un modèle apprend en observant des démonstrations réalisées par un expert humain ou un autre système. Deux grandes variantes coexistent — le clonage comportemental, qui imite directement les actions observées, et l'apprentissage inverse par renforcement, qui tente d'inférer la fonction de récompense sous-jacente au comportement de l'expert. L'impact concret est significatif dans les domaines où définir une fonction de récompense explicite reste difficile ou coûteux. En robotique industrielle, des bras manipulateurs apprennent à effectuer des tâches de précision — assemblage, tri, chirurgie assistée — à partir de quelques démonstrations humaines, sans programmer chaque geste manuellement. Dans les véhicules autonomes, des systèmes comme ceux de Waymo ou Tesla intègrent des mécanismes proches pour capturer des comportements de conduite complexes directement depuis des données réelles. Cette approche s'inscrit dans un mouvement plus large vers des IA capables d'acquérir des compétences sans supervision dense. Des laboratoires comme DeepMind, OpenAI ou le CNRS explorent activement ses limites, notamment le problème de distribution shift — le modèle échoue dès qu'il rencontre une situation hors du corpus d'imitation. Des hybrides combinant imitation learning et reinforcement learning, comme DAgger, cherchent à dépasser cette fragilité fondamentale.

UELe CNRS est cité parmi les laboratoires qui explorent activement l'imitation learning, positionnant la recherche française dans ce paradigme émergent.

RecherchePaper
1 source
4Ars Technica AI 

Les modèles d'IA sont mauvais pour parier sur le football, Grok en tête

Une étude publiée cette semaine par la startup londonnienne General Reasoning révèle que les grands modèles d'IA de Google, OpenAI, Anthropic et xAI ont tous perdu de l'argent en pariant virtuellement sur les matchs de Premier League de la saison 2023-2024. Le rapport, baptisé "KellyBench", a soumis huit systèmes d'IA à une reconstitution virtuelle complète de la saison, en leur fournissant des données historiques détaillées sur chaque équipe et chaque rencontre. Les modèles avaient pour mission de construire des stratégies maximisant les rendements tout en gérant le risque, une tâche à laquelle tous ont échoué, le modèle Grok d'xAI s'illustrant particulièrement mal. Ce résultat met en lumière une limite structurelle des IA actuelles : leur incapacité à raisonner de manière fiable sur des problèmes complexes du monde réel sur de longues périodes. Là où ces mêmes systèmes excellent dans des tâches bien délimitées comme l'écriture de code ou la génération de texte, la prévision sportive exige une intégration de facteurs dynamiques, d'incertitudes cumulées et d'un jugement probabiliste soutenu que les modèles peinent à maintenir sur une saison entière. L'étude KellyBench s'inscrit dans un débat plus large sur les véritables capacités de raisonnement des LLM. Alors que les benchmarks traditionnels sont régulièrement saturés par les nouveaux modèles, General Reasoning cherche à concevoir des épreuves qui résistent dans le temps et mesurent des compétences cognitives authentiques. Les paris sportifs, imprévisibles par nature et impossibles à mémoriser par entraînement, constituent un terrain de test particulièrement révélateur des lacunes réelles de ces systèmes.

💬 Ça paraît anecdotique, mais c'est en fait un des benchmarks les plus honnêtes qu'on ait vus depuis longtemps : tu enlèves la possibilité de mémoriser les réponses pendant l'entraînement, et là les modèles se plantent dans les grandes largeurs. Ce que ça révèle, c'est pas qu'ils sont "mauvais au foot", c'est qu'ils tiennent pas sur la durée dès que le problème est dynamique et bruité. Grok en lanterne rouge, c'est la cerise.

RecherchePaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour