Aller au contenu principal
RechercheNext INpact30min

☕️ Google DeepMind s’attaque à EVE Online

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :Ars Technica AI

Google DeepMind a annoncé un partenariat avec Fenris Creations, le studio islandais opérateur d'EVE Online, pour entraîner une intelligence artificielle dans l'univers de ce MMORPG culte lancé en 2003. La collaboration, dont les détails techniques restent partiellement flous, sera précisée lors de la Fanfest, le rassemblement annuel de la communauté EVE, la semaine prochaine, avec une intervention prévue d'Adrian Bolton, l'un des fondateurs du laboratoire. Dans un premier temps, les recherches se dérouleront dans des environnements contrôlés et hors ligne du jeu. Google DeepMind a également pris une participation minoritaire au capital de Fenris Creations, de l'ordre de quelques millions de dollars. Le studio affichait fin 2025 ses meilleurs résultats depuis plusieurs années.

EVE Online représente un défi d'une autre nature que les précédentes conquêtes de DeepMind dans le jeu vidéo. Là où le Go, les échecs ou StarCraft II reposent sur des règles fixes et des objectifs clairs, New Eden, la galaxie persistante du jeu partagée par des milliers de joueurs sur un seul serveur mondial, génère des comportements émergents d'une complexité sociale exceptionnelle : guerres interstellaires, cartels économiques, espionnage industriel, manipulation de marchés, propagande, doctrines militaires et politiques évolutives. Pour Alexandre Moufarek, directeur de Google DeepMind, il s'agit d'une « simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé ». L'enjeu est de taille : développer une IA capable de naviguer dans des environnements ouverts, à long terme et socialement ambigus, ce que les benchmarks classiques ne permettent pas d'évaluer.

Ce partenariat s'inscrit dans un moment charnière pour EVE Online. Depuis 2018, le jeu était aux mains de Pearl Abyss, éditeur coréen récemment connu pour Crimson Desert, qui a finalement revendu CCP Games, rebaptisé Fenris Creations, à son fondateur historique Hilmar Veigar Pétursson pour 120 millions de dollars, soit bien en dessous des 225 millions payés lors de l'acquisition initiale. La transaction intègre 20 millions en tokens du jeu EVE Frontier, projet blockchain dont l'avenir reste incertain. C'est donc un studio redevenu indépendant, revigoré par de bons résultats financiers et un partenaire de poids comme Google, qui aborde cette nouvelle phase. Pour DeepMind, après avoir dominé les jeux à règles fermées, EVE Online est peut-être le terrain le plus ambitieux jamais tenté : un monde vivant, imprévisible, peuplé de vraies décisions humaines.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google DeepMind permet à un LLM de réécrire ses propres algorithmes de théorie des jeux — et il surpasse les experts
1MarkTechPost 

Google DeepMind permet à un LLM de réécrire ses propres algorithmes de théorie des jeux — et il surpasse les experts

Des chercheurs de Google DeepMind ont publié une étude présentant AlphaEvolve, un système d'évolution de code piloté par un grand modèle de langage capable de réécrire et d'améliorer automatiquement des algorithmes de théorie des jeux. Appliqué à deux paradigmes de référence en apprentissage par renforcement multi-agents (MARL) — le Counterfactual Regret Minimization (CFR) et le Policy Space Response Oracles (PSRO) — le système a découvert de nouvelles variantes qui égalent ou surpassent les meilleures solutions conçues manuellement par des experts. Tous les tests ont été conduits dans le cadre OpenSpiel, sur des jeux à information imparfaite comme le poker de Kuhn à trois joueurs, le Leduc Poker, le Goofspiel et le Liar's Dice. Le modèle LLM utilisé pour muter le code source est Gemini 2.5 Pro. Ce travail représente un changement de paradigme dans la conception d'algorithmes pour les jeux stratégiques complexes, un domaine où les chercheurs passaient jusqu'ici des mois à affiner manuellement des règles de pondération, de discount et de convergence. AlphaEvolve automatise entièrement ce processus d'exploration : à chaque génération, un algorithme parent est sélectionné selon ses performances, son code source est transmis au LLM avec une consigne de modification, et le candidat résultant est évalué sur un ensemble de jeux d'entraînement. La variante CFR découverte, baptisée VAD-CFR (Volatility-Adaptive Discounted CFR), introduit notamment un mécanisme de discount adaptatif basé sur la volatilité, là où les variantes classiques comme DCFR ou PCFR+ appliquent des règles statiques définies par des humains. L'implication pratique est directe : des algorithmes qui convergent plus vite vers un équilibre de Nash signifient des agents de jeu plus efficaces, avec des applications potentielles en simulation économique, en sécurité et en IA adversariale. Google DeepMind s'inscrit ici dans une tendance plus large d'automatisation de la recherche en IA, où les LLM ne servent plus seulement à générer du texte mais à explorer des espaces de conception algorithmique. CFR est à la base de systèmes comme Libratus et Pluribus, les IA de poker qui ont battu les meilleurs joueurs humains en 2017 et 2019 ; améliorer ses variantes reste donc un enjeu concret pour les applications de prise de décision sous incertitude. Le framework AlphaEvolve avait déjà été utilisé par DeepMind pour optimiser des noyaux de calcul dans des contextes d'infrastructure. Son application aux algorithmes de théorie des jeux ouvre la voie à une automatisation plus systématique de la recherche en MARL, avec la question ouverte de jusqu'où un LLM peut explorer un espace algorithmique avant de buter sur des limites structurelles que l'intuition humaine seule saurait franchir.

RecherchePaper
1 source
Google DeepMind présente Decoupled DiLoCo, une architecture asynchrone à 88 % de goodput malgré les pannes matérielles
2MarkTechPost 

Google DeepMind présente Decoupled DiLoCo, une architecture asynchrone à 88 % de goodput malgré les pannes matérielles

Google DeepMind a présenté Decoupled DiLoCo (Distributed Low-Communication), une nouvelle architecture d'entraînement distribué conçue pour entraîner de grands modèles de langage sur plusieurs centres de données géographiquement éloignés, sans nécessiter la synchronisation permanente que demandent les approches classiques. L'architecture divise le calcul en groupes de puces indépendants, appelés "learner units", qui s'entraînent de manière semi-autonome avant de partager un signal de gradient compressé avec un optimiseur central. Le gain en bande passante est spectaculaire : là où l'entraînement distribué standard exige environ 198 Gbps de connectivité entre huit centres de données, Decoupled DiLoCo n'en requiert que 0,84 Gbps, soit une réduction de plusieurs ordres de grandeur compatible avec une infrastructure réseau ordinaire. Lors de simulations impliquant 1,2 million de puces soumises à des taux de pannes élevés, le système a maintenu un "goodput" (fraction du temps effectivement consacrée à l'entraînement utile) de 88%, contre seulement 27% pour les méthodes parallèles classiques. Ces chiffres révèlent un changement profond dans la manière dont on peut envisager l'entraînement à grande échelle. La principale fragilité des architectures actuelles tient à leur synchronisation bloquante : à chaque étape, toutes les puces doivent attendre la plus lente avant de passer à la suivante, ce qui rend un cluster de milliers d'accélérateurs extrêmement vulnérable aux défaillances matérielles. Decoupled DiLoCo rompt avec cette logique en rendant la synchronisation asynchrone : si un groupe de puces tombe en panne ou ralentit, les autres continuent à s'entraîner. L'équipe a poussé le test jusqu'à la "chaos engineering", une méthode qui consiste à introduire délibérément des pannes artificielles pendant un entraînement en cours. Le système a non seulement survécu à la perte de learner units entiers, mais les a réintégrés automatiquement à leur retour, un comportement qualifié d'"auto-réparation". Decoupled DiLoCo s'appuie sur deux travaux antérieurs de Google : Pathways, un système d'IA distribué fondé sur des flux de données asynchrones permettant à différentes ressources de calcul d'avancer à leur propre rythme, et DiLoCo, qui avait déjà démontré qu'il était possible de réduire drastiquement les communications inter-centres de données en multipliant les étapes locales avant chaque synchronisation. La combinaison des deux ouvre la voie à un entraînement véritablement planétaire, où des centres de données situés sur des continents différents peuvent contribuer à un même modèle sans infrastructure réseau dédiée. Dans un contexte où les modèles frontières mobilisent des centaines de milliards de paramètres et des dizaines de milliers de puces, cette résilience architecturale pourrait devenir une condition sine qua non pour qui veut maintenir des entraînements longs sans interruptions catastrophiques.

UELes laboratoires européens travaillant sur l'entraînement de grands modèles pourraient adopter cette approche pour mutualiser des centres de calcul géographiquement dispersés sans infrastructure réseau dédiée coûteuse.

RechercheOpinion
1 source
L'« AI co-clinician » de Google DeepMind devance GPT-5.4 aux tests en aveugle, mais reste derrière les médecins expérimentés
3The Decoder 

L'« AI co-clinician » de Google DeepMind devance GPT-5.4 aux tests en aveugle, mais reste derrière les médecins expérimentés

Google DeepMind développe un système d'intelligence artificielle baptisé "AI co-clinician", conçu pour assister les médecins dans la prise en charge des patients. Selon une étude publiée par le laboratoire de recherche d'Alphabet, ce modèle surpasse GPT-5.4 d'OpenAI lors de tests en aveugle réalisés par des médecins, où les évaluateurs ne savaient pas quelle IA produisait quelle réponse. Malgré ces résultats encourageants obtenus dans des environnements simulés, le système reste en deçà des performances des médecins expérimentés en exercice. Cette recherche illustre à la fois les progrès réels de l'IA médicale et ses limites persistantes. Qu'un modèle de Google surpasse GPT-5.4 dans un contexte clinique simulé est significatif : cela montre que des architectures spécialisées, entraînées sur des données médicales, peuvent dépasser des modèles généralistes de dernière génération. Mais l'écart qui subsiste avec les cliniciens humains rappelle que la médecine exige un niveau de fiabilité et de nuance que les systèmes actuels n'atteignent pas encore. L'étude souligne également que le mode vocal de ChatGPT n'est pas adapté à des tâches sérieuses, et certainement pas aux consultations médicales. La course à l'IA médicale implique désormais les plus grands acteurs technologiques mondiaux, avec Google, Microsoft et plusieurs startups spécialisées en compétition directe. L'idée d'un "co-clinicien" artificiel, qui seconderait le médecin sans le remplacer, représente une approche volontairement prudente, cherchant à contourner les résistances réglementaires et éthiques. Ces travaux de DeepMind s'inscrivent dans une trajectoire où l'IA pourrait d'abord s'imposer comme outil d'aide à la décision avant toute autonomie clinique.

UELes systèmes d'aide à la décision clinique étant classés à haut risque par l'AI Act européen, ces résultats accélèrent la pression réglementaire sur les éditeurs de logiciels médicaux et les hôpitaux en France et en Europe.

💬 DeepMind bat GPT-5.4 en aveugle sur des cas cliniques, et c'est là que c'est intéressant : un modèle spécialisé qui dépasse le généraliste de dernière génération, ça prouve que la spécialisation a encore de l'avenir. Rester derrière les médecins expérimentés, c'est pas une surprise, c'est même rassurant que personne ne le cache. "Co-clinicien" plutôt que "diagnostic AI", c'est le choix de vocabulaire qui permet de déployer sans déclencher l'AI Act.

RecherchePaper
1 source
Google DeepMind présente Vision Banana, générateur d'images affiné par instructions surpassant SAM 3 et Depth Anything V3
4MarkTechPost 

Google DeepMind présente Vision Banana, générateur d'images affiné par instructions surpassant SAM 3 et Depth Anything V3

Google DeepMind a publié le 22 avril 2026 un article de recherche intitulé "Image Generators are Generalist Vision Learners" (arXiv:2604.20329) présentant Vision Banana, un modèle unifié capable d'effectuer simultanément des tâches de compréhension visuelle avancées tout en conservant ses capacités de génération d'images. Ce modèle surpasse des systèmes spécialisés de référence sur plusieurs benchmarks clés : il dépasse SAM 3 en segmentation sémantique et d'instances, et Depth Anything V3 en estimation de profondeur métrique monoculaire, en ajoutant également la prédiction de normales de surface. Vision Banana est construit à partir de Nano Banana Pro (NBP), le générateur d'images de pointe de Google, auquel une procédure d'instruction-tuning légère a été appliquée en intégrant une faible proportion de données de vision par ordinateur dans le mélange d'entraînement d'origine. Ce résultat remet en question une hypothèse fondamentale qui structurait le domaine depuis des années : les modèles génératifs et les modèles discriminatifs étaient considérés comme deux familles distinctes, l'un produisant des images, l'autre les interprétant. L'équipe de Google montre que l'entraînement à la génération d'images réalistes oblige implicitement un modèle à comprendre la géométrie, la sémantique, la profondeur et les relations entre objets. Cette connaissance latente peut ensuite être reformatée pour des tâches de perception, sans ajouter de têtes de décodage spécialisées : toutes les sorties sont exprimées comme des images RGB suivant des schémas de couleurs précis et inversibles, permettant d'en extraire des valeurs quantitatives pour l'évaluation sur benchmark. Aucune donnée des benchmarks d'évaluation n'est incluse dans l'instruction-tuning, ce qui garantit une généralisation réelle plutôt qu'une mémorisation de domaine. L'analogie centrale avancée par l'équipe est celle des grands modèles de langage : de même que le pré-entraînement génératif sur du texte construit des représentations riches réutilisables par instruction-tuning, l'entraînement à la génération d'images jouerait le même rôle fondateur pour la vision. Cette approche présente trois avantages pratiques : un seul modèle couvre un large spectre de tâches en changeant uniquement le prompt, la quantité de nouvelles données nécessaires est faible puisque l'instruction-tuning ne fait qu'apprendre à formater les sorties en RGB, et les capacités génératives initiales sont préservées. Si ce paradigme se confirme à plus grande échelle, il pourrait réduire significativement le coût de développement des systèmes de perception visuelle et relancer le débat sur la frontière entre génération et compréhension dans les architectures multimodales, un enjeu central pour les prochaines générations de modèles fondationnels.

UELes laboratoires et entreprises européens de vision par ordinateur pourraient adopter cette approche unifiée pour réduire significativement le coût de développement de leurs systèmes de perception visuelle, sans impact réglementaire ou commercial direct immédiat.

💬 C'est le genre de résultat qui remet tout à plat. On partait du principe depuis des années que générer des images et comprendre des images, c'étaient deux métiers différents, deux familles de modèles séparées. Google vient de montrer que le générateur apprend la géométrie et la profondeur en chemin, sans qu'on lui demande, et qu'un petit instruction-tuning suffit à reformater ça pour battre SAM 3 ou Depth Anything. Si le parallèle avec les LLM tient vraiment à grande échelle, on va économiser beaucoup de modèles spécialisés.

RecherchePaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour