Aller au contenu principal
Google utilise d'anciens reportages et l'IA pour prédire les crues soudaines
RechercheTechCrunch AI8sem

Google utilise d'anciens reportages et l'IA pour prédire les crues soudaines

Résumé IASource uniqueImpact UE
Source originale ↗·

Google utilise d'anciens rapports journalistiques et un LLM pour convertir des données qualitatives en données quantitatives, afin de pallier le manque de données hydrologiques historiques. Cette approche permet d'améliorer les modèles de prédiction des crues soudaines, un phénomène météorologique particulièrement difficile à anticiper. Le projet illustre comment l'IA peut transformer des archives textuelles en données structurées exploitables pour la prévention des catastrophes naturelles.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google fouille dans les vieux journaux pour prédire les inondations
1Frandroid 

Google fouille dans les vieux journaux pour prédire les inondations

Google utilise son IA pour analyser d'anciennes coupures de presse afin de mieux prédire les risques d'inondations. Cette approche exploite des données historiques issues de la presse pour améliorer les modèles de prévision des crues.

RechercheActu
1 source
L'IA pour prédire la prochaine pandémie
2Sciences et Avenir Tech 

L'IA pour prédire la prochaine pandémie

Des chercheurs explorent l'utilisation de l'IA pour prédire les pandémies, y compris des menaces inconnues comme le coronavirus. L'approche consiste à modéliser des trajectoires potentielles sur les 200 premiers jours suivant la détection du premier cas, même sans données préexistantes sur le pathogène.

UELes systèmes de surveillance épidémiologique européens (ECDC) pourraient bénéficier de tels outils prédictifs pour anticiper les futures pandémies.

RecherchePaper
1 source
ADeLe : prédire et expliquer les performances de l'IA selon les tâches
3Microsoft Research 

ADeLe : prédire et expliquer les performances de l'IA selon les tâches

Des chercheurs de Microsoft, en collaboration avec l'Université de Princeton et l'Universitat Politècnica de València, ont publié dans la revue Nature une méthode inédite d'évaluation des modèles d'IA baptisée ADeLe — pour AI Evaluation with Demand Levels. Présentée dans l'article « General Scales Unlock AI Evaluation with Explanatory and Predictive Power », cette approche évalue simultanément les tâches et les modèles selon 18 capacités fondamentales — attention, raisonnement, connaissances de domaine, métacognition, entre autres — en leur attribuant un score de 0 à 5. Appliquée à 15 grands modèles de langage dont GPT-4o et Llama-3.1, la méthode permet de prédire les performances sur des tâches inédites avec une précision d'environ 88 %. Les travaux ont bénéficié du programme de financement AFMR (Accelerating Foundation Models Research) de Microsoft. L'apport concret d'ADeLe réside dans sa capacité à dépasser les scores agrégés des benchmarks classiques, qui mesurent ce qu'un modèle réussit sans expliquer pourquoi il échoue ni anticiper ses comportements sur de nouvelles tâches. En construisant un profil de capacités pour chaque modèle — une cartographie structurée de ses forces et faiblesses — et en le confrontant aux exigences précises d'une tâche donnée, ADeLe identifie les lacunes spécifiques à l'origine des erreurs. La méthode révèle également que de nombreux benchmarks largement utilisés donnent une image incomplète, voire trompeuse : un test censé mesurer le raisonnement logique peut en réalité dépendre fortement de connaissances spécialisées ou de métacognition, faussant ainsi l'interprétation des résultats. Pour les équipes qui développent ou déploient des LLMs, cette granularité change radicalement la façon d'interpréter une évaluation. L'évaluation des LLMs souffre depuis plusieurs années d'un problème structurel : les benchmarks standard comme MMLU ou HumanEval mesurent des performances globales sur des jeux de tests fixes, sans permettre de généraliser ni de diagnostiquer. ADeLe s'inscrit dans une tendance plus large de la communauté de recherche à vouloir rendre l'évaluation plus explicable et plus prédictive, à mesure que les modèles deviennent des composants critiques dans des systèmes professionnels. La publication dans Nature — une revue généraliste de premier rang, inhabituelle pour ce type de travaux en IA — signale l'ambition scientifique du projet. Les prochaines étapes pourraient inclure l'extension du cadre à des modalités au-delà du texte, et son adoption par des organismes d'évaluation indépendants cherchant des alternatives aux classements simplistes.

UELa co-participation de l'Universitat Politècnica de València positionne ADeLe comme candidat naturel pour les organismes d'évaluation européens chargés de mettre en œuvre les exigences de l'AI Act sur la transparence et la robustesse des modèles.

💬 Les benchmarks classiques te donnent un score global, mais zéro explication sur ce qui foire et pourquoi. ADeLe décompose ça en 18 capacités mesurables, confronte le profil du modèle aux exigences précises de la tâche, et prédit les perfs à 88% sur des cas inédits, ce qui est franchement solide pour de la recherche académique. Publication dans Nature en plus, c'est le genre de signal qui dit que l'évaluation des LLMs commence enfin à être traitée comme un vrai problème scientifique.

RecherchePaper
1 source
MCP vs. compétences d'agents IA : analyse approfondie des outils structurés et des directives comportementales pour les LLM
4MarkTechPost 

MCP vs. compétences d'agents IA : analyse approfondie des outils structurés et des directives comportementales pour les LLM

L'article compare le Model Context Protocol (MCP) et les compétences des agents AI, deux méthodes pour que les agents interactent avec des outils externes et accèdent à des connaissances spécifiques au domaine. Le MCP est un protocole open-source qui permet aux applications AI de se connecter à des systèmes externes comme des bases de données, des fichiers locaux, des API ou des outils spécialisés. Il offre des interactions structurées et fiables mais présente des limitations telles que la scalabilité des outils, la gestion des réponses volumineuses et des délais de latence dus aux appels réseau. Ces méthodes sont principalement destinées aux développeurs et nécessitent une configuration soigneuse pour des interactions efficaces avec des services externes.

UEL'impact concret pour la France/UE: Les entreprises européennes comme SAP et OVHcloud pourraient intégrer le Model Context Protocol (MCP) pour améliorer les interactions de leurs systèmes AI avec des bases de données et des outils spécialisés, assurant des échanges structurés et fiables entre les agents AI et les systèmes externes.

RechercheOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour