Aller au contenu principal
RechercheMarkTechPost2j

Nouvelle méthodologie de Google AI : 'Groundsource', qui utilise le modèle Gemini pour convertir les données brutes des actualités mondiales non structurées en informations historiques exploitables

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Google AI présente Groundsource, une nouvelle méthodologie exploitant le modèle Gemini pour extraire des données historiques structurées à partir de rapports de nouvelles publiques non structurées. Ce projet vise à combler le manque de données historiques sur les catastrophes naturelles rapides, en fournissant un ensemble de données open-source contenant 2,6 millions d'événements d'inondations urbaines historiques dans plus de 150 pays. Cette initiative répond au besoin crucial de données historiques pour améliorer les systèmes d'alerte précoce face à des événements comme les crues soudaines, qui causent environ 85% des décès liés aux inondations selon la World Meteorological Organization. Les ensembles de données satellites existants sont limités par la couverture nuageuse, les cycles de passage des satellites et un biais vers des événements prolongés, rendant insuffisantes pour entraîner des modèles prédictifs à grande échelle. Groundsource utilise un pipeline qui traite des décennies de rapports de nouvelles locales pour synthétiser une base historique, employant le modèle de langage Gemini pour l'extraction d'entités et une cartographie géospatiale pour assigner des coordonnées et des limites polygones précises. Cette méthode a permis de créer un ensemble de données hautement structuré, exploitable par des modèles d'IA, pour prédire les risques d'inondations urbaines soudaines jusqu'à 24 heures à l'avance, contribuant à réduire les dommages potentiels.

Articles similaires

1The Decoder14h

Les agents RL passent du plantage au parkour en multipliant les couches du réseau

Des chercheurs ont obtenu des gains de performance de 2x à 50x en augmentant la profondeur des réseaux de neurones jusqu'à 1 024 couches dans un agent d'apprentissage par renforcement auto-supervisé, alors que la plupart des algorithmes n'utilisent que 2 à 5 couches. Cette mise à l'échelle en profondeur a non seulement amélioré les performances, mais a aussi fait émerger des comportements entièrement nouveaux — les agents passant de chutes répétées à des mouvements de parkour fluides.

RecherchePaper
1 source
201net16h

« On passe de la peste au choléra » : l’IA française Simone AI dénonce les pratiques de WhatsApp (Meta)

Jérémy André, fondateur de Simone AI, critique Meta pour avoir réouvert WhatsApp aux chatbots IA tiers, mais imposé des tarifs jugés exagérés. Simone AI, dépendant de WhatsApp, espère une intervention de l'autorité européenne antitrust.

UESimone AI, une entreprise française, sollicite une action de l'autorité européenne antitrust contre Meta pour des pratiques tarifaires jugées excessives après la réouverture de WhatsApp aux chatbots IA tiers.

RechercheOpinion
1 source
3MarkTechPost17h

Zhipu AI présente GLM-OCR : un modèle multimodal OCR de 0,9 milliard pour le traitement de documents et l'extraction d'informations clés (KIE)

Zhipu AI présente GLM-OCR, un modèle multimodal compact de 0.9 milliards de paramètres pour la compréhension des documents, qui combine un encodeur visuel CogViT de 0.4 milliard, un connecteur léger intermodal et un décodeur linguistique GLM de 0.5 milliard. Le modèle utilise la prédiction de multi-token (MTP) pour améliorer le traitement (50%), adapté aux contraintes des déploiements sur le bord, et adopte une architecture en deux étapes pour analyser la structure documentaire avant la reconnaissance. GLM-OCR traite les tâches de parse document et d'extraction des informations clés (KIE) via des chemins d'output distincts, optimisant ainsi l'efficacité et la robustesse sur des documents complexes.

UEZhipu AI's GLM-OCR modèle, développé par une entreprise chinoise mais exploitable par des acteurs européens comme OVHcloud ou SAP pour améliorer leurs propres solutions de traitement automatique du langage naturel et d'analyse documentaire, peut potentiellement renforcer la compétitivité des entreprises françaises et européennes dans les secteurs de l'informatique avancée et la gestion de données.

RechercheOutil
1 source