Zhipu AI présente GLM-OCR : un modèle multimodal OCR de 0,9 milliard pour le traitement de documents et l'extraction d'informations clés (KIE)
Zhipu AI présente GLM-OCR, un modèle multimodal compact de 0.9 milliards de paramètres pour la compréhension des documents, qui combine un encodeur visuel CogViT de 0.4 milliard, un connecteur léger intermodal et un décodeur linguistique GLM de 0.5 milliard. Le modèle utilise la prédiction de multi-token (MTP) pour améliorer le traitement (50%), adapté aux contraintes des déploiements sur le bord, et adopte une architecture en deux étapes pour analyser la structure documentaire avant la reconnaissance. GLM-OCR traite les tâches de parse document et d'extraction des informations clés (KIE) via des chemins d'output distincts, optimisant ainsi l'efficacité et la robustesse sur des documents complexes.
Zhipu AI's GLM-OCR modèle, développé par une entreprise chinoise mais exploitable par des acteurs européens comme OVHcloud ou SAP pour améliorer leurs propres solutions de traitement automatique du langage naturel et d'analyse documentaire, peut potentiellement renforcer la compétitivité des entreprises françaises et européennes dans les secteurs de l'informatique avancée et la gestion de données.