Aller au contenu principal
OutilsVentureBeat AI23min

Perceptron Mk1 présente un modèle d'analyse vidéo très performant, 80 à 90 % moins cher qu'Anthropic, OpenAI et Google

Résumé IASource uniqueImpact UE
Source originale ↗·

La startup américaine Perceptron Inc. a lancé ce mois-ci son modèle d'analyse vidéo par intelligence artificielle, baptisé Mk1 (pour "Mark One"), à un prix qui bouleverse les standards du marché : 0,15 dollar par million de tokens en entrée et 1,50 dollar par million en sortie via son API. Ces tarifs représentent une réduction de 80 à 90 % par rapport aux principaux concurrents propriétaires, soit Claude Sonnet 4.5 d'Anthropic, GPT-5 d'OpenAI et Gemini 3.1 Pro de Google, ce dernier étant facturé autour de 3 dollars le million de tokens en coût combiné. Fondée il y a deux ans et pilotée par Armen Aghajanyan, ex-chercheur chez Meta FAIR et Microsoft, l'entreprise a consacré seize mois à développer une architecture multimodale conçue de zéro pour comprendre le monde physique. Sur les benchmarks de référence, Mk1 atteint 85,1 sur EmbSpatialBench, devançant le modèle Robotics-ER 1.5 de Google (78,4), et signe 72,4 sur RefSpatialBench contre seulement 9,0 pour GPT-5m et 2,2 pour Sonnet 4.5. Sur VSI-Bench, dédié au raisonnement temporel vidéo, Mk1 enregistre 88,5, le meilleur score parmi tous les modèles comparés.

Ce positionnement ouvre concrètement l'analyse vidéo avancée à des usages industriels à grande échelle, jusqu'ici freinés par les coûts. Des secteurs comme la sécurité physique, la production de contenu marketing, la recherche comportementale ou le contrôle qualité en fabrication peuvent désormais envisager un déploiement massif sans budget prohibitif. La capacité du modèle à traiter des flux vidéo natifs à 2 images par seconde sur une fenêtre de contexte de 32 000 tokens, tout en maintenant la continuité temporelle des objets entre les frames, représente un bond technique par rapport aux modèles de vision classiques qui traitent la vidéo comme une succession d'images fixes déconnectées.

L'analyse vidéo par IA reste aujourd'hui une niche technique dominée par quelques acteurs disposant de ressources considérables. Perceptron s'inscrit dans une tendance plus large où des startups spécialisées cherchent à attaquer des segments précis du marché des modèles fondamentaux, en ciblant ce que l'entreprise appelle la "frontière d'efficience", soit le rapport optimal entre performance et coût. Face à des géants comme Google, OpenAI et Anthropic qui développent des modèles généralistes onéreux, cette approche verticale centrée sur la compréhension du monde physique, incluant la causalité, la dynamique des objets et les lois de la physique, constitue un pari stratégique distinct. Une démo publique est disponible pour tester le modèle, et l'entreprise vise clairement les contrats enterprise à fort volume plutôt que la recherche exploratoire.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google et Meta s'empressent de développer des agents IA personnels pendant qu'Anthropic et OpenAI creusent l'écart
1The Decoder 

Google et Meta s'empressent de développer des agents IA personnels pendant qu'Anthropic et OpenAI creusent l'écart

Google et Meta testent en interne de nouveaux agents d'IA personnels, baptisés respectivement "Remy" et "Hatch", conçus pour gérer des tâches quotidiennes de manière autonome. Ces projets sont une réponse directe à l'avance prise par Anthropic et OpenAI sur le marché des assistants intelligents. Pour concentrer ses ressources sur cette nouvelle priorité, Google a abandonné Mariner, son projet d'agent navigateur web, qui était pourtant en développement actif. Ce changement de cap illustre une transformation profonde dans la manière dont les géants technologiques conçoivent l'IA utilitaire. L'industrie délaisse les agents qui opèrent via un navigateur pour privilégier des assistants intégrés directement dans les outils du quotidien : messagerie, calendrier, plateformes d'achat. Pour les utilisateurs finaux, cela signifie des assistants capables d'agir dans leur environnement numérique réel, sans friction d'interface. Pour les entreprises, l'enjeu est de capturer un point d'entrée stratégique dans la vie numérique des utilisateurs. La course aux agents personnels s'intensifie dans un contexte où Anthropic, avec Claude, et OpenAI, avec ses offres GPT et Operator, ont pris une longueur d'avance sur l'expérience agentique. Google et Meta, malgré leurs ressources considérables, se retrouvent en position de rattrapage. Les prochains mois seront déterminants : les deux groupes devront décider s'ils misent sur leurs écosystèmes existants (Gmail, Google Agenda, WhatsApp, Instagram) pour différencier leurs agents, ou s'ils cherchent à concurrencer frontalement sur des cas d'usage génériques.

UELes agents personnels de Google et Meta s'appuieront sur des écosystèmes (Gmail, WhatsApp) massivement utilisés en Europe, soulevant des enjeux de conformité RGPD et de dépendance numérique pour les utilisateurs et entreprises européennes.

OutilsOutil
1 source
Google Vids monte en puissance : les modèles IA les plus récents pour créer une vidéo en un clic
2Siècle Digital 

Google Vids monte en puissance : les modèles IA les plus récents pour créer une vidéo en un clic

Google a annoncé une mise à jour majeure de Google Vids, son outil de création vidéo intégré à Google Workspace, en déployant ses modèles d'intelligence artificielle les plus récents. La plateforme intègre désormais Veo 3.1, capable de générer des clips vidéo en 720p à partir d'une simple description textuelle. L'outil propose également la composition musicale automatique, la personnalisation d'avatars animés, la capture d'écran intégrée et une création de bout en bout à partir d'une idée initiale. Pour les entreprises et les équipes qui produisent du contenu régulièrement, cette mise à jour réduit considérablement le temps et les compétences techniques nécessaires à la production vidéo. Là où il fallait auparavant un outil de montage, des assets sonores et un opérateur formé, Google Vids promet de compresser ce workflow en quelques clics. La cible est clairement professionnelle : présentations internes, formations, communications corporate, ou contenus marketing légers, sans passer par une agence ou un logiciel spécialisé. Google positionne Vids comme le pendant vidéo de Google Slides dans l'écosystème Workspace, capitalisant sur sa base d'utilisateurs enterprise déjà captive. La montée en puissance de Veo, son modèle vidéo génératif, s'inscrit dans une compétition directe avec Sora d'OpenAI et Runway. En intégrant ces capacités directement dans Workspace plutôt qu'en produit autonome, Google mise sur l'effet d'adoption naturelle, là où ses concurrents doivent convaincre les utilisateurs de changer d'outil. La question reste de savoir si la qualité des rendus sera suffisante pour des usages professionnels exigeants.

UEGoogle Workspace étant massivement déployé dans les entreprises françaises et européennes, cette mise à jour impacte directement les équipes qui produisent du contenu vidéo dans cet écosystème.

OutilsOutil
1 source
Guide de programmation pour créer des pipelines avancés d'analyse de documents avec Google LangExtract, OpenAI et visualisation interactive
3MarkTechPost 

Guide de programmation pour créer des pipelines avancés d'analyse de documents avec Google LangExtract, OpenAI et visualisation interactive

Google a publié LangExtract, une bibliothèque Python conçue pour transformer des documents textuels non structurés en données exploitables par machine, en s'appuyant sur les modèles de langage d'OpenAI. L'outil s'intègre directement avec l'API OpenAI, notamment le modèle gpt-4o-mini, et permet d'analyser une large variété de documents : contrats juridiques, comptes-rendus de réunion, annonces produits ou journaux d'opérations. Le pipeline d'extraction repose sur des prompts configurables et des exemples annotés fournis par le développeur, à partir desquels LangExtract identifie des entités, des obligations, des délais, des risques ou des clauses spécifiques, tout en ancrant chaque résultat à sa position exacte dans le texte source via des intervalles de caractères. Les sorties sont générées en double format : JSONL pour le traitement programmatique, et HTML interactif pour la visualisation directe dans un environnement notebook. L'intérêt concret de LangExtract réside dans sa capacité à industrialiser l'analyse documentaire sans infrastructure lourde. Là où la lecture manuelle de centaines de contrats ou de rapports mobilise des équipes entières, un pipeline LangExtract peut extraire automatiquement les parties contractantes, les conditions de paiement, les pénalités ou les clauses de résiliation, et les organiser en tableaux Pandas directement exploitables pour des workflows d'automatisation ou des systèmes décisionnels. Pour les équipes juridiques, financières ou opérationnelles, cela représente un gain de temps considérable et une réduction des erreurs humaines sur des tâches répétitives à fort enjeu. La bibliothèque supporte également le traitement parallèle via un paramètre max_workers, ce qui rend l'approche viable à l'échelle. LangExtract s'inscrit dans une tendance plus large d'outillage autour des LLM pour l'extraction d'information structurée, un domaine en pleine expansion depuis que les modèles de fondation ont démontré leur capacité à comprendre des textes complexes. Google positionne ici un outil de niveau intermédiaire : plus accessible que de coder une chaîne d'extraction LLM from scratch, mais plus flexible que les solutions no-code. La dépendance à l'API OpenAI (et donc à gpt-4o-mini ou ses successeurs) implique des coûts variables selon le volume de documents traités, ce qui constitue une limite pour les déploiements à très grande échelle. La prochaine évolution attendue de ce type d'outil serait la compatibilité avec des modèles open-source locaux comme Ollama, afin de supprimer cette dépendance externe et de traiter des documents sensibles sans sortir les données du périmètre de l'entreprise.

OutilsOutil
1 source
4The Verge AI 

Google Gemini peut désormais répondre à vos questions avec des modèles 3D et des simulations

Google a dévoilé une nouvelle fonctionnalité pour son assistant Gemini permettant de générer des modèles 3D interactifs et des simulations en réponse aux questions des utilisateurs. Concrètement, lorsqu'un utilisateur pose une question sur un phénomène physique ou scientifique, Gemini peut désormais produire une représentation tridimensionnelle animée, accompagnée de commandes permettant de la manipuler en temps réel : rotation du modèle, curseurs pour ajuster des paramètres, boutons pour mettre en pause ou masquer certains éléments visuels. Lors d'un test rapporté par The Verge, un utilisateur a demandé une simulation de la Lune orbitant autour de la Terre, et Gemini a généré un modèle 3D complet avec un curseur pour contrôler la vitesse de l'orbite, une option pour masquer la trajectoire et un bouton de pause. Cette évolution représente un changement notable dans la façon dont les IA conversationnelles transmettent l'information. Plutôt que de se limiter à du texte ou des images statiques, Gemini ouvre la voie à une pédagogie interactive, particulièrement utile pour l'enseignement des sciences, de la physique ou de l'astronomie. Les enseignants, étudiants et professionnels pourront explorer des concepts complexes de manière intuitive, sans recourir à des logiciels spécialisés. Cette fonctionnalité s'inscrit dans la course que se livrent les grands acteurs de l'IA générative pour différencier leurs produits au-delà du simple chat textuel. Google, qui fait face à une concurrence intense d'OpenAI et d'Anthropic, cherche à positionner Gemini comme un assistant multimodal de référence. La capacité à produire des visualisations dynamiques et paramétrables pourrait devenir un avantage décisif, notamment dans les secteurs éducatif et scientifique.

UELes utilisateurs européens de Gemini peuvent dès maintenant exploiter cette fonctionnalité pour l'enseignement scientifique et la vulgarisation, sans nécessiter de logiciels spécialisés.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour