Aller au contenu principal
Standard Intelligence surfe sur l'engouement Neolab avec un modèle Computer Use
BusinessThe Information AI1h

Standard Intelligence surfe sur l'engouement Neolab avec un modèle Computer Use

Résumé IASource uniqueImpact UE
Source originale ↗·

Il y a deux mois, des passants du quartier South Park à San Francisco ont aperçu quelque chose d'inhabituel : un Toyota Rav4 circulant dans les rues avec un ordinateur portable posé sur le tableau de bord. La machine tournait un nouveau type de modèle d'IA appelé "computer use model", développé par Standard Intelligence, une startup de deux ans à peine. Ce modèle est capable d'opérer un ordinateur pour accomplir une gamme de tâches variées : tester un site bancaire, supprimer des spams ou, comme le montrait cette démonstration, piloter un véhicule. La startup vient d'annoncer une levée de fonds de 75 millions de dollars à une valorisation de 500 millions de dollars, menée par Sequoia Capital et Spark Capital, selon des informations révélées en exclusivité par The Information.

Ce financement représente plus de seize fois la valorisation obtenue lors de son tour de table initial fin 2024, signe d'un intérêt fulgurant pour cette catégorie de modèles. Là où les agents IA traditionnels peinent à interagir avec un environnement visuel et physique, les "computer use models" promettent de contrôler directement des interfaces graphiques, sans nécessiter d'API ou d'intégration spécifique. L'application automobile démontrée par Standard Intelligence illustre un niveau d'autonomie que la plupart des systèmes concurrents ne peuvent pas atteindre, ce qui positionne la startup dans un segment à fort potentiel industriel.

Standard Intelligence se distingue notamment par son approche des données d'entraînement : contrairement aux modèles classiques qui s'appuient massivement sur du texte, la startup repense la nature même des données utilisées pour apprendre à interagir avec un ordinateur. Ce changement de paradigme s'inscrit dans une vague plus large d'intérêt pour les agents capables d'agir dans le monde réel, une tendance surnommée "neolab fervor" dans les cercles tech. Avec Sequoia et Spark Capital à bord, et une valorisation qui explose en quelques mois, Standard Intelligence devient l'une des entreprises à suivre dans la course aux agents IA autonomes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Reinforcement learning vs LLM, INEFFABLE INTELLIGENCE lève 937 millions d’euros
1FrenchWeb 

Reinforcement learning vs LLM, INEFFABLE INTELLIGENCE lève 937 millions d’euros

La startup Ineffable Intelligence vient de boucler un tour de financement Seed de 937 millions d'euros, une levée de fonds qui propulse immédiatement l'entreprise au rang des opérations les plus importantes jamais réalisées à ce stade de développement en Europe. La valorisation atteinte dépasse plusieurs licornes établies, faisant de ce tour un événement sans précédent dans l'histoire du capital-risque continental. La société se positionne sur l'intelligence artificielle fondée sur le reinforcement learning, une approche distincte des grands modèles de langage (LLM) qui dominent actuellement le marché. Ce choix technologique n'est pas anodin : le reinforcement learning permet d'entraîner des systèmes capables d'apprendre par l'expérience et l'optimisation d'objectifs, plutôt que par la simple prédiction de tokens comme le font les LLM. Pour les investisseurs, parier sur cette voie alternative signifie anticiper les limites des architectures actuelles de type GPT et miser sur une nouvelle génération d'agents autonomes plus robustes. L'ampleur de la mise témoigne d'une conviction forte que cette direction peut concurrencer frontalement les géants américains de l'IA. Ce tour s'inscrit dans un mouvement plus large de structuration de l'écosystème IA européen, dont AMI Labs constitue un autre exemple récent de montées en puissance accélérées. Les investisseurs institutionnels semblent disposés à rompre avec les conventions habituelles du capital-risque, où les Seed rounds se comptent en dizaines de millions. Ineffable Intelligence devra désormais démontrer que des fondamentaux techniques solides justifient une telle valorisation dès l'amorçage, dans un secteur où la course aux ressources de calcul et aux talents reste impitoyable.

UEUne startup européenne boucle le plus grand tour Seed jamais réalisé sur le continent (937 M€), positionnant l'écosystème IA européen comme concurrent potentiel des géants américains dès le stade de l'amorçage.

💬 937 millions en Seed, c'est pas un tour de table, c'est une déclaration de guerre aux labos américains. Le pari sur le RL plutôt que les LLM est intéressant, parce que tout le monde commence à voir le plafond des architectures GPT, même si personne ne le dit trop fort. Reste que justifier cette valorisation avant d'avoir une ligne de prod, ça va être le vrai test.

BusinessOpinion
1 source
Comment les entreprises profitent de l’usage dissimulé de l’intelligence artificielle au travail
2Le Monde Pixels 

Comment les entreprises profitent de l’usage dissimulé de l’intelligence artificielle au travail

Dans la plupart des grandes entreprises, l'intelligence artificielle s'est d'abord installée par la petite porte : des salariés ont adopté en catimini des outils comme ChatGPT ou Copilot, souvent sans autorisation de leur hiérarchie. Ce phénomène, baptisé « shadow AI », s'est généralisé au point que certaines études estiment que plus de la moitié des employés utilisent des outils d'IA non approuvés dans leur travail quotidien, à l'insu de leur employeur. Plutôt que de sanctionner ces pratiques, un nombre croissant de directions choisissent désormais de les récupérer à leur avantage. En observant quels outils s'imposent spontanément, les entreprises identifient les cas d'usage les plus pertinents et les salariés les plus avancés — des données précieuses pour piloter leur propre stratégie d'adoption de l'IA. Ce retournement transforme une zone de risque (fuite de données, violation de licences) en un laboratoire d'innovation involontaire. Ce basculement révèle une tension structurelle dans la transformation numérique des organisations : les politiques officielles peinent à suivre le rythme d'adoption réel des technologies. Après des années de gouvernance restrictive sur le BYOD et les outils cloud non validés, les entreprises semblent tirer les leçons du passé en optant pour une intégration encadrée plutôt qu'une interdiction inapplicable. La question des données sensibles transmises à des modèles externes reste néanmoins un angle mort majeur.

UELes entreprises européennes confrontées au shadow AI doivent adapter leur gouvernance IA en tenant compte des obligations RGPD sur la transmission de données sensibles à des modèles externes.

BusinessOpinion
1 source
Google et le Pentagone discutent d'un accord IA classifié, l'entreprise renouant avec le secteur militaire
3The Information AI 

Google et le Pentagone discutent d'un accord IA classifié, l'entreprise renouant avec le secteur militaire

Google est en négociation avec le Département de la Défense américain pour un accord qui permettrait au Pentagone de déployer les modèles d'intelligence artificielle Gemini dans des environnements classifiés. L'information, révélée par deux personnes ayant une connaissance directe des discussions, indique que les deux parties envisagent un contrat autorisant l'utilisation de l'IA de Google pour l'ensemble des usages légaux au sein des forces armées américaines. Selon l'une de ces sources, Google aurait proposé d'inclure dans le contrat des clauses restrictives visant à empêcher que ses modèles soient utilisés pour de la surveillance de masse intérieure ou pour des systèmes d'armes autonomes, notamment le ciblage, sans supervision humaine "appropriée". Cet accord marquerait un tournant majeur dans la relation entre Google et le secteur militaire. L'entreprise deviendrait un contractant technologique significatif du Pentagone, avec un accès potentiel à des infrastructures classifiées, un niveau d'engagement rarement atteint dans l'industrie tech civile. Pour l'armée américaine, intégrer Gemini dans des environnements sécurisés ouvrirait la voie à des capacités d'analyse, de traitement du renseignement et de prise de décision assistée par IA à une échelle et une vitesse sans précédent. Les garde-fous proposés par Google, bien que symboliquement importants, restent formulés de façon vague, notamment autour de la notion de contrôle humain "approprié", ce qui laisse une marge d'interprétation considérable. Ce rapprochement s'inscrit dans un renversement de position spectaculaire pour Google. En 2018, face à une fronde interne massive de ses employés, l'entreprise avait abandonné le projet Maven, un contrat avec le Pentagone portant sur l'analyse d'images de drones par IA, et s'était engagée à ne pas développer d'IA à usage militaire offensif. Depuis, la concurrence acharnée avec Microsoft, qui fournit déjà des services cloud et d'IA à l'armée via Azure et ses partenariats avec OpenAI, ainsi que la pression des actionnaires ont poussé Google à reconsidérer cette posture. La course aux contrats gouvernementaux dans le domaine de l'IA est désormais un enjeu stratégique majeur pour l'ensemble des grandes entreprises technologiques américaines.

UECe rapprochement militaro-technologique américain pourrait accélérer les débats européens sur la souveraineté technologique et l'encadrement de l'IA dans la défense.

BusinessActu
1 source
Anthropic expose accidentellement le code source de Claude Code via un fichier npm
4InfoQ AI 

Anthropic expose accidentellement le code source de Claude Code via un fichier npm

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code en incluant un fichier de source map dans la version 2.1.88 du paquet npm, publiée récemment. Ce fichier, normalement réservé au débogage, contenait la totalité du code TypeScript original -- soit environ 512 000 lignes -- qui était pourtant censé rester compilé et opaque. En quelques heures, des développeurs ont archivé le code sur GitHub, le rendant publiquement accessible. Anthropic a confirmé l'incident, le qualifiant d'erreur humaine lors du processus de packaging. La fuite a mis en lumière des éléments sensibles que l'entreprise n'avait pas encore annoncés : des fonctionnalités inédites, des noms de code internes pour ses modèles, ainsi que l'architecture de son système d'orchestration multi-agents. Ces informations constituent une mine de renseignements concurrentiels pour des acteurs comme OpenAI, Google DeepMind ou Meta, qui cherchent à comprendre les orientations techniques d'Anthropic. Pour les développeurs utilisant Claude Code au quotidien, la fuite offre un aperçu rare du fonctionnement interne d'un outil commercial de premier plan. Cet incident illustre la tension croissante entre la volonté des laboratoires d'IA de protéger leur propriété intellectuelle et les risques opérationnels inhérents à la distribution de logiciels via des registres publics comme npm. Anthropic, valorisé à plusieurs dizaines de milliards de dollars, mise largement sur Claude Code pour concurrencer GitHub Copilot et les outils de Cursor dans le segment des assistants de développement. L'entreprise devra désormais renforcer ses processus de publication pour éviter que de telles erreurs ne se reproduisent, d'autant que la course aux agents de codage s'intensifie.

BusinessActu
1 source