Aller au contenu principal

Dossier Cursor — page 2

60 articles · page 2 sur 2

Cursor, l'éditeur IA : valorisation 60 Md$, négociations SpaceX et Microsoft, rivalité avec Claude Code et place dans la guerre des outils de codage.

TinyFish AI lance une plateforme web complète pour agents autonomes : recherche, fetch, navigateur et agent sous une seule clé API
51MarkTechPost OutilsOutil

TinyFish AI lance une plateforme web complète pour agents autonomes : recherche, fetch, navigateur et agent sous une seule clé API

TinyFish AI, une startup basée à Palo Alto, a lancé ce mois-ci une plateforme d'infrastructure complète pour les agents IA opérant sur le web en temps réel. L'offre regroupe quatre produits sous une seule clé API et un système de crédits unifié : Web Agent, Web Search, Web Browser et Web Fetch. Web Search retourne des résultats structurés en JSON avec une latence médiane de 488 millisecondes, contre plus de 2 800 ms chez les concurrents. Web Browser fournit des sessions Chrome furtives via le protocole CDP avec un démarrage à froid inférieur à 250 ms, là où les alternatives prennent 5 à 10 secondes. Le module intègre 28 mécanismes anti-bot codés en C++, une approche bien plus difficile à détecter que l'injection JavaScript habituellement utilisée. Web Fetch convertit n'importe quelle URL en Markdown, HTML ou JSON propre, en éliminant les scripts, publicités et éléments de navigation superflus. Web Agent, lui, exécute des workflows autonomes en plusieurs étapes sur des sites réels, sans scripts manuels. Ce qui rend cette plateforme particulièrement pertinente pour les développeurs d'agents IA, c'est la façon dont elle résout un problème structurel : la pollution de la fenêtre de contexte. Lorsqu'un agent utilise un outil de fetch classique, il ingère la page entière, y compris des milliers de tokens de balisage inutile, avant d'atteindre le contenu utile. TinyFish affirme réduire ce coût de 87 % en mode CLI, passant d'environ 1 500 tokens par opération via MCP à seulement 100 tokens. L'architecture CLI écrit les résultats sur le système de fichiers plutôt que de les injecter directement dans le contexte, ce qui préserve la cohérence sur les tâches longues et permet la composition via les pipes Unix natifs. Sur des workflows complexes en plusieurs étapes, la société revendique un taux de complétion deux fois supérieur en mode CLI par rapport à une exécution via MCP. Jusqu'ici, les équipes qui construisaient des agents web devaient assembler plusieurs prestataires distincts pour la recherche, l'automatisation du navigateur et la récupération de contenu, ce qui introduisait de la friction et des points de défaillance multiples. TinyFish avait déjà livré un agent web standalone avant ce lancement, et s'appuie sur cette expérience pour proposer une intégration directe avec les principaux environnements de coding agents du marché, dont Claude Code, Cursor, Codex et OpenCode, via un fichier SKILL.md installable en une commande. Le CLI s'installe via npm avec npm install -g @tiny-fish/cli. Dans un secteur où les agents autonomes passent de la démonstration à la production, la capacité à interagir de façon fiable et rapide avec le web vivant devient une infrastructure critique, et TinyFish se positionne explicitement comme la couche sur laquelle ces agents doivent s'appuyer.

1 source
TinyFish lance une plateforme web complète pour agents IA : recherche, fetch, navigateur et agent sous une seule clé API
52MarkTechPost 

TinyFish lance une plateforme web complète pour agents IA : recherche, fetch, navigateur et agent sous une seule clé API

TinyFish, une startup basée à Palo Alto, vient de lancer une plateforme d'infrastructure complète destinée aux agents IA qui doivent interagir avec le web en temps réel. La société propose quatre produits unifiés sous une seule clé API et un système de crédits commun : Web Agent, Web Search, Web Browser et Web Fetch. Web Agent exécute des workflows autonomes en plusieurs étapes sur de vrais sites web, Web Search renvoie des résultats structurés en JSON avec une latence médiane de 488 ms, Web Browser fournit des sessions Chrome furtives avec un démarrage à froid inférieur à 250 ms, et Web Fetch convertit n'importe quelle URL en Markdown, HTML ou JSON propre en supprimant tout le balisage superflu. En parallèle, TinyFish publie un CLI installable via npm et un système de "Skills" qui apprend aux agents comme Claude Code, Cursor ou Codex à utiliser la plateforme sans intégration manuelle de SDK. Ce lancement s'attaque à un problème concret qui plombe les pipelines d'agents IA : la pollution du contexte. Quand un agent utilise un outil de fetch standard, il ingère la page entière, incluant des milliers de tokens de navigation, publicités et code CSS, avant d'atteindre le contenu utile. TinyFish réduit cette charge de 87 %, passant d'environ 1 500 tokens par opération via MCP à seulement 100 tokens via le CLI, grâce à une logique qui écrit les résultats sur le système de fichiers plutôt que de les injecter directement dans la fenêtre de contexte. Sur des tâches complexes en plusieurs étapes, la société rapporte un taux de complétion deux fois supérieur en CLI par rapport à l'exécution via MCP. Côté anti-détection, les 28 mécanismes anti-bot du navigateur sont implémentés au niveau C++, une approche nettement plus robuste que l'injection JavaScript utilisée par la plupart des concurrents, dont les temps de démarrage dépassent 5 à 10 secondes contre moins de 250 ms ici. Le contexte de ce lancement est celui d'un marché des outils pour agents IA en pleine fragmentation : les équipes devaient jusqu'ici assembler des solutions distinctes pour la recherche, l'automatisation de navigateur et la récupération de contenu, chacune avec ses clés, ses SDKs et ses limites. TinyFish parie sur la convergence sous une interface unifiée, une stratégie similaire à ce qu'ont fait des acteurs comme Browserbase ou Firecrawl sur des segments adjacents. En intégrant directement un système de Skills compatibles avec les principaux agents de codage du marché, la startup court-circuite la friction d'adoption qui freine habituellement ces outils. La prochaine étape probable sera l'expansion vers des cas d'usage d'automatisation enterprise, un segment où la capacité à opérer discrètement sur des sites protégés par des systèmes anti-bot représente un avantage compétitif significatif.

OutilsActu
1 source
MiniMax publie MMX-CLI, une interface en ligne de commande pour agents IA avec accès natif aux médias et à la recherche
53MarkTechPost 

MiniMax publie MMX-CLI, une interface en ligne de commande pour agents IA avec accès natif aux médias et à la recherche

MiniMax, la startup chinoise d'intelligence artificielle connue pour ses modèles multimodaux, a lancé MMX-CLI, une interface en ligne de commande open source qui donne aux développeurs et aux agents IA un accès direct à l'ensemble de la plateforme MiniMax : génération de texte, d'images, de vidéos, de voix, de musique, d'analyse visuelle et de recherche web. L'outil, écrit en TypeScript avec le runtime Bun, s'organise en sept groupes de commandes, mmx text, mmx image, mmx video, mmx speech, mmx music, mmx vision et mmx search, couvrant des cas d'usage allant du chat multi-tour en streaming jusqu'à la synthèse musicale avec contrôle du tempo, du BPM, de la tonalité et des instruments. La commande mmx speech propose plus de 30 voix et accepte jusqu'à 10 000 caractères, tandis que mmx video s'appuie par défaut sur le modèle MiniMax-Hailuo-2.3 et permet de générer une vidéo à partir d'une image de départ via le flag --first-frame. L'enjeu principal est de simplifier radicalement l'intégration des capacités multimodales dans les workflows des agents IA. Aujourd'hui, des outils comme Cursor, Claude Code ou OpenCode sont puissants pour manipuler du texte et du code, mais n'ont pas de chemin natif pour générer des médias sans passer par des couches d'intégration supplémentaires, wrappers d'API, configuration serveur, gestion d'authentification séparée, ou protocoles comme le Model Context Protocol (MCP). MMX-CLI contourne tout cela : un agent peut invoquer une commande shell comme n'importe quel outil terminal, sans glue MCP. Pour les équipes qui automatisent des pipelines de création de contenu, de localisation audio ou de production vidéo, cela représente une réduction concrète du coût d'intégration et du temps de développement. Ce lancement s'inscrit dans une tendance plus large où les fournisseurs de modèles cherchent à devenir des plateformes complètes plutôt que de simples API de texte. MiniMax, qui a levé des centaines de millions de dollars et positionne son stack "omni-modal" face aux offres de Google, OpenAI et ElevenLabs, mise sur l'outillage développeur comme levier d'adoption. En exposant ses modèles via une CLI standardisée compatible avec les grands environnements de développement assistés par IA, la société cherche à s'ancrer dans les workflows quotidiens des ingénieurs avant que des concurrents ne comblent le même manque. La prochaine étape probable est une adoption croissante dans les pipelines d'automatisation, content factories, doublage automatique, génération de supports marketing, où la combinaison texte-image-vidéo-voix en une seule interface représente un avantage opérationnel réel.

💬 Pas de wrapper MCP, pas de config serveur, juste une commande shell pour avoir du texte, de la vidéo, de la voix, de la musique : sur le papier, c'est exactement le raccourci qu'il me manquait dans mes pipelines. Si tu automatises de la prod de contenu multimédia, l'intégration devient triviale du coup. La vraie question c'est la qualité des modèles MiniMax face à ElevenLabs ou Hailuo en conditions réelles.

OutilsOutil
1 source
L’IA augmente la productivité des ingénieurs, mais ne les remplacera pas encore, selon le PDG de Salesforce
54Siècle Digital 

L’IA augmente la productivité des ingénieurs, mais ne les remplacera pas encore, selon le PDG de Salesforce

Marc Benioff, PDG de Salesforce, a pris position dans le débat sur l'avenir des développeurs logiciels à l'ère de l'IA générative. Sa réponse à ceux qui prédisent la disparition prochaine du métier d'ingénieur est directe : il suffit d'ouvrir les pages carrières de Meta, Google, Anthropic et OpenAI pour constater que ces entreprises, dont les modèles sont censés automatiser le code, continuent de recruter massivement des ingénieurs logiciels. Pour Benioff, ce signal de marché est plus éloquent que n'importe quel discours alarmiste. Son argument central est que l'IA augmente la productivité des ingénieurs sans les rendre obsolètes. Les outils de génération de code accélèrent certaines tâches répétitives, mais la conception architecturale, la résolution de problèmes complexes et la supervision des systèmes restent l'apanage des humains. Cette position tranche avec les déclarations de certains dirigeants tech qui évoquent des réductions d'effectifs liées à l'automatisation, comme Shopify ou Duolingo l'ont laissé entendre récemment. Le débat s'inscrit dans un contexte de tension croissante entre les promesses des grands modèles de langage et les réalités du marché du travail. D'un côté, des outils comme GitHub Copilot ou Cursor transforment concrètement le quotidien des développeurs. De l'autre, la demande de profils techniques qualifiés reste soutenue, notamment pour entraîner, affiner et maintenir ces mêmes modèles. La thèse de Benioff est que l'IA redéfinit le métier d'ingénieur plutôt qu'elle ne l'élimine, du moins pour les années à venir.

UELe débat sur l'avenir des ingénieurs logiciels face à l'IA concerne indirectement le marché européen, où la demande de profils techniques qualifiés reste soutenue malgré l'essor des outils de génération de code.

SociétéOpinion
1 source
Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux
55The Decoder 

Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux

Anthropic a publié une explication officielle pour répondre aux nombreuses plaintes d'utilisateurs de Claude Code qui voyaient leurs quotas s'épuiser beaucoup plus vite qu'attendu. Deux facteurs principaux sont en cause : des limitations renforcées aux heures de pointe, lorsque la demande sur les serveurs est la plus forte, et l'accumulation progressive du contexte au fil des sessions de travail, qui fait exploser la consommation de tokens sans que l'utilisateur s'en rende compte. Ce phénomène touche directement les développeurs qui utilisent Claude Code pour des tâches longues et itératives. Un contexte de conversation qui gonfle au fil des échanges peut consommer autant de tokens que plusieurs requêtes indépendantes, vidant rapidement les allocations mensuelles ou quotidiennes. Anthropic a accompagné ses explications de conseils pratiques pour limiter cette consommation, notamment en réinitialisant régulièrement le contexte. Cette clarification intervient alors que Claude Code connaît une adoption rapide parmi les équipes de développement, créant une pression croissante sur l'infrastructure d'Anthropic. La gestion des quotas reste un point sensible pour les abonnés professionnels, et la transparence de l'entreprise sur ce sujet vise à maintenir la confiance des utilisateurs les plus intensifs, dans un marché des assistants de code de plus en plus concurrentiel face à GitHub Copilot et Cursor.

UELes développeurs européens utilisant Claude Code sont directement concernés par ces limitations de quotas, qui peuvent impacter leur productivité et leur planification budgétaire.

OutilsActu
1 source
Anthropic reconnaît que son action DMCA contre les fuites a touché par erreur des forks GitHub légitimes
56Ars Technica AI 

Anthropic reconnaît que son action DMCA contre les fuites a touché par erreur des forks GitHub légitimes

Anthropic a lancé cette semaine une procédure DMCA auprès de GitHub pour faire retirer le code source de son client Claude Code, qui avait fuité récemment. La notice ciblait un dépôt initial publié par l'utilisateur GitHub "nirholas" ainsi qu'une centaine de forks spécifiquement nommés. Mais GitHub, estimant que "la majorité des forks enfreignaient les droits au même titre que le dépôt parent", a étendu le retrait à un réseau de 8 100 dépôts. Cette action a été depuis partiellement annulée. Le problème : cette suppression massive a touché de nombreux dépôts parfaitement légitimes, qui ne contenaient pas le code fuité mais forkaient simplement le dépôt public officiel de Claude Code qu'Anthropic maintient pour encourager les rapports de bugs et les contributions de la communauté. Des développeurs se sont exprimés sur les réseaux sociaux pour dénoncer leur inclusion dans ce filet DMCA alors qu'ils n'avaient partagé aucune donnée illicite. Au-delà du désagrément immédiat, l'incident illustre les limites des outils juridiques face à la viralité du code sur GitHub : une fois un dépôt forké des milliers de fois, toute tentative de suppression exhaustive devient presque impossible à cibler avec précision. Cette fuite s'inscrit dans un contexte de tension croissante autour de la propriété intellectuelle des outils d'IA. Claude Code est l'environnement de développement assisté d'Anthropic, concurrent direct de GitHub Copilot et des outils de Cursor. Que son code source circule librement représente un risque stratégique non négligeable pour la startup, valorisée à plusieurs milliards de dollars. L'épisode révèle aussi les effets de bord des procédures DMCA automatisées sur GitHub, où la logique de réseau des forks rend difficile toute chirurgie juridique fine. Anthropic reste confronté à un défi considérable pour limiter la propagation du code fuité, désormais largement distribué.

UEDes développeurs européens ayant forké le dépôt officiel de Claude Code ont vu leurs projets supprimés à tort, mais l'incident relève du droit américain (DMCA) sans implications réglementaires directes pour la France ou l'UE.

RégulationReglementation
1 source
J'ai créé deux applications sans clavier : les IDE sont-ils déjà obsolètes ?
57ZDNET AI 

J'ai créé deux applications sans clavier : les IDE sont-ils déjà obsolètes ?

Un développeur a mené à bien deux projets logiciels sérieux en utilisant uniquement sa voix et une souris, sans jamais toucher un clavier. Tenant son chien dans une main, il a piloté l'intégralité du processus de développement via des prompts dictés à un assistant IA, démontrant qu'il est désormais possible de produire du code fonctionnel et complexe sans les outils traditionnels du programmeur. Cette expérience soulève une question concrète pour l'industrie du développement : les environnements de développement intégrés (IDE) comme VS Code ou IntelliJ sont-ils en train de devenir obsolètes ? Si la voix et un modèle de langage suffisent à avancer sur des projets réels, le rôle du développeur se transforme en celui d'un architecte qui décrit et valide plutôt que d'un artisan qui frappe ligne par ligne. Cela ouvre également la voie à une accessibilité radicalement élargie pour les personnes en situation de handicap moteur. Cette démonstration s'inscrit dans une tendance de fond où des outils comme GitHub Copilot, Cursor ou Claude Code redéfinissent le flux de travail des ingénieurs logiciels. Alors que les modèles d'IA gagnent en capacité de raisonnement et de génération de code, la frontière entre "parler d'un programme" et "le construire" s'efface progressivement, forçant l'industrie à repenser ce que signifie vraiment "coder" en 2026.

OutilsOutil
1 source
Codex propose désormais une tarification plus flexible pour les équipes
58OpenAI Blog 

Codex propose désormais une tarification plus flexible pour les équipes

OpenAI a annoncé l'ajout d'une option de facturation à l'usage pour Codex, son agent de programmation, disponible désormais pour les abonnés ChatGPT Business et Enterprise. Ce modèle tarifaire vient compléter les formules d'abonnement existantes et permet aux équipes de ne payer que ce qu'elles consomment réellement, sans engagement forfaitaire fixe. Ce changement facilite concrètement l'adoption de Codex dans les entreprises qui hésitaient à s'engager sur un abonnement avant d'évaluer leur usage réel. Les équipes de développement peuvent désormais tester l'outil à petite échelle, mesurer le retour sur investissement, puis augmenter progressivement leur consommation sans friction tarifaire. C'est particulièrement pertinent pour les grandes organisations où les déploiements se font par étapes et nécessitent des validations budgétaires successives. Codex s'inscrit dans la stratégie d'OpenAI pour conquérir le marché des outils de développement, en concurrence directe avec GitHub Copilot (Microsoft), Cursor et Claude d'Anthropic. La tarification à l'usage est devenue un standard dans ce secteur, les entreprises préférant une corrélation directe entre coût et valeur produite. Cette flexibilité tarifaire devrait accélérer la pénétration de Codex dans les équipes techniques enterprise, segment où la friction à l'adoption reste le principal frein.

UELes équipes de développement européennes abonnées à ChatGPT Business ou Enterprise peuvent désormais adopter Codex sans engagement forfaitaire, réduisant la friction budgétaire pour les DSI soumis à des cycles de validation stricts.

OutilsOutil
1 source
Athena : représentations intermédiaires pour la génération itérative d'applications guidée par LLM
59Apple Machine Learning 

Athena : représentations intermédiaires pour la génération itérative d'applications guidée par LLM

Générer automatiquement le code d'une interface utilisateur complète à partir d'un grand modèle de langage (LLM) reste un défi technique majeur. Des chercheurs ont développé Athena, un système qui introduit des représentations intermédiaires pour décomposer et guider ce processus de génération de manière itérative. Le problème central est que les interfaces applicatives modernes sont constituées de multiples fichiers interdépendants — écrans, flux de navigation, modèles de données — dont la cohérence est difficile à maintenir dans une seule requête adressée à un LLM. La génération directe produit typiquement un fichier monolithique, peu lisible et difficile à maintenir. Athena change d'approche en introduisant une étape de structuration intermédiaire avant la génération finale du code. Plutôt que de demander à un LLM de tout produire en une seule passe, le système décompose la tâche en représentations abstraites qui servent d'échafaudage — d'où le terme "scaffolded generation". Cela permet au modèle de raisonner sur l'architecture de l'application avant d'écrire la moindre ligne de code, réduisant les incohérences entre composants. Cette recherche s'inscrit dans un mouvement plus large visant à rendre les LLMs réellement utilisables pour le développement logiciel complet, au-delà des simples snippets de code. Les outils actuels de génération de code — GitHub Copilot, Cursor, ou encore Claude — peinent encore à produire des applications entières et cohérentes. Athena propose une piste concrète pour franchir ce cap, en s'inspirant des pratiques de décomposition utilisées par les développeurs humains eux-mêmes. Les suites naturelles incluent l'intégration de ce type d'approche dans des environnements de développement intégrés et des agents de codage autonomes.

RecherchePaper
1 source
60Le Big Data 

Nvidia : son partenaire cloud Together AI discuterait d’une levée géante valorisée 7,5 milliards

Together AI, partenaire clé de Nvidia, serait en négociations pour lever 1 milliard de dollars, ce qui porterait sa valorisation à 7,5 milliards de dollars — plus du double de sa valorisation précédente. La startup a multiplié ses revenus annualisés par plus de trois en un an, passant d'environ 300 millions de dollars mi-2025 à 1 milliard de dollars aujourd'hui. Soutenue par General Catalyst, Kleiner Perkins, Nvidia et Prosperity7 Ventures, l'entreprise loue des GPU Nvidia pour les sous-louer à des clients comme Cursor, Decagon et Cartesia.

BusinessActu
1 source