Aller au contenu principal
LLMsLatent Space2h

Marc Andreessen s'interroge sur la mort du navigateur, Pi + OpenClaw, et pourquoi cette fois c'est différent

1 source couvre ce sujet·Source originale ↗·
Marc Andreessen s'interroge sur la mort du navigateur, Pi + OpenClaw, et pourquoi cette fois c'est différent
▶ Voir sur YouTube

Marc Andreessen, cofondateur du fonds de capital-risque Andreessen Horowitz (a16z), qui vient de lever 15 milliards de dollars, s'est exprimé dans un épisode du podcast Latent Space enregistré dans les bureaux légendaires de Sand Hill Road. Face aux animateurs swyx et Alessio, il a développé sa thèse centrale : l'intelligence artificielle n'est pas un nouveau cycle de hype, mais l'aboutissement de quatre-vingts ans de progrès scientifique cumulé. Des réseaux de neurones des années 1980 aux systèmes experts, en passant par AlexNet en 2012 et les transformers, jusqu'aux modèles de raisonnement et aux agents autonomes d'aujourd'hui, Andreessen voit dans ce moment une convergence historique. Il a également mis en avant deux projets qu'il considère comme des percées architecturales majeures : Pi et OpenClaw, une combinaison de modèle de langage, shell Unix, système de fichiers, Markdown et boucle cron qu'il compare à l'invention d'Unix en termes d'importance pour l'industrie logicielle.

Pour Andreessen, ce qui distingue fondamentalement ce cycle des précédents, c'est le saut qualitatif entre les LLM classiques et les modèles de raisonnement capables de coder, d'agir de manière autonome et potentiellement de s'améliorer eux-mêmes de façon récursive. Il souligne que la vraie contrainte n'est plus technique mais institutionnelle : les organisations humaines, leurs incitations et leurs structures sociales peinent à absorber un changement aussi rapide. Sur la question des infrastructures, il nuance la comparaison avec la bulle des télécoms de 2000 : les acheteurs actuels de capacités IA sont des géants aux bilans solides, et la demande existe déjà. Il défend également l'importance de l'IA embarquée en local, citant la confidentialité, la confiance et l'économie comme facteurs structurels favorisant les modèles tournant sur Apple Silicon ou des puces dédiées.

Andreessen incarne une génération rare d'investisseurs ayant vécu de l'intérieur plusieurs révolutions technologiques : il a créé Mosaic, le premier navigateur web grand public, avant de cofonder Netscape et a16z. Son regard sur l'open source est particulièrement éclairant : il décrit DeepSeek comme "un cadeau au monde", non seulement parce que les modèles sont gratuits, mais parce qu'ils propagent la compréhension profonde de ces systèmes à l'échelle planétaire. Il anticipe également une refonte du rapport humain-machine sur internet, estimant que la détection des bots est désormais un problème insoluble par voie algorithmique seule, et que seule une preuve cryptographique et biométrique d'identité humaine permettra de rétablir la confiance en ligne. Ses prises de position, portées par l'un des fonds les plus influents de la Silicon Valley, façonnent directement les priorités d'investissement de tout un écosystème.

À lire aussi

101net 

Google dévoile 4 IA qui peuvent tourner sur votre smartphone ou votre ordinateur, sans Internet

Google a présenté Gemma 4, sa nouvelle famille de quatre modèles d'intelligence artificielle en open source, conçus pour fonctionner directement sur des appareils grand public, smartphones et ordinateurs, sans nécessiter de connexion internet. Ces quatre variantes, pensées pour des usages et des capacités de calcul différents, sont accessibles librement aux développeurs et aux entreprises souhaitant les intégrer dans leurs propres applications. L'enjeu est considérable pour les utilisateurs : faire tourner une IA en local signifie que les données ne quittent plus l'appareil, ce qui renforce la confidentialité et supprime la dépendance aux serveurs distants. Pour les développeurs, c'est aussi la possibilité de déployer des applications IA fonctionnelles dans des environnements sans connectivité stable, ce qui ouvre des marchés entiers, du secteur médical aux zones rurales. Google entre ainsi en compétition directe sur le segment des modèles légers et open source, un terrain jusqu'ici dominé par des acteurs comme DeepSeek, le laboratoire chinois qui avait surpris l'industrie début 2025 avec des modèles très performants à faible coût, et Qwen d'Alibaba. La course aux modèles embarqués s'intensifie, chaque acteur cherchant à s'imposer comme standard dans les écosystèmes locaux avant que le marché ne se cristallise.

UELes développeurs et entreprises européennes peuvent intégrer Gemma 4 en local, facilitant la conformité RGPD en évitant tout transfert de données vers des serveurs tiers.

💬 Gemma 4, c'est Google qui arrive enfin sur un terrain où DeepSeek et Qwen s'installaient tranquillement depuis un an. Quatre modèles open source qui tournent en local, donc tes données restent sur ta machine, ce qui change vraiment la donne pour tout ce qui touche à la santé ou à la conformité RGPD. La question maintenant, c'est qui va s'imposer comme standard avant que le marché se fige, et là Google part avec un avantage de distribution qu'aucun labo chinois n'a.

LLMsActu
1 source
2Le Big Data 

OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 »

Brad Lightcap, directeur des opérations d'OpenAI, a déclaré début avril 2026 que les modèles d'IA actuels, y compris GPT-5.4, paraîtront dépassés d'ici la fin de l'année. Cette affirmation intervient alors que GPT-5.4, lancé il y a quelques jours à peine, affiche déjà un rythme de revenus annualisé d'un milliard de dollars et traite environ 5 000 milliards de tokens par jour. En l'espace de quelques semaines, OpenAI a enchaîné les versions GPT-5.1, 5.2, 5.3 puis 5.4, chacune apportant des gains significatifs sans attendre les longs cycles de recherche et de déploiement qui caractérisaient autrefois le secteur. GPT-5.4 s'est imposé comme le moteur principal des API d'OpenAI presque instantanément, et intègre une capacité nouvelle : le modèle décide lui-même s'il doit raisonner en profondeur ou répondre directement, sans que l'utilisateur ait à choisir un mode particulier. Des améliorations concrètes sont déjà visibles en écriture, en génération de code et dans des secteurs exigeants comme la santé. Ce rythme d'itération inédit transforme en profondeur la manière dont les entreprises et les développeurs adoptent l'IA. Un modèle sorti depuis quelques jours peut déjà devenir dominant à l'échelle mondiale, ce qui compresse les cycles d'adoption et rend obsolètes les intégrations à peine finalisées. Pour les équipes techniques qui s'appuient sur les API d'OpenAI, cela signifie une mise à jour permanente des pratiques et des outils. Le phénomène fonctionne comme un effet boule de neige : plus un modèle est performant, plus il est adopté dans des usages critiques comme le développement logiciel ou l'analyse de données, ce qui génère des revenus permettant de financer le cycle suivant encore plus vite. La barre de ce qui constitue un outil "avancé" se déplace en permanence, rendant les standards d'aujourd'hui potentiellement minimaux demain. Cette dynamique s'inscrit dans une évolution structurelle du secteur. Pendant des années, les progrès en IA se mesuraient en recherche académique publiée et en grands modèles sortis annuellement. Depuis GPT-4, puis o1, puis la série GPT-5, OpenAI a progressivement réduit la durée des cycles d'entraînement et de déploiement. La déclaration de Lightcap marque une accélération supplémentaire : les améliorations ne sont plus linéaires mais exponentielles, chaque génération servant de base accélérée à la suivante. Si cette projection se confirme, les concurrents — Google DeepMind, Anthropic, Meta — devront soutenir un rythme similaire pour rester compétitifs, ce qui soulève des questions sur les ressources de calcul nécessaires et sur la capacité des organisations à intégrer des outils qui évoluent plus vite qu'elles ne peuvent se les approprier.

UELes équipes techniques européennes utilisant les API OpenAI doivent adapter en permanence leurs intégrations face à un rythme d'itération qui rend obsolètes les outils à peine déployés.

LLMsOpinion
1 source
3AI Business 

Google lance la famille de modèles ouverts Gemma 4

Google a lancé Gemma 4, une nouvelle famille de modèles d'IA open source conçue pour le raisonnement avancé et les capacités multimodales. Héritière de la série Gemma, cette offre s'inscrit dans la stratégie de Google DeepMind de proposer des modèles accessibles aux développeurs et chercheurs, utilisables localement ou dans le cloud. La famille comprend plusieurs variantes de tailles différentes, adaptées à des usages allant des appareils mobiles aux serveurs de production. L'arrivée de Gemma 4 renforce l'arsenal open source disponible pour les équipes techniques qui ne veulent pas dépendre exclusivement de modèles propriétaires via API. Les capacités multimodales — traitement combiné de texte et d'images — ouvrent la voie à des applications concrètes dans l'analyse documentaire, la vision par ordinateur et les assistants enrichis. Pour les entreprises soucieuses de confidentialité ou de coûts d'inférence, un modèle performant déployable en local représente un avantage opérationnel direct. Google s'inscrit ainsi dans une compétition ouverte avec Meta (LLaMA), Mistral et d'autres acteurs qui misent sur l'open source pour gagner l'adhésion des développeurs. La série Gemma, lancée début 2024, avait déjà rencontré un accueil favorable grâce à ses performances compétitives à taille réduite. Avec Gemma 4, Google cherche à consolider sa position dans cet écosystème, alors que le débat entre modèles ouverts et fermés reste central dans l'industrie de l'IA.

UELes équipes techniques et entreprises européennes disposent d'une nouvelle famille open source déployable en local, réduisant la dépendance aux APIs propriétaires et facilitant la conformité RGPD.

4Numerama 

Combien de tokens me reste-t-il ? La question que Claude n’arrivera peut-être jamais à résoudre

Anthropic fait face depuis plusieurs semaines à des tensions croissantes autour de la gestion des quotas de tokens de Claude, son assistant IA. Les limites d'utilisation, qui déterminent combien de messages un utilisateur peut envoyer avant d'être temporairement bloqué, sont devenues imprévisibles : certains abonnés payants se retrouvent bridés sans avertissement clair, incapables de savoir combien de capacité il leur reste. L'entreprise américaine a reconnu le problème et procède à des ajustements à chaud, sans pour autant fournir de calendrier précis pour une solution pérenne. Le problème touche en priorité les utilisateurs professionnels et les développeurs qui intègrent Claude dans leurs flux de travail quotidiens. Pour eux, une limite opaque n'est pas un simple désagrément : c'est une rupture de service qui bloque des projets, force des migrations vers des alternatives et érode la confiance dans la plateforme. L'impossibilité de mesurer sa consommation en temps réel empêche toute planification, ce qui tranche avec les standards attendus d'un outil B2B. Cette situation illustre la tension structurelle à laquelle Anthropic est confrontée : le succès fulgurant de Claude dépasse la capacité d'infrastructure de l'entreprise à absorber la demande sans frictions. Anthropic, qui a levé plusieurs milliards de dollars ces dernières années, investit massivement dans ses capacités de calcul, mais la montée en charge reste un défi en temps réel. Dans un secteur où OpenAI, Google et Meta se disputent les mêmes utilisateurs, chaque friction devient un argument commercial pour la concurrence.

UELes abonnés et développeurs européens intégrant Claude dans leurs flux de travail sont directement affectés par ces limitations opaques, sans visibilité sur leur consommation ni calendrier de résolution annoncé.

LLMsOpinion
1 source