Aller au contenu principal
Adieu Safari sur l’iPhone : on l’a remplacé par Comet, le navigateur IA de Perplexity
Outils01net2h

Adieu Safari sur l’iPhone : on l’a remplacé par Comet, le navigateur IA de Perplexity

1 source couvre ce sujet·Source originale ↗·

Perplexity a lancé Comet, son navigateur dopé à l'intelligence artificielle, sur iPhone, étendant ainsi une offre jusqu'ici réservée aux ordinateurs de bureau. Le navigateur intègre directement le moteur de recherche conversationnel de Perplexity au cœur de l'expérience de navigation, permettant de poser des questions sur n'importe quelle page web sans quitter le navigateur ni ouvrir un onglet séparé.

L'enjeu est de taille : Comet cible directement Safari, le navigateur par défaut d'Apple qui domine massivement l'usage sur iPhone. En proposant une alternative où l'IA répond aux questions contextuelles en temps réel, Perplexity parie que les utilisateurs sont prêts à abandonner un outil qu'ils n'ont jamais vraiment choisi. Sur mobile, la promesse prend un sens particulier : chercher de l'information en déplacement est un cas d'usage quotidien pour des centaines de millions de personnes.

Perplexity s'inscrit dans une course plus large où plusieurs acteurs — dont OpenAI avec son propre navigateur annoncé, et Google avec Chrome intégrant Gemini — tentent de faire du navigateur le nouveau point d'entrée de l'IA générative. Pour la startup valorisée à plusieurs milliards de dollars, conquérir l'iPhone représente un test grandeur nature de sa capacité à s'imposer face aux géants déjà installés sur ce territoire.

À lire aussi

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte
1MarkTechPost 

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte

Chroma, l'entreprise derrière la base de données vectorielle open source du même nom, a lancé Context-1, un modèle de recherche agentique de 20 milliards de paramètres conçu pour résoudre l'un des problèmes les plus tenaces des systèmes RAG (Retrieval-Augmented Generation) modernes. Dérivé de l'architecture Mixture of Experts gpt-oss-20B et affiné par apprentissage supervisé combiné à du renforcement via CISPO, ce modèle ne joue pas le rôle d'un moteur de raisonnement généraliste : il agit comme un sous-agent de recherche ultra-spécialisé. Concrètement, face à une question complexe nécessitant plusieurs étapes de raisonnement, Context-1 décompose la requête en sous-questions ciblées, exécute des appels d'outils en parallèle — 2,56 appels en moyenne par tour — et parcourt itérativement un corpus documentaire via des outils comme searchcorpus (hybride BM25 + recherche dense), grepcorpus et readdocument, avant de transmettre les passages pertinents à un modèle frontier pour la réponse finale. L'innovation la plus significative de Context-1 est ce que Chroma appelle le "Self-Editing Context" : le modèle ne se contente pas de chercher, il gère activement sa propre fenêtre de contexte. Au fil de la recherche, les documents s'accumulent — beaucoup s'avèrent redondants ou hors sujet. Plutôt que de se noyer dans ce bruit, Context-1 a été entraîné avec une précision de pruning de 0,94 : il exécute proactivement une commande prunechunks pour éliminer les passages inutiles en cours de recherche. Ce mécanisme lui permet de maintenir une fenêtre de contexte de 32 000 tokens propre et efficace, là où les modèles généralistes "s'étranglent" sur des chaînes de raisonnement longues. Le découplage entre la logique de recherche — traditionnellement gérée par le développeur — et la génération de réponse représente un changement architectural majeur pour les équipes qui construisent des pipelines RAG en production. Pour entraîner et évaluer ce type de modèle, Chroma a également publié en open source son outil de génération de données synthétiques, context-1-data-gen. Ce pipeline produit des tâches multi-hop dans quatre domaines — recherche web, dépôts SEC (10-K, 20-F), brevets USPTO et corpus d'emails (Enron, fichiers Epstein) — selon un processus structuré en quatre étapes : Explorer, Vérifier, Distraire, Indexer. L'astuce centrale est l'injection de "distracteurs thématiques", des documents apparemment pertinents mais logiquement inutiles, qui forcent le modèle à raisonner plutôt qu'à faire du simple matching de mots-clés. Ce faisant, Chroma s'attaque à un angle mort bien connu des benchmarks statiques, et positionne Context-1 comme compétitif face à GPT-5 sur les tâches de recherche complexes — tout en étant nettement moins coûteux à faire tourner pour des volumes industriels.

OutilsOpinion
1 source
Google-Agent et Googlebot : Google trace la frontière technique entre accès IA déclenché par l'utilisateur et exploration pour la recherche
2MarkTechPost 

Google-Agent et Googlebot : Google trace la frontière technique entre accès IA déclenché par l'utilisateur et exploration pour la recherche

Google a officiellement documenté un nouvel agent technique qui apparaît dans les logs des serveurs web : Google-Agent. Contrairement à Googlebot, le crawler historique qui parcourt le web de façon autonome pour alimenter l'index de recherche, Google-Agent est déclenché uniquement lorsqu'un utilisateur interagit avec un produit IA de Google — comme AI Overviews ou Gemini — et demande à accéder à un contenu spécifique. Ce fetcher ne suit pas les liens, ne découvre pas de nouvelles pages de son propre chef : il se comporte comme un proxy humain, récupérant une URL précise à la demande. Son User-Agent se présente sous la forme d'une chaîne mobile Chrome standard avec la mention (compatible; Google-Agent) en suffixe, et dans certains cas simplement le token Google-Agent. La distinction technique la plus importante concerne le fichier robots.txt : Google-Agent l'ignore délibérément. La logique avancée par Google est que la requête étant initiée par un humain, le fetcher se rapproche davantage d'un navigateur que d'un crawler automatisé. Concrètement, cela signifie que les développeurs ne peuvent plus compter sur robots.txt pour protéger du contenu sensible ou restreindre l'accès aux outils IA de Google. Seuls des mécanismes d'authentification classiques ou des permissions serveur côté back-end permettent de contrôler ces accès. Par ailleurs, les adresses IP sources de Google-Agent ne suivent pas les plages prévisibles des crawlers de recherche — Google recommande de croiser les requêtes avec ses plages IP publiées en JSON pour valider leur légitimité et éviter des faux positifs dans les WAF ou systèmes de rate-limiting. Cette évolution s'inscrit dans la transformation profonde de la façon dont Google consomme le web. Pendant des décennies, la relation entre les sites et Google reposait sur un modèle d'indexation périodique, géré via robots.txt et les budgets de crawl. L'essor des produits IA conversationnels change cette dynamique : le trafic de Google-Agent sera désormais corrélé à la popularité du contenu auprès des utilisateurs IA, et non aux cycles d'indexation. Pour les équipes infra, cela implique de revoir les règles de traitement des bots dans les firewalls applicatifs, sous peine de bloquer involontairement des utilisateurs Google. Pour les éditeurs, cela pose une question de fond sur le contrôle de l'accès au contenu à l'ère des agents IA, alors que le modèle économique du web — basé sur les clics et les visites directes — est déjà fragilisé par les réponses générées directement dans les interfaces Google.

UELes éditeurs web français et européens doivent revoir leurs dispositifs de contrôle d'accès (authentification, permissions serveur) car robots.txt ne protège plus contre les agents IA de Google, soulevant des questions de souveraineté sur le contenu à l'heure de l'AI Act.

OutilsOpinion
1 source
Guide complet du pipeline d'agents nanobot : outils, mémoire, sous-agents et planification cron
3MarkTechPost 

Guide complet du pipeline d'agents nanobot : outils, mémoire, sous-agents et planification cron

Le framework nanobot, développé par le laboratoire HKUDS de l'Université de Hong Kong, s'impose comme l'une des solutions les plus légères pour construire des agents IA personnels complets. Rédigé en environ 4 000 lignes de Python, il embarque l'ensemble du pipeline agent : boucle de raisonnement, exécution d'outils, persistance mémoire, chargement de compétences (skills), gestion de sessions, délégation à des sous-agents et planification via cron. Un tutoriel publié récemment propose d'en reconstruire chaque sous-système à la main, en utilisant le modèle gpt-4o-mini d'OpenAI comme moteur LLM, afin de comprendre précisément leur fonctionnement plutôt que de simplement les utiliser en boîte noire. Le tutoriel progresse étape par étape : depuis une simple boucle d'appel d'outil jusqu'à un pipeline de recherche multi-étapes capable de lire et d'écrire des fichiers, de stocker des mémoires à long terme, et de déléguer des tâches à des agents parallèles fonctionnant en arrière-plan. Ce type de ressource pédagogique a une valeur pratique immédiate pour les développeurs qui souhaitent construire des agents IA sans dépendre de frameworks lourds comme LangChain ou AutoGen, dont la complexité et l'opacité sont souvent citées comme obstacles à la maintenance et à la compréhension. Nanobot mise sur la lisibilité du code source pour permettre aux équipes techniques de personnaliser chaque composant : outils sur mesure, architectures d'agents propres, logiques de scheduling adaptées. Pour un développeur solo ou une petite équipe, pouvoir déployer un agent personnel — capable d'effectuer des recherches, de mémoriser des contextes entre sessions et de lancer des tâches planifiées — en s'appuyant sur moins de 5 000 lignes de code auditables représente un changement d'échelle significatif. Nanobot s'inscrit dans une tendance plus large de miniaturisation des frameworks agentiques, portée par la maturité croissante des API LLM et la volonté de réduire la dette technique dans les projets IA. Alors que les grandes plateformes comme OpenAI ou Anthropic poussent leurs propres solutions d'orchestration, des projets open source légers comme nanobot, smolagents (HuggingFace) ou DSPy cherchent à garder le contrôle dans les mains des développeurs. HKUDS, connu pour ses travaux sur les systèmes de recommandation et les graphes de connaissances, confirme ici une diversification vers l'ingénierie agentique appliquée. Les prochaines évolutions du framework pourraient intégrer une compatibilité multi-modèles élargie, notamment vers les LLM open source via Ollama, et un système de partage de skills entre utilisateurs.

OutilsTuto
1 source
Passer de ChatGPT à Claude : comment transférer vos souvenirs
4ZDNET AI 

Passer de ChatGPT à Claude : comment transférer vos souvenirs

Anthropic a lancé une nouvelle fonctionnalité pour Claude qui permet aux utilisateurs d'importer leurs souvenirs et préférences depuis d'autres assistants IA, notamment ChatGPT, afin de faciliter la transition vers son propre service. Concrètement, les utilisateurs peuvent exporter leurs données de mémoire depuis ChatGPT et les injecter dans Claude, qui reconstruit alors un profil personnalisé à partir de ces informations pour adapter ses réponses aux habitudes de chaque utilisateur. Cette capacité d'interopérabilité réduit le principal frein au changement de plateforme : la perte de contexte accumulé. Les utilisateurs qui ont passé des mois à affiner les préférences de leur assistant IA n'ont plus à recommencer à zéro, ce qui rend la concurrence entre les acteurs du marché plus dynamique et force chacun à se différencier sur la qualité plutôt que sur l'effet de verrouillage. La course à la rétention des utilisateurs s'intensifie entre Anthropic et OpenAI, qui dominent tous deux le marché des assistants IA grand public. OpenAI avait introduit la mémoire persistante pour ChatGPT Plus en 2024, et Anthropic développe depuis ses propres mécanismes de personnalisation. Cette migration facilitée pourrait accélérer les transferts d'utilisateurs vers Claude au moment où Anthropic cherche à élargir sa base, notamment après le succès de Claude 3.5 Sonnet et les investissements massifs levés pour tenir tête à OpenAI et Google.

UELes utilisateurs français et européens de ChatGPT peuvent désormais migrer vers Claude sans perdre leur contexte personnalisé accumulé.

💬 C'est le genre de feature qui semble anodine mais qui change tout dans la vraie vie. Passer d'un assistant à l'autre en gardant son contexte, ça lève le seul vrai frein que j'entendais partout, ce truc de "ouais mais j'ai tout paramétré dans ChatGPT". Reste à voir si la reconstruction du profil est fidèle, ou si Claude interprète les données à sa façon et te sort un alter ego légèrement différent de celui que t'avais construit.

OutilsOutil
1 source