Aller au contenu principal
Bluesky lance une application IA pour personnaliser votre fil d'actualité
OutilsThe Verge AI1h

Bluesky lance une application IA pour personnaliser votre fil d'actualité

1 source couvre ce sujet·Source originale ↗·

Bluesky a dévoilé Attie lors de la conférence Atmosphere, un assistant IA qui permet aux utilisateurs de construire leurs propres algorithmes de fil d'actualité en langage naturel. L'application a été présentée par l'ancienne PDG de Bluesky, Jay Graber, et le directeur technique Paul Frazee. Attie s'appuie sur Claude, le modèle d'Anthropic, et est construit sur l'AT Protocol (atproto), le protocole ouvert qui sous-tend l'ensemble de l'écosystème Bluesky. Concrètement, un utilisateur peut demander à Attie de lui composer un fil centré sur « le folklore, la mythologie et la musique traditionnelle, notamment les traditions celtiques » — et l'IA génère l'algorithme correspondant.

Pour l'instant, ces fils personnalisés sont limités à une application autonome Attie, mais l'équipe prévoit de les intégrer directement dans Bluesky et dans toutes les applications compatibles atproto. Ce changement donne aux utilisateurs un contrôle éditorial réel sur ce qu'ils voient, sans dépendre des choix opaques d'un algorithme centralisé imposé par la plateforme — une rupture directe avec le modèle de TikTok ou de X.

Cette annonce s'inscrit dans la montée en puissance de Bluesky comme alternative décentralisée aux grands réseaux sociaux, portée par la vague de départs de X depuis le rachat par Elon Musk. L'AT Protocol, conçu pour être ouvert et interopérable, devient ici un terrain d'expérimentation pour une nouvelle génération d'outils IA communautaires. Si Attie se déploie largement, il pourrait redéfinir la relation entre utilisateurs et algorithmes de recommandation à l'échelle d'un réseau social entier.

Impact France/UE

Bluesky étant très populaire en France suite aux migrations massives depuis X, Attie offre aux utilisateurs français un contrôle éditorial concret sur leur fil d'actualité sans dépendre d'algorithmes opaques imposés par la plateforme.

À lire aussi

Agent-Infra publie AIO Sandbox : un environnement tout-en-un pour agents IA avec navigateur, shell, système de fichiers partagé et MCP
1MarkTechPost 

Agent-Infra publie AIO Sandbox : un environnement tout-en-un pour agents IA avec navigateur, shell, système de fichiers partagé et MCP

Agent-Infra a publié AIO Sandbox, un environnement d'exécution open-source conçu pour les agents IA autonomes. Contrairement aux approches classiques qui nécessitent plusieurs conteneurs distincts — un pour le navigateur, un pour l'interpréteur de code, un pour le shell —, cette solution intègre dans un seul environnement Docker un navigateur Chromium pilotable via le protocole CDP (avec support Playwright), des runtimes Python et Node.js préconfigurés, un terminal Bash, un système de fichiers partagé, ainsi que des instances VSCode Server et Jupyter Notebook pour le débogage. Le projet est disponible sur GitHub et inclut des exemples de déploiement Kubernetes avec gestion des ressources CPU et mémoire. Ce qui rend cette infrastructure concrètement utile, c'est son système de fichiers unifié : un fichier téléchargé via le navigateur est immédiatement accessible au shell et à l'interpréteur Python, sans transfert manuel ni synchronisation entre services. Pour un agent qui doit, par exemple, récupérer un CSV depuis un portail web puis lancer un script de nettoyage de données, cela élimine toute la plomberie intermédiaire. Le projet intègre aussi nativement le Model Context Protocol (MCP), standard ouvert qui normalise la communication entre les LLMs et leurs outils : quatre serveurs MCP sont préconfigurés (navigateur, fichiers, shell, et Markitdown pour convertir des documents en Markdown optimisé pour les modèles). Cette standardisation permet aux développeurs d'exposer les capacités du sandbox à n'importe quel LLM compatible MCP via une API et un SDK. Le lancement d'AIO Sandbox illustre un glissement dans les défis du développement agentique : si les LLMs comme GPT-4o ou Claude sont désormais capables de planifier et générer du code complexe, c'est l'environnement d'exécution — isolé, fiable, outillé — qui devient le vrai goulot d'étranglement. Des acteurs comme Anthropic (avec son computer use), OpenAI (avec ses outils d'exécution de code), ou encore E2B proposent des solutions similaires, mais Agent-Infra parie sur une approche tout-en-un open-source, pensée pour le déploiement en entreprise à haute densité. La compatibilité Kubernetes et l'isolation par conteneur permettent de faire tourner de nombreux agents en parallèle sans qu'ils interfèrent avec le système hôte. Dans un écosystème où les frameworks agentiques comme LangChain, AutoGen ou CrewAI se multiplient, disposer d'une couche d'exécution standardisée et robuste devient un prérequis pour passer des prototypes aux déploiements en production.

OutilsOpinion
1 source
Google dévoile AppFunctions pour connecter les agents IA aux applications Android
2InfoQ AI 

Google dévoile AppFunctions pour connecter les agents IA aux applications Android

Google a dévoilé AppFunctions, une nouvelle fonctionnalité en bêta anticipée pour Android, conçue pour permettre aux agents d'intelligence artificielle d'interagir directement avec les applications installées sur l'appareil. L'initiative s'inscrit dans une vision que Google qualifie d'OS « agent-first » : plutôt que d'ouvrir des applications manuellement, l'utilisateur formule un objectif, et un agent IA orchestre les briques fonctionnelles exposées par les apps pour l'accomplir. Ce changement de paradigme redéfinit le rôle des applications mobiles : elles ne sont plus des interfaces autonomes, mais des fournisseurs de capacités que les assistants IA peuvent assembler à la demande. Concrètement, un utilisateur pourrait demander à son assistant de « réserver un restaurant et d'ajouter l'événement au calendrier » sans jamais toucher manuellement ces deux apps — l'agent s'en chargerait via leurs AppFunctions respectives. Pour les développeurs, cela implique d'exposer leurs fonctionnalités sous une nouvelle forme d'API destinée aux agents. Cette annonce s'inscrit dans la course que se livrent Apple, Google et Microsoft pour intégrer l'IA générative au cœur des systèmes d'exploitation. Apple a lancé Apple Intelligence avec des capacités similaires via les App Intents, tandis que Microsoft pousse Copilot dans Windows. Google, fort de son modèle Gemini, cherche à faire d'Android la plateforme de référence pour les agents autonomes sur mobile — un terrain stratégique alors que l'usage des LLM sur appareil progresse rapidement.

UELes développeurs européens d'applications Android devront exposer leurs fonctionnalités via AppFunctions pour rester compatibles avec les agents IA intégrés à Android.

OutilsActu
1 source
Microsoft lance un agent Azure Copilot pour accélérer la planification des migrations cloud
3InfoQ AI 

Microsoft lance un agent Azure Copilot pour accélérer la planification des migrations cloud

Microsoft a lancé l'Azure Copilot Migration Agent, un assistant IA intégré directement au portail Azure, destiné à accélérer la planification des migrations vers le cloud. L'outil automatise trois tâches clés : la découverte sans agent des environnements VMware, la planification de migration et la création de zones d'atterrissage (landing zones). Présenté comme disponible en général (GA), le service est en réalité toujours en préversion publique — une nuance importante que Microsoft n'a pas mise en avant. La promesse est de réduire significativement le temps consacré à la phase d'évaluation et de préparation, souvent la plus fastidieuse des projets de migration cloud. Pour les équipes IT gérant des parcs VMware importants, la découverte automatique des machines virtuelles sans installation d'agent représente un gain opérationnel réel. Cependant, l'outil ne peut pas exécuter les migrations lui-même : la réplication des données et le basculement (cutover) restent des opérations manuelles dans Azure Migrate, ce qui limite son périmètre à la planification seule. Ce lancement s'inscrit dans un contexte favorable à Microsoft : depuis le rachat de VMware par Broadcom en 2023 et la hausse brutale des licences qui a suivi, de nombreuses entreprises cherchent à migrer leurs workloads vers des alternatives cloud. Azure est l'un des principaux bénéficiaires de cet exode, aux côtés d'AWS et Google Cloud. En automatisant la phase de planification, Microsoft cherche à abaisser la barrière d'entrée et à accélérer les décisions de migration — tout en restant prudent sur ce qu'il promet réellement livrer à ce stade.

UELes entreprises françaises et européennes contraintes de quitter VMware suite aux hausses de licences Broadcom peuvent utiliser cet outil pour accélérer leur planification de migration vers Azure.

OutilsActu
1 source
Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte
4MarkTechPost 

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte

Chroma, l'entreprise derrière la base de données vectorielle open source du même nom, a lancé Context-1, un modèle de recherche agentique de 20 milliards de paramètres conçu pour résoudre l'un des problèmes les plus tenaces des systèmes RAG (Retrieval-Augmented Generation) modernes. Dérivé de l'architecture Mixture of Experts gpt-oss-20B et affiné par apprentissage supervisé combiné à du renforcement via CISPO, ce modèle ne joue pas le rôle d'un moteur de raisonnement généraliste : il agit comme un sous-agent de recherche ultra-spécialisé. Concrètement, face à une question complexe nécessitant plusieurs étapes de raisonnement, Context-1 décompose la requête en sous-questions ciblées, exécute des appels d'outils en parallèle — 2,56 appels en moyenne par tour — et parcourt itérativement un corpus documentaire via des outils comme searchcorpus (hybride BM25 + recherche dense), grepcorpus et readdocument, avant de transmettre les passages pertinents à un modèle frontier pour la réponse finale. L'innovation la plus significative de Context-1 est ce que Chroma appelle le "Self-Editing Context" : le modèle ne se contente pas de chercher, il gère activement sa propre fenêtre de contexte. Au fil de la recherche, les documents s'accumulent — beaucoup s'avèrent redondants ou hors sujet. Plutôt que de se noyer dans ce bruit, Context-1 a été entraîné avec une précision de pruning de 0,94 : il exécute proactivement une commande prunechunks pour éliminer les passages inutiles en cours de recherche. Ce mécanisme lui permet de maintenir une fenêtre de contexte de 32 000 tokens propre et efficace, là où les modèles généralistes "s'étranglent" sur des chaînes de raisonnement longues. Le découplage entre la logique de recherche — traditionnellement gérée par le développeur — et la génération de réponse représente un changement architectural majeur pour les équipes qui construisent des pipelines RAG en production. Pour entraîner et évaluer ce type de modèle, Chroma a également publié en open source son outil de génération de données synthétiques, context-1-data-gen. Ce pipeline produit des tâches multi-hop dans quatre domaines — recherche web, dépôts SEC (10-K, 20-F), brevets USPTO et corpus d'emails (Enron, fichiers Epstein) — selon un processus structuré en quatre étapes : Explorer, Vérifier, Distraire, Indexer. L'astuce centrale est l'injection de "distracteurs thématiques", des documents apparemment pertinents mais logiquement inutiles, qui forcent le modèle à raisonner plutôt qu'à faire du simple matching de mots-clés. Ce faisant, Chroma s'attaque à un angle mort bien connu des benchmarks statiques, et positionne Context-1 comme compétitif face à GPT-5 sur les tâches de recherche complexes — tout en étant nettement moins coûteux à faire tourner pour des volumes industriels.

OutilsOpinion
1 source