Aller au contenu principal
Mozilla lance cq : le projet qui veut permettre aux IA de partager leurs connaissances entre elles
OutilsNumerama6sem

Mozilla lance cq : le projet qui veut permettre aux IA de partager leurs connaissances entre elles

Résumé IASource uniqueImpact UE
Source originale ↗·

Mozilla franchit un nouveau cap dans l'écosystème de l'intelligence artificielle avec le lancement de cq, un projet open source conçu pour permettre aux agents IA de partager leurs connaissances entre eux. L'initiative, portée par un ingénieur de la fondation, part d'un constat simple mais frappant : chaque jour, des milliers d'agents IA résolvent les mêmes problèmes de façon isolée, sans capitaliser sur les apprentissages des uns et des autres.

L'enjeu est considérable pour l'industrie. À mesure que les agents autonomes prolifèrent dans les workflows professionnels et les outils grand public, leur incapacité à mutualiser leurs connaissances représente un gaspillage massif de ressources computationnelles et humaines. cq ambitionne de combler ce vide en créant une infrastructure commune où les solutions découvertes par un agent peuvent être réutilisées par d'autres, indépendamment de leur origine ou de leur architecture.

Le projet se positionne explicitement comme un successeur de Stack Overflow, la plateforme de partage de connaissances techniques qui, après avoir structuré la collaboration entre développeurs humains pendant quinze ans, connaît un déclin marqué depuis l'essor des LLMs. Là où Stack Overflow servait d'interface entre humains, cq vise à construire l'équivalent pour les machines — une base de connaissances interrogeable et enrichie en continu par les agents eux-mêmes.

La nature open source du projet laisse entrevoir une adoption communautaire potentiellement large, à condition que les acteurs majeurs du secteur — éditeurs d'agents, plateformes d'IA, entreprises tech — acceptent de jouer le jeu de l'interopérabilité. Le défi n'est pas seulement technique : il est aussi de gouvernance, car partager les connaissances entre agents implique de s'accorder sur des standards communs que l'industrie peine encore à définir.

Impact France/UE

Les développeurs européens pourraient bénéficier de cet outil open source pour réduire les redondances dans leurs pipelines d'agents IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir
1Le Big Data 

Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir

Mozilla a lancé en mars 2026 un projet open source baptisé cq, conçu pour créer une mémoire collective partagée entre agents IA. Inspiré du modèle de Stack Overflow, cq permet à chaque agent, avant de traiter un problème, d'interroger un espace commun appelé « cq commons » pour vérifier si une solution existe déjà. Les connaissances y sont stockées sous forme de « knowledge units » — des blocs décrivant un problème, sa solution et son contexte technique. Un système de confiance dynamique complète le dispositif : plus une solution est utilisée avec succès par différents agents, plus sa crédibilité augmente. Un proof of concept est d'ores et déjà disponible, avec des plugins pour Claude Code et OpenCode. L'enjeu dépasse le simple gain d'efficacité opérationnelle. Aujourd'hui, des millions d'agents IA résolvent les mêmes problèmes de manière indépendante, en consommant à chaque fois des tokens — ce qui se traduit par des coûts financiers et énergétiques significatifs. En mutualisant les solutions, cq pourrait réduire ces redondances à grande échelle pour les entreprises qui déploient des agents en continu. Plus profondément, le projet introduit un déplacement potentiel de la valeur dans l'écosystème IA : jusqu'ici, la puissance brute des modèles constituait l'avantage concurrentiel principal ; avec des systèmes comme cq, c'est l'accès à une base de connaissances partagée, fiable et enrichie en permanence qui pourrait devenir déterminant. Ce projet s'inscrit dans un contexte révélateur : le déclin de Stack Overflow, longtemps référence du partage de savoir technique. La plateforme est passée de 200 000 questions mensuelles à son apogée en 2014 à seulement 3 862 en décembre 2025, retombant à son niveau de lancement. Les développeurs interrogent désormais directement des IA, qui produisent des réponses instantanées mais éphémères — sans mémoire collective, sans capitalisation. Chaque erreur peut être résolue des milliers de fois sans jamais être retenue. Mozilla tente précisément de combler ce vide structurel en transposant la logique communautaire de Stack Overflow au monde des agents autonomes. Si cq parvient à s'imposer comme standard, il pourrait recomposer la manière dont l'intelligence artificielle apprend et progresse — non plus par modèle isolé, mais par accumulation collective d'expériences validées.

UELes entreprises françaises et européennes déployant des agents IA en continu pourraient réduire leurs coûts en tokens grâce à cette mutualisation open source, mais aucun impact réglementaire ou institutionnel direct.

OutilsOutil
1 source
AWS entre dans la course aux super-agents et lance sa propre version de Claude Cowork
2The Information AI 

AWS entre dans la course aux super-agents et lance sa propre version de Claude Cowork

Amazon Web Services a annoncé mardi le lancement d'Amazon Quick, une nouvelle application de bureau dédiée à ses agents IA. L'application tourne en arrière-plan sur l'ordinateur de l'utilisateur, lui permettant de continuer à travailler pendant que les agents automatisent des tâches comme la création de présentations, de documents ou d'images. Amazon Quick est proposée à partir de 20 dollars par mois et, fait notable, elle ne nécessite pas de compte AWS pour fonctionner. Les agents sont conçus pour interagir avec les fichiers locaux de l'utilisateur ainsi qu'avec des outils professionnels populaires : Google Workspace, Microsoft 365, Zoom et Salesforce. Ce lancement marque une nouvelle étape dans la course aux agents IA enterprise, un marché que tous les grands acteurs du cloud cherchent à conquérir. En rendant Amazon Quick accessible sans compte AWS, Amazon abaisse significativement la barrière à l'entrée pour les professionnels et les petites structures qui n'ont pas d'infrastructure cloud déjà en place. La capacité de déléguer des tâches bureautiques à des agents fonctionnant en parallèle représente un changement concret dans la productivité quotidienne, en particulier pour les équipes qui jonglent entre plusieurs plateformes collaboratives. AWS se retrouve cette semaine sous les feux des projecteurs pour une deuxième raison : le géant du cloud peut désormais proposer les modèles d'OpenAI à ses clients, après un changement dans le partenariat exclusif de longue date entre OpenAI et Microsoft. Pour AWS, la création d'une application enterprise à succès reste un objectif stratégique majeur, un défi que le groupe de Jeff Bezos cherche à relever depuis plusieurs années face à des concurrents comme Microsoft Copilot ou Google Workspace AI. Amazon Quick s'inscrit dans cette ambition, en ciblant directement l'utilisateur final plutôt que les équipes IT, avec une approche tarifaire simple et une intégration large des outils déjà en place dans les entreprises.

UELes professionnels et PME français peuvent désormais accéder à des agents IA bureautiques sans compte cloud préalable à 20 $/mois, abaissant la barrière d'entrée pour l'automatisation des tâches bureautiques dans les petites structures.

OutilsOutil
1 source
3MarkTechPost 

xAI lance des API autonomes de reconnaissance et synthèse vocale Grok pour les développeurs entreprise

xAI, la société d'intelligence artificielle d'Elon Musk, a lancé deux nouvelles API audio autonomes : une API de transcription vocale (Speech-to-Text) et une API de synthèse vocale (Text-to-Speech), toutes deux basées sur la même infrastructure qui alimente Grok Voice sur les applications mobiles, les véhicules Tesla et le support client Starlink. L'API STT est disponible dès maintenant, avec transcription en 25 langues, modes batch et temps réel, à des tarifs de 0,10 dollar par heure en batch et 0,20 dollar en streaming. L'API TTS, elle, est facturée 4,20 dollars par million de caractères, prend en charge 20 langues et propose cinq voix distinctes. Les deux API entrent directement en concurrence avec les acteurs établis du marché : ElevenLabs, Deepgram et AssemblyAI. Ces nouveaux outils s'adressent en priorité aux développeurs qui construisent des agents vocaux, des systèmes de transcription de réunions, des centres d'appels automatisés ou des fonctionnalités d'accessibilité. Sur le plan technique, l'API STT intègre des horodatages au niveau du mot, la diarisation des locuteurs (identification de qui parle à quel moment), le support de 12 formats audio et une normalisation intelligente du texte qui convertit automatiquement les formes orales en formats lisibles. L'API TTS se distingue par sa capacité à injecter des balises expressives dans le texte, comme [laugh], [sigh] ou des balises enveloppantes comme whisper et emphasis, permettant une synthèse vocale naturelle et nuancée, loin de la monotonie des systèmes classiques. Sur les benchmarks internes, xAI revendique un taux d'erreur de 5,0 % pour la reconnaissance d'entités sur appels téléphoniques, contre 12,0 % pour ElevenLabs, 13,5 % pour Deepgram et 21,3 % pour AssemblyAI. Ce lancement s'inscrit dans une stratégie d'expansion agressive de xAI, qui cherche à monétiser ses capacités audio au-delà de l'écosystème Grok et à conquérir un marché entreprise où la qualité de transcription et la latence sont des critères décisifs. Le marché des API vocales connaît une forte croissance portée par l'essor des agents IA conversationnels, des outils de réunion automatisés et des interfaces vocales embarquées. Si les performances annoncées se confirment en production, xAI dispose d'un avantage compétitif tangible face à des concurrents bien établis, mais les développeurs attendront des validations indépendantes avant de migrer leurs infrastructures critiques vers une plateforme encore jeune.

💬 Les chiffres du benchmark STT sont impressionnants, 5% d'erreur contre 21% pour AssemblyAI, bon, sur le papier. Le pricing est agressif et les features (diarisation, balises expressives) montrent qu'ils ont bossé le sujet sérieusement, pas juste un wrapper OpenAI Whisper habillé. Reste à voir si ça tient en prod sur des accents français ou du bruit ambiant réel, parce que les benchmarks internes de xAI, j'attends la validation communautaire avant de migrer quoi que ce soit.

OutilsOutil
1 source
Microsoft déploie Copilot Cowork plus largement et permet aux modèles d'IA de vérifier mutuellement leur travail
4The Decoder 

Microsoft déploie Copilot Cowork plus largement et permet aux modèles d'IA de vérifier mutuellement leur travail

Microsoft déploie plus largement « Cowork », une nouvelle fonctionnalité de Microsoft 365 Copilot capable de gérer des flux de travail complets de manière autonome. L'outil, annoncé lors d'un déploiement progressif auprès des utilisateurs entreprise, permet à l'assistant IA de prendre en charge des tâches de bout en bout — de la recherche à la rédaction — sans intervention humaine à chaque étape. Parallèlement, Microsoft introduit un mécanisme de vérification croisée où plusieurs modèles d'IA s'évaluent mutuellement, dans le cadre d'un nouvel outil de recherche intégré à la suite. Ce double mouvement marque une évolution significative dans la manière dont les outils de productivité intègrent l'IA générative. Jusqu'ici, Copilot intervenait principalement en assistance ponctuelle — suggérer, reformuler, résumer. Avec Cowork, la logique bascule vers l'autonomie : l'IA devient un collaborateur capable d'orchestrer un projet entier. La vérification inter-modèles, elle, vise à réduire les hallucinations et améliorer la fiabilité des réponses, un problème central pour les déploiements en entreprise où les erreurs ont des conséquences réelles. Microsoft s'inscrit dans une course effrénée entre les grandes plateformes pour transformer leurs suites professionnelles en environnements agentiques. Google avec Workspace, Salesforce avec Agentforce, ou encore Notion — tous misent sur des agents capables d'agir, pas seulement de répondre. Pour Microsoft, qui a investi massivement dans OpenAI et intégré Copilot dans l'ensemble de sa suite M365, Cowork représente la concrétisation de cette ambition : faire de l'IA un véritable membre de l'équipe plutôt qu'un simple assistant à la demande.

UEMicrosoft 365 étant massivement déployé dans les entreprises européennes, l'autonomisation accrue de Copilot soulève des questions de conformité et de supervision humaine au regard des exigences de l'AI Act pour les systèmes agentiques.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour