Aller au contenu principal
Ce chatbot axé sur la confidentialité gagne du terrain — voici pourquoi et comment l'essayer
OutilsZDNET AI4h

Ce chatbot axé sur la confidentialité gagne du terrain — voici pourquoi et comment l'essayer

1 source couvre ce sujet·Source originale ↗·

Duck.ai, le service de chatbot lancé par DuckDuckGo, connaît une montée en popularité significative parmi les utilisateurs soucieux de leur vie privée. Proposant un accès gratuit à plusieurs modèles d'IA — dont GPT-4o mini d'OpenAI, Claude d'Anthropic et Llama de Meta — la plateforme se distingue par une promesse forte : aucune conversation n'est stockée, aucune donnée n'est utilisée pour entraîner les modèles, et les échanges sont anonymisés avant d'être transmis aux fournisseurs tiers.

L'attrait de Duck.ai répond à une préoccupation croissante autour de la collecte de données par les grandes plateformes d'IA. Contrairement à ChatGPT ou Gemini, qui peuvent utiliser les conversations pour améliorer leurs modèles sauf opt-out explicite, Duck.ai intègre la protection de la vie privée par défaut. Pour les professionnels, journalistes ou particuliers qui échangent des informations sensibles, cette garantie représente une différence substantielle dans le choix de leur outil quotidien.

Ce succès s'inscrit dans un contexte de méfiance grandissante envers les géants de la tech après plusieurs controverses liées à la gestion des données personnelles par des services d'IA. DuckDuckGo, moteur de recherche fondé en 2008 sur le principe du non-pistage, capitalise ici sur une réputation établie de longue date. Avec l'intensification du débat réglementaire en Europe autour du RGPD appliqué à l'IA générative, des alternatives axées sur la confidentialité pourraient continuer à gagner du terrain face aux acteurs dominants.

Impact France/UE

Dans un contexte de renforcement du RGPD appliqué à l'IA générative, Duck.ai représente une alternative conforme par défaut pour les professionnels et particuliers européens qui échangent des données sensibles via des chatbots.

À lire aussi

Les 4 derniers métiers qui résisteront à l'IA dans la tech
1Latent Space 

Les 4 derniers métiers qui résisteront à l'IA dans la tech

L'intelligence artificielle est en train de remodeler en profondeur les organigrammes des entreprises technologiques. Yoni Rechtman, dans sa newsletter 99D, propose un cadre conceptuel pour penser les nouveaux rôles post-IA dans le travail en col blanc, que Karri Saarinen, PDG de Linear, a popularisé en l'analogisant aux rôles de jeu d'équipe apparus dans World of Warcraft. Cette semaine a aussi été marquée par plusieurs avancées majeures côté outils : Anthropic a intégré l'utilisation de l'ordinateur (computer use) directement dans Claude Code, permettant à l'agent d'ouvrir des applications, de cliquer dans des interfaces et de tester ce qu'il vient de construire depuis la ligne de commande — une fonctionnalité en préversion pour les abonnés Pro et Max. Parallèlement, OpenAI a publié un plugin Codex pour Claude Code, capable de déclencher des revues de code, des contre-analyses adversariales et des flux de "sauvetage" depuis l'outillage d'Anthropic, en utilisant un abonnement ChatGPT. OpenAI a également révélé que les tâches Codex lancées vers 23h ont 60 % de chances de durer plus de trois heures, confirmant la tendance à déléguer refactorisations et planifications à des agents en arrière-plan. Ces évolutions ont des conséquences très concrètes sur la façon dont les équipes de développement travaillent. L'intégration de computer use dans Claude Code ferme la boucle entre l'écriture du code, son exécution et la vérification visuelle de l'interface — ce que plusieurs ingénieurs décrivent comme la pièce manquante pour une itération fiable sur les applications. Le fait qu'OpenAI et Anthropic rendent leurs outils interopérables via un plugin standard signale que les stacks de développement évoluent vers des architectures composables plutôt que des produits monolithiques. Par ailleurs, Theo a démontré qu'Opus obtient environ 20 % de meilleures performances dans Cursor que dans Claude Code, soulignant que la qualité du harness — l'environnement d'exécution et d'orchestration — est désormais une variable de premier ordre, parfois plus déterminante que les capacités intrinsèques du modèle lui-même. Dans l'écosystème open source, Nous Research a publié une mise à jour majeure de Hermes Agent qui a provoqué une vague de migrations depuis des configurations concurrentes. Les nouveaux profils multi-agents permettent à chaque bot de disposer de sa propre mémoire, de ses compétences et de son historique, transformant Hermes d'un assistant personnel en une abstraction de système d'exploitation pour agents. Autour de ce noyau se construit un écosystème : opentraces.ai propose un flux CLI pour publier des traces d'agents sur Hugging Face à des fins d'évaluation et de fine-tuning ; d'autres projets permettent aux agents de journaliser leurs décisions, de se fine-tuner sur leur propre historique et de basculer vers des modèles moins coûteux. La bataille entre infrastructure d'agents ouverte et propriétaire s'intensifie, avec des acteurs comme Clément Delangue d'Hugging Face qui prennent position publiquement dans ce débat structurant pour l'avenir du secteur.

UEClément Delangue d'Hugging Face (entreprise française) s'implique publiquement dans le débat structurant sur l'infrastructure d'agents ouverte vs propriétaire, un enjeu direct pour la souveraineté numérique européenne.

OutilsOutil
1 source
Microsoft lance de nouvelles améliorations de Copilot combinant les modèles Anthropic et OpenAI
2The Information AI 

Microsoft lance de nouvelles améliorations de Copilot combinant les modèles Anthropic et OpenAI

Microsoft a dévoilé lundi de nouvelles fonctionnalités pour son logiciel 365 Copilot, intégrant simultanément les modèles d'intelligence artificielle d'OpenAI et d'Anthropic pour automatiser les tâches dans ses applications Office et Teams. Parmi les nouveautés, une fonction baptisée « Critique » combine les deux fournisseurs de manière séquentielle : les modèles d'OpenAI compilent d'abord une recherche sur un sujet donné, puis les modèles d'Anthropic (Claude) analysent et critiquent ce résultat pour en améliorer la qualité finale. Microsoft a également annoncé des améliorations à la mémoire de Copilot et à ses capacités d'agents autonomes. Cette intégration multi-modèles marque un tournant dans la stratégie de Microsoft : plutôt que de s'appuyer exclusivement sur son partenaire historique OpenAI — dans lequel il a investi plus de 13 milliards de dollars —, l'entreprise orchestre désormais plusieurs LLMs en fonction de leurs forces respectives. Pour les quelque 400 millions d'utilisateurs de la suite Microsoft 365, cela se traduit par des assistants plus fiables capables d'auto-corriger leurs propres sorties. Ce virage reflète une tendance de fond dans l'industrie : les grandes entreprises adoptent des architectures « multi-modèles » pour optimiser coût, performance et résilience. Microsoft, qui distribue aussi les modèles d'Anthropic via Azure, se positionne en orchestrateur neutre plutôt qu'en champion exclusif d'OpenAI. La relation entre les deux entreprises reste étroite, mais la dépendance s'allège — un signal fort à l'heure où Google, Meta et Amazon renforcent également leurs propres offres d'IA en entreprise.

UELes entreprises françaises et européennes équipées de Microsoft 365 bénéficieront directement des nouvelles capacités Copilot multi-modèles, sans surcoût ni migration requise.

OutilsOutil
1 source
Microsoft intègre de nouvelles capacités d'IA dans Copilot Researcher
3AI Business 

Microsoft intègre de nouvelles capacités d'IA dans Copilot Researcher

Microsoft a annoncé de nouvelles fonctionnalités pour Copilot Researcher, son outil de recherche approfondie intégré à Microsoft 365 Copilot, avec pour objectif d'améliorer la précision et la fiabilité des résultats dans les environnements professionnels. Ces mises à jour ciblent directement les flux de travail en entreprise, où l'exactitude des informations produites par l'IA est un enjeu critique. Pour les organisations déjà abonnées à Microsoft 365 Copilot, ces améliorations signifient que l'outil peut désormais mieux gérer des requêtes complexes nécessitant plusieurs étapes de raisonnement et de synthèse. La fiabilité accrue réduit le risque d'hallucinations ou de réponses imprécises, un point de friction majeur qui freinait l'adoption de l'IA générative dans des contextes professionnels sensibles. Copilot Researcher avait été lancé début 2025 en s'appuyant sur les capacités de recherche approfondie développées par OpenAI, dans le cadre du partenariat stratégique entre les deux entreprises. Microsoft cherche à consolider sa position face à la concurrence de Google avec Gemini for Workspace et de Salesforce avec Agentforce, en faisant de la fiabilité son principal argument de différenciation auprès des entreprises hésitant encore à intégrer l'IA dans leurs processus décisionnels.

UELes entreprises européennes abonnées à Microsoft 365 Copilot peuvent tirer parti d'une fiabilité accrue pour leurs flux de travail sensibles, réduisant le frein à l'adoption lié aux hallucinations.

OutilsOutil
1 source
Llama.cpp intègre Google TurboQuant : quels gains pour votre PC ou Mac ?
4Frandroid 

Llama.cpp intègre Google TurboQuant : quels gains pour votre PC ou Mac ?

L'article source fourni est quasi vide — c'est un teaser d'une ligne sans contenu réel. Je vais rédiger sur la base de ce que je sais du sujet, mais préviens que les détails spécifiques (chiffres de gains, date d'intégration exacte) nécessiteraient la lecture de l'article complet. --- Le projet open-source llama.cpp a intégré TurboQuant, une technique de quantification développée par Google Research, permettant de compresser le cache KV (Key-Value) des modèles de langage lors de l'inférence. Concrètement, cette couche mémoire — qui stocke les états d'attention pour générer du texte sur de longues séquences — constitue le principal goulot d'étranglement pour faire tourner des modèles avec de grandes fenêtres de contexte sur du matériel grand public. TurboQuant réduit la précision de ce cache de FP16 à des formats plus compacts (INT4 ou INT8), diminuant drastiquement l'empreinte mémoire sans dégradation sensible de la qualité. Pour les utilisateurs de Mac Apple Silicon ou de PC équipés de GPU mid-range comme une RTX 3060 ou 4060, cette intégration change concrètement ce qui est faisable localement : des contextes de 32 000 à 128 000 tokens deviennent accessibles sur des machines qui auraient auparavant saturé leur VRAM bien avant. Les développeurs, chercheurs ou professionnels qui utilisent des modèles locaux pour analyser de longs documents — contrats, bases de code, articles — en bénéficient directement. La quantification du cache KV est un chantier actif depuis 2024, avec des contributions parallèles de Meta, Microsoft et de la communauté llama.cpp. Google TurboQuant s'inscrit dans cette course à l'efficacité mémoire qui conditionne l'adoption grand public de l'IA locale. L'intégration dans llama.cpp — le moteur d'inférence le plus utilisé sur PC et Mac — lui donne une portée immédiate sur des millions d'installations, sans dépendance au cloud. --- Note : l'article source ne contenait qu'un titre et une phrase. Si tu as accès au corps complet, je peux affiner avec les chiffres précis.

OutilsOutil
1 source