Aller au contenu principal
Mark Zuckerberg annonce un chat Meta AI chiffré et entièrement privé
ÉthiqueThe Verge AI2h

Mark Zuckerberg annonce un chat Meta AI chiffré et entièrement privé

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Mark Zuckerberg a annoncé mardi le lancement d'Incognito Chat, un nouveau mode de conversation avec Meta AI qui se distingue par le chiffrement de bout en bout et l'absence totale de journalisation des échanges sur les serveurs de l'entreprise. Selon le PDG de Meta, il s'agit du premier grand produit d'IA où aucun historique de conversation n'est conservé, ni dans l'interface utilisateur, ni côté serveur.

La différence revendiquée avec les modes incognito des concurrents est technique et substantielle : des services comme ChatGPT ou Gemini proposent des modes similaires, mais les requêtes et réponses restent lisibles par les serveurs pendant le traitement. Meta affirme qu'avec le chiffrement de bout en bout, personne, pas même Meta, ne peut intercepter ou lire le contenu des échanges. Pour les utilisateurs soucieux de confidentialité, notamment dans un contexte professionnel ou médical, cela représente une garantie inédite de la part d'une plateforme grand public.

Cette annonce intervient dans un contexte pour le moins paradoxal : Meta avait supprimé le chiffrement de bout en bout des messages directs Instagram il y a peu, suscitant des critiques virulentes de la part des défenseurs de la vie privée. La course à l'IA entre Meta, Google, OpenAI et Apple pousse désormais les géants technologiques à faire de la confidentialité un argument différenciant, au moment où les régulateurs européens et américains scrutent de plus en plus les pratiques de collecte de données liées aux assistants intelligents.

Impact France/UE

La fonctionnalité Incognito Chat pourrait renforcer la conformité RGPD pour les utilisateurs européens de Meta AI, au moment où les régulateurs européens scrutent les pratiques de collecte de données des assistants IA.

💬 Le point de vue du dev

Meta qui vend de la vie privée, c'est un peu comme McDonald's qui ouvre une salle de sport. Sauf que là, techniquement, le chiffrement de bout en bout sur un LLM c'est pas du flan : si c'est bien implémenté, personne peut lire, pas même eux. La vraie question c'est si on leur fait confiance pour l'implémenter sans backdoor, deux semaines après avoir retiré le chiffrement d'Instagram.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Workshop Apple 2026 : machine learning et IA préservant la vie privée
1Apple Machine Learning 

Workshop Apple 2026 : machine learning et IA préservant la vie privée

Apple a organisé début 2026 un atelier de deux jours intitulé "Workshop on Privacy-Preserving Machine Learning & AI", réunissant des chercheurs internes et des membres de la communauté scientifique internationale. L'événement avait pour objectif de faire avancer les recherches sur les techniques permettant de préserver la vie privée des utilisateurs tout en intégrant des capacités d'IA dans les produits grand public. Apple y a présenté ses travaux fondamentaux dans ce domaine, positionnant l'entreprise comme un acteur actif dans la définition de nouvelles normes pour l'IA respectueuse des données personnelles. Pour des centaines de millions d'utilisateurs d'iPhone, Mac et autres appareils Apple, ces recherches ont des implications directes : elles conditionnent la manière dont Siri, la suite Apple Intelligence et d'autres fonctionnalités futures pourront exploiter des données personnelles sans jamais les exposer à des serveurs tiers. La protection de la vie privée devient ainsi un avantage concurrentiel autant qu'une garantie technique, dans un secteur où les géants de la tech sont régulièrement critiqués pour leur collecte massive de données. Apple défend depuis des années une philosophie selon laquelle la vie privée est un droit humain fondamental, un discours qui prend une nouvelle dimension à mesure que l'IA générative s'installe dans le quotidien numérique. Face à OpenAI, Google et Meta qui s'appuient largement sur des données utilisateurs pour entraîner leurs modèles, Apple mise sur des approches comme l'apprentissage fédéré et le chiffrement différentiel pour se différencier. Cet atelier illustre sa volonté de structurer une communauté de recherche autour de cette vision.

UELes techniques d'apprentissage fédéré et de chiffrement différentiel présentées lors de cet atelier s'inscrivent directement dans le cadre du RGPD et pourraient alimenter les standards européens sur l'IA respectueuse de la vie privée.

ÉthiquePaper
1 source
Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google
2Siècle Digital 

Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google

Un utilisateur de l'Utah, qui souhaite conserver l'anonymat, a porté plainte contre Perplexity AI, accusant le moteur de recherche basé sur l'intelligence artificielle d'avoir transmis ses conversations privées à Meta et Google sans son consentement. Selon son avocat, l'utilisateur recourait régulièrement à Perplexity pour obtenir des conseils fiscaux, juridiques et financiers, des échanges qu'il considérait confidentiels. Des outils de tracking intégrés à la plateforme auraient permis à des tiers d'accéder à ces données sensibles, à l'insu des utilisateurs. Cette affaire soulève une question centrale pour l'ensemble du secteur des assistants IA : que deviennent les conversations des utilisateurs lorsqu'ils confient à ces outils des informations personnelles, médicales ou financières ? Contrairement à un moteur de recherche classique où l'on tape des mots-clés, Perplexity incite à formuler des questions détaillées, souvent très révélatrices de la situation personnelle de l'utilisateur. Partager ce type de données avec des régies publicitaires comme Meta ou Google représente une violation grave de la confiance placée dans ces plateformes, avec des implications directes sur la vie privée de millions de personnes. Perplexity, fondée en 2022 et valorisée à plusieurs milliards de dollars, s'est rapidement imposée comme un concurrent sérieux face à Google Search et ChatGPT. La startup avait déjà fait l'objet de critiques pour ses pratiques de scraping agressif et des accusations de plagiat envers des médias. Cette plainte s'inscrit dans un contexte plus large de régulation croissante des pratiques des entreprises d'IA autour de la collecte et du partage de données personnelles, notamment en Europe avec le RGPD et aux États-Unis où plusieurs États renforcent leurs législations sur la vie privée.

UESi des pratiques similaires de partage de conversations avec des régies publicitaires concernaient des utilisateurs européens, elles constitueraient une violation caractérisée du RGPD, exposant Perplexity à des sanctions pouvant atteindre 4 % de son chiffre d'affaires mondial.

💬 Perplexity, c'est le genre de produit qu'on conseille à ses proches parce que "c'est mieux que Google" — sauf qu'on vient de découvrir que des conversations sur ses impôts ou sa situation juridique partaient peut-être chez Meta. Le problème, c'est que les gens posent des vraies questions à ces outils, pas des mots-clés détachés de tout contexte, et la différence est énorme côté données. Faut arrêter de traiter les assistants IA comme des moteurs de recherche glorifiés : dès qu'on y colle du contexte personnel, c'est une autre catégorie de risque.

ÉthiqueActu
1 source
Meta AI : un vrai pot de colle, vous ne pouvez pas le bloquer sur Threads
3Le Big Data 

Meta AI : un vrai pot de colle, vous ne pouvez pas le bloquer sur Threads

Meta a annoncé mardi le lancement d'un test de sa fonctionnalité Meta AI directement intégrée à Threads, son réseau social concurrent de X. Le principe reprend le modèle de Grok chez xAI : les utilisateurs peuvent mentionner le compte @Meta AI dans n'importe quelle conversation pour déclencher une réponse automatique de l'assistant. Le déploiement reste pour l'instant limité à cinq pays : l'Argentine, la Malaisie, le Mexique, l'Arabie saoudite et Singapour. L'IA peut répondre à des questions du quotidien, comme expliquer la tendance du matcha ou indiquer la prononciation du mot "Cannes", selon une vidéo de démonstration publiée par Meta elle-même. Le problème central qui a enflammé la plateforme tient en un mot : le blocage est impossible. Contrairement à n'importe quel autre compte sur Threads, Meta AI ne peut pas être bloqué par les utilisateurs. L'option habituelle, accessible via les trois points du profil, disparaît purement et simplement du menu. Certains utilisateurs ont signalé avoir brièvement aperçu le bouton avant de recevoir un message d'erreur en tentant de l'utiliser. La grogne a rapidement pris de l'ampleur : le sujet "Impossible de bloquer Meta AI" est devenu viral avec plus d'un million de publications sur la plateforme, avant de disparaître mystérieusement des tendances, ce qui n'a fait qu'amplifier la méfiance. Face à la pression, Meta a répondu via sa porte-parole Christine Pai, qui assure que les utilisateurs peuvent "gérer leur expérience" en masquant certaines réponses, en les désactivant dans leur fil ou en sélectionnant l'option "Pas intéressé(e)". Le blocage direct, lui, reste indisponible. Cette situation illustre une tension de fond qui traverse toute l'industrie des réseaux sociaux : l'intégration forcée d'assistants IA dans des espaces de conversation que les utilisateurs considèrent comme les leurs. Meta, qui cherche à monétiser et valoriser ses investissements massifs dans l'IA, a tout intérêt à maximiser l'exposition de Meta AI à travers ses milliards d'utilisateurs sur Facebook, Instagram et Threads. Mais l'absence d'option de blocage soulève des questions légitimes sur le consentement et le contrôle des utilisateurs, particulièrement en Europe où le cadre réglementaire du RGPD impose des obligations strictes en la matière. Si le test se conclut par un déploiement mondial, Meta devra probablement trancher : soit introduire une vraie option de blocage pour respecter les attentes des utilisateurs et les réglementations, soit assumer pleinement le choix de rendre son IA incontournable sur la plateforme.

UEL'impossibilité de bloquer Meta AI soulève une question de conformité directe avec le RGPD sur le consentement éclairé, ce qui obligera Meta à adapter la fonctionnalité avant tout déploiement en Europe.

💬 C'est pas un oubli, c'est assumé. Proposer "masquer la réponse" à la place du blocage, c'est la fausse alternative typique de Meta : l'IA reste dans ton fil, elle répond, elle collecte, tu n'as juste plus à la voir. Le RGPD va adorer ça.

ÉthiqueOpinion
1 source
Meta formerait des agents IA en surveillant les souris et claviers de ses employés
4Ars Technica AI 

Meta formerait des agents IA en surveillant les souris et claviers de ses employés

Meta va commencer à collecter les mouvements de souris, clics et frappes clavier de ses employés américains pour entraîner ses futurs agents d'intelligence artificielle. L'initiative, baptisée Model Capability Initiative, a été annoncée en interne via des mémos publiés par l'équipe Meta Superintelligence Labs et révélée par Reuters. Le logiciel de suivi fonctionnera sur des applications et sites web professionnels spécifiques, et prendra également des captures d'écran périodiques pour fournir du contexte aux données d'entraînement. Selon le mémo interne, "c'est là où tous les employés de Meta peuvent aider nos modèles à s'améliorer simplement en faisant leur travail quotidien." Cette approche vise à produire des données d'entraînement de haute qualité pour les agents IA, c'est-à-dire des systèmes capables d'accomplir des tâches complexes de manière autonome sur un ordinateur. Reproduire fidèlement les comportements humains réels dans des environnements de travail concrets est un défi majeur pour ce type d'IA, et les données synthétiques ou publiques ne suffisent plus. En utilisant le travail quotidien de milliers d'employés comme source de données, Meta espère accélérer le développement d'agents capables de naviguer dans des interfaces réelles. Cette initiative s'inscrit dans une course effrénée entre les grandes entreprises technologiques pour développer des agents IA performants, un marché que Microsoft, Google et OpenAI ciblent également activement. La question de la surveillance des employés à des fins commerciales soulève néanmoins des questions éthiques et juridiques, notamment en matière de consentement et de vie privée au travail. Il reste à voir si Meta étendra ce programme à ses employés hors des États-Unis, où les réglementations comme le RGPD européen imposent des contraintes bien plus strictes.

UELe RGPD impose un consentement explicite pour la collecte de données comportementales des employés, rendant une extension de ce programme aux salariés européens de Meta juridiquement très complexe, voire impossible sans refonte du dispositif.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour