Aller au contenu principal
☕️ Meta promet des discussions « vraiment privées » avec son IA
ÉthiqueNext INpact1h

☕️ Meta promet des discussions « vraiment privées » avec son IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Meta a annoncé le lancement d'un mode "Discussion Incognito" pour son assistant Meta AI, disponible sur WhatsApp et dans l'application dédiée Meta AI. Cette fonctionnalité s'appuie sur la technologie maison de traitement privé des requêtes, déployée l'an dernier, qui empêche toute interception des échanges, y compris par Meta elle-même. Les conversations sont traitées dans un environnement sécurisé, ne sont pas enregistrées sur les serveurs de l'entreprise et disparaissent dès la fin de la session. Mark Zuckerberg n'a pas hésité à se montrer conquis par l'initiative : "Il s'agit du premier grand produit d'IA pour lequel aucune trace de vos conversations n'est stockée sur des serveurs." À titre de comparaison, le mode temporaire de ChatGPT conserve les échanges jusqu'à 30 jours, et Google Gemini jusqu'à 72 heures.

Cet engagement sur la confidentialité répond à un besoin réel, documenté : les utilisateurs d'assistants IA posent régulièrement des questions très personnelles sur leur santé, leurs finances ou leur vie privée. OpenAI avait ainsi révélé lors de la présentation de ChatGPT Health que la santé figurait parmi les usages les plus fréquents de son assistant. Offrir un espace de discussion sans traçabilité change concrètement le rapport de confiance entre l'utilisateur et la plateforme, en particulier pour des interactions que l'on ne souhaite pas voir monétisées ou exploitées à des fins publicitaires.

La décision de Meta est d'autant plus notable qu'elle intervient dans un contexte pour le moins paradoxal : le 8 mai, la société a supprimé le chiffrement de bout en bout des messageries Instagram, au motif que la fonctionnalité était trop peu utilisée et trop complexe. Ce choix illustre une tension de fond chez Meta, dont le modèle économique repose quasi exclusivement sur la publicité ciblée. En renforçant la confidentialité de son IA tout en retirant une protection des communications humaines, l'entreprise semble vouloir rassurer les utilisateurs sur ses ambitions dans l'IA générative, un terrain où la confiance est devenue un argument concurrentiel à part entière. Meta prend soin de souligner, non sans malice, que d'autres applications proposant des fonctions similaires restent en mesure de consulter les questions posées et les réponses reçues, ciblant implicitement ses concurrents OpenAI et Google.

Impact France/UE

Le mode incognito sur WhatsApp répond directement aux exigences du RGPD et aux attentes des utilisateurs européens soucieux de confidentialité, dans un contexte où la CNIL et les régulateurs de l'UE examinent de plus en plus les pratiques de collecte de données des assistants IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Meta accusée d’avoir piraté des millions de livres pour entraîner son IA
1Siècle Digital 

Meta accusée d’avoir piraté des millions de livres pour entraîner son IA

Cinq géants de l'édition mondiale, Hachette, Macmillan, McGraw-Hill, Elsevier et Cengage, ont déposé une plainte collective contre Meta devant un tribunal fédéral américain, accusant l'entreprise d'avoir utilisé des millions d'ouvrages protégés par le droit d'auteur pour entraîner ses modèles d'intelligence artificielle LLaMA. L'auteur de thrillers Scott Turow, ancien président de l'Authors Guild et avocat de formation, s'est joint à l'action. Selon les plaignants, Meta aurait eu recours à LibGen, un site pirate qui héberge illégalement des millions de livres, pour constituer son corpus d'entraînement à grande échelle, sans autorisation ni compensation. Ce procès marque un tournant dans les litiges sur le droit d'auteur et l'IA : pour la première fois, ce ne sont plus des auteurs isolés mais des maisons d'édition pesant collectivement des milliards de dollars qui s'attaquent frontalement à un géant technologique. Si les plaignants obtiennent gain de cause, les dommages et intérêts pourraient atteindre des montants records et contraindre l'ensemble de l'industrie à revoir radicalement ses pratiques d'acquisition de données d'entraînement. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'industrie de l'IA et les ayants droit, après les poursuites déjà engagées contre OpenAI, Stability AI et Google. Des preuves internes évoquées dans d'autres dossiers suggèrent que Meta était consciente des risques juridiques liés à l'utilisation de LibGen mais a néanmoins choisi de procéder. La décision de justice pourrait établir une jurisprudence déterminante sur ce que les entreprises d'IA ont le droit d'utiliser pour former leurs modèles.

UEHachette et Elsevier, maisons d'édition présentes en Europe, sont plaignantes ; une jurisprudence américaine sur l'entraînement des LLM influencera directement les pratiques des acteurs IA opérant sous l'AI Act et les litiges en cours devant les tribunaux européens.

💬 Des auteurs isolés, ça pouvait encore se gérer. Là, ce sont des éditeurs pesant des milliards qui ont les reins solides pour tenir un procès pendant dix ans, et des preuves internes qui montrent que Meta savait très bien ce qu'elle faisait en utilisant LibGen. Ça va coûter cher.

ÉthiqueReglementation
1 source
Mark Zuckerberg annonce un chat Meta AI chiffré et entièrement privé
2The Verge AI 

Mark Zuckerberg annonce un chat Meta AI chiffré et entièrement privé

Mark Zuckerberg a annoncé mardi le lancement d'Incognito Chat, un nouveau mode de conversation avec Meta AI qui se distingue par le chiffrement de bout en bout et l'absence totale de journalisation des échanges sur les serveurs de l'entreprise. Selon le PDG de Meta, il s'agit du premier grand produit d'IA où aucun historique de conversation n'est conservé, ni dans l'interface utilisateur, ni côté serveur. La différence revendiquée avec les modes incognito des concurrents est technique et substantielle : des services comme ChatGPT ou Gemini proposent des modes similaires, mais les requêtes et réponses restent lisibles par les serveurs pendant le traitement. Meta affirme qu'avec le chiffrement de bout en bout, personne, pas même Meta, ne peut intercepter ou lire le contenu des échanges. Pour les utilisateurs soucieux de confidentialité, notamment dans un contexte professionnel ou médical, cela représente une garantie inédite de la part d'une plateforme grand public. Cette annonce intervient dans un contexte pour le moins paradoxal : Meta avait supprimé le chiffrement de bout en bout des messages directs Instagram il y a peu, suscitant des critiques virulentes de la part des défenseurs de la vie privée. La course à l'IA entre Meta, Google, OpenAI et Apple pousse désormais les géants technologiques à faire de la confidentialité un argument différenciant, au moment où les régulateurs européens et américains scrutent de plus en plus les pratiques de collecte de données liées aux assistants intelligents.

UELa fonctionnalité Incognito Chat pourrait renforcer la conformité RGPD pour les utilisateurs européens de Meta AI, au moment où les régulateurs européens scrutent les pratiques de collecte de données des assistants IA.

💬 Meta qui vend de la vie privée, c'est un peu comme McDonald's qui ouvre une salle de sport. Sauf que là, techniquement, le chiffrement de bout en bout sur un LLM c'est pas du flan : si c'est bien implémenté, personne peut lire, pas même eux. La vraie question c'est si on leur fait confiance pour l'implémenter sans backdoor, deux semaines après avoir retiré le chiffrement d'Instagram.

ÉthiqueOutil
1 source
Vérification d’âge : Meta analyse votre morphologie avec une IA
3Le Big Data 

Vérification d’âge : Meta analyse votre morphologie avec une IA

Meta a annoncé le 5 mai 2026 une nouvelle approche de vérification d'âge sur ses plateformes Instagram et Facebook, reposant sur une intelligence artificielle capable d'analyser la morphologie des utilisateurs. Concrètement, le système examine des photos et vidéos pour détecter des indices physiques, proportions corporelles, stature, structure osseuse, afin d'estimer une tranche d'âge. L'entreprise précise qu'il ne s'agit pas de reconnaissance faciale : l'outil ne cherche pas à identifier une personne, mais à déduire si elle est mineure. Ce dispositif vient compléter une analyse textuelle déjà existante, qui scrute publications, biographies et commentaires à la recherche de mentions révélatrices comme une école, un anniversaire ou une classe. À terme, la surveillance s'étendra aux Reels et aux vidéos en direct. En cas de doute, le compte est suspendu immédiatement et l'utilisateur doit fournir une preuve d'âge sous peine de suppression définitive. Cette évolution concerne directement les mineurs de moins de 13 ans, formellement interdits sur ces plateformes mais largement présents en pratique. Les utilisateurs identifiés comme ayant entre 13 et 15 ans sont automatiquement basculés vers un environnement restreint : compte privé par défaut, messagerie limitée et filtrage des contenus sensibles. Ce déploiement est progressif et couvre déjà plusieurs régions, notamment l'Europe et le Brésil, avec une extension de Facebook aux États-Unis en cours. Les parents gagnent également de la visibilité sur certaines interactions de leurs enfants avec les outils d'IA de la plateforme. Pour l'industrie, ce système représente un changement de paradigme : la vérification d'âge ne repose plus uniquement sur la bonne foi de l'utilisateur, mais sur une surveillance algorithmique passive et continue. Meta agit sous une pression réglementaire et juridique croissante. Plusieurs pays ont durci leurs lois sur la protection des mineurs en ligne, et le groupe fait face à des enquêtes d'autorités de régulation ainsi qu'à des risques de sanctions financières significatifs. La mise en place de ces outils constitue donc autant une réponse aux gouvernements qu'une tentative de regagner la confiance des parents. Mais la méthode soulève des questions importantes : estimer l'âge à partir de la morphologie reste une science imprécise, exposée aux erreurs et aux biais algorithmiques. Des utilisateurs adultes pourraient être suspendus à tort, tandis que la collecte de données biométriques visuelles ouvre un débat sur la protection de la vie privée que Meta n'a pas encore tranché. Les régulateurs européens, particulièrement vigilants sur le RGPD, devraient examiner de près ce système dans les mois à venir.

UELe déploiement en Europe d'un système de vérification d'âge biométrique par Meta soulève des questions directes de conformité au RGPD que la CNIL et les régulateurs européens devraient examiner dans les prochains mois.

💬 Analyser ta silhouette pour deviner ton âge, c'est de la donnée biométrique, et Meta le sait très bien. La protection des mineurs c'est légitime, mais un système qui peut suspendre un adulte à tort parce qu'il a l'air jeune va créer un joli bordel juridique, surtout en Europe. La CNIL a de quoi s'occuper.

ÉthiqueReglementation
1 source
Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA
4Le Big Data 

Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA

Meta surveille les habitudes informatiques de ses employés pour entraîner son futur agent IA. Selon des notes internes révélées par Reuters, l'entreprise a déployé un logiciel de suivi intégré à certains outils professionnels internes, capable d'enregistrer les mouvements de souris, les clics, les frappes clavier et de capturer régulièrement des captures d'écran. Ces données sont collectées sur des applications internes et des sites web professionnels, avec pour objectif de documenter précisément comment les humains interagissent avec leur machine au quotidien. Un porte-parole de Meta confirme que ces informations servent à améliorer la capacité des agents IA à réaliser des tâches concrètes : naviguer dans des menus, cliquer sur des boutons, reproduire des séquences d'actions basiques mais essentielles. L'entreprise assure également que ces données ne seront pas utilisées pour évaluer la performance individuelle des salariés. L'enjeu est considérable pour le développement des agents IA dits "computer use", capables d'opérer directement sur un ordinateur comme le ferait un humain. Les textes, images et vidéos disponibles sur internet sont déjà massivement exploités pour entraîner les grands modèles de langage, mais les données d'interaction réelle avec une interface restent rares et difficiles à obtenir à grande échelle. Des entreprises concurrentes ont recours à des environnements simulés pour générer ce type de données comportementales, une approche coûteuse et imparfaite. En mobilisant directement ses propres employés, Meta accède à des flux de comportements authentiques, dans des contextes de travail réels, ce qui représente un avantage compétitif significatif pour entraîner des agents performants sur des tâches professionnelles. Cette initiative s'inscrit dans un contexte de pression croissante chez Meta autour de l'IA. L'entreprise, qui a massivement investi dans le développement de ses modèles Llama et de ses agents conversationnels, cherche à combler son retard sur des acteurs comme OpenAI ou Google dans le domaine des agents autonomes. En parallèle, Reuters rapporte que Meta envisage de fixer des objectifs d'usage de l'IA à certains de ses personnels, et réfléchirait à une réduction potentielle de ses effectifs mondiaux pouvant atteindre 10 %. La collecte de données sur les employés soulève néanmoins des questions éthiques sur le consentement et la surveillance au travail, même si Meta la présente comme une contribution collective au progrès technologique interne. La frontière entre outil d'entraînement et surveillance professionnelle reste floue, et cette démarche pourrait alimenter les débats réglementaires sur les droits des travailleurs à l'ère de l'IA.

UELe RGPD encadre strictement la surveillance des salariés en Europe, rendant une pratique similaire juridiquement risquée pour toute entreprise opérant dans l'UE, et pourrait accélérer les débats législatifs sur les droits des travailleurs face à l'IA générative.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour