Aller au contenu principal
L’IA Meta va lire vos discussions WhatsApp et Messenger… mais c’est pour la bonne cause
ÉthiqueLe Big Data8sem

L’IA Meta va lire vos discussions WhatsApp et Messenger… mais c’est pour la bonne cause

Résumé IASource uniqueImpact UE
Source originale ↗·

Meta annonce le 11 mars 2026 de nouveaux outils IA de détection des escroqueries sur WhatsApp, Messenger et Facebook. Sur WhatsApp, sans lire les messages chiffrés, l'application analyse les signaux de connexion pour détecter des comportements suspects (ex. : liaison d'appareil depuis une zone géographique inhabituelle) et alerte l'utilisateur en temps réel. Sur Facebook, un système d'alerte teste la détection de demandes d'amis douteuses en analysant les amis en commun et la localisation géographique de l'émetteur.

Impact France/UE

Les millions d'utilisateurs français et européens de WhatsApp et Messenger bénéficieront d'une protection renforcée contre les escroqueries en ligne grâce à ces nouveaux systèmes de détection automatique des comportements suspects.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Numerama 

Moxie Marlinspike (Signal) s’allie à Meta pour « bunkeriser » vos conversations avec l’IA

Moxie Marlinspike, créateur du protocole Signal, lance un nouveau projet appelé Confer qui s'intégrera à Meta AI pour garantir la confidentialité totale des conversations avec l'IA. Dix ans après avoir sécurisé WhatsApp, il applique la même approche de chiffrement de bout en bout aux échanges avec les assistants IA, rendant les données inaccessibles même à Meta et Mark Zuckerberg.

UELes utilisateurs européens de Meta AI pourraient bénéficier d'une protection renforcée de leurs conversations IA, potentiellement alignée avec les exigences du RGPD, si Confer est déployé en Europe.

ÉthiqueActu
1 source
L'IA peut réécrire le code source open source - mais peut-elle aussi réécrire la licence ?
2Ars Technica AI 

L'IA peut réécrire le code source open source - mais peut-elle aussi réécrire la licence ?

Les outils d'IA pour le code soulèvent de nouvelles questions juridiques autour du "clean room rewrite" — réécriture fonctionnelle sans copier le code protégé. La controverse a éclaté avec la version 7.0 de chardet, une bibliothèque Python populaire de détection d'encodage : son mainteneur Dan Blanchard a utilisé Claude Code pour réécrire intégralement la bibliothèque originalement publiée sous licence LGPL (restrictive) par Mark Pilgrim en 2006, en la republiant cette fois sous licence MIT (permissive). La question centrale : une IA entraînée sur du code LGPL peut-elle légitimement produire une réécriture sous une licence différente ?

ÉthiqueActu
1 source
3The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source
Meta accusée d’avoir piraté des millions de livres pour entraîner son IA
4Siècle Digital 

Meta accusée d’avoir piraté des millions de livres pour entraîner son IA

Cinq géants de l'édition mondiale, Hachette, Macmillan, McGraw-Hill, Elsevier et Cengage, ont déposé une plainte collective contre Meta devant un tribunal fédéral américain, accusant l'entreprise d'avoir utilisé des millions d'ouvrages protégés par le droit d'auteur pour entraîner ses modèles d'intelligence artificielle LLaMA. L'auteur de thrillers Scott Turow, ancien président de l'Authors Guild et avocat de formation, s'est joint à l'action. Selon les plaignants, Meta aurait eu recours à LibGen, un site pirate qui héberge illégalement des millions de livres, pour constituer son corpus d'entraînement à grande échelle, sans autorisation ni compensation. Ce procès marque un tournant dans les litiges sur le droit d'auteur et l'IA : pour la première fois, ce ne sont plus des auteurs isolés mais des maisons d'édition pesant collectivement des milliards de dollars qui s'attaquent frontalement à un géant technologique. Si les plaignants obtiennent gain de cause, les dommages et intérêts pourraient atteindre des montants records et contraindre l'ensemble de l'industrie à revoir radicalement ses pratiques d'acquisition de données d'entraînement. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'industrie de l'IA et les ayants droit, après les poursuites déjà engagées contre OpenAI, Stability AI et Google. Des preuves internes évoquées dans d'autres dossiers suggèrent que Meta était consciente des risques juridiques liés à l'utilisation de LibGen mais a néanmoins choisi de procéder. La décision de justice pourrait établir une jurisprudence déterminante sur ce que les entreprises d'IA ont le droit d'utiliser pour former leurs modèles.

UEHachette et Elsevier, maisons d'édition présentes en Europe, sont plaignantes ; une jurisprudence américaine sur l'entraînement des LLM influencera directement les pratiques des acteurs IA opérant sous l'AI Act et les litiges en cours devant les tribunaux européens.

💬 Des auteurs isolés, ça pouvait encore se gérer. Là, ce sont des éditeurs pesant des milliards qui ont les reins solides pour tenir un procès pendant dix ans, et des preuves internes qui montrent que Meta savait très bien ce qu'elle faisait en utilisant LibGen. Ça va coûter cher.

ÉthiqueReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour