Aller au contenu principal
ÉthiqueLe Big Data1sem

L’IA Meta va lire vos discussions WhatsApp et Messenger… mais c’est pour la bonne cause

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Meta annonce le 11 mars 2026 de nouveaux outils IA de détection des escroqueries sur WhatsApp, Messenger et Facebook. Sur WhatsApp, sans lire les messages chiffrés, l'application analyse les signaux de connexion pour détecter des comportements suspects (ex. : liaison d'appareil depuis une zone géographique inhabituelle) et alerte l'utilisateur en temps réel. Sur Facebook, un système d'alerte teste la détection de demandes d'amis douteuses en analysant les amis en commun et la localisation géographique de l'émetteur.

Impact France/UE

Les millions d'utilisateurs français et européens de WhatsApp et Messenger bénéficieront d'une protection renforcée contre les escroqueries en ligne grâce à ces nouveaux systèmes de détection automatique des comportements suspects.

Mercredi 11 mars 2026, Meta annonce l’arrivée de nouveaux outils de détection sur Facebook, WhatsApp et Messenger. Ces systèmes reposent sur l’IA et l’analyse des comportements suspects. J’avoue que l’idée d’avoir ses discussions privées exposées n’a rien de très rassurant. Pourtant, si Meta veille à surveiller certains messages sur WhatsApp et Messenger, c’est pour repérer les escroqueries avant qu’elles ne piègent les utilisateurs. Vous le savez peut-être déjà, les malfaiteurs utilisent régulièrement ces messageries pour approcher leurs victimes. Le groupe de Mark Zuckerberg affirme donc vouloir protéger ses plateformes face à une explosion des tentatives d’arnaques qui ciblent chaque jour des millions d’internautes. Comment Meta surveille les conversations sur WhatsApp ? Il est important de préciser que Meta ne lit pas vos messages sur WhatsApp. Grâce au chiffrement de bout en bout, seul l’expéditeur et le destinataire possèdent la clé de décodage. Cependant, la firme analyse les signaux de connexion pour repérer les comportements atypiques, notamment lors de liaison d’un nouvel appareil.. D’après un article publié sur le blog de Meta , cette protection vise à contrer des escroqueries de plus en plus sophistiquées fondées sur l’ingénierie sociale. Parce que certains fraudeurs profitent de la liaison d’appareils pour prendre le contrôle d’un compte. Ils inventent divers scénarios afin de convaincre la victime de partager le code reçu. Le scénario le plus courant actuellement est celui du faux concours de talents . Un escroc vous contacte en se faisant passer pour une connaissance. Il vous demande ensuite de voter pour lui sur un site externe. Une fois que vous y avez saisi votre numéro de téléphone, l’escroc tente de lier votre compte à son propre ordinateur. C’est à ce moment précis que WhatsApp intervient de manière proactive. L’application est maintenant capable de détecter si la demande de connexion provient d’une source inhabituelle, comme une zone géographique incohérente avec votre position actuelle. L’utilisateur reçoit alors une alerte l’informant d’une possible tentative de fraude. Et sur facebook ? En plus de WhatsApp, Meta s’intéresse aussi aux utilisateurs de Facebook. L’entreprise teste actuellement un système d’alertes destiné aux demandes d’amis jugées douteuses . C’est une bonne nouvelle pour quiconque s’est déjà senti submergé par des sollicitations de parfaits inconnus. Puisque l’outil examine plusieurs signaux liés au profil qui envoie la demande. Ce système se déclenche selon des critères de cohérence très précis pour vous aider à y voir plus clair. L’alerte surgit si le compte qui vous sollicite ne possède que très peu, voire aucun ami en commun avec vous. Ce qui est souvent le signe d’une démarche de prospection massive ou d’une tentative d’approche malveillante. L’analyse porte également sur la localisation géographique de l’émetteur. Si une demande provient d’une région totalement incohérente avec votre réseau habituel ou vos activités récentes, Facebook considère cela comme un signal d’alarme. L’objectif est de vous fournir un avertissement explicit e avant même que vous n’ouvriez le profil concerné. De ce fait, vous pouvez pprendre le temps d’examiner la demande avant de décider. Cependant, notez que Meta a choisi de ne pas bloquer automatiquement ces demandes. La décision finale est entre vos mains . De toute façon, l’IA n’est pas infaillible. Elle pourrait parfois signaler une personne que vous venez réellement de rencontrer dans un contexte spécifique. Détection des arnaques sur Messenger : un déploiement élargi Meta étend ce mois-ci son système de détection avancée des arnaques à Messenger dans plusieurs pays. Le principe reste le même. Lorsqu’une conversation avec un nouveau contact présente des caractéristiques typiques de fraude , comme des offres d’emploi suspectes, l’utilisateur reçoit un avertissement. L’application propose alors de partager certains messages récents pour qu’ils soient analysés par l’IA. Si l’outil identifie une tentative d’arnaque, Messenger fournit des informations sur les fraudes les plus courantes. Il suggère aussi des mesures concrètes telles que bloquer ou signaler le compte suspect . Une opération déjà très répandue dans les canaux Meta Ne croyez pas que l’analyse des conversations sur WhatsApp et Messenger par Meta se fasse par curiosité. L’entreprise s’attaque à un fléau qui sévit depuis longtemps sur ses réseaux. Selon une enquête publiée par l’agence de presse Reuters le 6 novembre 2025, les fausses publicités rapporteraient près de 16 milliards de dollars par an, soit plus de 13,7 milliards d’euros, à Meta. Le groupe dirigé par Mark Zuckerberg tirerait ainsi une part importante de ses revenus publicitaires de ces contenus trompeurs . Ces chiffres montrent à quel point les arnaques se propagent sur ses plateformes. Et ils n’attendent que le bon moment pour piéger les utilisateurs. En plus, dans son blog, Meta indique avoir supprimé plus de

À lire aussi

1Next INpact2h

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

L'Internet Watch Foundation (IWF), organisation britannique indépendante spécialisée dans la lutte contre les contenus pédocriminels en ligne, tire la sonnette d'alarme dans un rapport publié en 2025 : les images et vidéos d'agressions sexuelles sur mineurs générées par intelligence artificielle sont devenues « routinières ». En juillet 2024, ses analystes repéraient encore les premières vidéos entièrement produites par IA — facilement identifiables à leurs défauts techniques. Un an plus tard, l'organisation a recensé plus de 8 000 images et près de 3 500 vidéos crédibles de ce type, contre seulement 13 vidéos l'année précédente. Plus alarmant encore, 65 % de ces vidéos appartiennent à la « catégorie A », réservée aux contenus les plus extrêmes — une proportion supérieure aux 43 % observés pour les contenus criminels non générés par IA traités sur la même période. Ces contenus ne sont pas moins dangereux parce qu'ils sont artificiels. Selon l'IWF, ils renforcent l'attrait sexuel pour les enfants, contribuent à normaliser des actes d'une violence extrême et peuvent accroître le risque de passages à l'acte. S'y ajoute une double victimisation : les modèles génératifs sont entraînés sur des images d'agressions réelles, ce qui signifie que l'image de survivants est réutilisée, modifiée et parfois « augmentée » pour produire de nouveaux contenus. Cette réexploitation démultiplie le traumatisme des victimes initiales. Le phénomène présente également une dimension de genre très marquée : 97 % des enfants représentés dans ces contenus générés par IA sont des filles, une surreprésentation encore plus forte que dans les affaires de pédocriminalité réelle. Des cas concrets ont illustré cette dérive, notamment en Espagne à Almendralejo, où des images de lycéennes réelles ont été manipulées par IA pour produire des contenus à caractère sexuel. L'IWF, fondée en 1996 et membre du réseau international INHOPE — auquel appartient également l'association française Point de Contact —, travaille en lien avec les forces de police et les fournisseurs d'accès à internet, auxquels elle transmet notamment une liste noire d'environ 150 000 URL de sites diffusant des contenus illégaux. Ce rapport s'inscrit dans un contexte où la démocratisation des outils de génération d'images et de vidéos par IA pose des défis croissants aux dispositifs légaux et techniques de protection de l'enfance à l'échelle mondiale.

UELe réseau INHOPE, dont fait partie l'association française Point de Contact, est directement impliqué dans la lutte contre ces contenus, et la multiplication de ces matériaux générés par IA accroît la pression sur le cadre réglementaire européen pour encadrer les outils génératifs.

ÉthiqueActu
1 source
2Le Monde Pixels1j

IA : « Le contraste entre des patrimoines incommensurables et la menace de plans sociaux massifs est vertigineux »

L'article fourni ne contient que le titre et une légende photo — il manque le corps du texte pour produire un résumé complet. Avec les éléments disponibles : l'article aborde le contraste saisissant entre les fortunes colossales accumulées par les grandes figures de la tech/finance (dont Larry Fink, PDG de BlackRock) et la menace de suppressions massives d'emplois liées à l'IA. Pour un vrai résumé, merci de coller le contenu complet de l'article.

UELe débat sur les destructions d'emplois liées à l'IA est particulièrement vif en France et en Europe, où les partenaires sociaux et le législateur (AI Act, directives sur l'information-consultation des salariés) sont directement confrontés à la question des reconversions massives.

ÉthiqueOpinion
1 source
3MIT Technology Review2j

Le mouvement de bien-être animal de la Bay Area cherche à recruter l'IA

En février à San Francisco, des défenseurs du bien-être animal et des chercheurs en IA se sont réunis lors d'un sommet organisé par Sentient Futures, fondé par Constance Li, pour explorer comment l'IA pourrait transformer la protection animale. Les participants, convaincus que l'AGI est imminente, estiment qu'il est crucial de former les systèmes d'IA à valoriser la vie animale, car ces systèmes pourraient bientôt prendre la majorité des décisions importantes. Ce mouvement, étroitement lié à l'altruisme efficace, mise sur des solutions à grande échelle comme la viande cultivée en laboratoire plutôt que sur des actions locales.

ÉthiqueActu
1 source
4Numerama5j

Moxie Marlinspike (Signal) s’allie à Meta pour « bunkeriser » vos conversations avec l’IA

Moxie Marlinspike, créateur du protocole Signal, lance un nouveau projet appelé Confer qui s'intégrera à Meta AI pour garantir la confidentialité totale des conversations avec l'IA. Dix ans après avoir sécurisé WhatsApp, il applique la même approche de chiffrement de bout en bout aux échanges avec les assistants IA, rendant les données inaccessibles même à Meta et Mark Zuckerberg.

UELes utilisateurs européens de Meta AI pourraient bénéficier d'une protection renforcée de leurs conversations IA, potentiellement alignée avec les exigences du RGPD, si Confer est déployé en Europe.

ÉthiqueActu
1 source