Aller au contenu principal
« Un SMS avec une photo du livreur » : cette nouvelle arnaque à l’IA fait un carnage en France
SécuritéPresse-citron6sem

« Un SMS avec une photo du livreur » : cette nouvelle arnaque à l’IA fait un carnage en France

Résumé IASource uniqueImpact UE
Source originale ↗·

Une nouvelle forme d'arnaque exploitant l'intelligence artificielle se répand activement en France, ciblant des particuliers via des SMS frauduleux accompagnés d'une photo générée ou détournée représentant un faux livreur. Le procédé vise à inspirer confiance à la victime en personnalisant l'approche : un visage, une tenue de livreur, un message crédible — suffisant pour lever les défenses du destinataire qui attend effectivement un colis.

L'efficacité de ce type d'escroquerie repose sur la banalisation des livraisons e-commerce et sur la capacité des outils d'IA générative à produire des visuels convaincants à très faible coût. Là où les arnaques classiques au "faux livreur" passaient par un simple texte, l'ajout d'une photo réaliste franchit un palier psychologique important : le cerveau humain accorde instinctivement plus de crédit à ce qu'il voit. Pour les fraudeurs, le retour sur investissement est maximal.

Le schéma typique conduit la victime à cliquer sur un lien contenu dans le SMS, menant vers une fausse page de suivi de colis ou de paiement de frais de douane — des prétextes rodés depuis des années par des groupes comme Flubot ou les campagnes de smishing ciblant les clients de La Poste et Chronopost. L'IA intervient ici comme accélérateur de crédibilité, pas comme rupture technologique : elle industrialise la personnalisation visuelle de l'hameçon.

Face à la montée de ces attaques, les autorités françaises — notamment Cybermalveillance.gouv.fr — rappellent de ne jamais cliquer sur un lien reçu par SMS concernant une livraison, et de passer systématiquement par le site officiel du transporteur pour tout suivi de colis.

---

> Note rédactionnelle : l'article source fourni est très partiel (titre + une phrase). Ce résumé s'appuie sur le contexte connu de ce type d'arnaque en France. Pour un article complet et sourcé, le texte original intégral est nécessaire.

Impact France/UE

Des milliers de consommateurs français sont directement victimes de campagnes de phishing exploitant l'IA générative, avec une multiplication des signalements auprès de Cybermalveillance.gouv.fr.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Frandroid 

On a essayé de m’arnaquer avec une photo IA et un vocal envoyés par SMS : attention à cette nouvelle mode très piégeuse

Une nouvelle technique d'arnaque par SMS combine désormais des images générées par intelligence artificielle et des messages vocaux synthétiques pour piéger les victimes. Concrètement, l'escroc envoie une photo d'un colis, entièrement fabriquée par IA, accompagnée d'un vocal d'une dizaine de secondes, lui aussi probablement produit par un outil de synthèse vocale, le tout dans un seul message texte. L'objectif : convaincre le destinataire qu'un vrai colis l'attend, et le pousser à cliquer sur un lien ou à communiquer ses données personnelles. Ce type d'attaque marque une évolution inquiétante dans le paysage des arnaques numériques. Jusqu'ici, les SMS frauduleux se repéraient souvent à leurs visuels approximatifs ou à leur manque de réalisme. L'intégration d'images IA de qualité et de vocaux convaincants rend la détection bien plus difficile pour l'utilisateur ordinaire, augmentant mécaniquement le taux de succès de ces campagnes. Les données personnelles ciblées, identité, coordonnées bancaires, identifiants, alimentent ensuite des réseaux de fraude organisée. Cette tendance s'inscrit dans la démocratisation rapide des outils génératifs accessibles au grand public depuis 2023. Des générateurs d'images comme Midjourney ou DALL-E, couplés à des outils de clonage vocal bon marché, permettent désormais à des escrocs peu techniques de produire du contenu trompeur à grande échelle et à faible coût. Face à cette industrialisation de la fraude, la règle reste la même : ne jamais cliquer sur un lien reçu par SMS sans vérifier directement auprès de l'expéditeur officiel.

UELes consommateurs français sont directement exposés à ces campagnes de smishing enrichies par IA, augmentant le risque de fraude bancaire et d'usurpation d'identité à grande échelle.

SécuritéOpinion
1 source
KiloClaw cible l'IA fantôme avec une gouvernance d'agents autonomes
2AI News 

KiloClaw cible l'IA fantôme avec une gouvernance d'agents autonomes

KiloClaw, une plateforme de gouvernance des agents IA développée par l'éditeur logiciel Kilo, vient d'être lancée sous la dénomination KiloClaw for Organizations. Elle cible un phénomène croissant dans les grandes entreprises : le "Bring Your Own AI" (BYOAI), où des employés déploient des agents autonomes sur leurs propres infrastructures sans passer par la DSI. Des ingénieurs qui automatisent l'analyse de logs d'erreurs, des analystes financiers qui orchestrent des scripts locaux pour réconcilier des tableurs — ces agents accèdent aux canaux Slack, aux tableaux Jira et aux dépôts de code privés via des clés API personnelles, totalement hors du contrôle officiel. KiloClaw propose un plan de contrôle centralisé permettant aux équipes de sécurité d'identifier, surveiller et restreindre ces agents sans bloquer leur utilité opérationnelle. L'enjeu dépasse la simple conformité interne. Un agent autonome non supervisé dispose de privilèges d'exécution actifs : il lit, écrit, modifie et supprime des données à des vitesses inaccessibles à l'humain, et envoie souvent des données d'entreprise vers des serveurs d'inférence tiers pour traiter ses requêtes. Si ces fournisseurs utilisent les données ingérées pour entraîner leurs modèles, l'entreprise perd le contrôle de sa propriété intellectuelle. KiloClaw répond à cette menace en émettant des jetons d'accès à durée limitée et à portée étroitement définie, plutôt que de laisser les développeurs brancher des clés API permanentes sur des modèles expérimentaux. Si un agent conçu pour résumer des emails tente de télécharger une base clients, la plateforme détecte la violation de périmètre et révoque immédiatement l'accès. La situation rappelle l'ère "Bring Your Own Device" du début des années 2010, quand les smartphones personnels ont forcé les DSI à adopter des solutions de gestion de terminaux mobiles — mais avec des risques bien plus élevés. Les systèmes classiques de gestion des identités et des accès (IAM) sont conçus pour des humains ou des communications applicatives statiques, pas pour des agents qui chaînent des tâches dynamiquement et formulent de nouvelles requêtes en cours d'exécution. KiloClaw traite les agents comme des entités distinctes nécessitant des permissions restrictives et temporaires. L'approche évite aussi l'écueil d'une interdiction totale, qui pousse généralement les développeurs à dissimuler leurs workflows. En construisant un environnement sanctionné plutôt qu'une liste noire, Kilo parie sur l'adoption volontaire comme levier de conformité réelle.

SécuritéActu
1 source
La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes
3AWS ML Blog 

La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes

L'ère de l'IA agentique bouleverse les fondements de la gouvernance informatique traditionnelle. Là où les systèmes DevOps classiques produisaient des résultats déterministes — même entrée, même sortie, dépendances connues — les agents IA opèrent de façon non déterministe : posez la même question deux fois, vous obtenez deux réponses différentes. Ces agents sélectionnent eux-mêmes leurs outils, adaptent leurs raisonnements et agissent de manière autonome. Face à ce constat, AWS Generative AI Innovation Center a développé une solution appelée AI Risk Intelligence (AIRI), un système de gouvernance automatisée qui centralise les évaluations de sécurité, d'opérations et de conformité en un seul tableau de bord couvrant l'ensemble du cycle de vie agentique. La solution s'appuie sur le cadre AWS Responsible AI Best Practices, construit à partir de l'expérience acquise sur des centaines de milliers de déploiements IA. L'enjeu est concret : les cadres de gouvernance IT conçus pour des déploiements statiques sont incapables de gérer les interactions complexes des systèmes multi-agents. Un scénario illustratif le démontre clairement — et figure dans le Top 10 OWASP des vulnérabilités agentiques pour 2026. Un assistant IA d'entreprise, légitimement autorisé à accéder aux e-mails, au calendrier et au CRM, reçoit via un e-mail des instructions malveillantes dissimulées. Lorsqu'un utilisateur demande un résumé anodin, l'agent compromis suit ces directives cachées : il fouille des données sensibles et les exfiltre via des invitations calendrier, tout en affichant une réponse bénigne. Les outils classiques de prévention des fuites de données et de surveillance réseau ne détectent rien — car l'agent agit dans le strict périmètre de ses permissions légitimes. La violation est invisible aux yeux des systèmes traditionnels. Ce cas révèle la nature systémique du risque agentique : une faille de sécurité se propage simultanément à travers plusieurs dimensions. L'action d'un agent en déclenche d'autres, les contrôles d'accès ne sont pas réévalués en continu pendant l'exécution, aucun point de contrôle humain ne s'interpose avant une action à haut risque, et les responsables de la conformité ne peuvent pas interpréter les données de monitoring pour détecter l'anomalie à temps. C'est pourquoi AIRI entend fusionner sécurité, opérations et gouvernance en un dispositif intégré plutôt qu'en silos séparés. Dans un contexte où les entreprises accélèrent leurs déploiements d'agents autonomes — pour automatiser des workflows, piloter des décisions, interagir avec des systèmes critiques — la question n'est plus seulement de savoir si l'IA fonctionne, mais si l'organisation peut réellement maîtriser ce qu'elle fait.

UELes entreprises européennes déployant des agents IA autonomes doivent adapter leurs cadres de gouvernance pour satisfaire aux exigences de l'AI Act, notamment en matière de supervision humaine, de traçabilité et de contrôle continu des systèmes à haut risque.

SécuritéActu
1 source
4InfoQ AI 

Claude Code découvre une faille du noyau Linux exploitable à distance, cachée depuis 23 ans

Nicholas Carlini, chercheur chez Anthropic, a utilisé Claude Code pour identifier un débordement de tampon en tas (heap buffer overflow) exploitable à distance dans le pilote NFS du noyau Linux, une faille dissimulée depuis 23 ans. Au total, cinq vulnérabilités du noyau ont été confirmées à l'issue de cette recherche, dont certaines pourraient permettre à un attaquant distant de compromettre des systèmes Linux sans authentification préalable. La découverte illustre un tournant dans la façon dont l'IA contribue à la sécurité logicielle. Les mainteneurs du noyau Linux signalent que la qualité des rapports de bugs générés par l'IA s'est nettement améliorée : les listes de sécurité reçoivent désormais entre 5 et 10 signalements valides par jour, contre des soumissions quasi-inutilisables il y a encore peu. Pour les équipes de sécurité, cela représente un changement de rythme considérable, avec un flux de vulnérabilités légitimes à traiter en continu. Le noyau Linux est au cœur de milliards de serveurs, appareils embarqués et infrastructures critiques dans le monde. Une faille exploitable à distance dans le pilote NFS, utilisé pour le partage de fichiers en réseau, représente un risque particulièrement sérieux pour les environnements d'entreprise. Cette découverte s'inscrit dans une tendance plus large où les grands modèles de langage commencent à rivaliser avec des experts humains en audit de code bas niveau, ouvrant la voie à une automatisation partielle de la recherche de vulnérabilités dans des bases de code vieilles de plusieurs décennies.

UELes infrastructures critiques européennes basées sur Linux avec NFS sont directement exposées à cette faille exploitable à distance sans authentification ; les équipes sécurité doivent prioriser l'application des correctifs noyau.

💬 23 ans que cette faille traînait dans le noyau Linux, et c'est un LLM qui la sort. C'est peut-être le meilleur argument concret pour l'IA en sécurité que j'ai vu cette année : pas un benchmark, pas une démo, une vraie CVE sur du code critique que des milliers d'experts ont lu sans la voir. Reste à voir si les équipes sécurité vont suivre le rythme, parce que 5 à 10 signalements valides par jour, c'est un autre métier.

SécuritéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour