À lire aussi

Musk propose de reverser tous les dommages à l'association Open AI pour vaincre Altman en justice
Elon Musk a modifié mardi sa plainte contre OpenAI et son PDG Sam Altman, qui les accuse d'avoir trahi la mission originelle de l'organisation. Dans ce nouvel amendement, il précise que les éventuels dommages et intérêts récupérés ne lui reviendraient pas personnellement, mais seraient reversés intégralement à la branche caritative à but non lucratif d'OpenAI. Son avocat, Marc Toberoff, a confirmé l'information au Wall Street Journal : Musk « ne cherche pas un seul dollar pour lui-même ». Cette clarification vise à neutraliser l'un des principaux arguments défensifs d'OpenAI, qui présentait la procédure comme une manœuvre d'intimidation destinée à nuire à une entreprise concurrente. En retirant toute dimension financière personnelle du recours, Musk tente de recentrer le débat sur le fond : le respect de la mission sociale d'OpenAI, initialement constituée comme une organisation d'intérêt public, et non comme une entreprise commerciale orientée vers le profit. Musk est l'un des cofondateurs d'OpenAI, qu'il a quitté en 2018, avant de devenir l'un de ses rivaux les plus directs avec xAI et son modèle Grok. Le contentieux s'inscrit dans un contexte de transformation profonde d'OpenAI, qui cherche à convertir sa structure en société à but lucratif classique, un virage que plusieurs observateurs et anciens membres contestent. La bataille juridique, doublée d'une guerre commerciale dans l'IA générative, pourrait contraindre OpenAI à justifier publiquement l'évolution de sa gouvernance devant les tribunaux.
UELa bataille juridique pourrait forcer OpenAI à justifier sa gouvernance publiquement, ce qui aurait des répercussions sur sa conformité avec l'AI Act européen et ses obligations envers ses partenaires en Europe.

Amazon utilise des agents IA pour la détection de vulnérabilités à grande échelle
En 2025, la base de données nationale des vulnérabilités américaine (NVD) a enregistré plus de 48 000 nouvelles failles de sécurité référencées (CVE), un volume rendu possible en grande partie par la prolifération des outils automatisés de détection. Face à cette explosion, Amazon Web Services a développé RuleForge, un système d'intelligence artificielle agentique conçu pour générer automatiquement des règles de détection à partir d'exemples de code d'exploitation de vulnérabilités. Déployé en production chez AWS, RuleForge affiche une productivité supérieure de 336 % à la création manuelle, tout en conservant le niveau de précision exigé pour des systèmes de sécurité industriels. Les règles produites sont au format JSON et alimentent directement MadPot, le système mondial de "honeypot" d'Amazon qui capture le comportement des attaquants, ainsi que Sonaris, le moteur interne de détection d'exploits suspects. Avant RuleForge, transformer une CVE en règle de détection opérationnelle était un processus entièrement manuel : un analyste téléchargeait le code de preuve de concept, étudiait le mécanisme d'attaque, rédigeait la logique de détection, la validait par itérations successives contre les journaux de trafic, puis soumettait le tout à une revue par un second ingénieur avant déploiement. Ce cycle, rigoureux mais lent, obligeait les équipes à prioriser strictement les vulnérabilités traitées, laissant potentiellement des failles critiques sans couverture. RuleForge comprime ce délai de façon drastique : le système ingère automatiquement le code d'exploitation public, attribue un score de priorité via une analyse de contenu croisée avec des sources de threat intelligence, puis génère en parallèle plusieurs règles candidates via un agent tournant sur AWS Fargate avec Amazon Bedrock. Chaque candidate est évaluée non pas par le modèle qui l'a produite, mais par un agent "juge" distinct, évitant ainsi l'auto-validation biaisée. Les humains restent dans la boucle pour l'approbation finale avant mise en production. Cette architecture reflète une tendance profonde dans la sécurité offensive et défensive : l'automatisation par IA ne remplace pas les experts, elle leur permet de travailler à une échelle autrement inaccessible. AWS anticipe une croissance continue du nombre de CVE à haute sévérité publiées, portée par les mêmes outils d'IA qui accélèrent la découverte de failles côté attaquants. RuleForge représente la réponse symétrique côté défense, en industrialisant la réactivité. L'approche modulaire, avec des agents spécialisés pour la génération, l'évaluation et le raffinement, plutôt qu'un seul modèle monolithique, s'inscrit dans la lignée des architectures multi-agents qui émergent comme standard pour les tâches complexes nécessitant fiabilité et auditabilité. D'autres grands acteurs du cloud font face aux mêmes défis, et la publication par Amazon des détails de RuleForge suggère une volonté de positionner cette approche comme référence sectorielle.

Un quart des citations dans les réponses des chatbots IA provient du journalisme, selon une étude Muckrack
Une étude publiée par Muckrack, plateforme spécialisée dans les relations presse, a analysé 15 millions de citations produites par les trois principaux chatbots d'intelligence artificielle, ChatGPT, Claude et Gemini. Résultat : une référence sur quatre renvoie à une source journalistique. Les publications spécialisées et les journalistes sectoriels sont les plus cités, tandis que les grands médias généralistes apparaissent moins fréquemment dans les réponses des modèles. Ce constat a des implications concrètes pour l'industrie des médias. Les publications de niche et les titres spécialisés, tech, santé, finance, droit, semblent tirer un bénéfice disproportionné de la montée en puissance des assistants IA, qui les utilisent comme sources de référence fiables. Pour les annonceurs et les équipes de relations presse, cela signifie que la visibilité dans les chatbots passe désormais par la presse spécialisée autant que par les grands portails d'information. Cette étude s'inscrit dans un débat plus large sur la relation entre les modèles de langage et le journalisme. Plusieurs grands groupes de presse, dont The New York Times, ont engagé des poursuites judiciaires contre OpenAI pour utilisation non autorisée de leurs contenus à des fins d'entraînement. D'autres éditeurs ont préféré signer des accords de licence avec les laboratoires d'IA. La question de savoir si cette exposition dans les réponses des chatbots constitue une forme de valeur compensatoire, ou au contraire un détournement de trafic, reste au coeur des négociations en cours entre médias et acteurs de l'IA générative.
UELes éditeurs de presse français et européens, déjà engagés sur les droits voisins, peuvent s'appuyer sur ces données pour renforcer leurs positions dans les négociations de licences avec les labs d'IA.

Des bots de dénudification, des deepfakes et des archives automatisées : comment l'IA alimente un écosystème d'abus monétisé sur Telegram
Une analyse de 2,8 millions de messages Telegram en Italie et en Espagne révèle comment les outils d'intelligence artificielle alimentent un écosystème monétisé reposant sur la production et la diffusion massive d'images intimes non consenties. Des bots de "nudification" automatisée, des deepfakes et des archives organisées permettent à des réseaux de générer des contenus pornographiques à partir de photos anodines de femmes réelles, souvent sans qu'elles en sachent rien. Ces services sont commercialisés directement sur Telegram, avec des systèmes d'abonnement et de paiement intégrés. L'impact est considérable : des milliers de victimes voient leur image détournée et diffusée à grande échelle, avec des conséquences psychologiques, professionnelles et sociales graves. La monétisation de ces contenus crée une incitation économique durable qui rend la lutte contre ce phénomène particulièrement complexe. La facilité d'accès aux outils et l'anonymat relatif de Telegram transforment ce qui relevait autrefois d'actes isolés en une industrie structurée de l'abus sexuel en ligne. Ce phénomène s'inscrit dans une tendance plus large d'utilisation malveillante des technologies génératives, dont la démocratisation depuis 2022-2023 a drastiquement abaissé le niveau technique requis pour produire des deepfakes réalistes. Les législateurs italiens et espagnols, comme d'autres pays européens, sont sous pression pour criminaliser explicitement ces pratiques. L'Union européenne, à travers l'AI Act et la directive sur la violence à l'égard des femmes adoptée en 2024, tente d'apporter un cadre légal, mais l'application reste un défi majeur face à des plateformes opérant souvent hors juridiction.
UEL'Italie et l'Espagne sont au cœur de l'enquête, et l'UE est sous pression pour appliquer l'AI Act et la directive 2024 sur la violence faite aux femmes face à ces abus systématisés.