Les capacités offensives des modèles d'IA en cybersécurité doublent tous les 5,7 mois depuis 2024, selon une étude publiée par des chercheurs spécialisés dans la sécurité des systèmes d'IA. Des modèles comme Opus 4.6 et GPT-5.3 Codex sont désormais capables d'exploiter des failles que seuls des experts humains pouvaient identifier il y a deux ans. À ce rythme, la question n'est plus de savoir si l'IA va transformer les cybermenaces, mais à quelle vitesse les défenses vont devoir s'adapter.
Aux États-Unis, des milliers de demandeurs d'emploi ont attaqué en justice Workday, l'un des principaux éditeurs de logiciels RH, pour discrimination algorithmique. Leurs outils d'IA auraient systématiquement écarté des candidats selon leur âge, leur race ou leur handicap, sans que ces personnes ne le sachent ni ne puissent le contester. L'affaire pose une question que les entreprises préfèrent éviter : quand l'IA filtre les humains, qui est juridiquement responsable de ses biais ?
Microsoft a, de son côté, glissé discrètement dans les conditions d'utilisation de Copilot que le service serait destiné à des fins de divertissement uniquement. Une formulation qui tranche brutalement avec les promesses commerciales d'un assistant professionnel de premier plan. Ces trois actualités pointent vers le même angle mort : l'IA s'est imposée dans la sécurité, l'emploi et le travail quotidien avant que les cadres de responsabilité ne soient en place, et c'est ce retard qui va occuper les juristes, les régulateurs et les entreprises dans les mois à venir.
