Aller au contenu principal
AutreZDNET FR10h

Ce que TurboQuant de Google peut et ne peut pas faire face à la flambée des coûts de l'IA

1 source couvre ce sujet·Source originale ↗·

À lire aussi

1Siècle Digital 

Une erreur humaine provoque une fuite massive du code de Claude

Le 31 mars 2026, Anthropic a accidentellement publié du code source interne de Claude dans la version 2.1.88 de son outil Claude Code, disponible sur le registre npm. L'incident n'a rien d'un acte de piratage ou d'espionnage industriel : une équipe a simplement oublié d'exclure un fichier sensible avant la mise en ligne du package. Le code s'est retrouvé accessible publiquement le temps que l'erreur soit détectée et corrigée. La fuite expose une vulnérabilité organisationnelle chez l'un des acteurs les plus scrutés de l'IA. Pour Anthropic, dont la valorisation dépasse les 60 milliards de dollars et dont les modèles sont utilisés par des milliers d'entreprises, laisser du code propriétaire fuiter via un registre public constitue une erreur de processus significative. Selon la nature du code exposé, cela peut révéler des détails d'implémentation, des logiques internes ou des pipelines de traitement qui alimentent directement la recherche concurrentielle. Cet incident s'inscrit dans un contexte où les grandes entreprises d'IA multiplient les outils destinés aux développeurs, souvent publiés à cadence rapide sur des registres ouverts comme npm ou PyPI. Cette vélocité augmente le risque d'erreurs humaines dans les pipelines de publication, un angle mort classique des équipes d'ingénierie sous pression. Anthropic n'est pas la première société à subir ce type de fuite par négligence, mais l'incident rappelle que la sécurité des actifs intellectuels dans l'IA passe aussi par des garde-fous élémentaires dans le cycle de livraison logicielle.

AutreOpinion
1 source
2Le Monde Pixels 

Yoshua Bengio, Prix Turing 2018, lanceur d’alerte sur l’intelligence artificielle

Yoshua Bengio, lauréat du prix Turing 2018 avec Geoffrey Hinton et Yann LeCun pour leurs travaux fondateurs sur l'apprentissage profond, s'est progressivement imposé comme l'une des voix les plus influentes en faveur d'une régulation stricte de l'intelligence artificielle. Chercheur à l'Université de Montréal et fondateur du MILA, il a co-signé en 2023 la lettre ouverte appelant à une pause dans le développement des IA les plus puissantes, et témoigné devant plusieurs gouvernements, dont le Sénat américain et le Parlement européen. Sa prise de position tranche avec celle de son collègue Yann LeCun, directeur scientifique de Meta AI, qui minimise les risques existentiels liés à l'IA. Bengio estime au contraire que les systèmes actuels évoluent trop vite pour que les garde-fous éthiques et réglementaires puissent suivre, mettant en danger aussi bien les démocraties que la sécurité mondiale. Ce tournant s'inscrit dans un contexte où plusieurs pionniers du domaine — dont Geoffrey Hinton, qui a quitté Google en 2023 — ont choisi de sonner l'alarme publiquement. Bengio milite désormais pour un traité international sur l'IA, comparable aux conventions sur les armes biologiques, et collabore avec l'ONU et plusieurs gouvernements pour en poser les bases.

UEBengio a témoigné devant le Parlement européen et milite pour un traité international sur l'IA, influençant directement le cadre réglementaire de l'AI Act et les débats institutionnels européens.

AutreOpinion
1 source
3AI News 

Experian révèle un paradoxe de fraude dans l'adoption de l'IA par les services financiers

Experian a publié début 2026 son rapport annuel sur les tendances de la fraude, et les chiffres sont édifiants : les consommateurs américains ont perdu plus de 12,5 milliards de dollars à cause de la fraude en 2024, selon les données de la FTC. Sur la même période, près de 60 % des entreprises interrogées par Experian ont signalé une augmentation de leurs pertes liées à la fraude entre 2024 et 2025. En face, les solutions de prévention d'Experian auraient permis à ses clients d'éviter environ 19 milliards de dollars de pertes frauduleuses dans le monde en 2025. Le rapport identifie cinq grandes menaces pour 2026, dont la plus préoccupante est ce que l'entreprise appelle le « machine-to-machine mayhem » : le moment où des agents IA autonomes, conçus pour effectuer des transactions au nom des utilisateurs, deviennent indiscernables des bots que les fraudeurs déploient à exactement les mêmes fins. Ce paradoxe révèle une faille structurelle dans l'adoption de l'IA par le secteur financier. Plus les organisations intègrent des agents capables de décisions autonomes, plus elles offrent aux fraudeurs une surface d'attaque à très grande échelle et à vitesse non humaine. La question de la responsabilité légale reste entière : quand un agent IA initie une transaction qui s'avère frauduleuse, personne ne sait clairement qui est responsable. Kathleen Peters, directrice de l'innovation fraude chez Experian North America, résume l'enjeu : « La technologie accélère l'évolution de la fraude, la rendant plus sophistiquée et plus difficile à détecter. » D'autres menaces identifiées dans le rapport sont tout aussi concrètes : des candidats deepfake infiltrent les processus de recrutement à distance — le FBI et le DOJ ont multiplié les alertes en 2025 sur des opératives nord-coréens ayant ainsi obtenu des postes dans des entreprises américaines. Les bots de type romance scam deviennent émotionnellement convaincants grâce à l'IA générative, tandis que le clonage de sites web par IA surcharge les équipes antifraude avec des domaines usurpés qui ressurgissent même après suppression. Enfin, les appareils connectés — assistants vocaux, serrures intelligentes — ouvrent de nouveaux points d'entrée dans les données personnelles. Ce rapport arrive à un moment charnière : 2026 s'annonce comme l'année où l'industrie sera forcée de trancher des questions de gouvernance sur l'IA agentique que personne n'a encore voulu aborder frontalement. Amazon a déjà bloqué les agents IA tiers de son écosystème, invoquant des raisons de sécurité — un signal précoce de la tension à venir entre innovation et protection. Experian, acteur central du scoring et de la vérification d'identité, se retrouve dans une position ambivalente : vendre des outils IA de défense tout en documentant comment ces mêmes outils alimentent l'offensive. Le secteur financier entre dans une course aux armements algorithmique où la vitesse d'adaptation sera le principal avantage concurrentiel — et où les régulateurs n'ont pas encore de réponse claire à apporter.

UELes institutions financières européennes utilisant des agents IA pour les transactions automatisées sont exposées aux mêmes risques de fraude machine-à-machine, dans un contexte où l'AI Act impose des exigences de gouvernance sur les systèmes IA à haut risque dans le secteur financier.

AutreActu
1 source
4La Tribune 

OPINION. « Fin de la taxe Zucman : vers une fiscalité des agents intelligents »

Gabriel Zucman, économiste français reconnu pour ses travaux sur la fiscalité des ultra-riches, a défendu une taxation mondiale des grandes fortunes comme réponse aux inégalités croissantes. Mais une tribune d'opinion publiée récemment remet en question cette approche au profit d'une nouvelle piste : taxer directement les agents intelligents plutôt que les individus ou les entreprises qui les déploient. L'argument central est que le modèle fiscal des économies développées repose encore sur le travail humain — cotisations, impôts sur les revenus — alors que l'automatisation par IA érode progressivement cette base. L'enjeu est considérable : si les agents IA remplacent des millions de travailleurs, les États perdent des recettes fiscales massives sans mécanisme de compensation. Une fiscalité des agents intelligents permettrait de maintenir le financement des services publics et de la protection sociale à mesure que l'automatisation s'accélère. Cela toucherait directement les grandes entreprises tech — Google, Meta, Microsoft — qui déploient ces systèmes à grande échelle. Ce débat s'inscrit dans une réflexion plus large sur l'adaptation des États à l'ère de l'IA. Plusieurs économistes et institutions, dont l'OCDE, commencent à explorer des pistes similaires. La question n'est plus théorique : avec l'explosion des agents autonomes capables de réaliser des tâches cognitives complexes, la fenêtre pour concevoir un cadre fiscal adapté se referme rapidement.

UEL'OCDE et des économistes européens, dont le Français Gabriel Zucman, explorent une taxation directe des agents IA pour compenser l'érosion des recettes fiscales liées à l'automatisation, un enjeu structurel pour le financement de la protection sociale en France et en Europe.

AutreReglementation
1 source