
L’IA de Google produit « des dizaines de millions d’erreurs chaque heure »
Une enquête du New York Times révèle que les résumés générés automatiquement par Gemini, l'intelligence artificielle de Google, comportent des erreurs dans environ un cas sur dix. À l'échelle des milliards de requêtes traitées chaque jour par le moteur de recherche, ce taux d'échec représente des dizaines de millions d'informations incorrectes diffusées chaque heure auprès des utilisateurs. Ces erreurs peuvent prendre la forme de faits inventés, de dates erronées, de citations tronquées ou de conclusions déformées présentées comme des synthèses fiables.
L'enjeu est considérable : contrairement à un lien classique que l'utilisateur peut ignorer ou croiser avec d'autres sources, les résumés IA s'affichent en tête de page dans un format qui inspire confiance et réduit l'incitation à vérifier. Pour des millions de personnes qui se fient désormais à ces encadrés pour obtenir une réponse rapide, chaque erreur peut se transformer en croyance erronée difficilement corrigeable. Les professionnels de santé, juristes, enseignants ou journalistes qui utilisent Google comme outil de travail sont directement exposés.
Google a déployé ses résumés IA, baptisés AI Overviews, à grande échelle depuis mai 2024 aux États-Unis, puis progressivement dans le reste du monde, malgré plusieurs incidents embarrassants dès le lancement. La course à l'intégration de l'IA dans les moteurs de recherche, portée aussi par Microsoft Bing et Perplexity, pousse les acteurs à déployer vite plutôt qu'à déployer bien. Cette révélation relance le débat sur la responsabilité des plateformes face à la désinformation algorithmique et sur la nécessité d'une régulation plus stricte de ces fonctionnalités.
Google AI Overviews étant déployé progressivement en Europe, les utilisateurs français et européens sont exposés à ce flux d'erreurs, renforçant les arguments pour une régulation stricte des résumés IA dans le cadre de l'AI Act.



