Aller au contenu principal
SociétéNext INpact5h

Face à un public inquiet, l’IA continue son expansion à grande vitesse

1 source couvre ce sujet·Source originale ↗·

L'AI Index 2026, publié par le Stanford Institute for Human-Centered Artificial Intelligence, dresse un bilan sans complaisance de l'état mondial de l'intelligence artificielle. Les investissements dans le secteur continuent d'exploser, portés notamment par OpenAI et Anthropic dont les dépenses d'infrastructure atteignent des records historiques. Sur le plan technologique, la Chine a réussi à combler son retard face aux États-Unis en matière de performance des modèles. En robotique industrielle, Pékin a déployé en 2025 plus de robots que le reste du monde réuni, concentrant désormais 54 % du parc mondial. Côté modèles, les capacités progressent dans des directions spectaculaires mais inégales : Gemini Deep Think décroche une médaille d'or aux Olympiades internationales de mathématiques avec 35 points, tandis que la génération d'images commence à simuler des phénomènes physiques comme les vaguelettes sur l'eau. Pourtant, ces mêmes systèmes restent incapables de donner l'heure, et les robots industriels ne parviennent à accomplir que 12 % des tâches ménagères courantes.

Cette croissance a un coût qui dépasse les bilans financiers. L'empreinte environnementale du secteur atteint des proportions préoccupantes : l'entraînement de Grok 4 seul a généré l'équivalent de 72 816 tonnes de CO₂, et la consommation annuelle en eau liée à l'inférence de GPT-4o pourrait dépasser les besoins en eau potable de 12 millions de personnes. Parallèlement, le nombre d'incidents liés à l'IA recensés dans l'AI Incident Database ne cesse d'augmenter d'année en année, tandis que la recherche en IA responsable accuse un retard croissant sur le rythme de déploiement. L'adoption progresse plus vite que pour n'importe quelle technologie précédente : 53 % de la population mondiale a déjà utilisé l'IA en seulement trois ans, un seuil que l'adoption des ordinateurs personnels avait mis plus de quinze ans à franchir. Cette diffusion reste néanmoins très inégale, étroitement corrélée au PIB par habitant de chaque pays.

L'AI Index 2026 s'inscrit dans une longue tradition de bilans annuels que Stanford publie depuis plusieurs années pour offrir aux décideurs, chercheurs et journalistes une vue d'ensemble fondée sur des données. L'édition de cette année reflète une tension structurelle qui s'accentue : l'industrie avance à une vitesse que les cadres réglementaires, les standards de sécurité et même l'opinion publique peinent à suivre. Les populations restent largement sceptiques malgré la généralisation des usages, ce qui pose la question de la confiance à long terme dans ces systèmes. Les suites probables pointent vers une pression réglementaire accrue, notamment en Europe, et vers un débat de plus en plus incontournable sur la soutenabilité énergétique et hydrique d'une industrie dont l'appétit en ressources ne montre aucun signe de ralentissement.

Impact France/UE

Le rapport Stanford anticipe une pression réglementaire accrue en Europe, notamment sur la soutenabilité environnementale de l'IA et le retard de la recherche en IA responsable, dans un contexte où l'AI Act entre progressivement en application.

💬 Le point de vue du dev

72 816 tonnes de CO₂ pour entraîner un seul modèle. C'est ça le vrai chiffre de ce rapport Stanford, pas la médaille aux maths ni les 53% d'utilisateurs mondiaux, même si les deux sont réels. La recherche en IA responsable accumule du retard pendant que l'industrie accélère, et à un moment c'est pas l'Europe le problème, c'est la physique.

À lire aussi

1Numerama 

IA, accélération, mutations : Jérémy Clédat (Welcome to the Jungle) nous livre sa vision du futur du travail

Jérémy Clédat, fondateur et CEO de Welcome to the Jungle, a annoncé au salon Go Entrepreneurs à Paris qu'il avait passé une année entière à refondre en profondeur sa plateforme de recrutement, l'une des références du marché français. Cette nouvelle suite, dont le déploiement est imminent, intègre l'intelligence artificielle au coeur des processus de mise en relation entre candidats et employeurs. Welcome to the Jungle, fondée en 2015, compte aujourd'hui plusieurs millions d'utilisateurs et s'est imposée comme une alternative au modèle LinkedIn en misant sur la marque employeur et la culture d'entreprise. Pour Clédat, l'IA ne se contente pas d'automatiser des tâches : elle redéfinit la nature même des métiers. Les entreprises qui tardent à intégrer ces outils risquent de perdre en compétitivité face à des organisations plus agiles, capables de produire davantage avec des équipes réduites. L'impact touche également l'éducation, où les compétences enseignées aujourd'hui pourraient être obsolètes d'ici cinq ans, posant une question structurelle sur la formation des nouvelles générations. Welcome to the Jungle s'inscrit dans une vague de transformation profonde des plateformes RH, contraintes de repenser leur valeur ajoutée à l'heure où l'IA peut générer des offres d'emploi, trier des CV et conduire des entretiens préliminaires. Clédat, en prenant une année pour reconstruire son produit plutôt que d'y greffer des fonctionnalités à la hâte, parie sur une intégration cohérente plutôt que cosmétique. La question qui reste ouverte est celle du sens du travail dans un monde où la frontière entre tâche humaine et tâche automatisée s'efface progressivement.

UEWelcome to the Jungle, plateforme de recrutement française de référence avec plusieurs millions d'utilisateurs, intègre l'IA au cœur de ses processus RH, avec un impact direct sur le marché de l'emploi et les pratiques de recrutement en France.

SociétéOpinion
1 source
AI Overviews : Google conteste le taux de 10% d’erreurs, mais en dénombre lui-même… 22%
2Next INpact 

AI Overviews : Google conteste le taux de 10% d’erreurs, mais en dénombre lui-même… 22%

Le New York Times a mandaté la start-up Oumi pour analyser les AI Overviews de Google, ces résumés générés par IA qui apparaissent en tête des résultats de recherche, à l'aide du benchmark SimpleQA, publié par OpenAI en 2024 et comportant plus de 4 000 questions à réponses vérifiables. Deux séries de tests ont été conduites : une première en octobre 2025 avec le modèle Gemini 2, une seconde en février 2026 après migration vers Gemini 3, sur un corpus identique de 4 326 recherches Google. Résultat : Gemini 2 répondait correctement dans 85 % des cas, Gemini 3 dans 91 %. Mais le NYT souligne un autre problème : plus de la moitié des réponses correctes de Gemini 3 sont « non étayées », c'est-à-dire qu'elles renvoient vers des sources qui ne confirment pas entièrement l'information fournie, un taux qui a bondi de 37 % à 56 % entre octobre et février, soit une hausse de 50 %. Google a contesté ces chiffres, jugeant que SimpleQA, conçu par un concurrent direct, constitue un benchmark biaisé. Le problème dépasse la simple question de précision technique. Google traite plus de cinq mille milliards de recherches par an, ce qui signifie, selon le calcul du NYT, que des dizaines de millions de réponses erronées sont distribuées chaque heure. À cette échelle, une marge d'erreur de 9 % se traduit par des centaines de milliers d'inexactitudes par minute, diffusées à des utilisateurs qui, selon une étude citée dans l'article, ne vérifient pas les réponses fournies par les IA dans 92 % des cas. La mention « L'IA peut se tromper » affichée en petits caractères sous chaque résumé apparaît donc largement insuffisante face à l'ampleur du phénomène. Le paradoxe central de cette affaire est que Google, en contestant le benchmark d'OpenAI, a mis en avant son propre outil de mesure, révisé pour être, selon ses termes, « plus précis ». Or cet outil interne aboutit à un taux d'erreur supérieur à 20 %, soit le double du chiffre que Google cherchait à réfuter. La situation illustre la tension structurelle à laquelle font face les grands moteurs de recherche : intégrer des LLMs pour rester compétitifs face à ChatGPT et Perplexity, tout en assumant une responsabilité éditoriale sur des milliards de réponses quotidiennes. Gemini 3 progresse en précision brute, mais dégrade simultanément la traçabilité des sources, un compromis qui soulève des questions durables sur la fiabilité des interfaces IA comme point d'entrée unique vers l'information.

UELes utilisateurs européens de Google Search sont directement exposés à ces taux d'erreur élevés, soulevant des questions de transparence et de responsabilité éditoriale dans le cadre des obligations de l'AI Act.

SociétéActu
1 source
Les Américains consultent l'IA pour leur santé : les hôpitaux misent sur encore plus de chatbots
3Ars Technica AI 

Les Américains consultent l'IA pour leur santé : les hôpitaux misent sur encore plus de chatbots

De plus en plus d'Américains se tournent vers les grands modèles de langage comme ChatGPT pour obtenir des conseils médicaux, et les systèmes de santé du pays commencent à réagir en déployant leurs propres chatbots estampillés à leur marque. Des établissements hospitaliers à travers les États-Unis expérimentent ou lancent déjà ces outils, dans le but de capter une demande existante et de rediriger les patients vers leurs propres services. Allon Bloch, PDG de la société d'IA clinique K Health, résume la situation ainsi : "Nous sommes à un point d'inflexion dans les soins de santé. La demande s'accélère, et les patients utilisent déjà l'IA pour naviguer dans leur vie." Pour les dirigeants de ces établissements, les chatbots maison représentent à la fois un service de commodité et une réponse à l'équité numérique, en rejoignant les patients là où ils se trouvent déjà. Ils avancent également que leurs outils seront plus sûrs que les versions commerciales grand public auxquelles les patients ont spontanément recours. L'enjeu est considérable : si les gens consultent de toute façon une IA avant d'appeler leur médecin, autant que ce soit une IA encadrée par des professionnels de santé plutôt qu'un outil généraliste sans garde-fous médicaux. Cette tendance émerge dans un contexte où le système de santé américain est déjà sous pression, jugé coûteux et sous-performant par de nombreux observateurs. L'arrivée des chatbots hospitaliers soulève des questions immédiates sur la responsabilité médicale, la confidentialité des données de santé et le risque de mauvais diagnostics. Le mouvement s'inscrit dans une vague plus large d'adoption de l'IA dans le secteur médical, qui voit des acteurs comme Google, Microsoft et des startups spécialisées se positionner sur ce marché stratégique. La capacité des hôpitaux à proposer des alternatives crédibles aux outils grand public dépendra largement de la qualité des données cliniques sur lesquelles ces systèmes seront formés et des protocoles de supervision médicale mis en place.

UECette tendance américaine pourrait se propager aux systèmes de santé européens, soulevant des enjeux réglementaires autour du RGPD et de la responsabilité médicale des chatbots déployés par des établissements de soins.

SociétéOutil
1 source
Les attaques contre Sam Altman sont un avertissement pour le monde de l'IA
4The Verge AI 

Les attaques contre Sam Altman sont un avertissement pour le monde de l'IA

Un homme de 20 ans a été accusé d'avoir lancé un cocktail Molotov au domicile de Sam Altman, PDG d'OpenAI, à San Francisco. Selon le San Francisco Chronicle, l'auteur présumé avait exprimé par écrit sa crainte que la course à l'IA ne conduise à l'extinction de l'humanité. Deux jours après cette première attaque, la résidence d'Altman aurait été ciblée une seconde fois, d'après le San Francisco Standard. Une semaine auparavant, un conseiller municipal d'Indianapolis avait signalé treize coups de feu tirés à sa porte, accompagnés d'un message "No Data Centers", après avoir soutenu un projet de rezonage en faveur d'un opérateur de centres de données. Ces incidents ont déclenché une vive inquiétude au sein et autour de l'industrie de l'IA. Ils signalent que l'hostilité envers le secteur technologique ne reste plus confinée aux pétitions ou aux protestations en ligne, mais peut déboucher sur des actes de violence physique ciblant directement des dirigeants et des élus locaux. Pour une industrie déjà sous pression réglementaire et médiatique, ce glissement vers la menace concrète représente un changement de nature dans le rapport avec l'opinion publique. La résistance aux grandes infrastructures numériques, notamment aux centres de données énergivores, et aux avancées rapides de l'IA existe depuis plusieurs années dans diverses communautés. Des groupes s'inquiètent des risques existentiels liés à l'IA générale, tandis que d'autres dénoncent l'impact environnemental et foncier des data centers. Ces attaques surviennent dans un contexte de débat intense sur la régulation de l'IA aux États-Unis et en Europe, et posent la question de la sécurité des figures publiques du secteur technologique dans les mois à venir.

UECes actes de violence aux États-Unis pourraient amplifier les appels à une meilleure régulation de l'IA en Europe, sans impact direct immédiat sur la France ou l'UE.

SociétéOpinion
1 source