Aller au contenu principal
"Détecter les situations d'urgence sur les réseaux sociaux"
SociétéSciences et Avenir Tech3h

"Détecter les situations d'urgence sur les réseaux sociaux"

1 source couvre ce sujet·Source originale ↗·

Alda Mari, linguiste et chercheuse au CNRS, a reçu la médaille de l'innovation 2025 du CNRS pour avoir conçu Intact, un logiciel d'intelligence artificielle capable de détecter automatiquement les situations d'urgence dans les flux de réseaux sociaux lors de crises environnementales. Ce système analyse en temps réel des milliers de publications pour identifier les signaux critiques, appels à l'aide, signalements d'inondations, coupures de routes, noyés dans le bruit informationnel habituel.

L'enjeu est majeur pour les services de secours et les autorités de gestion de crise, qui se trouvent souvent submergés d'informations contradictoires lors d'événements comme des tempêtes, des feux de forêt ou des inondations. Intact leur offre un filtre intelligent pour prioriser les interventions et orienter les ressources là où elles sont réellement nécessaires, potentiellement en sauvant des vies grâce à une réponse plus rapide.

La médaille de l'innovation du CNRS, créée en 2011, récompense des recherches ayant débouché sur des applications concrètes à fort impact sociétal. Le travail d'Alda Mari s'inscrit dans un champ plus large croisant linguistique computationnelle et gestion des catastrophes naturelles, un domaine en plein essor à mesure que les crises climatiques se multiplient et que les réseaux sociaux deviennent la première source d'information terrain lors de ces événements.

Impact France/UE

Un outil développé par le CNRS pour détecter les urgences en temps réel sur les réseaux sociaux lors de crises environnementales, directement applicable aux services de secours français et européens.

💬 Le point de vue du dev

Ça fait des années qu'on parle de l'IA comme outil de veille de crise, et là, enfin quelqu'un a fait quelque chose qui tient la route. Ce qui est malin, c'est que c'est une linguiste qui l'a construit, pas une boîte tech avec un tableau de bord en plus, et ça se voit dans l'approche. Reste à voir ce que ça donne quand une catastrophe génère des millions de posts en quelques heures.

À lire aussi

Les chatbots IA progressent sept fois plus vite que les réseaux sociaux, mais restent quatre fois moins fréquentés
1The Decoder 

Les chatbots IA progressent sept fois plus vite que les réseaux sociaux, mais restent quatre fois moins fréquentés

Le trafic vers les chatbots d'intelligence artificielle croît sept fois plus vite que celui des réseaux sociaux, mais reste quatre fois inférieur en volume total, selon une analyse publiée par Similarweb. Ces données portent sur les principales plateformes de conversation IA, dont ChatGPT d'OpenAI, Gemini de Google et Claude d'Anthropic, et révèlent des différences notables entre ces deux catégories de services numériques, notamment dans les habitudes d'utilisation selon les appareils et les comportements des utilisateurs. Ce rythme de croissance exceptionnel illustre l'adoption massive et rapide des outils d'IA conversationnelle par le grand public, mais l'écart de volume avec les réseaux sociaux rappelle que ces derniers restent ancrés dans le quotidien numérique de milliards de personnes. Pour les acteurs du secteur tech, cela signifie que le marché de l'IA conversationnelle est encore loin de sa maturité et que les marges de progression restent considérables. La question des usages par appareil est particulièrement stratégique : les chatbots sont aujourd'hui davantage utilisés sur ordinateur, là où les réseaux sociaux dominent sur mobile. Cette dynamique s'inscrit dans un contexte de compétition intense entre les grandes plateformes d'IA, qui multiplient les mises à jour et les nouvelles fonctionnalités pour capter des parts de marché. Les réseaux sociaux, eux, ont bénéficié de deux décennies d'intégration dans les usages quotidiens. Si la trajectoire actuelle se maintient, l'écart de trafic entre les deux catégories pourrait se réduire significativement dans les prochaines années, à mesure que l'IA s'intègre dans davantage d'applications et de flux de travail professionnels.

SociétéOutil
1 source
Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA
2The Verge AI 

Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA

Face à la montée en puissance des outils de génération d'images et de texte, une tendance inquiétante émerge dans les communautés créatives en ligne : les humains sont désormais soupçonnés de produire du contenu artificiel, même lorsqu'il s'agit de leur propre travail. Des plateformes comme Instagram, X ou DeviantArt peinent à détecter et étiqueter de manière fiable le contenu généré par IA, laissant illustrateurs, photographes et écrivains se défendre seuls face aux accusations de tromperie. Cette situation crée une asymétrie profondément injuste. Les créateurs humains subissent une présomption de culpabilité tandis que les systèmes d'IA — Midjourney, DALL-E, Sora ou autres — ne sont soumis à aucune obligation d'identification cohérente de leurs productions. Pour les artistes et journalistes qui tirent leurs revenus de leur travail original, cette confusion érode la confiance du public et dévalue leur création. L'absence d'étiquetage fiable profite avant tout aux plateformes et aux entreprises d'IA, au détriment des producteurs de contenu humain. Une solution radicale commence à s'imposer dans le débat : instaurer un label universel pour le contenu humain, comparable au logo Fair Trade ou au label bio, qui permettrait aux créateurs de certifier l'origine de leur travail. Cette idée, portée notamment par des chroniqueurs de The Verge, renverse la logique habituelle — plutôt que de traquer l'IA, on authentifie l'humain. Des initiatives comme C2PA (Coalition for Content Provenance and Authenticity), soutenue par Adobe, Microsoft et d'autres, explorent déjà des standards techniques de provenance, mais leur adoption reste fragmentée et volontaire.

UELes créateurs indépendants européens — illustrateurs, photographes, journalistes — subissent la même présomption de culpabilité sans cadre contraignant ; l'AI Act pourrait servir de levier pour imposer un étiquetage obligatoire des contenus IA à l'échelle de l'UE.

SociétéOpinion
1 source
Des chercheurs constatent que les utilisateurs d'IA abandonnent facilement leur jugement aux LLM
3Ars Technica AI 

Des chercheurs constatent que les utilisateurs d'IA abandonnent facilement leur jugement aux LLM

Une étude publiée par des chercheurs de l'Université de Pennsylvanie met en lumière un phénomène qu'ils nomment la "reddition cognitive" : la tendance croissante de certains utilisateurs d'IA à déléguer entièrement leur réflexion critique aux grands modèles de langage. Intitulée "Thinking — Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender", la recherche s'appuie sur des expérimentations contrôlées pour analyser dans quelles conditions les individus abandonnent leur jugement au profit des réponses d'un système automatisé. Les facteurs étudiés incluent la pression temporelle, les incitations externes, et la perception d'autorité des outils d'IA. Ce travail a des implications concrètes pour des millions d'utilisateurs professionnels et grand public qui recourent quotidiennement à des outils comme ChatGPT, Claude ou Gemini. Lorsque la reddition cognitive s'installe, les erreurs factuelles, les biais algorithmiques et les raisonnements défectueux des modèles passent inaperçus — l'utilisateur ne vérifie plus, il accepte. Pour les entreprises qui déploient ces outils à grande échelle dans des processus décisionnels, le risque est systémique : une confiance aveugle dans des sorties LLM non contrôlées peut amplifier des erreurs plutôt que les corriger. Le cadre théorique s'inscrit dans la continuité des travaux de Daniel Kahneman sur les deux systèmes de pensée : le Système 1, rapide et intuitif, et le Système 2, lent et analytique. Les chercheurs de Penn proposent un troisième système, la "cognition artificielle", dans lequel les décisions sont pilotées par un raisonnement externe, automatisé et algorithmique, étranger à l'esprit humain. Cette taxonomie ouvre la voie à de nouvelles recherches sur la façon dont l'IA reconfigure les habitudes intellectuelles, et pose une question urgente pour les concepteurs de ces systèmes : comment concevoir des interfaces qui encouragent la supervision critique plutôt que la passivité cognitive ?

SociétéActu
1 source
Décès de Chuck Norris : l’IA ravage la famille de l’acteur
4Presse-citron 

Décès de Chuck Norris : l’IA ravage la famille de l’acteur

La famille de Chuck Norris a publié un communiqué officiel sur Instagram deux semaines après le décès de l'acteur américain, pour dénoncer une vague de publications générées par intelligence artificielle qui ont envahi les réseaux sociaux à la suite de sa mort. Des contenus fabriqués, incluant fausses citations, faux hommages et informations erronées, ont circulé massivement au nom de l'icône du cinéma d'action. L'affaire illustre un phénomène croissant : la mort d'une personnalité publique devient désormais un terrain fertile pour la désinformation automatisée. Les outils génératifs permettent de produire en quelques secondes du contenu crédible en apparence, exploitant l'émotion du deuil collectif pour maximiser l'engagement. Les proches sont contraints de réagir publiquement pour contrer des récits qu'ils n'ont jamais validés. Chuck Norris occupe une place particulière dans la culture internet, notamment grâce aux célèbres "Chuck Norris facts" qui ont fait de lui un mème mondial depuis les années 2000. Cette notoriété numérique l'a rendu d'autant plus vulnérable à ce type d'exploitation posthume. L'incident relance le débat sur la responsabilité des plateformes face aux contenus IA générés lors d'événements sensibles, et sur la nécessité d'outils de vérification plus rapides.

UELe phénomène illustre les lacunes de modération sur les plateformes, un enjeu directement encadré par le DSA européen qui impose aux grandes plateformes de lutter contre la désinformation automatisée.

SociétéActu
1 source