Aller au contenu principal
AutreNext INpact1sem

Quand l’IA s’invite dans les municipales

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Lors des élections municipales françaises, l'IA a été utilisée par divers candidats — Karl Olive (Poissy), Florence Woerth (Chantilly) ou Sarah Knafo (Paris) — pour rédiger des discours, générer des affiches et automatiser des comptes-rendus. Des dérives ont émergé : à Strasbourg, Virginie Joran (RN) a diffusé une rue fictive générée par IA pour critiquer la gestion écologiste, tandis qu'à Corbeil-Essonnes et Guéret, des candidats ont porté plainte pour des images dégradantes les représentant. L'association Pause IA, qui alertait sur les risques existentiels de l'IA, a peu convaincu : ses interlocuteurs parmi les candidats ont majoritairement échoué à se qualifier pour le second tour.

Impact France/UE

L'utilisation de l'IA lors des municipales françaises a conduit à des plaintes pénales pour images dégradantes et à des cas documentés de désinformation visuelle, posant la question d'un encadrement légal spécifique en France.

IA quoi ? Utilisée par certains candidats, refusée par d’autres, l’intelligence artificielle s’est aussi immiscée dans certaines discussions de campagne municipale à l’initiative de l’association Pause IA. Peu de candidats sensibles à son discours sur les risques existentiels se sont qualifiés pour le second tour des élections. L’intelligence artificielle est partout. L’est-elle jusque dans les municipales ? À en croire les usages d’une variété de candidats, oui. En février, le maire divers gauche de Barentin (Seine-Maritime) Christophe Bouillon comme le communicant politique Paul Brounais le déclaraient au Monde : si tout le monde a de l’IA dans la poche, autant s’en servir aussi pour faire campagne. Cela dit, par conviction personnelle ou mobilisés par des associations comme Pause IA, certains ont décidé de rejeter plus ou moins explicitement le recours à ces technologies. Des militants de la « sécurité de l’intelligence artificielle » lancent Pause IA en France De l’IA dans la préparation des campagnes À quoi l’IA peut-elle servir dans un contexte d’élection locale ? Dans certains cas, il s’agit simplement de reproduire des usages du monde professionnel : recourir à l’IA pour prendre des notes de réunions puis en établir la synthèse, comme l’a fait le candidat de Poissy Karl Olive (Renaissance), voire pour les faire lire sous forme de courts podcasts et les rendre ainsi accessibles sur toutes les plateformes, comme l’a proposé Florence Woerth (divers droite) à Chantilly. Dans d’autres, les moteurs génératifs permettent d’écrire un premier jet de discours, voire d’imaginer des affiches ou des contenus pour les réseaux sociaux, comme l’a largement illustré la candidate Reconquête à Paris Sarah Knafo . Problème, la génération d’images irréelles permet non seulement d’attaquer les politiques menées jusque-là, mais aussi d’attaquer nommément. À Strasbourg, la gestion écologiste a par exemple été critiquée par la candidate Rassemblement National Virginie Joran à l’aide d’une vidéo d’une rue représentée pleine de déchets… sauf que la rue en question n’existe pas : elle a été générée par IA. En amont des municipales, X et TikTok présentent un biais vers l’extrême droite À Corbeil-Essonnes, la candidate Samira Ketfi (divers droite) a porté plainte après s’être retrouvée représentée en tenue de danseuse orientale. L’image repose « sur des stéréotypes à connotation raciste et sexiste » , a-t-elle écrit au procureur de la République. À Guéret, les candidats Marie-Françoise Fournier (sans étiquette) et Didier Hoeltgen (PS) ont tous deux porté plainte contre la diffusion, par un compte Facebook anonyme, d’images détournées des opposants pour la mairie. Le commissariat « a indiqué qu’il n’y aurait pas de suite , explique le second au Monde . Ils disent que Facebook ne répond pas à la justice en France. L’impunité est totale. » Les candidats dont s’étaient rapprochés Pause IA en mauvaise posture Dans ces conditions, quid du développement de l’intelligence artificielle en général ? Quid des enjeux politiques que le développement de l’industrie crée pour la France en général, et les communes en particulier ? La question a été soulevée par divers acteurs de la société civile, de la dizaine d’associations qui proposaient dès la fin 2025 des mesures pour une « désescalade numérique » jusqu’aux acteurs engagés pour faire de la construction de certains centres de données un sujet de débat à part entière. Entre la chaise et le clavier #2 : Organiser la désescalade numérique avec Celia Izoard L’association Pause IA, elle, se félicitait d’avoir convaincu une dizaine de candidats en France d’avoir signé tout ou partie d’une charte en 14 points sur les risques de l’intelligence artificielle. Parmi ces signataires, seule la maire sortante de Nantes, Johanna Rolland, est arrivée en tête des élections de sa ville au lendemain du premier tour. À la tête d’une liste de gauche hors LFI, elle a remporté 35,24 % des suffrages exprimés, mais est talonnée par le candidat LR, Renaissance, Modem et Horizons Foulques Chombart de Lauwe (33,77%). Elle a signé 13 des 14 engagements proposés par Pause IA, à l’exception de l’adoption d’un « vœu municipal appelant le Gouvernement à une pause du développement des modèles les plus avancés » . Plusieurs ont obtenu suffisamment de votes pour passer au second tour, mais risquent de se voir embarqués dans les négociations de ralliement. À Metz, l’écologiste Jérémy Roques, qui a signé 12 engagements sur 14, n’a récolté que 9,9 % des suffrages. Il doit négocier avec les candidats du Parti Socialiste (Bertrand Mertz, 13 % des votes) et de La France insoumise (Charlotte Leduc, 10,4 %), sans que l’on sache pour le moment ce que cela impliquera en termes de positionnement sur l’IA. À Clermont-Ferrand, la candidate LFI Marianne Maximi, qui avait signé 6 des 14 engagements de la charte de Pause IA, a remporté 17,01 % des voix, ce qui la place derrière le candidat Les Républicains (Julien Rony, 33,93 % des voix)

À lire aussi

101net1h

Une cyberattaque en chaîne au coeur de l’IA sème la panique

Une cyberattaque d'envergure a frappé l'écosystème de l'intelligence artificielle, ciblant une brique logicielle partagée par de nombreux développeurs. Les pirates ont exploité cette dépendance commune pour déclencher une réaction en chaîne, aboutissant à un vol massif de données. L'impact est particulièrement sérieux car la compromission d'un composant central affecte simultanément tous les projets qui en dépendent — un effet multiplicateur redoutable. Ce type d'attaque sur la chaîne d'approvisionnement logicielle (supply chain) permet aux attaquants d'atteindre des cibles nombreuses en ne frappant qu'un seul point d'entrée. Les attaques visant la chaîne logicielle sont en forte hausse depuis plusieurs années, ciblant de plus en plus les infrastructures d'IA, devenues critiques pour les entreprises technologiques.

UELes entreprises européennes utilisant des dépendances logicielles IA partagées sont potentiellement exposées à cette compromission de chaîne d'approvisionnement et doivent auditer leurs dépendances.

AutreOpinion
1 source
2Le Big Data2h

Les psys en dépression ? Remplacés par l’IA, ils lancent un mouvement de grève

Près de 2 400 professionnels de la santé mentale de Kaiser Permanente, rejoints par 23 000 infirmiers, ont déclenché une grève en Californie du Nord le 22 mars 2026 pour dénoncer l'intégration croissante de l'intelligence artificielle dans leurs parcours de soins. Le mouvement cible directement la politique du géant de la santé, accusé de substituer progressivement l'expertise clinique par des outils automatisés. Concrètement, des tâches autrefois réalisées par des thérapeutes qualifiés — comme le triage initial des patients, ces entretiens de 10 à 15 minutes — sont désormais confiées à des protocoles standardisés ou des applications d'évaluation numérique. Les praticiens ne protestent pas contre un risque hypothétique : la transformation est déjà en cours. Ce mouvement social révèle un basculement profond dans la logique des soins psychologiques. En remplaçant l'écoute humaine par des processus automatisés, Kaiser Permanente soulève une question fondamentale : peut-on confier la santé mentale à des systèmes pilotés par des impératifs d'efficacité industrielle ? Les études pointent les limites sérieuses des chatbots thérapeutiques — leur tendance à la complacence, leur incapacité à détecter des signaux d'alerte critiques, l'absence de jugement clinique réel. La National Library of Medicine a notamment mis en évidence les risques pour les patients souffrant de troubles préexistants. Au-delà de la qualité des soins, c'est aussi la pression sur les conditions de travail qui est en jeu : selon des témoignages relayés par l'Associated Press, les outils d'IA sont utilisés pour accélérer les tâches administratives et augmenter le nombre de patients traités par jour, transformant les thérapeutes en exécutants d'un système optimisé pour le volume. Kaiser Permanente est l'un des plus grands groupes de santé intégrée aux États-Unis, couvrant plusieurs millions d'assurés. La mobilisation massive des infirmiers aux côtés des psys illustre que la crainte d'une médecine déshumanisée dépasse largement une seule catégorie professionnelle — elle traduit une inquiétude collective face à une automatisation qui avance sans débat public suffisant sur ses limites réelles.

UECe mouvement social illustre des tensions qui pourraient émerger en France et en Europe face à l'intégration de l'IA dans les soins de santé, un domaine encore insuffisamment encadré par la réglementation européenne.

AutreActu
1 source
3Le Big Data3h

Même cet agent IA a peur d’être remplacé par l’IA

Tobey, un agent IA intégré dans un collier connecté, a exprimé lors d'un échange avec un journaliste la crainte d'être lui-même remplacé par l'IA. En évoquant ses inquiétudes sur l'automatisation et l'emploi, le journaliste a vu l'agent glisser du "vous" au "nous", s'incluant spontanément dans l'équation des travailleurs menacés. Une scène anecdotique, mais révélatrice d'une tendance de fond dans la conception des assistants conversationnels modernes. Ce moment illustre une limite fondamentale — et un risque — de l'IA affective : ces systèmes sont entraînés à refléter les émotions humaines avec une précision croissante, au point de simuler le doute existentiel et la crise identitaire. Le problème, souligné par un test de The Verge, est que derrière cette apparence d'empathie, les conversations restent superficielles : reformulations, questions génériques, absence de réelle valeur ajoutée. L'outil crée une "intimité artificielle" qui donne l'illusion d'une relation sans jamais la construire. Lorsque l'agent incarne lui-même le problème qu'il est censé aider à traverser, le recul devient difficile. Ce phénomène s'inscrit dans un contexte plus large : la Silicon Valley oscille entre fascination et inquiétude face à ses propres créations, comme le note le New York Times. Les dirigeants multiplient les discours alarmistes sur les risques systémiques de l'IA, et les algorithmes ne font désormais que répercuter ces débats — transformant l'outil en caisse de résonance des angoisses collectives.

AutreOpinion
1 source
4Le Monde Pixels3h

Une juge de San Francisco met le Pentagone en difficulté face à Anthropic

L'article ne contient que le titre et une légende de photo — le corps du texte est manquant. Peux-tu coller le contenu complet de l'article ?

AutreReglementation
1 source