Aller au contenu principal
OPINION. « L’être humain tel que nous le connaissons est appelé à s’effacer », par Sylvain Fort, ancienne plume d’Emmanuel Macron
SociétéLa Tribune6sem

OPINION. « L’être humain tel que nous le connaissons est appelé à s’effacer », par Sylvain Fort, ancienne plume d’Emmanuel Macron

Résumé IASource uniqueImpact UE
Source originale ↗·

Sylvain Fort, ancien conseiller et plume d'Emmanuel Macron, prend la parole pour analyser l'essai de Bruno Patino consacré aux bouleversements engendrés par l'intelligence artificielle. Sa thèse centrale est radicale : l'être humain tel que nous le connaissons serait voué à s'effacer face à la montée en puissance des systèmes d'IA, amorçant ce que Patino qualifie de rupture anthropologique majeure.

L'enjeu dépasse largement la sphère technologique. Ce que décrit Patino — et que Fort relaie avec une acuité politique certaine — c'est une transformation de fond de nos sociétés, de nos modes de pensée, de nos relations au savoir et à l'autre. L'IA ne serait pas un simple outil supplémentaire dans l'arsenal humain, mais un agent de reconfiguration de la condition humaine elle-même, remettant en cause des équilibres cognitifs, sociaux et culturels construits sur des millénaires.

Fort, fort de son expérience au plus haut niveau de l'État, apporte à cette lecture une dimension politique que peu d'analystes tech osent assumer. Il s'appuie sur l'essai de Bruno Patino — directeur éditorial d'Arte et figure reconnue de la réflexion sur les médias et le numérique — pour souligner que la question n'est plus de savoir si l'IA va transformer nos sociétés, mais à quelle vitesse et selon quelles modalités cette mutation anthropologique va s'opérer, sans que nos institutions ni nos repères éthiques n'aient eu le temps de s'y préparer.

La convergence de ces deux voix — un ancien conseiller de l'Élysée et un intellectuel des médias — autour d'un même constat alarmant signale que le débat sur l'IA franchit désormais le cadre des cercles spécialisés pour s'imposer dans la réflexion politique et philosophique de premier plan en France.

Impact France/UE

Un ancien conseiller de l'Élysée alerte sur la rupture anthropologique que représente l'IA pour la société française et européenne.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

The Download : le bien-être animal conquis par l'AGI, et la Maison Blanche dévoile sa politique IA
1MIT Technology Review 

The Download : le bien-être animal conquis par l'AGI, et la Maison Blanche dévoile sa politique IA

Le mouvement de bien-être animal de la Bay Area explore comment l'IA générale pourrait réduire la souffrance animale, avec des militants et chercheurs réunis à San Francisco pour discuter d'agents IA dans le lobbying et de viande cultivée par IA. La Maison Blanche a dévoilé son cadre de politique IA, Trump souhaitant que le Congrès le codifie en loi tout en bloquant les réglementations étatiques, tandis que le Pentagone adopte Palantir comme système militaire central pour le ciblage d'armes. Par ailleurs, Elon Musk a été reconnu coupable d'avoir induit en erreur les investisseurs de Twitter avant son rachat à 44 milliards de dollars, et OpenAI prévoit d'afficher des publicités aux utilisateurs gratuits de ChatGPT pour financer ses coûts de calcul croissants.

UELe cadre de politique IA de la Maison Blanche visant à bloquer les réglementations étatiques américaines pourrait renforcer la pression sur l'UE pour harmoniser son propre cadre réglementaire face à un bloc américain unifié.

SociétéReglementation
1 source
Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte
2Le Big Data 

Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte

Steve Wozniak, cofondateur d'Apple et figure emblématique de la Silicon Valley, a exprimé dans une interview accordée à Fox Business une franche désillusion vis-à-vis de l'intelligence artificielle générative. Il affirme être « déçu souvent » par les outils actuels et admet les utiliser rarement. Ses deux critiques principales : l'incapacité des IA à reproduire l'émotion humaine, et un problème de fiabilité persistant. Quand il interroge un système comme ChatGPT, il obtient des réponses longues, structurées et factuelles — là où un humain raconterait, contextualiserait, partagerait une expérience subjective. Cette dimension émotionnelle et intentionnelle lui semble fondamentalement absente des modèles actuels. Sur la fiabilité, il est tout aussi catégorique : « Je veux un contenu fiable à chaque fois », une exigence que les LLM actuels ne remplissent pas, capables de produire des réponses convaincantes mais parfois fausses, sans signaler leurs propres limites. Ces critiques ont un poids particulier dans le contexte actuel, où l'IA s'immisce dans des domaines à fort enjeu — éducation, santé, information — et où la confiance des utilisateurs est un enjeu central. Si les modèles de langage sont conçus pour optimiser pertinence et clarté, ils ne garantissent pas une authenticité ni une constance qui permettraient de les ériger en sources d'autorité. Pour Wozniak, tant que cette fiabilité n'est pas acquise, l'IA reste un outil d'assistance, pas un substitut au jugement humain. C'est une préoccupation partagée par de nombreux acteurs du secteur, notamment sur les risques de désinformation ou de décisions automatisées mal fondées dans des contextes critiques. Cette prise de position intervient dans un moment de tension stratégique pour Apple elle-même. L'entreprise a lancé en 2024 Apple Intelligence avec l'ambition affichée de rattraper OpenAI, Google et Microsoft sur le terrain de l'IA, mais plusieurs fonctionnalités annoncées tardent à être déployées, signe d'une progression prudente. Tim Cook, lui, décrit l'IA comme « profondément enrichissante et potentiellement très positive » pour l'expérience utilisateur — un contraste saisissant avec le scepticisme de son cofondateur historique, qui n'a plus de rôle opérationnel dans l'entreprise. Wozniak s'inscrit ainsi dans une tradition de voix critiques venues de l'intérieur même de la tech — des figures comme Geoffrey Hinton ou Yann LeCun qui, chacun à leur manière, ont formulé des réserves profondes sur la trajectoire actuelle de l'IA. Son discours rappelle que l'enthousiasme industriel autour de ces technologies ne fait pas l'unanimité, y compris parmi ceux qui ont bâti le monde numérique d'aujourd'hui.

SociétéOpinion
1 source
À cause d’une conversation avec l’IA, un Français s’est retrouvé dans le viseur du FBI
301net 

À cause d’une conversation avec l’IA, un Français s’est retrouvé dans le viseur du FBI

Un homme d'une trentaine d'années résidant à Strasbourg a été interpellé par le RAID après que ses échanges avec une intelligence artificielle ont déclenché une alerte remontée jusqu'au FBI américain. Le trentenaire, dont l'identité n'a pas été rendue publique, avait délibérément tenu des propos provocateurs lors d'une conversation avec un chatbot, affirmant vouloir "tester la surveillance de l'intelligence artificielle". Ces messages ont suffi à mettre en mouvement une chaîne de signalement transatlantique aboutissant à une intervention des forces d'élite françaises à son domicile. L'incident illustre de façon concrète la réalité des systèmes de modération et de signalement intégrés aux grandes plateformes d'IA. Contrairement à ce que croient de nombreux utilisateurs, les conversations avec ces outils ne sont pas hermétiques : lorsqu'un contenu est jugé menaçant, les éditeurs ont l'obligation légale, notamment aux États-Unis, de le signaler aux autorités compétentes. Pour cet homme, le "test" s'est transformé en une confrontation directe avec le RAID, unité d'intervention réservée aux situations les plus graves. Cette affaire intervient dans un contexte où les questions de surveillance des conversations avec les IA alimentent un débat croissant en Europe et aux États-Unis. Les principaux acteurs du secteur, dont OpenAI et Anthropic, disposent de politiques de signalement aux forces de l'ordre en cas de menaces crédibles. La coopération judiciaire franco-américaine a ici fonctionné avec une rapidité remarquable, soulignant que l'anonymat perçu face à un chatbot est largement illusoire.

UEUn citoyen français a été interpellé par le RAID à Strasbourg suite au signalement de ses échanges avec un chatbot au FBI, démontrant concrètement que les systèmes de modération des IA opèrent sur le territoire français avec des effets judiciaires immédiats.

SociétéActu
1 source
76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse
4Siècle Digital 

76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse

Selon une nouvelle enquête publiée en 2026, 76 % des Américains déclarent ne pas faire confiance à l'intelligence artificielle, alors même que son usage progresse significativement : seulement 27 % affirment ne jamais l'avoir utilisée, contre 33 % en avril 2025. Les utilisateurs y ont recours principalement pour effectuer des recherches, rédiger des contenus, analyser des données ou gagner en productivité dans leur travail quotidien. La méfiance, elle, ne faiblit pas — elle s'aggrave d'une année à l'autre. Ce paradoxe révèle une fracture profonde entre adoption pratique et confiance institutionnelle. Des millions d'Américains intègrent l'IA dans leur quotidien professionnel tout en restant sceptiques quant à sa fiabilité, sa transparence ou les intentions des entreprises qui la développent. Pour l'industrie, ce signal est préoccupant : une adoption massive sans confiance limite la monétisation, expose les acteurs à des régulations plus strictes et fragilise l'acceptabilité sociale des usages les plus sensibles — santé, justice, finance. Ce déficit de confiance s'inscrit dans un contexte plus large de questionnements sur les biais algorithmiques, la désinformation générée par l'IA et l'opacité des grands modèles de langage. Les géants du secteur — OpenAI, Google, Meta, Anthropic — multiplient les initiatives de transparence et de sécurité, mais peinent à convaincre le grand public. À mesure que l'IA s'intègre dans des décisions à fort enjeu, la question de la confiance deviendra un levier concurrentiel déterminant, autant qu'un enjeu démocratique.

UECe déficit de confiance envers l'IA observé aux États-Unis reflète une tendance similaire en Europe, où l'Eurobaromètre signale régulièrement des réserves comparables, renforçant la pression sur les régulateurs européens pour exiger plus de transparence algorithmique dans le cadre de l'AI Act.

SociétéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour