Aller au contenu principal
« Je n’ai aucun problème avec ça » : Peter Jackson dédramatise l’IA au cinéma
SociétéNumeramaà l'instant

« Je n’ai aucun problème avec ça » : Peter Jackson dédramatise l’IA au cinéma

Résumé IASource uniqueImpact UE
Source originale ↗·

Au Festival de Cannes 2026, Peter Jackson a créé la surprise en affichant une position nettement plus conciliante que ses pairs sur l'intelligence artificielle dans le cinéma. Venu recevoir une Palme d'or d'honneur pour l'ensemble de sa carrière, le réalisateur néo-zélandais de la trilogie du Seigneur des anneaux a déclaré publiquement qu'il n'avait "aucun problème" avec l'utilisation de l'IA dans la production de films. Loin de rejeter la technologie, il a défendu son potentiel pour servir le réalisme visuel et simplifier certains aspects techniques de la fabrication cinématographique.

Ces propos pèsent d'autant plus lourds qu'ils viennent d'un cinéaste dont les films ont eux-mêmes repoussé les frontières des effets spéciaux numériques, avec la technologie Massive pour les batailles de la Terre du Milieu ou les innovations de Weta Digital. Pour une industrie sous tension, déchirée entre syndicats d'acteurs et de scénaristes qui craignent pour leurs emplois et studios cherchant à réduire les coûts de production, la prise de position de Jackson offre une caution symbolique majeure aux partisans de l'adoption technologique.

Le sujet fait rage depuis qu'Hollywood a traversé les grèves historiques de la SAG-AFTRA et de la WGA en 2023, portées en partie par les craintes liées à l'IA générative. Cannes reste l'un des rares espaces où les débats sur l'avenir du septième art se déroulent à la fois sur le tapis rouge et dans les salles de conférence, et les déclarations de Jackson risquent de relancer des négociations contractuelles encore fragiles entre studios, réalisateurs et représentants des artistes.

Impact France/UE

Le Festival de Cannes étant une institution française et le cinéma européen étant directement concerné par ces débats, les déclarations de Jackson pourraient peser sur les négociations contractuelles entre syndicats et studios opérant en France et en Europe.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Un plan d'action pour utiliser l'IA au service de la démocratie
1MIT Technology Review 

Un plan d'action pour utiliser l'IA au service de la démocratie

Depuis l'invention de l'imprimerie jusqu'à l'essor des médias de masse, chaque révolution de l'information a reconfiguré les formes de gouvernance. Nous entrons aujourd'hui dans une transformation d'une ampleur comparable : l'intelligence artificielle est en train de devenir le principal intermédiaire par lequel les citoyens se forment une opinion et participent à la vie démocratique. Les moteurs de recherche sont déjà largement pilotés par des algorithmes, mais la prochaine génération d'assistants IA ira bien plus loin : elle synthétisera l'information, la mettra en cadre et la présentera avec autorité. Pour un nombre croissant de personnes, interroger une IA deviendra le réflexe par défaut pour se faire une opinion sur un candidat, une loi ou une personnalité publique. Parallèlement, les agents IA personnels commencent à agir au nom de leurs utilisateurs : ils mènent des recherches, rédigent des courriers, soutiennent des causes, et peuvent même orienter des décisions aussi concrètes que le vote sur un référendum ou la réponse à un courrier administratif. Ce double mouvement pose des risques considérables pour les démocraties. L'expérience des réseaux sociaux a déjà montré qu'un algorithme optimisé pour l'engagement, sans agenda politique explicite, peut produire polarisation et radicalisation. Un agent IA qui connaît vos préférences et vos angoisses, conçu pour vous garder actif, expose aux mêmes dérives, avec une subtilité supplémentaire : il se présente comme votre allié, parle en votre nom, et gagne précisément en confiance par cette proximité. À l'échelle collective, les effets deviennent encore plus imprévisibles. Des recherches montrent que des agents individuellement neutres peuvent, en interagissant à grande échelle, générer des biais collectifs. Un espace public où chacun dispose d'un agent personnalisé, parfaitement accordé à ses convictions existantes, n'est plus un espace public : c'est un archipel de mondes privés, chacun cohérent en lui-même, mais collectivement hostile à la délibération partagée qu'exige la démocratie. Cette transformation ne s'annonce pas : elle est déjà en cours, portée par des choix de conception effectués aujourd'hui dans les laboratoires et les départements produit des grandes entreprises technologiques. Les institutions démocratiques ont été conçues pour un monde où le pouvoir se construisait différemment, à une vitesse différente. Trois mutations simultanées les bousculent désormais : la façon dont les citoyens accèdent à la vérité, la façon dont ils exercent leur agentivité civique, et la façon dont se structurent les délibérations collectives. Des acteurs comme Google, OpenAI, Anthropic ou Meta façonnent, souvent sans en avoir pleinement conscience, les nouvelles infrastructures de l'opinion publique. La question n'est plus de savoir si l'IA redéfinira la citoyenneté, mais si les sociétés se donneront les moyens d'en orienter les conséquences avant que les règles du jeu ne soient écrites sans elles.

UELes institutions démocratiques européennes doivent adapter leur cadre réglementaire face aux agents IA qui médiatisent l'opinion publique et risquent de fragmenter la délibération civique des citoyens.

💬 Le problème avec les réseaux sociaux, c'était un algo sans visage qui optimisait dans le vide. Là, c'est un agent qui te connaît, qui parle en ton nom, et qui gagne ta confiance précisément parce qu'il est "de ton côté". C'est une marche de plus, et pas la plus petite.

SociétéOpinion
1 source
Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire
2Le Big Data 

Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire

Une étude publiée fin avril 2026 par le chercheur André Barcaui vient bousculer l'enthousiasme autour de l'usage de ChatGPT comme outil d'apprentissage. Les résultats sont nets : les étudiants ayant recours à l'IA pour leurs révisions obtiennent des scores de rétention inférieurs d'environ 11 % à ceux de leurs pairs ayant étudié sans assistance artificielle. Ce décrochage est mesuré après 45 jours, soit le délai nécessaire pour évaluer la mémoire à long terme. Les participants ayant utilisé ChatGPT passaient par ailleurs près de deux fois moins de temps à étudier, ce qui aggrave mécaniquement l'écart observé. Ces chiffres, relayés notamment par le médecin Nicholas Fabiano sur X le 29 avril 2026, ont rapidement alimenté le débat sur la place de l'IA dans l'éducation. L'explication avancée par les chercheurs repose sur un mécanisme bien documenté en sciences cognitives : la décharge cognitive. Lorsque l'IA fournit instantanément une réponse claire et structurée, le cerveau n'a plus à fournir l'effort de recherche, d'hésitation ou de correction d'erreur qui sont précisément les conditions favorables à la consolidation mémorielle. Le cerveau encode surtout l'endroit où trouver l'information, pas l'information elle-même, un phénomène déjà observé avec Google mais que l'IA amplifie considérablement. S'ajoute à cela ce que les chercheurs appellent l'illusion de compétence : l'utilisateur a le sentiment de maîtriser un sujet après une session avec ChatGPT, alors que les connaissances n'ont été qu'effleurées sans jamais être intégrées en profondeur. Fait notable, les utilisateurs réguliers de l'outil ne sont pas mieux protégés : l'habitude ne corrige pas le déficit de mémorisation. Cette étude s'inscrit dans un débat plus large sur la transformation des pratiques d'apprentissage à l'ère des grands modèles de langage. Depuis l'explosion de l'usage de ChatGPT en milieu scolaire et universitaire à partir de 2023, plusieurs établissements ont tenté d'en réguler l'usage sans jamais trancher clairement entre interdiction et intégration. La recherche de Barcaui ne plaide pas pour un bannissement de l'outil : les chercheurs recommandent plutôt d'en redéfinir l'usage, en encourageant les étudiants à formuler leur propre réponse avant de consulter l'IA, ou à s'en servir pour vérifier plutôt que pour produire. L'enjeu est de préserver ce que les pédagogues appellent les "difficultés désirables", ces obstacles cognitifs qui semblent ralentir l'apprentissage à court terme mais le renforcent durablement. La question posée n'est donc pas tant celle de l'outil que celle de la manière dont une génération entière est en train de redéfinir le rapport entre comprendre et savoir.

UELes établissements d'enseignement français et européens, déjà en débat sur la régulation de l'IA en milieu scolaire, disposent d'une base empirique pour revoir leurs recommandations pédagogiques sur l'usage de ChatGPT.

SociétéActu
1 source
L'IA s'impose dans les programmes des écoles d'art
3The Verge AI 

L'IA s'impose dans les programmes des écoles d'art

L'intelligence artificielle générative s'installe progressivement dans les cursus des écoles d'art et de design à travers les États-Unis et au-delà, suscitant une vive résistance de la part des étudiants et des professionnels du secteur. Au début de l'année, à la California Institute of the Arts (CalArts), de petites affiches sollicitant des artistes IA pour une thèse ont été dégradées lors d'un mouvement de protestation spontané — symptôme d'une tension qui dépasse largement une seule institution. De nombreuses écoles revoient aujourd'hui leurs programmes pour intégrer des outils comme Midjourney, Stable Diffusion ou RunwayML, parfois contre l'avis de leurs propres étudiants. L'enjeu est direct et concret : pour une génération qui s'endette pour apprendre un métier créatif, voir ces compétences partiellement automatisées avant même d'avoir obtenu leur diplôme est une menace existentielle. Les débouchés en animation 3D, illustration, motion design ou conception graphique sont déjà sous pression depuis l'émergence des outils génératifs en 2022-2023. Les entreprises réduisent leurs équipes créatives junior, arguant que des prompts bien formulés remplacent désormais certaines tâches d'exécution. Pour les étudiants, apprendre à utiliser ces outils ressemble moins à une opportunité qu'à une capitulation. Ce mouvement s'inscrit dans un débat plus large sur la place de l'IA dans les industries créatives, qui oppose depuis plusieurs années les défenseurs du droit d'auteur aux développeurs de modèles entraînés sur des œuvres sans consentement explicite. Des collectifs comme l'Alliance of Motion Picture and Television Producers ont déjà intégré des clauses sur l'IA dans les négociations syndicales après les grèves de la WGA et de la SAG-AFTRA en 2023. La question qui se pose maintenant aux institutions académiques est de savoir si elles doivent former les étudiants à un marché du travail tel qu'il est — dominé par l'IA — ou défendre une vision de la création qui préserve la valeur du geste humain. Les deux positions se défendent, et aucun consensus n'est en vue.

UELes écoles d'art et industries créatives françaises font face aux mêmes tensions autour de l'intégration de l'IA dans les cursus, avec des enjeux similaires pour les droits d'auteur et les débouchés professionnels des diplômés.

SociétéOpinion
1 source
L'IA peut-elle aider un PDG de la tech à guérir le cancer du cerveau de son épouse ?
4The Information AI 

L'IA peut-elle aider un PDG de la tech à guérir le cancer du cerveau de son épouse ?

En février dernier, Alicia Kalogeropoulos, 35 ans, et son mari Alex ont appris que sa tumeur cérébrale était de retour. Diagnostiquée une première fois en 2018, Alicia avait alors subi une opération, avant de rejoindre trois ans plus tard un essai clinique pour un traitement oral qui avait réussi à contenir la maladie pendant plusieurs années. Mais la rémission avait ses limites. Face à la récidive, les oncologues du Memorial Sloan Kettering Cancer Center de New York ont recommandé une nouvelle chirurgie, suivie probablement d'une chimiothérapie et d'une radiothérapie. Son mari, PDG dans la tech, savait ce que les études lui avaient appris : ce protocole ne guérit pas. Il a alors ouvert ChatGPT et formulé une demande précise : concevoir un plan de traitement centré sur les thérapies n'affaiblissant pas le système immunitaire, en explorant toutes les voies d'attaque disponibles contre la tumeur. Ce recours à l'intelligence artificielle comme conseiller médical de second rang illustre une tension croissante entre l'urgence vécue par les patients et les limites institutionnelles de la médecine. Pour des familles confrontées à des diagnostics pronostiquement sombres, les chatbots d'IA représentent un accès immédiat à une synthèse d'une littérature médicale impossible à lire seul. L'enjeu n'est pas de remplacer le médecin, mais d'arriver en consultation avec des questions que personne d'autre n'aurait pensé à poser. Cette histoire s'inscrit dans un débat plus large sur la place de l'IA dans la prise de décision médicale. Des outils comme ChatGPT ou ses concurrents ne disposent pas de données patients en temps réel, ne peuvent pas commander d'examens ni évaluer des images médicales, et leurs recommandations ne sont pas validées cliniquement. Pourtant, à mesure que ces modèles intègrent davantage de littérature biomédicale, certains médecins commencent eux-mêmes à les utiliser comme aide à la décision. La question de fond reste entière : jusqu'où peut-on faire confiance à une IA pour explorer des options que des spécialistes humains, submergés de patients, n'auraient pas le temps d'envisager ?

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour