Aller au contenu principal
L'IA s'impose dans les programmes des écoles d'art
SociétéThe Verge AI2h

L'IA s'impose dans les programmes des écoles d'art

1 source couvre ce sujet·Source originale ↗·
L'IA s'impose dans les programmes des écoles d'art
▶ Voir sur YouTube

L'intelligence artificielle générative s'installe progressivement dans les cursus des écoles d'art et de design à travers les États-Unis et au-delà, suscitant une vive résistance de la part des étudiants et des professionnels du secteur. Au début de l'année, à la California Institute of the Arts (CalArts), de petites affiches sollicitant des artistes IA pour une thèse ont été dégradées lors d'un mouvement de protestation spontané — symptôme d'une tension qui dépasse largement une seule institution. De nombreuses écoles revoient aujourd'hui leurs programmes pour intégrer des outils comme Midjourney, Stable Diffusion ou RunwayML, parfois contre l'avis de leurs propres étudiants.

L'enjeu est direct et concret : pour une génération qui s'endette pour apprendre un métier créatif, voir ces compétences partiellement automatisées avant même d'avoir obtenu leur diplôme est une menace existentielle. Les débouchés en animation 3D, illustration, motion design ou conception graphique sont déjà sous pression depuis l'émergence des outils génératifs en 2022-2023. Les entreprises réduisent leurs équipes créatives junior, arguant que des prompts bien formulés remplacent désormais certaines tâches d'exécution. Pour les étudiants, apprendre à utiliser ces outils ressemble moins à une opportunité qu'à une capitulation.

Ce mouvement s'inscrit dans un débat plus large sur la place de l'IA dans les industries créatives, qui oppose depuis plusieurs années les défenseurs du droit d'auteur aux développeurs de modèles entraînés sur des œuvres sans consentement explicite. Des collectifs comme l'Alliance of Motion Picture and Television Producers ont déjà intégré des clauses sur l'IA dans les négociations syndicales après les grèves de la WGA et de la SAG-AFTRA en 2023. La question qui se pose maintenant aux institutions académiques est de savoir si elles doivent former les étudiants à un marché du travail tel qu'il est — dominé par l'IA — ou défendre une vision de la création qui préserve la valeur du geste humain. Les deux positions se défendent, et aucun consensus n'est en vue.

Impact France/UE

Les écoles d'art et industries créatives françaises font face aux mêmes tensions autour de l'intégration de l'IA dans les cursus, avec des enjeux similaires pour les droits d'auteur et les débouchés professionnels des diplômés.

À lire aussi

AEO, GEO : les nouvelles règles pour exister à l’ère de l’IA
1Le Big Data 

AEO, GEO : les nouvelles règles pour exister à l’ère de l’IA

Une étude du Pew Research Center réalisée en mars 2025 sur 68 879 recherches Google révèle un basculement profond dans la façon dont les internautes consomment l'information en ligne. Lorsqu'un résumé généré par l'IA apparaît dans les résultats, seulement 8 % des utilisateurs cliquent sur un lien classique — soit presque deux fois moins que sans résumé. Un internaute sur quatre quitte même la page sans cliquer nulle part. Ces chiffres font écho aux données de BrightEdge, qui mesure une hausse de 49 % des impressions sur Google depuis l'introduction des aperçus IA, accompagnée d'une chute de 30 % du taux de clics. Seer Interactive enfonce le clou : sur des millions d'impressions analysées, le taux de clic organique est passé de 1,76 % à 0,61 % pour les requêtes intégrant ces résumés, et les liens sponsorisés ont également reculé. Ce phénomène redéfinit les règles du jeu pour les marques et les éditeurs. L'information est désormais consommée directement dans la réponse IA, sans passage par les sites sources. Le trafic organique — jusqu'ici colonne vertébrale de l'acquisition en ligne — s'érode structurellement, indépendamment de la qualité du référencement traditionnel. Gartner avait anticipé dès 2024 une baisse significative des recherches classiques d'ici 2026 : les données actuelles confirment cette trajectoire. Pour les marques, l'enjeu n'est plus d'apparaître en première page Google, mais d'être intégrées dans les réponses synthétiques elles-mêmes — ce qui implique de repenser entièrement leur stratégie de contenu. Deux disciplines émergent en réponse à ce changement. L'AEO (Answer Engine Optimization) consiste à structurer le contenu pour qu'il soit directement exploitable par une IA : titres sous forme de questions, réponses courtes et denses, données structurées balisées. L'objectif est de devenir la source citée au moment précis où une question est posée. Le GEO (Generative Engine Optimization), plus ambitieux, vise à s'imposer comme référence globale dans l'écosystème informationnel que parcourent des moteurs comme Perplexity AI ou Gemini. Or, selon McKinsey, seulement 5 à 10 % des sources utilisées par ces IA proviennent directement des sites de marques — le reste provient d'articles tiers, d'avis, de forums. BrightEdge ajoute que 89 % des sources citées dans les résumés IA proviennent de pages classées au-delà de la 100e position sur Google, ce qui signifie que la crédibilité perçue et la qualité structurelle du contenu priment désormais sur le rang dans les SERP. Les marques qui seront citées dans ces réponses générées bénéficieront d'un avantage de visibilité croissant — et celles qui tardent à s'adapter risquent tout simplement de disparaître du radar.

UELes éditeurs et marques françaises voient leur trafic organique s'éroder structurellement avec la généralisation des résumés IA dans les moteurs de recherche, les forçant à adopter de nouvelles stratégies de contenu (AEO/GEO) pour rester visibles.

SociétéOpinion
1 source
Anthropic a-t-il mesuré les capacités théoriques de l'IA sur le marché du travail ?
2Ars Technica AI 

Anthropic a-t-il mesuré les capacités théoriques de l'IA sur le marché du travail ?

Anthropic a publié ce mois-ci un rapport sur l'impact de l'intelligence artificielle sur le marché du travail, accompagné d'un graphique qui a rapidement circulé dans les milieux spécialisés. Ce visuel compare, sur 22 catégories professionnelles, l'« exposition observée » actuelle des métiers aux grands modèles de langage (en rouge) à leur « capacité théorique » (en bleu). Au premier regard, la zone bleue est saisissante : elle suggère que les systèmes basés sur des LLM pourraient, en théorie, accomplir au moins 80 % des tâches individuelles dans des secteurs aussi variés que les arts et médias, l'administration, le droit, la finance et même le management. L'interprétation de ce graphique a toutefois été largement exagérée. En creusant la méthodologie, la zone bleue ne représente pas une prédiction de remplacement massif des travailleurs par des machines, mais des estimations spéculatives — et en partie obsolètes — sur les domaines où l'IA pourrait améliorer la productivité humaine. Autrement dit, « capacité théorique » ne signifie pas « capacité de remplacer » : il s'agit de tâches que les LLM pourraient potentiellement assister ou automatiser en partie, sans que cela implique la disparition des postes correspondants. Ce rapport s'inscrit dans un débat plus large sur la quantification réelle de l'impact économique de l'IA générative. Anthropic, comme d'autres acteurs du secteur, cherche à cadrer la discussion publique autour de l'adoption de ses modèles — ce qui crée un intérêt institutionnel évident à présenter des chiffres d'exposition élevés. Les économistes du travail soulignent depuis longtemps la différence entre automatisation de tâches et suppression d'emplois entiers. La viralité du graphique illustre combien une visualisation mal calibrée peut alimenter des craintes — ou des enthousiasmes — déconnectés de la réalité méthodologique sous-jacente.

UELes biais méthodologiques dans la quantification de l'exposition des emplois aux LLM concernent directement les décideurs politiques français et européens qui s'appuient sur ces rapports pour calibrer leurs politiques d'emploi et de reconversion professionnelle.

SociétéPaper
1 source
Les métiers les plus menacés par l’IA : rédacteurs, développeurs, designers…
3Blog du Modérateur 

Les métiers les plus menacés par l’IA : rédacteurs, développeurs, designers…

Une étude américaine récemment publiée a passé au crible 784 métiers pour évaluer leur vulnérabilité réelle face à l'intelligence artificielle. Les professions les plus exposées sont les rédacteurs, les développeurs de logiciels et les designers graphiques, avec des projections de pertes d'emploi pouvant atteindre 57 % dans certaines catégories. La recherche s'appuie sur une analyse systématique des tâches constituant chaque métier, croisée avec les capacités actuelles et projetées des outils d'IA générative. L'impact dépasse largement le débat théorique : ces chiffres signifient que des millions de postes dans les secteurs créatifs et techniques sont directement dans la ligne de mire d'une automatisation partielle ou totale à moyen terme. Pour les entreprises, cela ouvre la voie à des réductions de coûts massives ; pour les travailleurs concernés, cela implique une reconversion urgente ou une redéfinition profonde de leur rôle. Cette étude s'inscrit dans une vague de recherches cherchant à quantifier précisément ce que les grandes déclarations sur "l'IA qui crée plus d'emplois qu'elle n'en détruit" laissent dans l'ombre. Alors que des outils comme GitHub Copilot, Midjourney ou les assistants rédactionnels gagnent du terrain dans les workflows professionnels, la pression s'intensifie sur les gouvernements et les entreprises pour anticiper la transition — formation, filets de sécurité, régulation — avant que les destructions d'emplois ne deviennent massives et visibles.

UELes travailleurs français des secteurs créatifs et techniques (rédaction, développement, design) sont exposés aux mêmes pressions d'automatisation, renforçant l'urgence des politiques de reconversion professionnelle et des filets de sécurité sociaux au niveau européen.

SociétéPaper
1 source
76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse
4Siècle Digital 

76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse

Selon une nouvelle enquête publiée en 2026, 76 % des Américains déclarent ne pas faire confiance à l'intelligence artificielle, alors même que son usage progresse significativement : seulement 27 % affirment ne jamais l'avoir utilisée, contre 33 % en avril 2025. Les utilisateurs y ont recours principalement pour effectuer des recherches, rédiger des contenus, analyser des données ou gagner en productivité dans leur travail quotidien. La méfiance, elle, ne faiblit pas — elle s'aggrave d'une année à l'autre. Ce paradoxe révèle une fracture profonde entre adoption pratique et confiance institutionnelle. Des millions d'Américains intègrent l'IA dans leur quotidien professionnel tout en restant sceptiques quant à sa fiabilité, sa transparence ou les intentions des entreprises qui la développent. Pour l'industrie, ce signal est préoccupant : une adoption massive sans confiance limite la monétisation, expose les acteurs à des régulations plus strictes et fragilise l'acceptabilité sociale des usages les plus sensibles — santé, justice, finance. Ce déficit de confiance s'inscrit dans un contexte plus large de questionnements sur les biais algorithmiques, la désinformation générée par l'IA et l'opacité des grands modèles de langage. Les géants du secteur — OpenAI, Google, Meta, Anthropic — multiplient les initiatives de transparence et de sécurité, mais peinent à convaincre le grand public. À mesure que l'IA s'intègre dans des décisions à fort enjeu, la question de la confiance deviendra un levier concurrentiel déterminant, autant qu'un enjeu démocratique.

UECe déficit de confiance envers l'IA observé aux États-Unis reflète une tendance similaire en Europe, où l'Eurobaromètre signale régulièrement des réserves comparables, renforçant la pression sur les régulateurs européens pour exiger plus de transparence algorithmique dans le cadre de l'AI Act.

SociétéActu
1 source