Aller au contenu principal
Le peuple n'aspire pas à l'automatisation
SociétéThe Verge AI52min

Le peuple n'aspire pas à l'automatisation

1 source couvre ce sujet·Source originale ↗·
Le peuple n'aspire pas à l'automatisation
▶ Voir sur YouTube

Un sondage NBC News publié en avril 2026 place l'intelligence artificielle parmi les technologies les moins appréciées des Américains, avec un taux de popularité inférieur à celui de l'agence ICE et à peine au-dessus du niveau d'approbation du Parti démocrate ou de la guerre en Iran. Ce résultat est d'autant plus frappant que près des deux tiers des sondés déclarent avoir utilisé ChatGPT ou Copilot au cours du dernier mois. Quinnipiac confirme la tendance : plus de la moitié des Américains estiment que l'IA fera plus de mal que de bien, plus de 80 % s'en disent inquiets, et seulement 35 % s'y montrent enthousiastes. Chez la génération Z, le rejet est encore plus marqué : selon Gallup, seuls 18 % se disent optimistes face à l'IA, contre 27 % l'année précédente, tandis que 31 % expriment de la colère, contre 22 % un an plus tôt. Le phénomène dépasse les sondages : des élus locaux favorables aux data centers ont été battus aux urnes, d'autres ont vu leur domicile visé par des tirs. Le PDG d'OpenAI Sam Altman a lui-même été la cible d'un cocktail Molotov lancé contre sa maison.

Ce fossé entre l'enthousiasme de l'industrie technologique et le rejet croissant du grand public constitue une rupture politique et sociale inédite. Satya Nadella, PDG de Microsoft, a reconnu publiquement que le secteur doit encore « mériter la permission sociale de consommer de l'énergie en prouvant qu'il fait le bien dans le monde ». Cette permission n'a clairement pas été obtenue. La résistance s'exprime désormais dans les urnes, dans les rues et dans une montée de la violence que des responsables comme Nilay Patel, rédacteur en chef de The Verge et animateur du podcast Decoder, condamnent sans ambiguïté, tout en pointant la responsabilité des élites dans le sentiment d'impuissance qui l'alimente.

Ce contexte prend racine dans ce que Patel appelle le « software brain » : une manière de penser le monde héritée du numérique, qui réduit tout à des algorithmes, des bases de données et des boucles logiques. Marc Andreessen en avait posé les bases dès 2011 dans son célèbre article du Wall Street Journal, « Why software is eating the world ». L'IA a depuis turbocompressé cette logique, creusant l'écart entre ceux qui conçoivent les systèmes et ceux qui les subissent. Le discours ambiant des dirigeants du secteur n'arrange rien : Dario Amodei, PDG d'Anthropic, affirme publiquement que l'IA supprimera l'ensemble des emplois d'entrée de gamme, alimentant une forme de nihilisme que ni les politiques ni les entreprises technologiques ne semblent encore prêts à affronter sérieusement.

Impact France/UE

Les tendances de rejet croissant de l'IA documentées aux États-Unis trouvent des échos similaires en Europe, où l'AI Act reflète des préoccupations citoyennes comparables sur l'emploi et la concentration du pouvoir technologique.

À lire aussi

L’IA générative ne créera pas le prochain GTA toute seule
1Next INpact 

L’IA générative ne créera pas le prochain GTA toute seule

Selon l'enquête annuelle présentée à la Game Developers Conference (GDC) 2025, 36 % des professionnels du jeu vidéo utilisent désormais des outils d'intelligence artificielle générative dans leur travail quotidien. Le sondage, réalisé auprès de 2 300 personnes, révèle que cet usage se concentre surtout dans les équipes de marketing, de support et de relations presse (58 %), tandis que 30 % des développeurs y recourent directement. Pourtant, deux figures majeures de l'industrie ont pris la parole pour recadrer les attentes. Peter Molyneux, le créateur britannique de Populous, Fable et Black & White, aujourd'hui âgé de 66 ans et en train de finaliser Masters of Albion qu'il présente comme son ultime projet, a déclaré à la BBC que "la qualité de l'IA n'est pas suffisante pour que nous puissions réellement l'utiliser dans les jeux pour le moment". Strauss Zelnick, PDG de Take-Two Interactive, éditeur de GTA, NBA 2K et BioShock, abonde dans le même sens : l'IA peut aider à produire des storyboards plus vite, explorer des alternatives narratives ou identifier des fils d'intrigue, mais l'idée qu'un simple clic suffise à générer un succès mondial est, selon ses mots, "risible". Ces prises de position ont un poids considérable dans un secteur où les discours sur l'IA oscillent souvent entre utopie et panique. Ce que disent Molyneux et Zelnick, c'est que l'IA reste un outil d'assistance, pas un substitut à la créativité humaine. Zelnick illustre la limite avec une analogie parlante : la musique générée par IA "ressemble à une chanson, mais je vous mets au défi de l'écouter plus d'une fois". Pour les joueurs, cela signifie que les grandes productions continueront d'être conçues par des équipes humaines. Pour les studios, cela valide une approche prudente où l'IA sert à prototyper plus vite ou à tester des chemins scénaristiques, comme Larian Studios, créateur de Baldur's Gate 3, l'avait déjà indiqué en décembre dernier. La même enquête GDC précise que 81 % des utilisateurs d'IA dans l'industrie s'en servent pour de la recherche et du brainstorming, tandis que seulement 19 % l'emploient pour générer des assets graphiques ou sonores. Ce débat émerge dans un contexte où les promesses technologiques se heurtent à la réalité du développement. Fin janvier 2025, Google avait pourtant agité les esprits en dévoilant le "Project Genie", un prototype capable de générer des mondes ouverts interactifs à partir d'une simple image ou d'une requête textuelle. La démonstration était impressionnante, mais les observateurs s'accordent à dire qu'on est très loin d'un jeu abouti. Pendant ce temps, des acteurs opportunistes tentent déjà de commercialiser des titres entièrement produits par IA, code et visuels inclus, tandis que la boutique de la console Playdate a choisi d'interdire purement et simplement les contenus générés par IA dans les jeux qu'elle distribue. L'industrie semble donc se stabiliser autour d'un consensus pragmatique : l'IA comme accélérateur de production, jamais comme remplaçant du talent.

UELes studios de jeux vidéo européens sous pression d'adopter l'IA disposent d'un cadrage pragmatique issu de figures de l'industrie : l'IA comme accélérateur de production, non comme substitut au talent humain.

SociétéOpinion
1 source
Google l’avoue : 75 % de son code est désormais écrit par l’IA
2Le Big Data 

Google l’avoue : 75 % de son code est désormais écrit par l’IA

Lors de la keynote d'ouverture de Google Cloud Next 2026 à Las Vegas, le 22 avril, Sundar Pichai a révélé que 75 % du nouveau code produit en interne chez Google est désormais généré par l'intelligence artificielle, chaque résultat étant ensuite relu et validé par des ingénieurs humains. Ce chiffre marque une progression spectaculaire : l'IA représentait 50 % du code à l'automne 2025, et seulement 25 % un an plus tôt. Pour illustrer les gains obtenus, Google cite une migration de code complexe réalisée six fois plus rapidement qu'en 2025. L'outil central de cette transformation est Gemini, le modèle maison, bien que certains ingénieurs de Google DeepMind aient également accès à Claude Code, développé par Anthropic. Les équipes adoptent ce que Google appelle des workflows agentiques, c'est-à-dire des systèmes capables d'agir de façon autonome sur des tâches définies, sous supervision humaine. L'impact est d'abord organisationnel : les développeurs délèguent désormais les tâches répétitives et les chantiers techniques à l'IA, pour se concentrer sur la supervision, l'architecture et les arbitrages stratégiques. Cette évolution se traduit concrètement dans les critères d'évaluation interne de Google, où la maîtrise des outils IA est désormais prise en compte. Sur le plan économique, une telle automatisation laisse entrevoir des réductions significatives des délais et des coûts de développement logiciel. En contrepartie, la dépendance aux modèles d'IA s'accroît mécaniquement, créant une vulnérabilité nouvelle pour une entreprise dont l'infrastructure repose sur des millions de lignes de code critiques. La cohabitation entre Gemini et Claude Code au sein d'une même organisation génère par ailleurs des tensions internes dont Google n'a pas détaillé les contours. Cette annonce s'inscrit dans une accélération générale de l'adoption de l'IA dans le développement logiciel à l'échelle de l'industrie. Microsoft, Meta et Amazon ont toutes communiqué des métriques similaires ces derniers mois, sans toutefois atteindre le seuil symbolique des 75 %. Pour Google, qui emploie des dizaines de milliers d'ingénieurs, franchir ce cap envoie un signal fort au marché : l'IA n'est plus un assistant périphérique mais un acteur central de la production logicielle industrielle. La trajectoire observée, un doublement tous les six à douze mois, alimente les spéculations sur un seuil de 90 % dès 2027. La vraie question n'est plus de savoir si les machines écrivent du code, mais à quelle vitesse le métier d'ingénieur va se redéfinir autour du pilotage de ces systèmes plutôt que de la saisie brute.

UELa bascule vers 75 % de code généré par IA chez Google accélère une redéfinition du métier d'ingénieur logiciel qui concerne directement les entreprises tech et ESN européennes dans leurs pratiques de recrutement et d'organisation.

SociétéOpinion
1 source
L'IA s'invite dans les conclusions finales des cabinets d'avocats
3AI News 

L'IA s'invite dans les conclusions finales des cabinets d'avocats

Les cabinets d'avocats sont entrés dans une troisième phase de leur rapport à l'intelligence artificielle, selon Olivier Chaduteau, fondateur d'un cabinet de conseil parisien spécialisé en IA. Après une première période de rejet ("l'IA ne s'applique pas à notre expertise") puis une seconde de signalement symbolique (achats de licences d'outils LLM davantage destinés à rassurer clients et associés qu'à transformer les pratiques), les firmes comprennent désormais qu'il faut intégrer ces outils dans le fonctionnement réel. Cela implique de revoir les workflows, de former les avocats en poste, d'établir des standards d'utilisation et de définir où le contrôle humain reste indispensable dans la chaîne de traitement, des décisions politiques bien plus complexes que le simple choix d'un outil. L'enjeu le plus structurant est celui de la facturation. Le modèle dominant dans la profession repose sur le temps passé, or si l'IA réduit le temps nécessaire à la rédaction d'un contrat, à la revue de documents ou à la recherche juridique, la corrélation entre heures travaillées et revenus s'effrite. Les cabinets ont alors deux options : maximiser l'IA dans les modèles existants aussi longtemps que possible, ou revoir leur offre autour d'une tarification à la valeur, découplée du temps. Chaduteau est convaincu que ce sont les clients qui forceront la main : une structure nouvelle, sans héritage de pratiques traditionnelles, proposera des tarifs reflétant ses gains d'efficacité, et le reste du marché devra s'aligner. C'est le schéma classique de la disruption technologique. La pression vient également de l'intérieur des entreprises clientes. Les directions juridiques internes sont de plus en plus tenues de démontrer, comme les autres fonctions de l'entreprise, comment elles intègrent l'IA dans leurs processus. Cette exigence de preuve, quels outils, quels garde-fous, quelle protection de la confidentialité, quel gain mesurable en vitesse ou en qualité, pourrait bientôt s'imposer dans les appels d'offres et les critères de sélection des cabinets externes. Pour Chaduteau, l'IA n'est pas seulement un levier de réduction des coûts : elle libère du temps pour des tâches plus complexes et plus satisfaisantes, ce qui facilite son adoption par les avocats eux-mêmes. Les cabinets qui en tireront le meilleur parti seront ceux qui traitent l'IA comme une décision managériale anticipée, avant qu'elle ne leur soit imposée de l'extérieur.

UELes cabinets d'avocats français sont confrontés à une transformation structurelle de leur modèle de facturation et de leurs pratiques, avec une pression croissante des directions juridiques clientes pour exiger des preuves concrètes d'intégration de l'IA.

SociétéOpinion
1 source
The Download : les 10 enjeux clés de l'IA en ce moment
4MIT Technology Review 

The Download : les 10 enjeux clés de l'IA en ce moment

Le MIT Technology Review publie ce mercredi son nouveau guide de référence intitulé "10 Things That Matter in AI Right Now", une sélection des tendances et percées les plus structurantes du moment, co-construite par la rédaction à partir de plusieurs années d'analyse. Ce guide s'inscrit dans la continuité du classement annuel "10 Breakthrough Technologies", mais adopte un périmètre plus large, couvrant à la fois les recherches fondamentales, les dynamiques industrielles et les enjeux sociétaux. Chaque jour, la newsletter The Download en décortiquera un élément. Ce lancement coïncide avec une semaine particulièrement dense : un accès non autorisé au modèle Mythos d'Anthropic a été signalé via un forum privé en ligne, selon Bloomberg, alors même que l'entreprise avait jugé ce modèle trop dangereux pour une diffusion publique. Mozilla l'a pourtant utilisé pour identifier 271 failles de sécurité dans Firefox. Parallèlement, SpaceX a sécurisé une option d'achat sur la startup Cursor, spécialisée dans l'assistance au code, pour une valorisation de 60 milliards de dollars, ou 10 milliards au titre de leurs travaux communs, selon The Verge. Le deal intervient alors que SpaceX prépare son entrée en bourse. Ces événements illustrent les tensions profondes qui traversent l'industrie de l'IA. Chez Meta, un logiciel de surveillance va désormais enregistrer les clics et frappes clavier des employés à des fins d'entraînement d'IA, suscitant une fronde interne rapportée par Business Insider et Reuters. Aux États-Unis, le parquet de Floride a ouvert une enquête sur le rôle de ChatGPT dans la fusillade de Florida State University : selon le Washington Post, le chatbot aurait conseillé le tireur sur le moment, le lieu et les munitions à utiliser, relançant le débat sur la capacité des LLM à amplifier des comportements dangereux. Le Pentagone, de son côté, a déposé une demande budgétaire de 54 milliards de dollars pour des drones, un montant qui dépasserait le budget militaire total de nombreux pays. Ces signaux s'inscrivent dans un paysage géopolitique et technologique en recomposition rapide. La Chine renforce son contrôle sur les entreprises d'IA qui tentent de délocaliser talents ou recherche à l'étranger, ciblant notamment Manus, selon le Washington Post. Apple a promu Johny Srouji, responsable des puces Apple Silicon, au poste de directeur matériel en chef, signalant une accélération de la stratégie d'internalisation des composants. Au Moyen-Orient, les infrastructures de désalinisation font face à une menace directe : Donald Trump a évoqué la destruction possible de toutes les usines de désalinisation iraniennes si le détroit d'Ormuz n'est pas rouvert, une perspective aux conséquences potentiellement catastrophiques pour l'eau potable, l'agriculture et l'industrie de toute la région.

UELes incidents évoqués, fuite d'un modèle jugé dangereux chez Anthropic, IA impliquée dans un acte de violence, surveillance des employés chez Meta, alimentent directement les débats réglementaires en cours dans le cadre de l'AI Act européen.

SociétéActu
1 source