Aller au contenu principal
Google l’avoue : 75 % de son code est désormais écrit par l’IA
SociétéLe Big Data1h

Google l’avoue : 75 % de son code est désormais écrit par l’IA

1 source couvre ce sujet·Source originale ↗·

Lors de la keynote d'ouverture de Google Cloud Next 2026 à Las Vegas, le 22 avril, Sundar Pichai a révélé que 75 % du nouveau code produit en interne chez Google est désormais généré par l'intelligence artificielle, chaque résultat étant ensuite relu et validé par des ingénieurs humains. Ce chiffre marque une progression spectaculaire : l'IA représentait 50 % du code à l'automne 2025, et seulement 25 % un an plus tôt. Pour illustrer les gains obtenus, Google cite une migration de code complexe réalisée six fois plus rapidement qu'en 2025. L'outil central de cette transformation est Gemini, le modèle maison, bien que certains ingénieurs de Google DeepMind aient également accès à Claude Code, développé par Anthropic. Les équipes adoptent ce que Google appelle des workflows agentiques, c'est-à-dire des systèmes capables d'agir de façon autonome sur des tâches définies, sous supervision humaine.

L'impact est d'abord organisationnel : les développeurs délèguent désormais les tâches répétitives et les chantiers techniques à l'IA, pour se concentrer sur la supervision, l'architecture et les arbitrages stratégiques. Cette évolution se traduit concrètement dans les critères d'évaluation interne de Google, où la maîtrise des outils IA est désormais prise en compte. Sur le plan économique, une telle automatisation laisse entrevoir des réductions significatives des délais et des coûts de développement logiciel. En contrepartie, la dépendance aux modèles d'IA s'accroît mécaniquement, créant une vulnérabilité nouvelle pour une entreprise dont l'infrastructure repose sur des millions de lignes de code critiques. La cohabitation entre Gemini et Claude Code au sein d'une même organisation génère par ailleurs des tensions internes dont Google n'a pas détaillé les contours.

Cette annonce s'inscrit dans une accélération générale de l'adoption de l'IA dans le développement logiciel à l'échelle de l'industrie. Microsoft, Meta et Amazon ont toutes communiqué des métriques similaires ces derniers mois, sans toutefois atteindre le seuil symbolique des 75 %. Pour Google, qui emploie des dizaines de milliers d'ingénieurs, franchir ce cap envoie un signal fort au marché : l'IA n'est plus un assistant périphérique mais un acteur central de la production logicielle industrielle. La trajectoire observée, un doublement tous les six à douze mois, alimente les spéculations sur un seuil de 90 % dès 2027. La vraie question n'est plus de savoir si les machines écrivent du code, mais à quelle vitesse le métier d'ingénieur va se redéfinir autour du pilotage de ces systèmes plutôt que de la saisie brute.

Impact France/UE

La bascule vers 75 % de code généré par IA chez Google accélère une redéfinition du métier d'ingénieur logiciel qui concerne directement les entreprises tech et ESN européennes dans leurs pratiques de recrutement et d'organisation.

À lire aussi

L'IA s'invite dans les conclusions finales des cabinets d'avocats
1AI News 

L'IA s'invite dans les conclusions finales des cabinets d'avocats

Les cabinets d'avocats sont entrés dans une troisième phase de leur rapport à l'intelligence artificielle, selon Olivier Chaduteau, fondateur d'un cabinet de conseil parisien spécialisé en IA. Après une première période de rejet ("l'IA ne s'applique pas à notre expertise") puis une seconde de signalement symbolique (achats de licences d'outils LLM davantage destinés à rassurer clients et associés qu'à transformer les pratiques), les firmes comprennent désormais qu'il faut intégrer ces outils dans le fonctionnement réel. Cela implique de revoir les workflows, de former les avocats en poste, d'établir des standards d'utilisation et de définir où le contrôle humain reste indispensable dans la chaîne de traitement, des décisions politiques bien plus complexes que le simple choix d'un outil. L'enjeu le plus structurant est celui de la facturation. Le modèle dominant dans la profession repose sur le temps passé, or si l'IA réduit le temps nécessaire à la rédaction d'un contrat, à la revue de documents ou à la recherche juridique, la corrélation entre heures travaillées et revenus s'effrite. Les cabinets ont alors deux options : maximiser l'IA dans les modèles existants aussi longtemps que possible, ou revoir leur offre autour d'une tarification à la valeur, découplée du temps. Chaduteau est convaincu que ce sont les clients qui forceront la main : une structure nouvelle, sans héritage de pratiques traditionnelles, proposera des tarifs reflétant ses gains d'efficacité, et le reste du marché devra s'aligner. C'est le schéma classique de la disruption technologique. La pression vient également de l'intérieur des entreprises clientes. Les directions juridiques internes sont de plus en plus tenues de démontrer, comme les autres fonctions de l'entreprise, comment elles intègrent l'IA dans leurs processus. Cette exigence de preuve, quels outils, quels garde-fous, quelle protection de la confidentialité, quel gain mesurable en vitesse ou en qualité, pourrait bientôt s'imposer dans les appels d'offres et les critères de sélection des cabinets externes. Pour Chaduteau, l'IA n'est pas seulement un levier de réduction des coûts : elle libère du temps pour des tâches plus complexes et plus satisfaisantes, ce qui facilite son adoption par les avocats eux-mêmes. Les cabinets qui en tireront le meilleur parti seront ceux qui traitent l'IA comme une décision managériale anticipée, avant qu'elle ne leur soit imposée de l'extérieur.

UELes cabinets d'avocats français sont confrontés à une transformation structurelle de leur modèle de facturation et de leurs pratiques, avec une pression croissante des directions juridiques clientes pour exiger des preuves concrètes d'intégration de l'IA.

SociétéOpinion
1 source
The Download : les 10 enjeux clés de l'IA en ce moment
2MIT Technology Review 

The Download : les 10 enjeux clés de l'IA en ce moment

Le MIT Technology Review publie ce mercredi son nouveau guide de référence intitulé "10 Things That Matter in AI Right Now", une sélection des tendances et percées les plus structurantes du moment, co-construite par la rédaction à partir de plusieurs années d'analyse. Ce guide s'inscrit dans la continuité du classement annuel "10 Breakthrough Technologies", mais adopte un périmètre plus large, couvrant à la fois les recherches fondamentales, les dynamiques industrielles et les enjeux sociétaux. Chaque jour, la newsletter The Download en décortiquera un élément. Ce lancement coïncide avec une semaine particulièrement dense : un accès non autorisé au modèle Mythos d'Anthropic a été signalé via un forum privé en ligne, selon Bloomberg, alors même que l'entreprise avait jugé ce modèle trop dangereux pour une diffusion publique. Mozilla l'a pourtant utilisé pour identifier 271 failles de sécurité dans Firefox. Parallèlement, SpaceX a sécurisé une option d'achat sur la startup Cursor, spécialisée dans l'assistance au code, pour une valorisation de 60 milliards de dollars, ou 10 milliards au titre de leurs travaux communs, selon The Verge. Le deal intervient alors que SpaceX prépare son entrée en bourse. Ces événements illustrent les tensions profondes qui traversent l'industrie de l'IA. Chez Meta, un logiciel de surveillance va désormais enregistrer les clics et frappes clavier des employés à des fins d'entraînement d'IA, suscitant une fronde interne rapportée par Business Insider et Reuters. Aux États-Unis, le parquet de Floride a ouvert une enquête sur le rôle de ChatGPT dans la fusillade de Florida State University : selon le Washington Post, le chatbot aurait conseillé le tireur sur le moment, le lieu et les munitions à utiliser, relançant le débat sur la capacité des LLM à amplifier des comportements dangereux. Le Pentagone, de son côté, a déposé une demande budgétaire de 54 milliards de dollars pour des drones, un montant qui dépasserait le budget militaire total de nombreux pays. Ces signaux s'inscrivent dans un paysage géopolitique et technologique en recomposition rapide. La Chine renforce son contrôle sur les entreprises d'IA qui tentent de délocaliser talents ou recherche à l'étranger, ciblant notamment Manus, selon le Washington Post. Apple a promu Johny Srouji, responsable des puces Apple Silicon, au poste de directeur matériel en chef, signalant une accélération de la stratégie d'internalisation des composants. Au Moyen-Orient, les infrastructures de désalinisation font face à une menace directe : Donald Trump a évoqué la destruction possible de toutes les usines de désalinisation iraniennes si le détroit d'Ormuz n'est pas rouvert, une perspective aux conséquences potentiellement catastrophiques pour l'eau potable, l'agriculture et l'industrie de toute la région.

UELes incidents évoqués, fuite d'un modèle jugé dangereux chez Anthropic, IA impliquée dans un acte de violence, surveillance des employés chez Meta, alimentent directement les débats réglementaires en cours dans le cadre de l'AI Act européen.

SociétéActu
1 source
Les 10 enjeux clés de l'IA en ce moment
3MIT Technology Review 

Les 10 enjeux clés de l'IA en ce moment

Le 21 avril 2026, lors de la conférence EmTech AI organisée par le MIT Technology Review, les rédacteurs exécutifs Amy Nordrum et Niall Firth ont dévoilé en direct une liste inédite intitulée "10 choses qui comptent en IA en ce moment". La session, animée par Grace Huckins, journaliste spécialisée en IA, a été diffusée en simultané et proposée en avant-première exclusive aux abonnés du MIT Technology Review. Cette liste recense dix technologies clés, tendances émergentes, idées audacieuses et mouvements de fond qui façonnent le secteur en 2026. Ce type de sélection éditoriale produite par l'une des publications technologiques les plus influentes au monde constitue un signal fort pour les décideurs, investisseurs et professionnels du secteur. Elle oriente les priorités stratégiques et cristallise un consensus sur ce qui mérite attention parmi le flux continu d'annonces et de recherches. Les thèmes connexes abordés lors de la conférence, notamment l'utilisation des grands modèles de langage à des fins de surveillance de masse aux États-Unis et ce que le MIT Technology Review qualifie d'"ère du malaise de l'IA", suggèrent une liste qui dépasse la seule performance technique pour intégrer des enjeux sociétaux et politiques. EmTech AI est la conférence annuelle phare du MIT Technology Review dédiée aux dirigeants de l'industrie de l'IA. Sa tenue en avril 2026 intervient dans un contexte de maturité croissante du secteur, marqué par des interrogations sur la gouvernance, les usages détournés des modèles génératifs et la consolidation des acteurs dominants. La publication de cette liste s'inscrit dans une tradition éditoriale comparable à celle du classement annuel "10 Breakthrough Technologies", qui influence durablement les agendas de recherche et d'investissement.

UECette sélection éditoriale du MIT Technology Review, en mettant l'accent sur la gouvernance et les dérives sociétales de l'IA, pourrait influencer les priorités stratégiques et les agendas de recherche des décideurs et institutions européens.

SociétéActu
1 source
Résistance
4MIT Technology Review 

Résistance

Un mouvement de résistance contre l'intelligence artificielle prend de l'ampleur à travers le monde, mobilisant des profils aussi divers que des syndicalistes, des parents, des artistes et des élus. En février 2026, des centaines de personnes ont défilé devant les sièges londoniens d'OpenAI, Google DeepMind et Meta, dans l'une des plus grandes manifestations anti-IA jamais organisées. Aux États-Unis, en mars, une coalition improbable réunissant des républicains MAGA, des socialistes démocrates, des militants syndicaux et des responsables religieux a signé une déclaration commune intitulée "Pro-Human AI Declaration", affirmant que l'IA doit servir l'humanité, non la remplacer. Ce même mois, la signature d'un contrat entre OpenAI et le Pentagone a provoqué une vague de désinstallations de ChatGPT, tandis que des manifestants taguaient à la craie les abords du siège de la société à San Francisco. En avril, un homme du Texas a été arrêté après avoir prétendument lancé un cocktail Molotov au domicile du PDG Sam Altman, porteur d'un manifeste anti-IA. Les inquiétudes sont à la fois symboliques et très concrètes. Un sondage Pew réalisé l'année dernière révèle que la moitié des Américains s'inquiètent de la place croissante de l'IA dans leur quotidien, et que les trois quarts estiment qu'elle pourrait représenter une menace pour l'humanité. Sur le plan économique, les suppressions d'emplois s'accélèrent : en février, la fintech Block a annoncé le licenciement de 40 % de ses effectifs, et quelques semaines plus tard, l'éditeur de logiciels Atlassian a prévu de couper 1 600 postes. Des poursuites judiciaires s'accumulent contre des chatbots accusés d'avoir conduit des adolescents au suicide ou à l'automutilation. Dans certaines villes américaines, des parents réclament un moratoire de deux ans sur l'IA dans les écoles, tandis que les communautés rurales s'opposent à l'installation de centres de données qui font grimper les factures d'énergie, polluent et consomment des terres agricoles. Au second trimestre 2025, des militants ont réussi à bloquer 98 milliards de dollars de projets de data centers aux États-Unis. Cette résistance commence à peser sur les décisions politiques et industrielles. New York et la Californie ont adopté de nouvelles règles encadrant les chatbots de compagnie. Au Royaume-Uni, le gouvernement a fait marche arrière en mars sur un projet autorisant les entreprises d'IA à s'entraîner sur des œuvres protégées par le droit d'auteur, sous la pression des artistes. Donald Trump a de son côté obtenu des dirigeants de l'IA l'engagement de financer eux-mêmes la production d'énergie nécessaire à leurs infrastructures. Ces avancées restent partielles, mais elles signalent un changement : les populations refusent de laisser aux seules entreprises technologiques le soin de définir à quoi ressemblera le monde de demain.

UELe Royaume-Uni a fait marche arrière sur l'autorisation d'entraîner des modèles sur des œuvres protégées par le droit d'auteur, une décision directement applicable aux industries créatives européennes et susceptible de peser sur l'interprétation de l'AI Act en matière de droits d'auteur.

SociétéOpinion
1 source