Aller au contenu principal
« La Silicon Valley a compris avant tout le monde que la guerre du futur serait une guerre logicielle »
RégulationLe Monde Pixels6sem

« La Silicon Valley a compris avant tout le monde que la guerre du futur serait une guerre logicielle »

Résumé IASource uniqueImpact UE
Source originale ↗·

Georges Nahon, ancien directeur général d'Orange Labs, publie dans Le Monde une tribune dans laquelle il interroge la nécessité d'une nationalisation partielle, voire totale, des grandes entreprises d'intelligence artificielle générative. Face à la montée en puissance de l'IA dans les stratégies militaires mondiales, il soulève une question que peu d'acteurs institutionnels osent encore poser publiquement : peut-on laisser des technologies aussi décisives entre des mains entièrement privées ?

L'enjeu est considérable. Si la guerre du futur est avant tout une guerre logicielle — comme le titre de la tribune l'affirme —, alors les entreprises qui maîtrisent les modèles de langage les plus avancés détiennent un avantage stratégique comparable à celui que représentaient autrefois l'armement nucléaire ou le contrôle des ressources énergétiques. Laisser cette puissance aux seules mains d'acteurs privés, non élus et peu régulés, pose des questions démocratiques et sécuritaires fondamentales.

La Silicon Valley a, selon Nahon, anticipé bien avant les États cette convergence entre IA civile et militaire. Des contrats comme ceux de Palantir, Microsoft ou Google avec l'armée américaine illustrent ce mouvement. En Europe, la question de la souveraineté numérique resurgit avec une acuité nouvelle, alors que ni la France ni l'Union européenne ne disposent de champions comparables capables de peser dans cette nouvelle course aux armements algorithmiques.

Impact France/UE

La tribune soulève directement la question de la souveraineté numérique française et européenne, pointant l'absence de champions IA capables de peser dans la nouvelle course aux armements algorithmiques face aux acteurs américains.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Elon Musk vs OpenAI : tout ce qu’il faut savoir du procès qui secoue la Silicon Valley
1Next INpact 

Elon Musk vs OpenAI : tout ce qu’il faut savoir du procès qui secoue la Silicon Valley

Depuis le 27 avril, Elon Musk et OpenAI s'affrontent devant un jury fédéral en Californie, dans ce qui s'annonce comme l'un des procès les plus retentissants de la décennie tech. La juge Yvonne Gonzalez Rogers, nommée par Barack Obama en 2011 et déjà arbitre du conflit Epic Games contre Apple, préside les débats. Musk avait déposé plainte en mars 2024 contre OpenAI, son cofondateur Sam Altman, Greg Brockman et Microsoft, avec 26 chefs d'accusation initiaux. Deux seulement ont survécu à l'instruction : enrichissement injustifié d'OpenAI et violation d'une fiducie caritative. Au cœur du litige : la transformation d'une organisation à but non lucratif, fondée en 2015 avec l'ambition de développer une intelligence artificielle générale au bénéfice de l'humanité, en une entité commerciale de plusieurs centaines de milliards de dollars. L'enjeu dépasse largement la querelle personnelle entre deux milliardaires. Musk reproche à OpenAI d'avoir trahi son pacte fondateur en fermant ses modèles comme GPT-4, lancé en mars 2023, et en orientant ses travaux vers la maximisation des profits au bénéfice de Microsoft, actionnaire à environ 27 %. La structure d'OpenAI a certes évolué : plutôt que de basculer vers un pur modèle lucratif comme le souhaitait Altman, l'entreprise a opté pour une gouvernance hybride, avec une entité commerciale convertie en Public Benefit Corporation dans laquelle l'organisation non lucrative conserve 26 % du capital et un droit de regard sur le conseil d'administration. Mais pour Musk, ce compromis ne suffit pas : la mission originelle, celle de publier les recherches en open source et de garantir que l'AGI profite à tous, aurait été sacrifiée sur l'autel de la rentabilité commerciale. Ce procès s'inscrit dans une rupture profonde entre deux visions de l'IA qui coexistaient à l'origine dans la même organisation. Musk était l'un des dix cofondateurs d'OpenAI et avait contribué à lever le premier milliard de dollars promis au lancement, avant de quitter le conseil en 2018, officiellement pour éviter un conflit d'intérêts avec Tesla. Il a depuis fondé xAI et développé Grok, son propre modèle concurrent. La bataille judiciaire reflète ainsi une fracture plus large dans l'industrie entre les tenants de l'open source et ceux du modèle fermé, entre la promesse philanthropique des débuts et la réalité d'une compétition mondiale où les investissements se chiffrent en dizaines de milliards. Le procès, qui durera plusieurs semaines, pourrait forcer OpenAI à revoir sa gouvernance et établir une jurisprudence majeure sur les obligations des organisations technologiques à but non lucratif lorsqu'elles changent de modèle économique.

UESi le procès force OpenAI à revoir sa gouvernance ou à rouvrir ses modèles, cela pourrait affecter les conditions d'accès à ses API pour les entreprises et développeurs européens, et créer une jurisprudence internationale influençant les régulations sur les organisations technologiques à but non lucratif en Europe.

💬 Le vrai sujet ici, c'est pas la haine entre Musk et Altman. C'est qu'on a fondé une asso à but non lucratif pour développer l'AGI au bénéfice de l'humanité, et qu'aujourd'hui c'est une boîte valorisée à des centaines de milliards avec Microsoft à 27%. Reste à voir si la Public Benefit Corporation change quoi que ce soit dans les faits, ou si c'est juste du vernis juridique pour tenir le procès à distance.

RégulationReglementation
1 source
Jay Edelson a forcé Facebook à payer. Il s'attaque maintenant à l'IA de la Silicon Valley
2The Information AI 

Jay Edelson a forcé Facebook à payer. Il s'attaque maintenant à l'IA de la Silicon Valley

Jay Edelson, avocat spécialisé dans les recours collectifs basé à Chicago, est devenu l'une des figures les plus redoutées de la Silicon Valley. En moins d'un an, il a participé à un règlement d'un milliard de dollars contre Anthropic pour violation de droits d'auteur, et déposé trois affaires très médiatisées contre OpenAI et Google concernant leurs chatbots d'intelligence artificielle. Il prépare actuellement une nouvelle plainte contre OpenAI, attendue dès la semaine prochaine selon des informations non encore publiées : une femme affirme que ChatGPT aurait transformé son ancien petit ami en harceleur, en lui fournissant des informations ou en alimentant une obsession que le système aurait pu amplifier. Ces procédures illustrent une montée en puissance du contentieux juridique autour de l'IA générative, qui touche désormais des domaines aussi divers que le droit d'auteur, la sécurité des utilisateurs et la responsabilité des plateformes. Pour l'industrie, les enjeux sont considérables : les grands modèles de langage ont été entraînés sur des corpus massifs dont la légalité reste contestée, et leurs interactions avec les utilisateurs peuvent avoir des conséquences imprévisibles dans la vie réelle. Pour les entreprises comme OpenAI ou Google, dont les valorisations atteignent plusieurs centaines de milliards de dollars, ces procès représentent un risque financier et réputationnel croissant. Edelson s'est bâti une réputation en attaquant des géants comme Facebook sur des questions de vie privée et de données biométriques, obtenant des règlements massifs là où d'autres avocats échouaient. Son cabinet, Edelson PC, fonctionne sur un modèle de contingence : il ne perçoit d'honoraires qu'en cas de victoire, ce qui lui permet de prendre des risques que les cabinets traditionnels évitent. Alors que la régulation de l'IA avance lentement côté législatif, les recours collectifs s'imposent comme un levier de responsabilisation de facto, et Edelson entend bien occuper ce terrain durablement.

UELes précédents juridiques américains sur la responsabilité des chatbots et les violations de droits d'auteur pourraient influencer l'interprétation et l'application de l'AI Act européen face à des litiges similaires.

💬 Un milliard contre Anthropic en moins d'un an, c'est pas anodin. Ce qui m'intéresse ici, c'est pas l'avocat, c'est le signal : faute de régulation qui avance, c'est la voie judiciaire qui commence à fixer les règles du jeu, et ça va aller vite. L'affaire ChatGPT-harceleur va faire du bruit, même si le fond juridique est moins solide que les dossiers droits d'auteur.

RégulationReglementation
1 source
Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
3MIT Technology Review 

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic

Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.

UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

RégulationReglementation
1 source
Le Pentagone contre ANTHROPIC : quand l’État refuse que la Silicon Valley dicte les règles de l’IA militaire
4FrenchWeb 

Le Pentagone contre ANTHROPIC : quand l’État refuse que la Silicon Valley dicte les règles de l’IA militaire

Anthropic a engagé une procédure judiciaire contre le Département de la Défense américain (Pentagone), marquant une première historique : un laboratoire d'IA refusant les conditions imposées par une armée. Ce conflit illustre la tension croissante entre les entreprises de la Silicon Valley et l'État américain sur qui dicte les règles d'utilisation de l'IA dans le domaine militaire. L'IA est désormais considérée comme une infrastructure stratégique par les gouvernements, rendant ce bras de fer particulièrement significatif.

RégulationActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour