Aller au contenu principal
Le procès Musk-Altman promet des révélations compromettantes
BusinessThe Verge AI48min

Le procès Musk-Altman promet des révélations compromettantes

1 source couvre ce sujet·Source originale ↗·

Un procès opposant Elon Musk à Sam Altman et à OpenAI doit s'ouvrir le 27 avril 2026 à Oakland, en Californie. Musk, cofondateur de l'organisation, avait quitté son conseil d'administration en 2018 après ne pas avoir obtenu le poste de PDG, laissant Altman aux commandes. Sa plainte accuse OpenAI de fraude, de rupture de contrat, de pratiques commerciales déloyales et de publicité mensongère, les théories juridiques ont évolué au fil des mois, mais l'objectif reste le même : mettre OpenAI en difficulté devant les tribunaux.

L'enjeu dépasse largement la dimension juridique. Les deux hommes devront témoigner sous serment à un moment particulièrement sensible pour OpenAI, qui est en pleine transformation de son statut d'organisation à but non lucratif en entité commerciale valorisée à plusieurs centaines de milliards de dollars. Les dépositions pourraient révéler des détails embarrassants sur la gouvernance interne, les décisions stratégiques et les tensions entre fondateurs que ni Musk ni Altman n'ont intérêt à voir étalées publiquement.

Musk a fondé OpenAI en 2015 aux côtés d'Altman et d'autres investisseurs, avec la promesse d'un développement de l'IA dans l'intérêt général. Depuis son départ, il a fondé xAI et son propre modèle Grok, devenant un concurrent direct. Ce procès s'inscrit dans une guerre plus large entre deux visions de l'IA et deux ego surdimensionnés, dans un secteur où les alliances et trahisons façonnent autant l'industrie que les modèles eux-mêmes.

Impact France/UE

Les révélations sur la gouvernance interne d'OpenAI pourraient fragiliser la confiance des régulateurs et partenaires européens au moment où l'entreprise restructure son statut juridique, avec des implications potentielles sur sa conformité à l'AI Act.

À lire aussi

Tesla scelle un accord IA à 2 milliards dans le plus grand secret
1Le Big Data 

Tesla scelle un accord IA à 2 milliards dans le plus grand secret

Tesla a discrètement révélé, dans son rapport trimestriel 10-Q déposé en avril 2026 auprès de la Securities and Exchange Commission, avoir conclu un accord d'acquisition d'une entreprise spécialisée dans le matériel d'intelligence artificielle. Le montant maximal atteint 2 milliards de dollars, réglés principalement en actions Tesla. Particularité notable : environ 1,8 milliard de ces dollars sont conditionnés à des objectifs de performance et à la réussite du déploiement technologique de la cible. Aucun nom d'entreprise, aucun secteur précis ne sont mentionnés dans le document, une discrétion inhabituelle, même dans une industrie pourtant peu avare de confidentialité. C'est le site spécialisé Electrek qui a repéré cette unique ligne enfouie dans le rapport réglementaire. Cette acquisition s'inscrit dans une accélération brutale des investissements de Tesla dans l'IA. L'entreprise prévoit de porter ses dépenses d'investissement à environ 25 milliards de dollars en 2026, contre 8,5 milliards l'année précédente, une part significative étant fléchée vers l'intelligence artificielle et les infrastructures matérielles. La structure du deal, majoritairement soumise à des conditions de performance, suggère que la cible est une société encore en phase de maturation, dont le potentiel n'est pas totalement validé, mais dont les compétences sont jugées stratégiques. Ce type de montage sert également à fidéliser les talents clés via des attributions d'actions. En réduisant sa dépendance à des fournisseurs externes dans la chaîne du hardware IA, Tesla cherche à maîtriser un maillon devenu critique pour ses ambitions dans la conduite autonome et la robotique. Plusieurs indices permettent de cerner la nature probable de la cible. Elon Musk a récemment confirmé que Tesla avait finalisé la conception de sa puce propriétaire AI5, destinée à ses futurs systèmes de conduite autonome, dont la production devrait être confiée à un fondeur externe. Dans le même temps, Intel a rejoint Terafab, une coentreprise de fabrication de semi-conducteurs soutenue par Tesla, SpaceX et xAI, le timing n'étant vraisemblablement pas fortuit. Par ailleurs, Tesla a annoncé l'arrêt programmé des Model S et Model X pour libérer des capacités de production sur son site de Fremont, au profit des technologies autonomes et de la robotique. Du côté de SpaceX, Reuters rapporte que l'entreprise évalue à 28 500 milliards de dollars le marché potentiel lié à ses activités, dont 26 500 milliards pour la seule IA. Ces chiffres spectaculaires illustrent l'ampleur d'un pari industriel qui dépasse largement le secteur automobile : pour l'écosystème Musk, le hardware IA est désormais le véritable terrain de la compétition.

BusinessOpinion
1 source
Terminé le Siri inutile : Google confirme le grand remplacement pour 2026
2Le Big Data 

Terminé le Siri inutile : Google confirme le grand remplacement pour 2026

Lors de la conférence Google Cloud Next 2026, organisée à Las Vegas le 22 avril, Thomas Kurian, directeur général de Google Cloud, a officiellement confirmé que Gemini sera intégré à la prochaine version de Siri. Apple et Google collaborent sur les futurs modèles d'Apple Intelligence, en s'appuyant sur la technologie Gemini pour rendre l'assistant vocal d'Apple plus intelligent et plus personnalisé. La date exacte du lancement reste floue, mais Apple a confirmé à CNBC en février 2026 que la mise à jour était toujours prévue avant le 31 décembre 2026. Ce calendrier fait suite à un premier report survenu en mars 2025, lorsque Apple avait repoussé la sortie de Siri amélioré en évoquant "l'année à venir", puis des rumeurs d'un lancement printanier avaient circulé avant d'être tempérées par des problèmes de précision du modèle. Cette collaboration marque un tournant stratégique majeur pour les deux géants technologiques. Pour Apple, c'est la reconnaissance implicite que ses propres modèles d'IA ne suffisent pas à tenir tête à des assistants comme ChatGPT ou Gemini, qui ont considérablement relevé le niveau des attentes des utilisateurs. Pour Google, être désigné prestataire cloud privilégié d'Apple représente un accès à une base installée de plus d'un milliard d'appareils iOS, une opportunité commerciale et de visibilité considérable. Reste une question centrale sans réponse claire : comment les deux infrastructures se partageront-elles le traitement des requêtes ? Apple dispose de son propre système Private Cloud Compute, conçu pour traiter certaines données sensibles en préservant la confidentialité des utilisateurs, mais des serveurs Google seraient également potentiellement impliqués, ce qui soulève des interrogations légitimes sur la répartition réelle des données et leur niveau de protection. Cette annonce s'inscrit dans une course à l'IA générative qui a profondément reconfiguré le secteur depuis le lancement de ChatGPT fin 2022. Apple, longtemps en retrait sur ce terrain, a lancé Apple Intelligence en 2024 avec des ambitions affichées, mais des résultats jugés décevants par la presse spécialisée. Le partenariat avec Google vient compléter celui déjà existant avec OpenAI, intégré à Siri depuis iOS 18. Le prochain rendez-vous décisif sera la WWDC, prévue à partir du 8 juin 2026, où Apple devrait présenter iOS 27 et dévoiler concrètement ce que sera le nouveau Siri, avant un déploiement progressif attendu à l'automne. C'est là que se jouera la crédibilité d'Apple sur le marché de l'IA, après des mois d'attente et de reports qui ont entamé la patience des observateurs et des utilisateurs.

UELes utilisateurs iOS européens seront directement concernés par cette intégration, avec des interrogations légitimes sur le traitement des données personnelles au regard du RGPD si des requêtes transitent par les serveurs Google.

BusinessOpinion
1 source
Bilan AIE Europe et thèse des Agent Labs : épisode croisé Unsupervised Learning x Latent Space (2026)
3Latent Space 

Bilan AIE Europe et thèse des Agent Labs : épisode croisé Unsupervised Learning x Latent Space (2026)

Enregistré quelques jours après la conférence AIE Europe 2026, un épisode spécial du podcast Unsupervised Learning a réuni Jacob Effron et Shawn Wang, plus connu sous le pseudonyme "swyx", figure centrale de la communauté AI engineering, pour faire le point un an après leur premier épisode croisé avec Latent Space. Les deux animateurs ont passé en revue l'ensemble du paysage IA : infrastructure agentique, guerres du code, formation de modèles spécialisés, valorisations débridées, et ce que signifie vendre à des agents plutôt qu'à des humains. Parmi les points saillants : le playbook des "agent labs", qui consiste à démarrer avec des modèles frontier, à se spécialiser sur un domaine, puis à entraîner ses propres modèles une fois que les données, les volumes d'usage et les économies de latence le justifient. Des entreprises comme Cursor et Cognition sont citées comme exemples concrets de cette trajectoire. Ce que l'épisode documente, c'est la maturation accélérée d'un marché encore en phase d'exploration intensive. L'infrastructure IA a contraint ses acteurs à se réinventer chaque année, tandis que les entreprises applicatives ont mieux résisté à la volatilité des modèles en s'ancrant dans des workflows métier précis. La spécialisation de domaine, la distillation et l'amélioration du contexte ("context engineering") émergent comme leviers de différenciation réels, pas de simples arguments marketing. Le marché du coding IA, l'une des catégories à la croissance la plus rapide, illustre cette dynamique : Anthropic, OpenAI, Cursor et Cognition y ont tous prospéré, mais seule une poignée de noms s'impose comme gagnants réels, un mystère que l'épisode laisse en partie ouvert. La mémoire et la personnalisation sont identifiées comme le prochain grand vecteur de différenciation produit, dans un monde où les modèles récompensent encore trop la fréquence de mention plutôt que la pertinence contextuelle. L'épisode s'inscrit dans un moment charnière : les grands labos frontier tentent d'envahir les verticaux comme la finance et la santé, mais laissent encore de l'espace aux entreprises focalisées qui contrôlent le workflow et le "dernier kilomètre" utilisateur. Swyx se dit plus optimiste qu'avant sur l'open source et sur l'émergence de hardware non-Nvidia, soulignant que chaque accélération de 10x en inférence peut débloquer des expériences produit inédites. L'épisode a été enregistré avant l'annonce de l'accord Cursor-xAI, ce qui lui donne rétrospectivement une valeur de document pré-rupture, un instantané du marché juste avant que la consolidation ne s'accélère davantage. Le marché du coding est présenté comme le modèle préfigurant la trajectoire de toutes les autres verticales IA.

UELa conférence AIE Europe 2026 fournit le cadre géographique, mais l'analyse porte essentiellement sur des acteurs américains ; les startups et développeurs européens peuvent s'inspirer du playbook des 'agent labs' pour calibrer leur propre trajectoire de spécialisation.

BusinessOpinion
1 source
Google I/O : les entreprises veulent de l'aide pour exploiter l'IA
4The Information AI 

Google I/O : les entreprises veulent de l'aide pour exploiter l'IA

Lors de la conférence Google Cloud Next, le discours dominant a changé de cap par rapport à l'année précédente. En 2025, les dirigeants de Google vantaient la puissance brute de leurs modèles d'IA pour les entreprises. En 2026, le message central est devenu : comment aider concrètement les entreprises à faire fonctionner ces modèles. Des entretiens menés sur place auprès de clients et de revendeurs Google Cloud révèlent que de nombreuses organisations buttent sur des obstacles concrets dans leur adoption de l'IA, certaines peinent encore à déployer leur premier agent, tandis que d'autres se retrouvent à gérer une multitude d'agents dont la coordination devient ingérable. Ce glissement de priorité illustre un problème structurel de l'industrie : l'écart entre la promesse marketing des outils d'IA et leur déploiement opérationnel réel. Les entreprises ne manquent pas de modèles ni d'accès aux API, elles manquent d'expertise pour intégrer ces briques dans leurs processus métier, gérer les erreurs, orchestrer plusieurs agents en parallèle et maintenir des systèmes fiables en production. C'est un frein majeur à la monétisation pour les fournisseurs de cloud, qui misent sur la consommation à grande échelle. Google Cloud se retrouve dans une position partagée par ses concurrents Microsoft Azure et Amazon Web Services : après avoir massivement investi dans la course aux modèles, les hyperscalers doivent maintenant construire la couche de services, d'outillage et d'accompagnement qui transforme la puissance brute en valeur business. La conférence Next marque ainsi une maturité nouvelle du marché, où l'implémentation devient le vrai champ de bataille.

UELes entreprises européennes font face aux mêmes obstacles d'adoption de l'IA, et pourraient bénéficier des nouvelles couches de services et d'outillage que les hyperscalers développent pour faciliter le déploiement opérationnel.

BusinessOpinion
1 source