Aller au contenu principal

Dossier xAI / Grok — page 2

100 articles · page 2 sur 2

xAI et Grok : la stratégie d'Elon Musk après la fusion avec SpaceX, projets de partenariats Mistral et Cursor, batailles avec OpenAI et Anthropic.

L’IA va voler votre job, Musk veut vous donner un salaire (et pas un petit)
51Le Big Data SociétéOpinion

L’IA va voler votre job, Musk veut vous donner un salaire (et pas un petit)

Le 17 avril 2026, Elon Musk a publié sur le réseau X un message qui a immédiatement enflammé les débats économiques : selon lui, la meilleure réponse au chômage de masse causé par l'intelligence artificielle serait un « Universal High Income » (UHI), soit un Revenu Universel Élevé versé sous forme de chèques par le gouvernement fédéral américain. Ce n'est plus le simple filet de sécurité qu'il évoquait dès 2018 sous le nom d'UBI, mais une promesse d'aisance généralisée. Son argument central : l'IA et la robotique vont produire des biens et services en quantité tellement excédentaire par rapport à la masse monétaire injectée que l'inflation serait mécaniquement neutralisée, rendant un revenu confortable pour tous non seulement possible, mais nécessaire. Cette déclaration intervient alors que les robots humanoïdes et les modèles d'IA générative s'apprêtent à automatiser une part inédite du travail physique et intellectuel en ce début d'année 2026. L'impact potentiel d'une telle proposition est considérable, mais sa faisabilité économique est sévèrement contestée. Si Musk a raison, des dizaines de millions de travailleurs déplacés par l'automatisation bénéficieraient d'un revenu suffisant pour maintenir un niveau de vie correct, évitant une crise sociale d'ampleur historique. Mais la majorité des économistes jugent son calcul mathématiquement intenable : injecter massivement de l'argent public sans créer d'inflation suppose que la productivité des machines suive une courbe de déflation technologique sans précédent et soutenue, ce qui reste une hypothèse non démontrée. Le financement d'un tel programme représenterait des milliers de milliards de dollars annuels pour les seuls États-Unis, sans source de revenus fiscaux clairement identifiée dans un monde où les grandes entreprises tech optimisent déjà leur fiscalité. Cette sortie de Musk s'inscrit dans une trajectoire qui dure depuis plusieurs années, mais marque une rupture de ton. En 2018, il parlait de filet de sécurité ; pendant la pandémie, il saluait les chèques de 1 400 dollars comme un « UBI lite ». Aujourd'hui, il parle d'abondance et de post-rareté, une vision qui n'est plus défensive mais utopique. Derrière l'annonce se profile aussi une question philosophique que peu d'économistes osent quantifier : si le travail disparaît, comment des sociétés entières trouveront-elles sens, identité et cohésion sociale ? Le risque d'une dépendance généralisée à l'État, que certains appellent déjà le « techno-féodalisme », est réel. Musk lui-même, à la tête de Tesla, SpaceX et xAI, est l'un des principaux acteurs de cette automatisation qu'il propose maintenant de compenser financièrement, ce qui ne manque pas d'alimenter les questions sur les conflits d'intérêts et la sincérité du projet.

1 source
Paris sportifs : Ce qui risque de vous arriver en demandant conseil à l’IA
52Le Big Data 

Paris sportifs : Ce qui risque de vous arriver en demandant conseil à l’IA

Une start-up londonienne, General Reasoning, a publié une étude baptisée « KellyBench » qui met en lumière les limites des grandes intelligences artificielles face à un défi financier concret : les paris sportifs. Huit modèles issus de Google, OpenAI, Anthropic et xAI ont été soumis à une simulation de la saison 2023-2024 de la Premier League anglaise. Chaque système disposait de données historiques, de statistiques d'équipes et de joueurs, et devait élaborer des stratégies de mise capables de générer des profits tout en limitant les risques, sans accès à Internet et en s'adaptant aux informations fournies au fil des matchs. Les résultats sont sans appel : aucun des modèles testés n'a réussi à rester rentable sur la durée. Le meilleur performer, Claude Opus 4.6 d'Anthropic, affiche tout de même une perte moyenne de 11 %, avec une seule tentative frôlant l'équilibre. Grok 4.20 de xAI a fait faillite dès son premier essai, tandis que Gemini 3.1 Pro de Google a enregistré un gain ponctuel de 34 % avant de s'effondrer lors d'une autre tentative. Plusieurs systèmes ont accumulé des pertes importantes, et tous ont performé en dessous de participants humains placés dans les mêmes conditions simulées. Ces résultats éclairent une limite fondamentale des IA actuelles : leur efficacité chute dès qu'elles quittent les environnements stables et bien définis. Si ces systèmes excellent sur des tâches structurées comme la programmation, l'analyse de données ou les examens standardisés, ils peinent à gérer des dynamiques imprévisibles sur le long terme, là où les variables changent en permanence et où les décisions doivent intégrer du risque réel. Pour les investisseurs, les parieurs ou toute personne envisageant de déléguer des décisions financières à une IA, le message est clair : la robustesse affichée dans les benchmarks classiques ne se traduit pas en performance dans des contextes réels et mouvants. Ross Taylor, directeur général de General Reasoning et ancien chercheur chez Meta AI, souligne que l'engouement actuel pour l'automatisation tend à masquer cette réalité plus nuancée. Les benchmarks traditionnels, trop statiques, ne capturent pas la complexité du monde réel, ce qui crée une illusion de compétence universelle. Cette étude, encore non évaluée par des pairs, s'inscrit dans un débat plus large sur la façon dont on mesure les capacités des IA : les tests actuels favorisent les domaines où ces systèmes brillent, tout en occultant leurs lacunes sur des tâches dynamiques et à haute incertitude. La prochaine étape pour le secteur sera de concevoir des évaluations plus représentatives, capables de révéler non seulement ce que les IA savent faire, mais aussi ce qu'elles ne maîtrisent pas encore.

UECette étude avertit les entreprises et investisseurs européens contre la délégation de décisions financières à des IA, dont les performances réelles restent inférieures aux capacités humaines dans des contextes dynamiques et incertains.

RecherchePaper
1 source
Les modèles d'IA sont mauvais pour parier sur le football, Grok en tête
53Ars Technica AI 

Les modèles d'IA sont mauvais pour parier sur le football, Grok en tête

Une étude publiée cette semaine par la startup londonnienne General Reasoning révèle que les grands modèles d'IA de Google, OpenAI, Anthropic et xAI ont tous perdu de l'argent en pariant virtuellement sur les matchs de Premier League de la saison 2023-2024. Le rapport, baptisé "KellyBench", a soumis huit systèmes d'IA à une reconstitution virtuelle complète de la saison, en leur fournissant des données historiques détaillées sur chaque équipe et chaque rencontre. Les modèles avaient pour mission de construire des stratégies maximisant les rendements tout en gérant le risque, une tâche à laquelle tous ont échoué, le modèle Grok d'xAI s'illustrant particulièrement mal. Ce résultat met en lumière une limite structurelle des IA actuelles : leur incapacité à raisonner de manière fiable sur des problèmes complexes du monde réel sur de longues périodes. Là où ces mêmes systèmes excellent dans des tâches bien délimitées comme l'écriture de code ou la génération de texte, la prévision sportive exige une intégration de facteurs dynamiques, d'incertitudes cumulées et d'un jugement probabiliste soutenu que les modèles peinent à maintenir sur une saison entière. L'étude KellyBench s'inscrit dans un débat plus large sur les véritables capacités de raisonnement des LLM. Alors que les benchmarks traditionnels sont régulièrement saturés par les nouveaux modèles, General Reasoning cherche à concevoir des épreuves qui résistent dans le temps et mesurent des compétences cognitives authentiques. Les paris sportifs, imprévisibles par nature et impossibles à mémoriser par entraînement, constituent un terrain de test particulièrement révélateur des lacunes réelles de ces systèmes.

💬 Ça paraît anecdotique, mais c'est en fait un des benchmarks les plus honnêtes qu'on ait vus depuis longtemps : tu enlèves la possibilité de mémoriser les réponses pendant l'entraînement, et là les modèles se plantent dans les grandes largeurs. Ce que ça révèle, c'est pas qu'ils sont "mauvais au foot", c'est qu'ils tiennent pas sur la durée dès que le problème est dynamique et bruité. Grok en lanterne rouge, c'est la cerise.

RecherchePaper
1 source
Musk met à jour sa plainte contre OpenAI pour rediriger jusqu'à 150 milliards de dollars vers la fondation à but non lucratif
54The Decoder 

Musk met à jour sa plainte contre OpenAI pour rediriger jusqu'à 150 milliards de dollars vers la fondation à but non lucratif

Elon Musk a modifié sa plainte contre OpenAI afin de rediriger les éventuels dommages et intérêts, estimés à 150 milliards de dollars, vers la fondation caritative originelle de l'entreprise, plutôt que vers lui-même. Dans cette mise à jour de son recours judiciaire, le milliardaire affirme explicitement ne vouloir aucun bénéfice personnel issu du litige. OpenAI a répondu en qualifiant cette démarche de "campagne de harcèlement", rejetant toute bonne foi derrière ce geste. Ce repositionnement procédural est notable : en orientant les dommages potentiels vers la structure à but non lucratif, Musk tente de se présenter comme défenseur de la mission originelle d'OpenAI plutôt que comme adversaire cherchant un gain financier. Cela renforce son argument central selon lequel OpenAI a trahi sa vocation initiale en se transformant en entreprise commerciale au service de ses actionnaires, au détriment de l'intérêt public. La manœuvre complique aussi la stratégie de communication d'OpenAI, qui ne peut plus aussi facilement dépeindre Musk comme motivé par l'appât du gain. Musk est l'un des cofondateurs d'OpenAI, qu'il a quitté en 2018, avant de lancer sa propre société d'IA, xAI, concurrente directe. Il a déposé une première plainte contre OpenAI en 2024, reprochant à Sam Altman et à l'organisation d'avoir abandonné leur mission à but non lucratif au profit d'intérêts commerciaux, notamment après l'entrée de Microsoft au capital. Cette affaire s'inscrit dans un contexte plus large de bataille pour le contrôle narratif et juridique de l'avenir de l'IA générale.

BusinessOpinion
1 source
Les modèles de raisonnement GPT ont une trajectoire vers l'AGI, selon Greg Brockman d'OpenAI
55The Decoder 

Les modèles de raisonnement GPT ont une trajectoire vers l'AGI, selon Greg Brockman d'OpenAI

Greg Brockman, cofondateur d'OpenAI, a déclaré que les modèles de raisonnement GPT offrent désormais une « ligne de vue » directe vers l'intelligence artificielle générale (AGI). Selon lui, le débat sur la capacité des modèles textuels à atteindre une intelligence générale est clos : l'architecture GPT constitue la voie vers l'AGI. Cette prise de position tranche avec des années d'incertitude dans la communauté de la recherche en IA, où beaucoup estimaient que les grands modèles de langage, aussi performants soient-ils, resteraient fondamentalement limités à des tâches spécialisées. En affirmant que le cap est désormais visible, Brockman signale qu'OpenAI considère ses modèles de raisonnement — comme o1 et o3 — non pas comme des outils, mais comme les prémices d'une intelligence véritablement générale. Cette déclaration intervient dans un contexte de compétition intense entre OpenAI, Google DeepMind, Anthropic et xAI, chacun revendiquant des avancées vers l'AGI. La question de définir précisément ce qu'est l'AGI reste toutefois ouverte, et des voix critiques dans la communauté scientifique contestent que les architectures actuelles, même dotées de capacités de raisonnement avancées, puissent y parvenir sans rupture technologique majeure.

LLMsOpinion
1 source
Une IA qui rêve la nuit ? Les incroyables secrets du méga-leak d’Anthropic
56Le Big Data 

Une IA qui rêve la nuit ? Les incroyables secrets du méga-leak d’Anthropic

Le 31 mars 2026, Anthropic a commis l'une des erreurs de déploiement les plus coûteuses de l'histoire récente de l'IA. En publiant la mise à jour 2.1.88 de Claude Code, son agent de programmation autonome, l'entreprise a oublié de retirer un fichier de débogage de 59,8 mégaoctets — un fichier .map qui contenait l'intégralité du code source original de l'outil : plus de 512 000 lignes de TypeScript. En quelques heures, ce code a été partagé plus de 50 000 fois sur GitHub et disséqué par des développeurs du monde entier. Anthropic, qui génère 2,5 milliards de dollars de revenus annuels et dont Claude Code est devenu l'outil de référence dans les équipes techniques des plus grandes entreprises tech, venait d'exposer publiquement la mécanique interne de son produit phare. Ce qui rend cette fuite particulièrement grave n'est pas la compromission de données personnelles ou d'identifiants — il n'y en a pas. C'est la nature même de ce qui a été exposé : l'architecture d'orchestration complète de Claude Code, c'est-à-dire la logique qui lui permet de raisonner, de planifier et de maintenir une cohérence sur des tâches longues. Les concurrents disposent désormais d'un manuel opérationnel détaillé pour construire des agents autonomes comparables. Parmi les découvertes les plus significatives figure un drapeau d'activation nommé KAIROS — référence au concept grec du « moment opportun » — mentionné plus de 150 fois dans le code. Il correspond à un mode « démon autonome » inédit : Claude Code serait capable de continuer à fonctionner en arrière-plan, même terminal fermé, même utilisateur déconnecté. Associée à ce mode, une fonction baptisée autoDream simule une forme de consolidation mémorielle nocturne : lorsque l'utilisateur est inactif, un sous-agent se lance pour trier les observations de la journée, fusionner les informations contradictoires et transformer des déductions vagues en connaissances structurées — un mécanisme directement inspiré du rôle du sommeil paradoxal dans la mémoire humaine. Cette fuite intervient dans un contexte de course effrénée entre les grands laboratoires d'IA pour développer des agents capables d'opérer de façon véritablement autonome sur des horizons temporels longs. Anthropic, OpenAI, Google DeepMind et plusieurs challengers financent massivement cette direction depuis 2024. KAIROS et autoDream montrent qu'Anthropic avait une longueur d'avance significative sur ces capacités — et que ces fonctionnalités n'étaient pas encore annoncées publiquement au moment du leak. La question qui agite désormais la communauté est double : dans quelle mesure des concurrents comme Google ou xAI vont-ils exploiter ce code pour accélérer leurs propres développements, et Anthropic parviendra-t-il à maintenir son avantage malgré la mise à nu involontaire de son infrastructure technique la plus stratégique ?

OutilsOpinion
1 source
Une startup permet de générer des vidéos à moindre coût
57The Information AI 

Une startup permet de générer des vidéos à moindre coût

Alors qu'OpenAI a récemment fermé son outil de génération vidéo Sora, d'autres acteurs du secteur continuent d'innover — et cherchent surtout à se démarquer sur le plan économique. LTX, une spin-off de Lightricks (l'éditeur de l'application de retouche photo Facetune), a lancé en janvier 2026 un logiciel open-source de génération et d'édition vidéo par IA, capable de tourner sur un simple ordinateur portable. Son modèle tarifaire est original : les développeurs peuvent utiliser l'outil gratuitement jusqu'à ce que leur chiffre d'affaires dépasse les 10 millions de dollars. Au-delà de ce seuil, ils doivent reverser une portion de leurs revenus à LTX — une règle expliquée directement par Zeev Farbman, PDG de la société. Ce modèle cherche à résoudre un problème concret qui freine l'adoption des outils vidéo par IA : le coût prohibitif des itérations. Aujourd'hui, les modèles ne produisent que rarement le résultat attendu dès la première tentative. Les utilisateurs doivent générer de nombreuses versions du même clip, ajustant les paramètres à chaque essai — ce qui fait rapidement exploser la facture quand chaque génération est payante. Chez des concurrents comme xAI, Google ou Runway, produire une seule minute de vidéo peut coûter de quelques dollars à plus de 10 dollars. En offrant un accès gratuit aux petits développeurs, LTX supprime ce frein à l'expérimentation. Ce lancement intervient dans un contexte où le marché de la vidéo générée par IA cherche encore son modèle économique viable. Lightricks, connue pour ses applications grand public à succès, s'appuie sur son expertise en édition visuelle pour positionner LTX comme une infrastructure accessible aux créateurs et aux développeurs indépendants. La stratégie — laisser croître une base d'utilisateurs gratuits, puis monétiser les success stories — rappelle le modèle de certaines licences open-source commerciales comme celle de MongoDB ou Elastic. Si la qualité des modèles continue de progresser, LTX pourrait devenir une alternative crédible aux plateformes fermées et coûteuses qui dominent actuellement le secteur.

OutilsOutil
1 source
Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé
58Siècle Digital 

Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé

Anthropic travaille sur un nouveau modèle d'intelligence artificielle baptisé Claude Mythos, décrit en interne comme le système le plus puissant jamais développé par l'entreprise. Selon des documents internes dont le contenu a été révélé par le magazine Fortune, ce modèle surpasse les capacités de tous les modèles Claude actuellement disponibles. Malgré ses performances exceptionnelles, Anthropic a décidé de ne pas le lancer publiquement, du moins pas dans l'immédiat. La raison de cette retenue est précisément la puissance du modèle : Mythos serait jugé trop capable pour être diffusé sans précautions supplémentaires. Ce type de décision illustre un dilemme croissant dans le secteur — plus les modèles progressent, plus les questions de sécurité et d'évaluation des risques deviennent centrales avant tout déploiement. Pour les utilisateurs professionnels et les entreprises qui dépendent des API d'Anthropic, cela signifie que la frontière technologique réelle est désormais en avance sur ce qui est commercialement accessible. Anthropic se distingue depuis sa fondation en 2021 par une approche dite de « sécurité d'abord », à rebours d'OpenAI dont elle est issue. La fuite de ces informations internes intervient dans un contexte de compétition acharnée entre laboratoires d'IA — OpenAI, Google DeepMind, Meta et xAI se livrant une course aux modèles toujours plus puissants. Le cas Mythos soulève une question stratégique : jusqu'où les labos peuvent-ils retenir leurs meilleurs modèles sans perdre du terrain commercial, et comment définir objectivement le seuil au-delà duquel un modèle est « trop dangereux » pour être publié ?

UELes développeurs et entreprises européens utilisant l'API d'Anthropic n'auront pas accès aux capacités les plus avancées de Mythos, creusant l'écart entre la frontière technologique réelle et les outils commercialement disponibles.

SécuritéActu
1 source
OpenAI : Sam Altman et Kevin Weil font la promotion d'un vaccin anti-cancer canin assisté par IA sans preuve d'efficacité
59The Decoder 

OpenAI : Sam Altman et Kevin Weil font la promotion d'un vaccin anti-cancer canin assisté par IA sans preuve d'efficacité

Sam Altman, PDG d'OpenAI, et Kevin Weil, vice-président Science de l'entreprise, ont relayé avec enthousiasme l'histoire d'un consultant australien en IA qui affirmait avoir sauvé sa chienne Rosie d'un cancer incurable grâce à l'intelligence artificielle. L'homme aurait utilisé ChatGPT, AlphaFold — l'outil de prédiction de protéines de DeepMind — et Grok, le modèle d'xAI, pour concevoir un vaccin personnalisé contre la tumeur de son animal. L'histoire est devenue virale après avoir été partagée par Greg Brockman d'OpenAI et Demis Hassabis de DeepMind, présentée comme une démonstration concrète des capacités actuelles de l'IA en médecine. Le problème : aucune preuve ne permet d'affirmer que le vaccin a fonctionné. Les dirigeants d'OpenAI ont amplifié un récit non vérifié comme s'il s'agissait d'une validation scientifique, sans mentionner l'absence totale de données cliniques. Cette promotion enthousiaste par les têtes de l'industrie soulève des questions sérieuses sur la responsabilité des grandes figures tech lorsqu'elles communiquent sur des résultats médicaux non prouvés. L'épisode illustre une tension croissante dans l'écosystème IA : la pression de démontrer des cas d'usage spectaculaires pousse certains dirigeants à amplifier des anecdotes non vérifiées comme preuve de progrès. DeepMind avait pourtant déjà posé des jalons solides avec AlphaFold sur la prédiction de structures protéiques — une avancée réelle et publiée. Instrumentaliser cet outil dans une histoire virale sans validation scientifique brouille la frontière entre communication et désinformation, au moment même où la crédibilité de l'IA médicale est scrutée de près.

UEL'épisode renforce les arguments des régulateurs européens sur la nécessité d'encadrer strictement la communication des acteurs IA dans le domaine médical, un axe central de l'AI Act.

ÉthiqueOpinion
1 source
60The Decoder 

Grok 4.20 loin derrière Gemini et GPT-5.4, mais établit un record d'absence d'hallucinations

Le Grok 4.20 de xAI se distingue comme le modèle le moins sujet aux hallucinations parmi tous les modèles testés, tout en étant rapide et économique. Cependant, il accuse un retard significatif face aux modèles de pointe comme Gemini et GPT-5.4 sur les benchmarks standards.

LLMsActu
1 source
61Ars Technica AI 

Les consommateurs sont-ils condamnés à payer plus cher pour l'électricité en raison des dépenses d'agrandissement des centres de données?

Les consommateurs pourraient-ils être contraints de payer plus cher pour l'électricité en raison des développements des centres de données? Les grandes entreises technologiques, comme Amazon, Google, Meta, Microsoft, xAI, Oracle et OpenAI, s'engagent potentiellement à construire leurs propres centrales électriques pour les centres de données, conformément à une promesse soutenue par Donald Trump. Cependant, ces entreprises font face à des défis logistiques importants pour tenir cette promesse faite lors d'un événement au White House, assurant que "personne ne verra son prix augmenter" en raison de la demande énergétique des centres de données AI.

RechercheOpinion
1 source