À lire aussi

« Ils menacent la vie privée des Américains » : les robots humanoïdes chinois, nouveau cauchemar des États-Unis
Un projet de loi bipartisan a été déposé au Congrès américain pour interdire formellement au gouvernement fédéral l'achat et le déploiement de robots terrestres fabriqués par des entreprises chinoises. Le texte cible explicitement les robots humanoïdes et autres systèmes mobiles autonomes, dans un contexte où des fabricants comme Unitree ou Fourier Intelligence gagnent rapidement des parts de marché mondial grâce à des prix nus face à leurs concurrents américains ou japonais. La menace perçue dépasse la simple compétition industrielle : les législateurs américains craignent que ces robots, équipés de caméras, microphones et capteurs de cartographie, ne deviennent des vecteurs de collecte de renseignements sur les infrastructures sensibles, les bâtiments gouvernementaux ou les comportements des agents fédéraux. C'est le même raisonnement qui avait conduit à l'interdiction de TikTok et aux restrictions imposées à Huawei — sauf que cette fois, le risque est physique et se déplace dans l'espace réel. Ce mouvement s'inscrit dans une escalade technologique plus large entre Washington et Pékin. Après les semi-conducteurs, les drones (DJI est déjà sur liste noire), et les équipements télécom, la robotique humanoïde devient le prochain front de la guerre technologique. La Chine a massivement subventionné ce secteur ces dernières années, avec l'ambition affichée de dominer le marché mondial d'ici 2030. Si la loi passe, elle pourrait aussi pousser les alliés américains à adopter des restrictions similaires, redessinant les chaînes d'approvisionnement robotiques à l'échelle mondiale.
UESi adoptée, cette loi pourrait inciter les alliés américains, dont les États membres de l'UE, à imposer des restrictions similaires sur les robots terrestres chinois, redessinant les chaînes d'approvisionnement robotiques en Europe.

Une startup permet de générer des vidéos à moindre coût
Alors qu'OpenAI a récemment fermé son outil de génération vidéo Sora, d'autres acteurs du secteur continuent d'innover — et cherchent surtout à se démarquer sur le plan économique. LTX, une spin-off de Lightricks (l'éditeur de l'application de retouche photo Facetune), a lancé en janvier 2026 un logiciel open-source de génération et d'édition vidéo par IA, capable de tourner sur un simple ordinateur portable. Son modèle tarifaire est original : les développeurs peuvent utiliser l'outil gratuitement jusqu'à ce que leur chiffre d'affaires dépasse les 10 millions de dollars. Au-delà de ce seuil, ils doivent reverser une portion de leurs revenus à LTX — une règle expliquée directement par Zeev Farbman, PDG de la société. Ce modèle cherche à résoudre un problème concret qui freine l'adoption des outils vidéo par IA : le coût prohibitif des itérations. Aujourd'hui, les modèles ne produisent que rarement le résultat attendu dès la première tentative. Les utilisateurs doivent générer de nombreuses versions du même clip, ajustant les paramètres à chaque essai — ce qui fait rapidement exploser la facture quand chaque génération est payante. Chez des concurrents comme xAI, Google ou Runway, produire une seule minute de vidéo peut coûter de quelques dollars à plus de 10 dollars. En offrant un accès gratuit aux petits développeurs, LTX supprime ce frein à l'expérimentation. Ce lancement intervient dans un contexte où le marché de la vidéo générée par IA cherche encore son modèle économique viable. Lightricks, connue pour ses applications grand public à succès, s'appuie sur son expertise en édition visuelle pour positionner LTX comme une infrastructure accessible aux créateurs et aux développeurs indépendants. La stratégie — laisser croître une base d'utilisateurs gratuits, puis monétiser les success stories — rappelle le modèle de certaines licences open-source commerciales comme celle de MongoDB ou Elastic. Si la qualité des modèles continue de progresser, LTX pourrait devenir une alternative crédible aux plateformes fermées et coûteuses qui dominent actuellement le secteur.

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.
UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

La Californie impose ses propres règles IA aux prestataires de l'État, en résistance à la politique fédérale
Le gouverneur de Californie Gavin Newsom a signé lundi un décret exécutif imposant aux entreprises titulaires de contrats avec l'État de mettre en place des garde-fous contre les usages abusifs de l'intelligence artificielle. Cette mesure concerne l'ensemble des prestataires privés travaillant pour les agences et administrations californiennes, qui devront démontrer que leurs systèmes d'IA respectent des critères de transparence, de responsabilité et de gestion des risques. La Californie devient ainsi l'un des premiers États américains à intégrer des exigences IA directement dans ses contrats publics. Cette décision a une portée considérable : la Californie est la cinquième économie mondiale et l'un des plus gros acheteurs publics du pays, ce qui signifie que les entreprises tech souhaitant accéder à ce marché devront se conformer à ces règles, qu'elles le veuillent ou non. En pratique, cela crée un effet de levier réglementaire indirect — sans passer par une loi, l'État conditionne l'accès à ses marchés au respect de standards IA précis. Ce décret s'inscrit en opposition directe à la politique fédérale de l'administration Trump, qui a cherché à démanteler les régulations IA héritées de Biden et à privilégier une approche de laissez-faire pour stimuler la compétitivité américaine. La Californie, qui avait déjà tenté de faire passer plusieurs projets de loi IA (dont certains bloqués par Newsom lui-même en 2024), choisit cette fois la voie du pouvoir exécutif pour avancer. D'autres États pourraient suivre ce modèle contractuel, contournant ainsi le blocage fédéral sur la régulation de l'IA.