Aller au contenu principal
La Californie impose ses propres règles IA aux prestataires de l'État, en résistance à la politique fédérale
AutreThe Decoder1h

La Californie impose ses propres règles IA aux prestataires de l'État, en résistance à la politique fédérale

1 source couvre ce sujet·Source originale ↗·

Le gouverneur de Californie Gavin Newsom a signé lundi un décret exécutif imposant aux entreprises titulaires de contrats avec l'État de mettre en place des garde-fous contre les usages abusifs de l'intelligence artificielle. Cette mesure concerne l'ensemble des prestataires privés travaillant pour les agences et administrations californiennes, qui devront démontrer que leurs systèmes d'IA respectent des critères de transparence, de responsabilité et de gestion des risques. La Californie devient ainsi l'un des premiers États américains à intégrer des exigences IA directement dans ses contrats publics.

Cette décision a une portée considérable : la Californie est la cinquième économie mondiale et l'un des plus gros acheteurs publics du pays, ce qui signifie que les entreprises tech souhaitant accéder à ce marché devront se conformer à ces règles, qu'elles le veuillent ou non. En pratique, cela crée un effet de levier réglementaire indirect — sans passer par une loi, l'État conditionne l'accès à ses marchés au respect de standards IA précis.

Ce décret s'inscrit en opposition directe à la politique fédérale de l'administration Trump, qui a cherché à démanteler les régulations IA héritées de Biden et à privilégier une approche de laissez-faire pour stimuler la compétitivité américaine. La Californie, qui avait déjà tenté de faire passer plusieurs projets de loi IA (dont certains bloqués par Newsom lui-même en 2024), choisit cette fois la voie du pouvoir exécutif pour avancer. D'autres États pourraient suivre ce modèle contractuel, contournant ainsi le blocage fédéral sur la régulation de l'IA.

À lire aussi

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
1MIT Technology Review 

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic

Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.

UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

AutreReglementation
1 source
2Le Monde Pixels 

Fei-Fei Li, la « marraine de l’IA », prône une technologie « centrée sur l’humain »

Autre
1 source
Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé
3Siècle Digital 

Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé

Anthropic travaille sur un nouveau modèle d'intelligence artificielle baptisé Claude Mythos, décrit en interne comme le système le plus puissant jamais développé par l'entreprise. Selon des documents internes dont le contenu a été révélé par le magazine Fortune, ce modèle surpasse les capacités de tous les modèles Claude actuellement disponibles. Malgré ses performances exceptionnelles, Anthropic a décidé de ne pas le lancer publiquement, du moins pas dans l'immédiat. La raison de cette retenue est précisément la puissance du modèle : Mythos serait jugé trop capable pour être diffusé sans précautions supplémentaires. Ce type de décision illustre un dilemme croissant dans le secteur — plus les modèles progressent, plus les questions de sécurité et d'évaluation des risques deviennent centrales avant tout déploiement. Pour les utilisateurs professionnels et les entreprises qui dépendent des API d'Anthropic, cela signifie que la frontière technologique réelle est désormais en avance sur ce qui est commercialement accessible. Anthropic se distingue depuis sa fondation en 2021 par une approche dite de « sécurité d'abord », à rebours d'OpenAI dont elle est issue. La fuite de ces informations internes intervient dans un contexte de compétition acharnée entre laboratoires d'IA — OpenAI, Google DeepMind, Meta et xAI se livrant une course aux modèles toujours plus puissants. Le cas Mythos soulève une question stratégique : jusqu'où les labos peuvent-ils retenir leurs meilleurs modèles sans perdre du terrain commercial, et comment définir objectivement le seuil au-delà duquel un modèle est « trop dangereux » pour être publié ?

UELes développeurs et entreprises européens utilisant l'API d'Anthropic n'auront pas accès aux capacités les plus avancées de Mythos, creusant l'écart entre la frontière technologique réelle et les outils commercialement disponibles.

AutreActu
1 source
4The Information AI 

Alibaba’s New Multimodal AI Model is Not Open-Source

Autre
1 source