Aller au contenu principal
La Californie impose ses propres règles IA aux prestataires de l'État, en résistance à la politique fédérale
RégulationThe Decoder6sem

La Californie impose ses propres règles IA aux prestataires de l'État, en résistance à la politique fédérale

Résumé IASource uniqueImpact UE
Source originale ↗·

Le gouverneur de Californie Gavin Newsom a signé lundi un décret exécutif imposant aux entreprises titulaires de contrats avec l'État de mettre en place des garde-fous contre les usages abusifs de l'intelligence artificielle. Cette mesure concerne l'ensemble des prestataires privés travaillant pour les agences et administrations californiennes, qui devront démontrer que leurs systèmes d'IA respectent des critères de transparence, de responsabilité et de gestion des risques. La Californie devient ainsi l'un des premiers États américains à intégrer des exigences IA directement dans ses contrats publics.

Cette décision a une portée considérable : la Californie est la cinquième économie mondiale et l'un des plus gros acheteurs publics du pays, ce qui signifie que les entreprises tech souhaitant accéder à ce marché devront se conformer à ces règles, qu'elles le veuillent ou non. En pratique, cela crée un effet de levier réglementaire indirect — sans passer par une loi, l'État conditionne l'accès à ses marchés au respect de standards IA précis.

Ce décret s'inscrit en opposition directe à la politique fédérale de l'administration Trump, qui a cherché à démanteler les régulations IA héritées de Biden et à privilégier une approche de laissez-faire pour stimuler la compétitivité américaine. La Californie, qui avait déjà tenté de faire passer plusieurs projets de loi IA (dont certains bloqués par Newsom lui-même en 2024), choisit cette fois la voie du pouvoir exécutif pour avancer. D'autres États pourraient suivre ce modèle contractuel, contournant ainsi le blocage fédéral sur la régulation de l'IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1AI News 

Les défis de gouvernance de l'IA à base d'agents face au règlement européen en 2026

Les agents d'intelligence artificielle capables d'agir de façon autonome, de déplacer des données entre systèmes et de déclencher des décisions sans intervention humaine posent un défi de gouvernance croissant pour les organisations européennes. À partir d'août 2026, l'entrée en vigueur des dispositions d'exécution de l'AI Act de l'Union européenne rendra ce défi juridiquement contraignant. Les articles 9 et 13 du texte imposent aux entreprises utilisant des systèmes d'IA dans des domaines à risque élevé, notamment le traitement de données personnelles ou les opérations financières, de maintenir une gestion des risques continue, documentée et révisable à chaque étape du déploiement, ainsi que de garantir que les sorties des systèmes soient interprétables par leurs utilisateurs. Les manquements à ces obligations exposeront les organisations à des pénalités substantielles. Pour les responsables informatiques, cela signifie concrètement qu'ils doivent être capables de prouver, pièces à l'appui, qu'un agent IA agit de façon sûre et légale. Or, beaucoup d'organisations échouent dès la première étape : elles ne disposent pas d'un registre centralisé de leurs agents en production, ni d'un enregistrement précis de leurs capacités et permissions. Sans traçabilité complète des actions, quand un agent interagit avec d'autres agents dans des architectures multi-agents, la chaîne de responsabilité devient impossible à reconstituer. Des solutions techniques existent, comme le SDK Python Asqav, qui signe cryptographiquement chaque action d'un agent et lie les enregistrements à une chaîne de hachage immuable, rendant toute falsification détectable. L'enjeu dépasse la technique : il touche directement à la capacité des entreprises à démontrer leur conformité réglementaire à tout instant. L'émergence des architectures agentiques complexes, où des systèmes délèguent des tâches à d'autres agents sans supervision humaine directe, a rendu obsolètes les approches traditionnelles de gouvernance logicielle. L'AI Act oblige désormais les entreprises à repenser leurs processus de bout en bout : tout agent doit avoir une identité unique, des permissions documentées, et surtout un mécanisme de révocation rapide, idéalement en quelques secondes, incluant la suppression immédiate des accès API et l'annulation des tâches en attente. La supervision humaine ne peut se limiter à un score de confiance ou à l'affichage d'une requête : les opérateurs doivent disposer d'un contexte suffisant pour intervenir avant qu'une erreur ne se produise. Les fournisseurs tiers d'IA sont également concernés, car leurs systèmes doivent être suffisamment documentés et interprétables pour que les entreprises clientes puissent en garantir un usage conforme à la loi.

UELes entreprises françaises et européennes déployant des agents IA dans des domaines à risque élevé doivent mettre en conformité leurs processus de gouvernance (registre d'agents, traçabilité, révocation) avant l'entrée en vigueur des articles 9 et 13 de l'AI Act en août 2026, sous peine de pénalités substantielles.

RégulationReglementation
1 source
OpenAI propose des politiques industrielles pour la superintelligence
2The Information AI 

OpenAI propose des politiques industrielles pour la superintelligence

OpenAI a publié lundi un document de 13 pages proposant une série de politiques industrielles pour préparer les économies à l'arrivée de systèmes d'intelligence artificielle surpassant les capacités humaines. Parmi les mesures envisagées figurent des réformes fiscales et l'adoption d'une semaine de travail de quatre jours, ainsi que la mise en place de bourses de recherche destinées à anticiper les bouleversements du marché du travail. Ces propositions signalent qu'OpenAI prend au sérieux l'impact économique massif que pourrait engendrer la superintelligence sur l'emploi et la productivité. Une réduction du temps de travail hebdomadaire serait une réponse directe à l'automatisation accélérée, permettant de redistribuer les gains de productivité générés par l'IA vers les travailleurs plutôt que de les concentrer exclusivement entre les mains des entreprises technologiques. Ce document intervient alors qu'OpenAI intensifie ses efforts vers l'AGI et la superintelligence, deux jalons qu'il estime désormais atteignables à court terme. En s'impliquant dans le débat sur les politiques publiques, l'entreprise tente de façonner le cadre réglementaire et économique avant que ces systèmes n'arrivent sur le marché, une démarche qui rappelle les initiatives similaires de Google DeepMind et Anthropic pour influencer les législations en cours d'élaboration aux États-Unis et en Europe.

UEOpenAI cherche à influencer les cadres réglementaires européens en cours d'élaboration autour de l'AGI, notamment sur les questions d'emploi et de redistribution des gains de productivité liés à l'automatisation.

RégulationReglementation
1 source
Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »
3The Decoder 

Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

Une juge fédérale de San Francisco a bloqué la tentative de l'administration Trump d'interdire les modèles d'intelligence artificielle d'Anthropic, dans une décision rendue au terme d'une procédure en référé. La magistrate Rita F. Lin a statué en faveur de la start-up californienne, estimant que les actions du gouvernement constituaient une « rétorsion illégale classique au premier amendement » en réponse aux critiques publiques formulées par Anthropic à l'égard de la politique technologique de Washington. La décision est particulièrement cinglante pour l'administration : la juge Lin a rejeté la notion qu'elle qualifie d'« orwellienne » selon laquelle une entreprise américaine pourrait être étiquetée « adversaire potentielle et saboteuse » au seul motif qu'elle exprime un désaccord avec le gouvernement. Cette qualification de risque sécuritaire, si elle avait été maintenue, aurait pu empêcher des agences fédérales et des contractants gouvernementaux d'utiliser les outils d'Anthropic, portant un coup sévère à ses activités commerciales et à sa réputation. L'affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de la Silicon Valley qui ont refusé de s'aligner sur ses positions. Anthropic, cofondée par d'anciens employés d'OpenAI dont Dario et Daniela Amodei, est l'une des entreprises d'IA les plus valorisées au monde, avec des investissements massifs d'Amazon et Google. Ce jugement constitue un précédent potentiellement important pour la liberté d'expression des entreprises technologiques face aux pressions politiques, à un moment où Washington cherche à exercer un contrôle accru sur le secteur de l'IA.

UELa décision préserve l'accès des entreprises et institutions européennes aux outils Anthropic, tout en posant un précédent sur les limites du pouvoir exécutif américain face aux acteurs de l'IA opérant en Europe.

RégulationReglementation
1 source
La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence
4Frandroid 

La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence

La Commission européenne a conclu, au terme de quatre mois d'enquête, que Google devrait ouvrir Android à des assistants IA concurrents de Gemini. Cette décision s'inscrit dans le cadre du Digital Markets Act (DMA), la législation européenne sur les marchés numériques qui impose aux grandes plateformes désignées comme "contrôleurs d'accès" de ne pas favoriser leurs propres services. Google, qui voit d'un mauvais œil cette injonction, risque des sanctions pouvant atteindre 10 % de son chiffre d'affaires mondial en cas de non-conformité. L'enjeu est considérable : Android équipe plus de 70 % des smartphones dans le monde, et l'assistant IA préinstallé bénéficie d'un avantage structurel massif sur ses concurrents. Forcer Google à proposer un choix d'assistants IA, comme cela a déjà été fait pour les moteurs de recherche avec l'écran de sélection, permettrait à des acteurs comme Mistral, Meta AI, ou d'autres de s'installer sur des centaines de millions d'appareils. Pour les utilisateurs européens, cela signifierait concrètement la possibilité de définir un assistant IA tiers comme assistant par défaut sur leur téléphone Android. Cette enquête s'inscrit dans une pression réglementaire européenne croissante sur les géants du numérique américains, accentuée depuis l'explosion de l'IA générative en 2023. Google a déjà fait l'objet de condamnations antitrust en Europe concernant son moteur de recherche et son système publicitaire. La bataille autour de Gemini sur Android représente le prochain front de ce bras de fer, à un moment où la course aux assistants IA est devenue l'enjeu stratégique central pour Apple, Google, Microsoft et Meta.

UELes utilisateurs européens pourraient bientôt choisir leur assistant IA par défaut sur Android, ouvrant la voie à des acteurs comme Mistral et offrant une alternative concrète à Gemini sur des centaines de millions d'appareils en Europe.

💬 C'est le même bras de fer qu'avec les moteurs de recherche, version IA. L'avantage de la préinstallation, c'est écrasant : si Gemini est là par défaut et que tu n'y touches pas, Mistral n'existe pas pour toi. La DMA force le sujet, c'est déjà ça, reste à voir si l'écran de choix sera moins ignoré que celui qu'on avait eu pour les navigateurs.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour