Aller au contenu principal
AutreWired AI2h

Bernie Sanders propose un projet de loi sur la sécurité de l'IA pour bloquer la construction de centres de données

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Bernie Sanders a déposé mardi un projet de loi au Sénat américain visant à imposer un moratoire sur la construction de nouveaux centres de données d'IA. L'objectif déclaré est de donner au Congrès le temps de « s'assurer que l'IA est sûre » avant que l'infrastructure ne se développe davantage. Alexandria Ocasio-Cortez doit introduire un texte similaire à la Chambre des représentants dans les prochaines semaines. Cette initiative marque une escalade notable dans le débat législatif américain sur la sécurité de l'IA. Un gel des centres de données freinerait directement la capacité des grandes entreprises tech à entraîner et déployer de nouveaux modèles, avec des conséquences potentiellement majeures sur la course mondiale à l'IA. Ce projet s'inscrit dans un contexte de préoccupations croissantes sur les risques liés à l'IA, alors que les investissements en infrastructures atteignent des centaines de milliards de dollars aux États-Unis.

Impact France/UE

Un moratoire américain sur les centres de données IA ralentirait la course mondiale et créerait une incertitude pour les entreprises européennes dépendantes des infrastructures cloud américaines.

The US senator said on Tuesday that a moratorium would give lawmakers time to "ensure that AI is safe." Alexandria Ocasio-Cortez will introduce a similar bill in the House in the weeks ahead.

À lire aussi

1Presse-citron27min

En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang

Donald Trump a annoncé la création d'un « Conseil des Sages » dédié aux sciences et technologies, intégrant des figures majeures de la tech américaine comme Mark Zuckerberg (Meta) et Jensen Huang (Nvidia). Ce type d'instance consultative a existé sous d'autres présidences, mais c'est la première fois qu'elle est aussi explicitement orientée vers l'intelligence artificielle. Cette initiative intervient dans un contexte de questionnement croissant sur la stratégie américaine en matière d'IA, notamment face à la montée en puissance de la Chine. Associer directement les PDG des entreprises les plus influentes du secteur au sommet de l'État signale une volonté de coordonner politique publique et industrie privée à un niveau inédit. Les États-Unis cherchent ainsi à structurer une gouvernance de l'IA au plus haut niveau, alors que la concurrence technologique mondiale s'intensifie et que les débats sur la régulation restent vifs.

UEUne coordination renforcée entre l'administration américaine et les géants de la tech pourrait accélérer la course aux standards mondiaux de l'IA et compliquer la position européenne dans les négociations réglementaires internationales.

AutreReglementation
1 source
2The Verge AI43min

Les démocrates du Sénat veulent inscrire dans la loi les lignes rouges d'Anthropic sur les armes autonomes et la surveillance de masse

Deux sénateurs démocrates ont déposé des projets de loi pour encadrer légalement l'utilisation de l'IA par l'armée américaine. Adam Schiff (Californie) travaille sur un texte visant à inscrire dans la loi les "lignes rouges" d'Anthropic — notamment l'obligation de maintenir un contrôle humain sur les décisions de vie ou de mort. Elissa Slotkin (Michigan) a quant à elle introduit un projet de loi pour limiter la capacité du Pentagone à utiliser l'IA dans la surveillance de masse des citoyens américains. Ces initiatives font suite à un bras de fer entre Anthropic et l'administration Trump. La société avait imposé des restrictions sur l'usage militaire de ses modèles d'IA, ce qui lui a valu d'être placée sur liste noire par l'administration comme "risque pour la chaîne d'approvisionnement". Anthropic a répondu en portant plainte, arguant que cette décision viole ses droits constitutionnels. L'enjeu est de taille : si ces restrictions légales passent, elles pourraient contraindre l'ensemble du secteur de la défense à respecter des garde-fous similaires sur l'autonomie des systèmes létaux. Ce conflit illustre la tension croissante entre l'industrie de l'IA et le gouvernement fédéral autour des usages militaires de ces technologies, dans un contexte où l'administration Trump cherche à accélérer l'intégration de l'IA dans les opérations de défense et de renseignement.

UECes initiatives législatives américaines sur le contrôle humain des systèmes d'IA létaux pourraient indirectement influencer les discussions européennes sur l'encadrement des armes autonomes, un sujet encore peu traité par l'AI Act.

AutreReglementation
1 source
3The Verge AI1h

Mark Zuckerberg et Jensen Huang rejoignent le nouveau conseil technologique de Trump

Mark Zuckerberg (Meta), Larry Ellison (Oracle), Jensen Huang (Nvidia) et Sergey Brin (Google) seront les quatre premiers membres du Conseil des conseillers du président sur la science et la technologie (PCAST), selon le Wall Street Journal. Ce panel, qui aura son mot à dire sur la politique en matière d'IA, comptera 13 membres au départ et pourrait s'étendre à 24. Il sera coprésidé par David Sacks, le « tsar » de l'IA et des cryptomonnaies de Trump, et Michael Kratsios, conseiller technologique de la Maison-Blanche. Cette initiative place directement les PDG des géants technologiques au cœur de la politique fédérale sur l'intelligence artificielle. Leur influence pourrait peser lourd sur les réglementations à venir, les investissements publics et la position américaine face à la concurrence chinoise dans la course à l'IA. Le fait que des dirigeants de sociétés privées siègent officiellement dans un organe consultatif présidentiel soulève aussi des questions sur les conflits d'intérêts potentiels. Le PCAST est une instance historique qui conseille la Maison-Blanche sur la science, la technologie, l'éducation et l'innovation — sa composition reflète la priorité absolue accordée par l'administration Trump à la domination américaine dans le domaine de l'IA.

UELa composition pro-industrie de ce conseil pourrait accélérer la divergence réglementaire entre Washington et Bruxelles, renforçant la pression concurrentielle sur les entreprises européennes d'IA soumises à l'AI Act.

AutreReglementation
1 source
4IEEE Spectrum AI1h

Ce qui se passe quand on organise un café IA

Des professeurs de l'Université d'Auburn en Alabama ont organisé en novembre dernier deux événements appelés « AI Café » : des conversations informelles de 90 minutes réunissant enseignants, étudiants et membres de la communauté dans un café-librairie local. Le format était délibérément décontracté — pas d'estrade, pas d'experts face à un public, mais des groupes assis en cercle où les questions circulaient librement. Les organisateurs, Xaq Frohlich, Cheryl Seals et Joan Harrell, voulaient confronter directement les inquiétudes autour de l'IA plutôt que de les esquiver. Les questions qui ont émergé dès le départ donnent le ton : « Est-ce que je pourrai trouver un emploi après mes études ? » — une anxiété partagée par de nombreux jeunes alors que les entreprises déploient des outils de recrutement automatisés et réorientent des milliards de dollars vers l'infrastructure IA. Ce type d'initiative révèle un manque criant dans le débat public sur l'IA : la plupart des gens ont le sentiment que cette technologie leur est imposée, façonnée exclusivement par des intérêts commerciaux sans que la société civile ait son mot à dire. Lors de ces cafés, les participants n'ont pas exprimé un rejet de l'IA en soi, mais une lassitude face à un schéma répété — celui de technologies puissantes qui reconfigurent leurs vies sans qu'ils y participent. Quand on leur a demandé à quoi ressemblerait un futur centré sur l'humain, les échanges sont devenus constructifs : les gens ont mis en avant l'équité plutôt que l'efficacité, la créativité plutôt que l'automatisation, la dignité plutôt que la commodité. Pour les organisateurs eux-mêmes, l'expérience a été transformatrice — entendre comment l'IA affecte concrètement le travail des gens, l'éducation de leurs enfants et leur confiance dans l'information les a amenés à saisir des dimensions qu'ils n'avaient pas pleinement mesurées. Le modèle s'appuie sur quelques règles simples mais efficaces : ancrer les discussions dans le présent (pas de spéculation science-fiction), s'appuyer sur des analogies historiques comme l'imprimerie ou l'électricité pour contextualiser les réactions, et demander aux participants de nommer des outils précis plutôt que de parler d'« IA » en abstrait. Cette approche s'inscrit dans une conviction plus large des auteurs, issus de l'informatique et des sciences humaines : les universitaires ont un rôle à jouer non pas pour « éduquer les masses », mais pour co-construire avec leurs communautés une vision de l'IA qui serve l'intérêt général.

AutreOpinion
1 source