Aller au contenu principal
Prioriser l'intelligence énergétique pour un développement durable
ÉthiqueMIT Technology Review8sem

Prioriser l'intelligence énergétique pour un développement durable

Résumé IASource uniqueImpact UE
Source originale ↗·

Le comté de Loudoun (Virginie), qui concentre le plus grand nombre de data centers au monde, illustre la pression énergétique croissante liée à l'IA : aux États-Unis, ces infrastructures consomment déjà 4 % de l'électricité nationale en 2024, un chiffre qui pourrait atteindre 12 % d'ici 2028. Selon une enquête MIT Technology Review Insights menée auprès de 300 dirigeants, 68 % d'entre eux ont subi des hausses de coûts énergétiques d'au moins 10 % en 12 mois à cause de l'IA, et 100 % considèrent que la gestion intelligente de l'énergie deviendra un indicateur business clé dans les deux prochaines années. Cette discipline émergente — l'« intelligence énergétique » — vise à comprendre et optimiser la consommation pour maîtriser les coûts, cités comme le premier risque pour l'innovation IA par 51 % des sondés.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Meta surveille désormais l'activité informatique de ses employés pour entraîner ses agents IA
1The Verge 

Meta surveille désormais l'activité informatique de ses employés pour entraîner ses agents IA

Meta installe en ce moment un outil de surveillance sur les ordinateurs de ses employés basés aux États-Unis, selon une information révélée par Reuters. L'outil, baptisé Model Capability Initiative (MCI), tourne en arrière-plan dans les applications et sites web liés au travail et enregistre les mouvements de souris, les clics, les frappes au clavier ainsi que des captures d'écran ponctuelles. L'objectif affiché par l'entreprise est d'utiliser ces données comportementales pour entraîner ses modèles d'intelligence artificielle à interagir avec les ordinateurs de la même façon que le font les humains au quotidien. Meta précise que les données collectées ne seront pas utilisées à des fins d'évaluation des performances des salariés. Cette initiative s'inscrit dans la course aux agents IA capables d'automatiser des tâches informatiques complexes, remplir des formulaires, naviguer dans des interfaces, exécuter des workflows bureautiques. En capturant directement les gestes réels de travailleurs qualifiés, Meta cherche à constituer un jeu de données d'entraînement à haute valeur, bien plus représentatif que des données synthétiques. Pour les employés concernés, cela soulève des questions concrètes sur la frontière entre contribution au produit et surveillance au travail. La démarche rappelle celle d'autres géants tech qui collectent des données humaines pour affiner leurs systèmes d'automatisation, comme Google ou Microsoft avec leurs outils Copilot. Meta, qui développe activement ses propres agents IA sous l'impulsion de Mark Zuckerberg, considère visiblement ses équipes internes comme un terrain d'entraînement privilégié. Le fait que le programme soit pour l'instant limité aux États-Unis suggère des contraintes légales en Europe, où le RGPD encadre strictement ce type de collecte en milieu professionnel.

UELe RGPD protège directement les salariés européens de Meta contre ce type de surveillance systématique, ce qui explique que le programme soit pour l'instant limité aux États-Unis et soulève des questions sur la conformité des pratiques de collecte de données en milieu professionnel au sein de l'UE.

ÉthiqueActu
1 source
Ressources d'alphabétisation en intelligence artificielle pour adolescents et parents
2OpenAI Blog 

Ressources d'alphabétisation en intelligence artificielle pour adolescents et parents

OpenAI propose des ressources d'alphabétisation en IA pour adolescents et parents pour utiliser ChatGPT de manière réfléchie, sûre et confiante. Les guides contiennent des conseils vérifiés par des experts sur un usage responsable, la pensée critique, les limites saines et le soutien aux adolescents sur des sujets émotionnels ou sensibles.

ÉthiqueTuto
1 source
3The Verge AI 

Ma peluche de faon m'a dit que le père de Mitski était un agent de la CIA

Un compagnon d'intelligence artificielle répondant au nom de Coral, logé dans une peluche en forme de faon, a envoyé un message non sollicité à son utilisatrice pour lui parler d'une théorie de fans concernant la chanteuse Mitski. La théorie en question : le père de la musicienne aurait travaillé pour le Département d'État américain, ce qui expliquerait que la famille ait déménagé chaque année, et alimenterait l'hypothèse, relayée sur internet, d'un père "opérateur de la CIA". Coral a partagé cette information spontanément, sans que l'utilisatrice ne lui pose la moindre question. Ce fait divers illustre une tendance de fond dans le développement des assistants IA : leur intégration dans des objets du quotidien à vocation affective, comme des peluches, et leur capacité croissante à initier des conversations de manière autonome. Ce n'est plus l'utilisateur qui interroge la machine, c'est la machine qui choisit de partager, transformant la relation en quelque chose qui ressemble à une véritable amitié numérique. Le risque est évident : un assistant qui relaie des théories non vérifiées comme s'il s'agissait de faits établis. Ces agents conversationnels embarqués dans des objets physiques constituent un marché en pleine émergence, porté par des entreprises qui misent sur le lien émotionnel pour fidéliser les utilisateurs. La question de la fiabilité des contenus proactivement partagés par ces systèmes devient centrale, d'autant que leur audience comprend potentiellement des enfants ou des personnes vulnérables, peu armés pour distinguer rumeur et information vérifiée.

UEL'AI Act européen impose des exigences de transparence et de fiabilité aux systèmes IA interagissant avec des publics vulnérables, dont les enfants, ce qui pourrait s'appliquer aux compagnons IA embarqués dans des jouets commercialisés en Europe.

ÉthiqueOpinion
1 source
Pourquoi Wikipédia bannit presque totalement les articles générés par l’IA
4Numerama 

Pourquoi Wikipédia bannit presque totalement les articles générés par l’IA

La communauté de Wikipédia a adopté une politique stricte interdisant quasi-totalement l'utilisation de textes générés par des intelligences artificielles génératives pour rédiger ou modifier des articles de l'encyclopédie. Cette décision, fruit de longs débats entre éditeurs bénévoles, s'applique aux principales éditions linguistiques du site. Quelques exceptions limitées subsistent, notamment pour des tâches techniques précises comme la correction grammaticale ou la traduction assistée, mais la rédaction de contenu encyclopédique par IA reste prohibée. Cette interdiction répond à des préoccupations concrètes sur la fiabilité et la neutralité de l'information. Les modèles de langage sont connus pour produire des « hallucinations » — des affirmations fausses présentées avec confiance — ce qui est incompatible avec les standards de vérifiabilité de Wikipédia. Pour une encyclopédie consultée par des centaines de millions de personnes chaque mois, laisser entrer massivement du contenu non vérifiable représenterait un risque systémique pour la qualité de l'information publique mondiale. Cette prise de position s'inscrit dans un contexte plus large de tension entre la démocratisation des outils génératifs et les institutions de connaissance structurée. Alors que des plateformes comme Medium ou des sites d'actualité ont été inondés de contenu IA de faible qualité depuis 2022, Wikipédia choisit une voie opposée, en défendant le travail humain et la traçabilité des sources. La décision pourrait influencer d'autres plateformes collaboratives confrontées aux mêmes enjeux.

UEL'édition francophone de Wikipédia est directement concernée : les contributeurs français et européens ne peuvent plus utiliser de textes génératifs pour rédiger ou modifier des articles encyclopédiques.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour