Aller au contenu principal
Vous pourriez être le prochain
ÉthiqueThe Verge AI8sem

Vous pourriez être le prochain

Résumé IASource uniqueImpact UE
Source originale ↗·

Katya, ancienne journaliste freelance dont le travail a été remplacé par l'IA, s'est retrouvée à entraîner les modèles mêmes qui l'ont mise au chômage, via la plateforme Mercor — payée 45 $/heure pour rédiger des exemples de prompts et des réponses idéales pour un client anonyme. Le projet a été annulé sans préavis deux jours après son démarrage, la laissant à nouveau sans revenus. Son histoire illustre la précarité croissante du secteur de l'IA labeling, où des milliers de travailleurs qualifiés sont recrutés puis licenciés au gré des besoins des grandes entreprises tech.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Pourquoi vous allez bientôt répondre « AI;DR » à tout le monde
1Numerama 

Pourquoi vous allez bientôt répondre « AI;DR » à tout le monde

Une nouvelle abréviation, « AI;DR », apparaît sur les réseaux sociaux pour exprimer la fatigue face à la prolifération de contenus générés par l'intelligence artificielle. Inspirée de « TL;DR », elle reflète une lassitude croissante envers les textes produits par des IA, marquant une tendance de plus en plus répandue.

ÉthiqueOpinion
1 source
☕️ Pas de statuettes pour l’IA à la prochaine cérémonie des Oscars
2Next INpact 

☕️ Pas de statuettes pour l’IA à la prochaine cérémonie des Oscars

L'Academy of Motion Picture Arts and Sciences (AMPAS) a publié les règles officielles qui encadreront la 99e cérémonie des Oscars, prévue le 17 mars 2027. La position est sans ambiguïté : seules les performances "manifestement interprétées par des êtres humains avec leur consentement" seront éligibles dans les catégories d'interprétation. Conséquence directe : le clone IA de Val Kilmer, utilisé dans le film As Deep as the Grave pour faire "revenir" l'acteur un an après sa mort, ne pourra prétendre à aucune statuette. L'entité numérique Tilly Norwood, présentée comme une "comédienne IA" par le studio Xicoia et que plusieurs agences de talent ont tenté de représenter, se trouve dans la même situation. Côté scénario, les catégories meilleur scénario original et meilleur scénario adapté exigent désormais une paternité humaine : tout texte généré principalement par une IA sera déclaré inéligible, même si l'usage de l'IA en soutien à l'écriture humaine semble toléré. L'Academy se réserve par ailleurs le droit d'exiger des informations détaillées sur l'usage de l'IA dans n'importe quelle œuvre en compétition. Ces règles dessinent une ligne de démarcation claire à un moment où Hollywood ne sait pas encore quoi faire de cette technologie. Pour la profession des comédiens, la question dépasse l'anecdote : si un studio peut synthétiser le jeu d'un acteur décédé et le commercialiser, c'est l'ensemble de la relation entre un artiste, son image et son consentement qui est remis en cause. Les tentatives de "vendre" Tilly Norwood aux studios ont suscité un rejet net de la part des syndicats et de la profession, signe que la résistance est organisée et déterminée. Le contexte est celui d'un Hollywood encore sous le choc des grèves de 2023, où la SAG-AFTRA et les scénaristes du WGA avaient arraché des protections contre l'utilisation non consentie de leurs voix et de leurs ressemblances par les studios. Ces nouvelles règles des Oscars prolongent cette logique en lui donnant une traduction symbolique forte : la plus haute récompense du cinéma américain ne couronnera pas une machine. Reste à voir comment l'Academy vérifiera concrètement la part d'IA dans les œuvres, un chantier technique et juridique qui s'annonce complexe à mesure que les outils génératifs s'intègrent davantage aux workflows de production.

UECes règles pourraient inspirer les cérémonies européennes comme les César et renforcer les arguments en faveur d'une protection légale du consentement et de l'image des artistes dans le cadre des discussions sur l'AI Act européen.

ÉthiqueReglementation
1 source
☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom
3Next INpact 

☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom

Grammarly (rebaptisée Superhuman après une levée de fonds d'un milliard de dollars) a suspendu le 12 mars sa fonctionnalité « Expert Review », qui imitait le style d'auteurs et journalistes réels sans leur consentement — une décision prise par son PDG Shishir Mehrotra, qui reconnaît que l'outil était une « mauvaise fonctionnalité ». La journaliste Julia Angwin et d'autres poursuivent désormais l'entreprise en justice aux États-Unis pour usage non consenti de leur identité. Mehrotra esquisse un nouveau modèle : des agents IA représentant des experts, avec une répartition des revenus à 70 % pour l'auteur et 30 % pour la plateforme.

UELe RGPD et l'AI Act encadrent strictement l'usage de l'identité et des données personnelles sans consentement, rendant une fonctionnalité similaire illégale en Europe avant même tout recours judiciaire.

ÉthiqueOpinion
1 source
OpenAI lance son programme de primes pour les failles de sécurité
4OpenAI Blog 

OpenAI lance son programme de primes pour les failles de sécurité

OpenAI lance un programme de bug bounty dédié à la sécurité de l'IA, ciblant spécifiquement les abus et risques liés à ses modèles. Ce programme récompense les chercheurs qui identifient des vulnérabilités comme les injections de prompts, l'exfiltration de données et les failles dans les agents autonomes. C'est une reconnaissance explicite que les systèmes d'IA agentic — capables d'agir de façon autonome — introduisent une nouvelle catégorie de risques de sécurité. En mobilisant la communauté des chercheurs en sécurité, OpenAI cherche à détecter des failles que ses équipes internes pourraient manquer, avant qu'elles ne soient exploitées malicieusement. OpenAI rejoint ainsi d'autres géants tech qui s'appuient sur le bug bounty pour renforcer leur sécurité, mais c'est l'un des premiers programmes explicitement centré sur les risques propres aux modèles de langage plutôt que sur l'infrastructure classique.

UELes chercheurs en sécurité européens peuvent participer au programme et soumettre des failles pour récompense, contribuant indirectement à sécuriser des systèmes d'IA massivement utilisés en Europe.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour