Aller au contenu principal
Face à Google, Qwant expérimente une IA qui paie les éditeurs de presse
ÉthiqueSiècle Digital8sem

Face à Google, Qwant expérimente une IA qui paie les éditeurs de presse

Résumé IASource uniqueImpact UE
Source originale ↗·

Qwant, le moteur de recherche français, lance une expérimentation visant à rémunérer les éditeurs de presse dont les contenus sont utilisés par son IA. Cette initiative intervient dans un contexte où les outils d'IA comme Google et ChatGPT soulèvent des questions sur la juste compensation des créateurs de contenu.

Impact France/UE

Qwant, moteur de recherche français, ouvre la voie à un modèle de rémunération équitable des éditeurs de presse européens pour l'utilisation de leurs contenus par l'IA, une avancée concrète dans le débat sur les droits voisins en France et dans l'UE.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Une autrice poursuit Grammarly en justice pour avoir transformé des écrivains en « éditeurs IA » sans leur consentement
1TechCrunch AI 

Une autrice poursuit Grammarly en justice pour avoir transformé des écrivains en « éditeurs IA » sans leur consentement

La journaliste Julia Angwin mène une action collective contre Grammarly, accusant l'entreprise de violer ses droits à la vie privée et à l'image. Elle reproche à Grammarly d'avoir utilisé ses écrits et ceux d'autres auteurs pour former des fonctionnalités d'édition IA sans leur consentement. Ce procès soulève la question de l'exploitation des données personnelles d'écrivains à des fins commerciales par les outils d'IA.

ÉthiqueActu
1 source
Face aux tensions sur les contenus, le fondateur de Mistral AI propose une « taxe IA » pour soutenir les créateurs
2Siècle Digital 

Face aux tensions sur les contenus, le fondateur de Mistral AI propose une « taxe IA » pour soutenir les créateurs

Arthur Menesch, fondateur de Mistral AI, propose l'instauration d'une « taxe IA » — une contribution financière obligatoire pour les entreprises d'IA générative — afin de rémunérer les créateurs dont les contenus protégés par le droit d'auteur ont servi à entraîner les modèles. Cette proposition vise à désamorcer les tensions croissantes entre l'industrie de l'IA et les industries culturelles. Elle s'inscrit dans un débat plus large sur la régulation de l'utilisation des données d'entraînement.

UELa proposition d'une contribution obligatoire des entreprises d'IA générative pourrait directement alimenter les débats législatifs européens sur le droit d'auteur et les données d'entraînement, avec un impact concret pour les industries culturelles françaises et la directive sur le droit d'auteur de l'UE.

ÉthiqueReglementation
1 source
Les hackers passent à l’IA : la cybersécurité entre dans une nouvelle course
3FrenchWeb 

Les hackers passent à l’IA : la cybersécurité entre dans une nouvelle course

Les hackers adoptent désormais l'IA pour accélérer et sophistiquer leurs attaques, remettant en cause le modèle traditionnel de cybersécurité basé sur la détection rapide des intrusions. Les entreprises, qui ont investi massivement dans des outils de surveillance et des centres d'opérations de sécurité (SOC), font face à une nouvelle course aux armements technologiques. La cybersécurité entre dans une ère où la vitesse de réaction humaine ne suffit plus face à des menaces augmentées par l'intelligence artificielle.

UELes acteurs européens de la cybersécurité comme Thales, Orange Cyberdefense et Airbus CyberSecurity sont contraints de repenser en urgence leurs offres SOC face à des attaques dopées à l'IA qui dépassent la capacité de réaction humaine.

ÉthiqueActu
1 source
Une étude alerte sur l'épuisement cognitif des travailleurs qui supervisent des agents IA
4The Decoder 

Une étude alerte sur l'épuisement cognitif des travailleurs qui supervisent des agents IA

Une étude du Boston Consulting Group portant sur près de 1 500 travailleurs révèle que superviser simultanément trop d'outils d'IA provoque un épuisement cognitif sévère, surnommé "friture cérébrale de l'IA". Les conséquences sont mesurables : hausse du taux d'erreurs et augmentation des intentions de quitter son poste. Ce phénomène soulève des questions urgentes sur la charge mentale imposée aux travailleurs dans les environnements à forte densité d'agents IA.

UECe phénomène d'épuisement cognitif lié à la supervision d'agents IA interpelle directement les entreprises européennes et les régulateurs de l'UE, qui devront intégrer ces risques psychosociaux dans le cadre du droit du travail et des futures obligations de l'AI Act concernant les systèmes à haute interaction humaine.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour