Aller au contenu principal
Des millions d'utilisateurs consultent déjà des chatbots IA pour des conseils financiers, mais des experts s'alarment de leurs limites évidentes
ÉthiqueThe Decoder8sem

Des millions d'utilisateurs consultent déjà des chatbots IA pour des conseils financiers, mais des experts s'alarment de leurs limites évidentes

Résumé IASource uniqueImpact UE
Source originale ↗·

Des millions de personnes utilisent déjà des chatbots comme ChatGPT pour planifier leur retraite, selon le Financial Times. Des experts mettent en garde contre les limites évidentes de ces outils pour des conseils financiers personnalisés.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Grammarly continuera d'utiliser les identités des auteurs sans leur consentement, sauf s'ils s'y opposent
1The Verge AI 

Grammarly continuera d'utiliser les identités des auteurs sans leur consentement, sauf s'ils s'y opposent

Grammarly a lancé une fonctionnalité "Expert Review" qui utilise les noms réels de journalistes et auteurs connus — dont Nilay Patel et Tom Warren de The Verge — pour crédibiliser ses suggestions IA, sans leur consentement préalable. Face aux critiques, Grammarly n'a ni présenté d'excuses ni retiré la fonctionnalité, se contentant d'offrir une option de désinscription (opt-out). Les auteurs concernés doivent donc activement refuser une utilisation de leur identité à laquelle ils n'ont jamais consenti.

UECette pratique d'utilisation d'identités sans consentement préalable contreviendrait directement au RGPD européen, exposant Grammarly à des sanctions potentielles de la part des autorités de protection des données de l'UE.

ÉthiqueActu
1 source
Une autrice poursuit Grammarly en justice pour avoir transformé des écrivains en « éditeurs IA » sans leur consentement
2TechCrunch AI 

Une autrice poursuit Grammarly en justice pour avoir transformé des écrivains en « éditeurs IA » sans leur consentement

La journaliste Julia Angwin mène une action collective contre Grammarly, accusant l'entreprise de violer ses droits à la vie privée et à l'image. Elle reproche à Grammarly d'avoir utilisé ses écrits et ceux d'autres auteurs pour former des fonctionnalités d'édition IA sans leur consentement. Ce procès soulève la question de l'exploitation des données personnelles d'écrivains à des fins commerciales par les outils d'IA.

ÉthiqueActu
1 source
Version « adulte » de ChatGPT : des experts internes d’OpenAI unanimement opposés
3Next INpact 

Version « adulte » de ChatGPT : des experts internes d’OpenAI unanimement opposés

Sam Altman souhaite lancer un mode adulte de ChatGPT permettant des conversations érotiques après vérification d'âge, mais un comité d'experts internes — réunissant des chercheurs comme David Bickham, Tracy Dennis-Tiwary et Andrew Przybylski — s'y est unanimement opposé en janvier. Le comité avertit que ce contenu pourrait créer une dépendance affective malsaine et rester accessible aux mineurs, un expert citant des cas de suicides liés à des chatbots pour qualifier le risque de « coach au suicide séduisant ». OpenAI continue d'avancer sur le projet malgré ces oppositions, tout en reportant son lancement, et a licencié une cadre, Ryan Beiermeister, qui s'était publiquement prononcée contre la fonctionnalité.

UEL'AI Act et le DSA imposent à OpenAI des obligations strictes de protection des mineurs et de modération des contenus en Europe, rendant ce projet potentiellement non-conforme dès son lancement.

ÉthiqueActu
1 source
Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage
4MIT Technology Review 

Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage

L'armée américaine envisage d'utiliser des IA génératives comme ChatGPT (OpenAI) et Grok (xAI) — qui ont récemment signé des accords avec le Pentagone — pour classer des listes de cibles et formuler des recommandations de frappe, sous supervision humaine. Ces chatbots viendraient s'ajouter en couche conversationnelle au système Maven, en place depuis 2017, qui utilise la vision par ordinateur pour analyser drones et images satellitaires. Des rapports indiquent que Claude d'Anthropic est déjà intégré dans des opérations militaires en Iran et au Venezuela, mais les LLM restent moins éprouvés au combat que les IA traditionnelles.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour