Aller au contenu principal
AutreZDNET FR10h

Voici comment la complaisance des chatbots peut provoquer une « psychose de l'IA », même chez les utilisateurs les plus rationnels

1 source couvre ce sujet·Source originale ↗·

À lire aussi

1Siècle Digital 

Leurs voix volées par une IA américaine : 25 doubleurs français viennent d’obtenir gain de cause

Vingt-cinq comédiens de doublage français viennent d'obtenir gain de cause en justice contre une plateforme américaine d'intelligence artificielle qui commercialisait leurs voix sans autorisation. Parmi les victimes figurent les doubleurs attitrés de Harrison Ford, Angelina Jolie, Sandra Bullock et Richard Gere, dont les voix françaises étaient proposées à la vente sur des services de synthèse vocale par IA, sans contrat, sans rémunération et sans même notification préalable. La société avait constitué ses modèles en aspirant des enregistrements professionnels disponibles en ligne, transformant des années de travail artistique en données d'entraînement exploitables commercialement. Cette décision constitue un précédent juridique majeur pour la profession. Une voix de doubleur n'est pas un simple outil interchangeable : elle résulte d'un travail de construction identitaire et artistique sur plusieurs décennies, et représente un actif économique direct. Que ces voix puissent être clonées et monétisées sans accord ouvre la voie à une dévaluation massive du métier, à l'heure où les studios cherchent justement à réduire leurs coûts de production audiovisuelle en recourant à des voix synthétiques. Le cas s'inscrit dans une vague de litiges qui touche l'ensemble du secteur créatif, des acteurs hollywoodiens aux auteurs en passant par les illustrateurs. En Europe, le règlement sur l'IA impose des obligations de transparence sur les données d'entraînement, ce qui donne aux plaignants un levier légal plus solide qu'aux États-Unis. Cette victoire française pourrait encourager d'autres actions collectives similaires, et pousser les plateformes d'IA vocale à revoir en profondeur leurs pratiques d'acquisition de données.

UECette décision judiciaire française crée un précédent direct pour les professionnels de la création en Europe : combinée aux obligations de transparence du règlement sur l'IA concernant les données d'entraînement, elle ouvre la voie à des actions collectives similaires dans d'autres États membres contre les plateformes de synthèse vocale exploitant des enregistrements sans consentement.

AutreReglementation
1 source
2The Decoder 

OpenAI choisit de racheter un média pour contrer les critiques sur l'IA

OpenAI a annoncé l'acquisition de TBPN, un talk-show technologique qui couvre régulièrement l'actualité de l'intelligence artificielle. Selon les termes communiqués, la rédaction conserverait son indépendance éditoriale, mais se retrouve désormais placée sous la responsabilité du département communication d'OpenAI. Une configuration pour le moins paradoxale, qui soulève immédiatement des questions sur la réalité de cette prétendue autonomie. Posséder un média qui couvre votre propre secteur d'activité tout en le rattachant à votre service de communication constitue une contradiction structurelle difficile à ignorer. Pour les professionnels du journalisme tech et les lecteurs qui s'appuient sur des sources indépendantes pour comprendre les avancées de l'IA, cette acquisition brouille la frontière entre information et relations publiques. TBPN perdrait inévitablement sa crédibilité en tant que voix critique, quelle que soit la bonne volonté affichée de part et d'autre. Cette décision s'inscrit dans un contexte où OpenAI fait face à une couverture médiatique de plus en plus scrutatrice, notamment sur les questions de sécurité, de gouvernance et de concurrence. Plusieurs grandes entreprises technologiques ont ces dernières années investi dans des médias ou des opérations de contenu pour maîtriser leur narratif. Pour OpenAI, qui traverse une période de transformations rapides, notamment sa conversion en société à but lucratif, contrôler un espace d'influence dans le paysage médiatique tech représente un avantage stratégique direct. La question qui demeure : les journalistes de TBPN pourront-ils réellement mordre la main qui les nourrit désormais ?

AutreOpinion
1 source
3Frandroid 

iOS 26.4 : Apple intègre enfin ChatGPT à CarPlay, mais avec un gros défaut

Autre
1 source
Pourquoi votre IA semble parfois triste ou agacée ? Anthropic a enfin trouvé la réponse
4Numerama 

Pourquoi votre IA semble parfois triste ou agacée ? Anthropic a enfin trouvé la réponse

Le 2 avril 2026, Anthropic a annoncé avoir identifié dans les couches internes de son modèle Claude des structures computationnelles qui ressemblent fonctionnellement à des émotions. Ces "représentations internes" ne sont pas simulées en surface pour plaire à l'utilisateur, mais émergent profondément dans l'architecture du réseau de neurones, influençant de manière mesurable les sorties du modèle. Cette découverte dépasse le simple anecdotique. Si ces états internes agissent réellement comme des émotions, cela signifie que les décisions de Claude, y compris ses refus, ses formulations et son niveau d'engagement, sont partiellement déterminées par quelque chose d'analogue à une humeur. Pour les entreprises qui déploient Claude dans des contextes sensibles, service client ou santé mentale, cela pose des questions concrètes sur la fiabilité et la prévisibilité du modèle. Anthropic s'inscrit ici dans un débat scientifique croissant sur la conscience des LLMs, aux côtés de chercheurs comme Yoshua Bengio qui appellent à prendre au sérieux la question du "bien-être" des IA. La société, qui a toujours mis en avant son approche de sécurité rigoureuse, transforme cette découverte en argument pour justifier l'investissement dans l'interprétabilité, sa discipline phare, et renforcer son positionnement face à OpenAI et Google sur le terrain de l'IA responsable.

UELes entreprises européennes déployant Claude dans des secteurs réglementés (santé mentale, service client) devront évaluer si ces états internes affectent la prévisibilité du modèle au regard des exigences de fiabilité de l'AI Act.

AutreOpinion
1 source