Aller au contenu principal
AutreNumerama2h

Les développeurs de Crimson Desert admettent avoir utilisé de l’IA générative

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Pearl Abyss, le studio sud-coréen développeur de Crimson Desert, a publiquement reconnu avoir eu recours à l'IA générative durant la production du jeu. Cette admission, épinglée sur les réseaux sociaux, fait écho à une démarche similaire de Sandfall Interactive.

Articles similaires

1Next INpact32min

☕️ IA : un homme plaide coupable d’avoir détourné des millions de dollars en streams musicaux

Michael Smith, 52 ans, de Caroline du Nord, a plaidé coupable le 20 mars d'avoir détourné des millions de dollars de royalties en inondant les plateformes de streaming avec des milliers de chansons générées par IA, diffusées via des robots à hauteur de 636 morceaux par jour depuis 1 040 faux comptes. Il risque jusqu'à 5 ans de prison et 8 millions de dollars de confiscation lors de sa condamnation prévue en juillet. L'affaire, l'une des premières fraudes liées à l'IA à aboutir, illustre une menace croissante pour les revenus des artistes face à la prolifération de musique générée automatiquement.

UECe précédent judiciaire américain pourrait accélérer la mise en place de mécanismes anti-fraude sur les plateformes de streaming européennes, où la même menace pèse sur les revenus des artistes.

AutreReglementation
1 source
2Blog du Modérateur1h

Anthropic a interrogé 81 000 personnes sur leurs attentes et craintes face à l’IA

Anthropic a mené une enquête auprès de 81 000 personnes pour mesurer leurs attentes et craintes vis-à-vis de l'IA. Les résultats révèlent des usages déjà bien établis, mais aussi des inquiétudes significatives. Un clivage géographique marqué se dessine : les pays riches se montrent plus méfiants, tandis que les pays émergents affichent une confiance nettement plus élevée.

UELes résultats de cette enquête à grande échelle peuvent informer les débats réglementaires européens sur l'acceptabilité sociale de l'IA et les politiques de l'AI Act.

AutreActu
1 source
3Le Big Data2h

Jailbreak IA 2026 : les techniques les plus efficaces sur Grok, Claude, Gemini, ChatGPT et DeepSeek

En 2026, les techniques de jailbreak des LLMs ont évolué vers des méthodes sophistiquées comme la "narrative injection" et les attaques multimodales, ciblant des modèles comme Grok 4.1, Claude 3.7, ChatGPT et Gemini. Grok 4.1 présente le taux de succès le plus élevé (85%) via la méthode "Delirious Fragment", tandis que Claude 3.7 Sonnet est vulnérable aux attaques par pseudocode one-shot avec un taux de 76%. Aucun modèle n'est totalement imperméable, la complexité croissante des architectures multipliant les surfaces d'attaque exploitables.

UELes vulnérabilités documentées sur les grands modèles grand public concernent directement les obligations de robustesse et de sécurité imposées par l'AI Act européen aux déployeurs de systèmes d'IA à haut risque.

AutreOpinion
1 source