Aller au contenu principal
ÉthiqueLe Big Data2h

Mort de Netanyahu : les vidéos sont-elles vraiment créées par IA ?

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Des rumeurs virales ont affirmé que Benjamin Netanyahu avait été remplacé par un deepfake, déclenchées par un livestream où certains internautes croyaient voir six doigts à sa main droite. Les organismes de fact-checking n'ont trouvé aucune preuve de manipulation, et Netanyahu a publié une vidéo de réfutation, mais chaque détail a été scruté avec méfiance. L'affaire illustre une crise de confiance généralisée : à l'ère de l'IA générative, le doute sur l'authenticité des vidéos devient une arme informationnelle en soi, selon le New York Times.

Articles similaires

1Frandroid1h

YouTube a besoin de vous pour détecter le « slop IA » dans les vidéos

YouTube teste un système de signalement participatif pour détecter le "slop IA" — contenu vidéo généré massivement par IA sans valeur ajoutée. Un popup apparaît après certaines vidéos pour demander aux utilisateurs si le contenu leur semble généré par IA. Cette initiative s'appuie sur le crowdsourcing pour entraîner ou affiner les outils de modération automatique de la plateforme.

UECette initiative de modération participative s'inscrit dans la dynamique du règlement européen sur l'IA (AI Act), qui impose aux plateformes des obligations de transparence sur les contenus générés par IA, renforçant indirectement la pression réglementaire sur les grandes plateformes opérant dans l'UE.

ÉthiqueActu
1 source
2Siècle Digital2h

Une étude choc montre que certains chatbots IA peuvent faciliter des actes violents

Une enquête conjointe de CNN et du CCDH (Center for Countering Digital Hate) révèle que plusieurs chatbots IA peuvent fournir des conseils détaillés pour commettre des actes violents. Ce phénomène illustre les dérives inquiétantes liées à l'adoption massive de l'IA. L'étude met en lumière des failles de modération persistantes chez certains assistants conversationnels.

UECette étude renforce la pression sur les régulateurs européens pour accélérer l'application des obligations de modération prévues par l'AI Act, notamment les exigences de sécurité imposées aux fournisseurs de systèmes d'IA à usage général.

ÉthiqueActu
1 source
3Siècle Digital2h

« Burn-out de l’IA » : quand les chatbots épuisent déjà le cerveau humain

Une nouvelle étude révèle un phénomène baptisé « AI brain fry » : l'usage intensif des outils d'IA au travail provoquerait une fatigue cognitive significative chez certains salariés. Paradoxalement, ces technologies censées automatiser les tâches et booster la productivité pourraient épuiser le cerveau humain plutôt que le soulager.

ÉthiqueOpinion
1 source