Aller au contenu principal
Anthropic lance un groupe de réflexion interne pour étudier l'impact de l'IA sur la société et la sécurité
ÉthiqueThe Decoder8sem

Anthropic lance un groupe de réflexion interne pour étudier l'impact de l'IA sur la société et la sécurité

Résumé IASource uniqueImpact UE
Source originale ↗·

Anthropic a lancé l'"Anthropic Institute", un groupe de réflexion interne dédié à l'étude des impacts de l'IA puissante sur la société, l'économie et la sécurité. Cette initiative vise à approfondir la compréhension des effets à long terme du développement de l'IA avancée.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA
1Numerama 

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA

Anthropic lance un nouvel organisme de recherche destiné au grand public, visant à préparer la société aux bouleversements provoqués par l'IA. Cette initiative intervient dans un contexte de tensions ouvertes entre Anthropic et l'administration Trump ainsi que le Pentagone. La société affiche une ambition forte, anticipant des « progrès bien plus spectaculaires » à venir.

ÉthiqueActu
1 source
OpenAI lance son programme de primes pour les failles de sécurité
2OpenAI Blog 

OpenAI lance son programme de primes pour les failles de sécurité

OpenAI lance un programme de bug bounty dédié à la sécurité de l'IA, ciblant spécifiquement les abus et risques liés à ses modèles. Ce programme récompense les chercheurs qui identifient des vulnérabilités comme les injections de prompts, l'exfiltration de données et les failles dans les agents autonomes. C'est une reconnaissance explicite que les systèmes d'IA agentic — capables d'agir de façon autonome — introduisent une nouvelle catégorie de risques de sécurité. En mobilisant la communauté des chercheurs en sécurité, OpenAI cherche à détecter des failles que ses équipes internes pourraient manquer, avant qu'elles ne soient exploitées malicieusement. OpenAI rejoint ainsi d'autres géants tech qui s'appuient sur le bug bounty pour renforcer leur sécurité, mais c'est l'un des premiers programmes explicitement centré sur les risques propres aux modèles de langage plutôt que sur l'infrastructure classique.

UELes chercheurs en sécurité européens peuvent participer au programme et soumettre des failles pour récompense, contribuant indirectement à sécuriser des systèmes d'IA massivement utilisés en Europe.

ÉthiqueActu
1 source
L'un des « experts » de Grammarly poursuit l'entreprise en justice pour sa fonctionnalité d'IA qui usurpe son identité
3The Verge AI 

L'un des « experts » de Grammarly poursuit l'entreprise en justice pour sa fonctionnalité d'IA qui usurpe son identité

La journaliste Julia Angwin a déposé une plainte collective contre Grammarly, accusant la société d'avoir utilisé son identité sans consentement dans sa fonctionnalité "Expert Review" basée sur l'IA. Cette fonctionnalité exploitait les noms et la réputation de vraies personnalités publiques pour des suggestions éditoriales, violant les lois sur les droits à l'image et à la vie privée. Angwin a découvert l'utilisation de son identité via le journaliste Casey Newton, également concerné par la pratique.

ÉthiqueActu
1 source
Un chemin à suivre pour l'IA, si quelqu'un est prêt à écouter
4TechCrunch AI 

Un chemin à suivre pour l'IA, si quelqu'un est prêt à écouter

La "Déclaration Pro-Humain" a été finalisée avant l'affrontement entre le Pentagone et Anthropic la semaine dernière, mais personne n'a manqué la coïncidence des événements. Ce document vise à établir un plan pour le développement de l'IA, mais il reste à voir si il sera pris en considération.

UE"La 'Déclaration Pro-Humain' pourrait guider l'IA en Europe, évitant une réglementation stricte comme l'AI Act, favorisant ainsi les entreprises françaises et européennes dans le développement éthique de l'IA, tout en respectant le RGPD."

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour