Aller au contenu principal
Le directeur technique du Pentagone affirme que les modèles d'IA d'Anthropic « polluent » la chaîne d'approvisionnement avec leur éthique intégrée
ÉthiqueThe Decoder8sem

Le directeur technique du Pentagone affirme que les modèles d'IA d'Anthropic « polluent » la chaîne d'approvisionnement avec leur éthique intégrée

Résumé IASource uniqueImpact UE
Source originale ↗·

Le CTO du Département de la Guerre américain souhaite exclure les modèles Claude d'Anthropic de sa chaîne d'approvisionnement, estimant que leurs garde-fous éthiques intégrés "polluent" les capacités militaires de l'IA. Cette position reflète une tension croissante entre les exigences opérationnelles de la défense et les politiques de sécurité des développeurs d'IA. Les observateurs notent que cette approche rappelle le contrôle politique exercé par la Chine sur ses propres systèmes d'IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

« Vallée de l'étrange » : le procès Anthropic-Pentagone, les mèmes de guerre et l'IA qui cible les postes en capital-risque
1Wired AI 

« Vallée de l'étrange » : le procès Anthropic-Pentagone, les mèmes de guerre et l'IA qui cible les postes en capital-risque

Anthropic se retrouve au cœur d'une controverse impliquant le Département de la Défense américain, un litige qui est loin d'être résolu. L'épisode aborde également l'essor de l'IA dans le secteur du capital-risque, où elle commence à menacer certains emplois traditionnels.

ÉthiqueActu
1 source
Le Pentagone désigne Anthropic comme un risque pour la chaîne d'approvisionnement
2TechCrunch AI 

Le Pentagone désigne Anthropic comme un risque pour la chaîne d'approvisionnement

Le Pentagone a officiellement désigné Anthropic comme un risque dans la chaîne d'approvisionnement, en faisant ainsi la première entreprise américaine à recevoir cette étiquette. Simultanément, le Département de la Défense utilise toujours les technologies d'IA d'Anthropic en Iran.

RechercheActu
1 source
Gros affrontement : le patron d'Anthropic qualifie Trump de dictateur, Trump le qualifie de chien
3Le Big Data 

Gros affrontement : le patron d'Anthropic qualifie Trump de dictateur, Trump le qualifie de chien

Dario Amodei, PDG d'Anthropic, a accusé Donald Trump d'exiger des louanges "dignes d'un dictateur" dans une note interne divulguée, expliquant que le refus d'Anthropic d'approuver publiquement le président — contrairement à d'autres acteurs de la Silicon Valley — serait à l'origine de la dégradation de leurs relations. Au cœur du conflit, Anthropic refuse que son modèle Claude soit utilisé pour la surveillance de masse ou le pilotage d'armes autonomes, ce qui a irrité le Pentagone et la Maison Blanche. Trump a riposté en affirmant avoir lui-même mis fin à la collaboration : "J'ai viré Anthropic comme des chiens."

ÉthiqueOpinion
1 source
Le nouveau jeu de données d'entraînement d'OpenAI apprend aux modèles d'IA quelles instructions suivre
4The Decoder 

Le nouveau jeu de données d'entraînement d'OpenAI apprend aux modèles d'IA quelles instructions suivre

OpenAI a publié IH-Challenge, un dataset d'entraînement conçu pour apprendre aux modèles d'IA à prioriser de manière fiable les instructions de sources de confiance plutôt que les sources non fiables. Les premiers résultats montrent des améliorations significatives en matière de sécurité et de défense contre les attaques par injection de prompt.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour