
Le directeur technique du Pentagone affirme que les modèles d'IA d'Anthropic « polluent » la chaîne d'approvisionnement avec leur éthique intégrée
Le CTO du Département de la Guerre américain souhaite exclure les modèles Claude d'Anthropic de sa chaîne d'approvisionnement, estimant que leurs garde-fous éthiques intégrés "polluent" les capacités militaires de l'IA. Cette position reflète une tension croissante entre les exigences opérationnelles de la défense et les politiques de sécurité des développeurs d'IA. Les observateurs notent que cette approche rappelle le contrôle politique exercé par la Chine sur ses propres systèmes d'IA.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




