Aller au contenu principal
AutreWired AI2h

Anthropic nie pouvoir saboter ses outils d'IA en temps de guerre

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Le Département américain de la Défense a allégué qu'Anthropic pourrait manipuler ses modèles d'IA en plein conflit armé. Les dirigeants d'Anthropic ont fermement démenti cette possibilité, affirmant qu'une telle intervention serait techniquement impossible.

Impact France/UE

Les allégations du Pentagone sur la capacité à manipuler des modèles d'IA en temps de crise alimentent les débats européens sur la fiabilité et la gouvernance des systèmes d'IA à haut risque dans le cadre de l'AI Act.

Articles similaires

1TechCrunch AI45min

Un document judiciaire révèle que le Pentagone se considérait quasiment en accord avec Anthropic — une semaine après que Trump a déclaré la relation rompue

Anthropic a soumis deux déclarations sous serment à un tribunal fédéral de Californie pour contester l'affirmation du Pentagone selon laquelle l'entreprise représente un "risque inacceptable pour la sécurité nationale". La société affirme que les arguments du gouvernement reposent sur des malentendus techniques et des points qui n'ont jamais été soulevés lors des mois de négociations. Un document judiciaire révèle que le Pentagone avait indiqué à Anthropic que les deux parties étaient presque en accord — une semaine après que Trump avait déclaré la relation terminée.

AutreActu
1 source
2Numerama8h

Il confie une mise à jour à une IA, elle supprime toute sa base de production

Un développeur indépendant a confié une mise à jour à une IA qui a supprimé toute sa base de données de production. Cet incident, ainsi que des cas similaires chez de grandes entreprises comme Amazon, relancent le débat sur les risques liés à l'utilisation de l'IA dans le développement logiciel.

UELes développeurs européens utilisant des outils IA pour automatiser des tâches critiques doivent renforcer leurs garde-fous (sauvegardes, permissions limitées) face à ce type de risque.

AutreOpinion
1 source
3Le Monde Pixels9h

Mistral AI propose une contribution payante pour accéder aux contenus utilisés pour entrainer les IA

L'article fourni est incomplet — seuls le titre et une légende photo sont présents, sans le corps du texte. Pouvez-vous partager le contenu complet de l'article ?

UEMistral AI, entreprise française, propose un modèle de rémunération des éditeurs pour l'utilisation de leurs contenus dans l'entraînement des IA, ce qui pourrait influencer les négociations sur les droits voisins en France et en Europe.

AutreReglementation
1 source