Aller au contenu principal
RégulationTechCrunch AI2h

Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Le département américain de la Défense (DoD) a qualifié Anthropic de risque inacceptable pour la sécurité nationale, citant les "lignes rouges" de l'entreprise qui pourraient l'amener à désactiver ses technologies en pleine opération militaire. Cette préoccupation justifie, selon le Pentagone, la classification d'Anthropic comme risque dans la chaîne d'approvisionnement en IA.

Articles similaires

1Le Monde Pixels43min

Les accords d’entreprise abordant la question de l’IA se multiplient

Le nombre d'accords d'entreprise mentionnant l'intelligence artificielle a quasiment doublé entre 2024 et 2025, notamment dans les secteurs de la finance, de l'industrie et de la communication. Ces accords accordent une place croissante aux enjeux d'emploi, reflétant une prise de conscience des partenaires sociaux face aux transformations induites par l'IA.

UELa multiplication des accords d'entreprise sur l'IA en France signale une montée en puissance du dialogue social sur la protection des emplois, obligeant les partenaires sociaux français à encadrer concrètement les usages de l'IA dans les secteurs de la finance, de l'industrie et de la communication.

RégulationActu
1 source
2MIT Technology Review17h

Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense

Le Pentagone prépare des environnements sécurisés pour permettre à des entreprises comme OpenAI et xAI d'Elon Musk d'entraîner leurs modèles d'IA sur des données classifiées militaires, une première qui va au-delà de l'usage actuel (les modèles comme Claude d'Anthropic répondent déjà à des questions en contexte classifié, notamment pour l'analyse de cibles en Iran). L'entraînement se ferait dans des centres de données accrédités, où des employés habilités des entreprises d'IA pourraient accéder aux données dans de rares cas, tandis que le DoD resterait propriétaire des données. Selon Aalok Mehta du CSIS, le principal risque est que des informations classifiées intégrées dans les modèles pourraient être réexposées à n'importe quel utilisateur.

RégulationActu
1 source
3Siècle Digital1j

L’encyclopédie Britannica attaque OpenAI en justice et l’accuse de reproduire ses contenus

L'encyclopédie Britannica et Merriam-Webster ont attaqué OpenAI en justice, accusant l'entreprise d'avoir reproduit leurs contenus sans autorisation. La plainte évoque une « mémorisation » des contenus protégés par les modèles d'IA générative. Cette action s'inscrit dans une vague de litiges croissants entre les éditeurs traditionnels et les développeurs d'IA.

UECe précédent juridique renforce la position des éditeurs et encyclopédistes européens — comme Larousse ou les presses universitaires françaises — qui pourraient s'appuyer sur ce type de litige pour faire valoir leurs droits d'auteur face aux développeurs d'IA dans le cadre de la directive européenne sur le droit d'auteur.

RégulationActu
1 source