Aller au contenu principal
Le Pentagone a testé les modèles OpenAI via Microsoft malgré l'interdiction d'usage militaire
ÉthiqueWired AI9sem

Le Pentagone a testé les modèles OpenAI via Microsoft malgré l'interdiction d'usage militaire

Résumé IASource uniqueImpact UE
Source originale ↗·

Le Pentagone aurait expérimenté la technologie OpenAI via Microsoft alors qu'OpenAI interdisait encore les usages militaires. Cette contournement de politique a précédé la levée officielle par OpenAI de son interdiction sur les applications militaires.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le directeur technique du Pentagone affirme que les modèles d'IA d'Anthropic « polluent » la chaîne d'approvisionnement avec leur éthique intégrée
1The Decoder 

Le directeur technique du Pentagone affirme que les modèles d'IA d'Anthropic « polluent » la chaîne d'approvisionnement avec leur éthique intégrée

Le CTO du Département de la Guerre américain souhaite exclure les modèles Claude d'Anthropic de sa chaîne d'approvisionnement, estimant que leurs garde-fous éthiques intégrés "polluent" les capacités militaires de l'IA. Cette position reflète une tension croissante entre les exigences opérationnelles de la défense et les politiques de sécurité des développeurs d'IA. Les observateurs notent que cette approche rappelle le contrôle politique exercé par la Chine sur ses propres systèmes d'IA.

ÉthiqueOpinion
1 source
« Le danger de l’IA militaire réside dans une dilution progressive de la responsabilité »
2Le Monde Pixels 

« Le danger de l’IA militaire réside dans une dilution progressive de la responsabilité »

Le doctorant en droit Ridhwane Allouche, dans une tribune au "Monde", souligne que le danger de l'IA militaire réside dans une dilution progressive de la responsabilité. Il appelle à un traité international d'éthique de l'intelligence artificielle dans la guerre, rappelant que les sociétés ont su fixer des limites face à la violence technologique menacante de dérive incontrôlée.

UELa tribune appelle à un traité international encadrant l'IA militaire, ce qui concerne directement les États membres de l'UE dans leurs engagements en matière de droit international humanitaire et de régulation des systèmes d'armes autonomes.

ÉthiqueOpinion
1 source
Laure de Roucy-Rochegonde, politiste : « Le recours à l’IA dans le cadre des opérations militaires marginalise la prise de décision humaine »
3Le Monde Pixels 

Laure de Roucy-Rochegonde, politiste : « Le recours à l’IA dans le cadre des opérations militaires marginalise la prise de décision humaine »

Laure de Roucy-Rochegonde, directrice du centre géopolitique des technologies de l'IFRI, publie une tribune dans Le Monde sur l'IA militaire. Elle estime que l'utilisation croissante de l'IA dans les opérations de guerre marginalise la prise de décision humaine, car le rythme et l'enchaînement des actions deviennent trop rapides pour être appréhendés par un esprit humain.

UELa tribune d'une chercheuse de l'IFRI dans *Le Monde* alimente le débat français et européen sur la régulation de l'IA militaire et la nécessité de maintenir un contrôle humain dans les décisions de guerre.

ÉthiqueOpinion
1 source
Le nouveau jeu de données d'entraînement d'OpenAI apprend aux modèles d'IA quelles instructions suivre
4The Decoder 

Le nouveau jeu de données d'entraînement d'OpenAI apprend aux modèles d'IA quelles instructions suivre

OpenAI a publié IH-Challenge, un dataset d'entraînement conçu pour apprendre aux modèles d'IA à prioriser de manière fiable les instructions de sources de confiance plutôt que les sources non fiables. Les premiers résultats montrent des améliorations significatives en matière de sécurité et de défense contre les attaques par injection de prompt.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour