Aller au contenu principal
Après des pannes, Amazon exigera que des ingénieurs senior approuvent les modifications assistées par l'IA
ÉthiqueArs Technica AI8sem

Après des pannes, Amazon exigera que des ingénieurs senior approuvent les modifications assistées par l'IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Suite à une série de pannes majeures liées à l'utilisation d'outils de codage assistés par l'IA, Amazon a convoqué une réunion d'ingénieurs pour analyser ces incidents à "fort rayon de blast". Le géant du e-commerce a identifié comme facteur contributif l'"utilisation nouvelle de l'IA générative pour laquelle les bonnes pratiques et garde-fous ne sont pas encore établis". En réponse, Amazon exigera désormais que des ingénieurs seniors approuvent toutes les modifications générées avec l'aide de l'IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Amazon confie aux ingénieurs seniors la validation du code généré par l'IA après plusieurs pannes
1The Decoder 

Amazon confie aux ingénieurs seniors la validation du code généré par l'IA après plusieurs pannes

Amazon impose désormais à ses ingénieurs seniors de valider tout code généré par l'IA avant déploiement, suite à plusieurs pannes attribuées à du code IA défaillant. Cette mesure fait des ingénieurs expérimentés un filtre humain obligatoire dans le processus de développement.

ÉthiqueActu
1 source
Amazon surveille de plus près son IA après plusieurs pannes de son site
201net 

Amazon surveille de plus près son IA après plusieurs pannes de son site

Amazon a subi plusieurs pannes de son infrastructure ces dernières semaines, partiellement gérée par IA générative. En réponse, le groupe renforce la supervision humaine de ses systèmes IA pour éviter de nouveaux incidents.

ÉthiqueActu
1 source
Le nouveau jeu de données d'entraînement d'OpenAI apprend aux modèles d'IA quelles instructions suivre
3The Decoder 

Le nouveau jeu de données d'entraînement d'OpenAI apprend aux modèles d'IA quelles instructions suivre

OpenAI a publié IH-Challenge, un dataset d'entraînement conçu pour apprendre aux modèles d'IA à prioriser de manière fiable les instructions de sources de confiance plutôt que les sources non fiables. Les premiers résultats montrent des améliorations significatives en matière de sécurité et de défense contre les attaques par injection de prompt.

ÉthiqueActu
1 source
Des images de propagande iranienne générées par IA se retrouvent dans un grand média allemand
4The Decoder 

Des images de propagande iranienne générées par IA se retrouvent dans un grand média allemand

Der Spiegel a retiré plusieurs images de sa couverture sur l'Iran après avoir constaté qu'elles avaient très probablement été générées ou manipulées par intelligence artificielle. Ces visuels s'inscrivaient dans une campagne de propagande iranienne diffusée via des outils d'IA. L'incident soulève des questions sur la vérification des images dans les grands médias européens.

UECet incident expose la vulnérabilité des grands médias européens face aux campagnes de désinformation alimentées par l'IA, renforçant l'urgence de mécanismes de vérification robustes dans la presse européenne.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour