
Meta réduit le recours aux modérateurs tiers et mise davantage sur l'IA
Meta Platforms accélère sa transition vers l'intelligence artificielle pour la modération de contenu sur ses plateformes, au détriment des prestataires tiers humains. La maison mère de Facebook, Instagram et Threads a annoncé jeudi le déploiement élargi de systèmes d'IA chargés d'examiner les publications et signalements à la place des équipes externalisées.
Ce virage stratégique s'inscrit dans une tendance de fond chez les grandes plateformes : réduire les coûts opérationnels tout en maintenant — voire en accélérant — la vitesse de traitement des contenus problématiques. La modération humaine externalisée, souvent critiquée pour ses conditions de travail difficiles et ses inconsistances, cède ainsi du terrain face à des systèmes automatisés capables de traiter des volumes bien supérieurs.
Les détails techniques et financiers précis de cette annonce restent limités dans l'extrait disponible, mais Meta positionne clairement l'IA comme le pilier central de sa politique de modération à venir. Ce changement concerne l'ensemble de l'écosystème du groupe, soit plusieurs milliards d'utilisateurs actifs répartis sur ses différentes applications.
Ce repositionnement intervient dans un contexte de pression réglementaire croissante en Europe et aux États-Unis sur la responsabilité des plateformes face aux contenus nuisibles — un pari risqué si les systèmes d'IA s'avèrent insuffisants pour détecter les formes les plus subtiles de désinformation ou de harcèlement.
La réduction des modérateurs humains chez Meta soulève des questions de conformité avec le Digital Services Act (DSA) qui impose des obligations strictes de modération aux très grandes plateformes en Europe.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



