Aller au contenu principal
SociétéNext INpact1h

☕️ L’IA de Meta scrute profils et photos pour estimer l’âge des utilisateurs

Résumé IASource uniqueImpact UE
Source originale ↗·

Meta a déployé plusieurs outils d'intelligence artificielle pour détecter les utilisateurs mineurs sur Instagram et Facebook, où les moins de 13 ans sont théoriquement interdits d'inscription. Un premier outil analyse les publications, commentaires, biographies et légendes de photos à la recherche d'indices contextuels, mentions d'anniversaires, références scolaires, formulations typiques d'adolescents. Lorsqu'un doute subsiste, le compte est désactivé et l'utilisateur doit prouver son âge. Meta a également développé un outil d'analyse visuelle qui estime l'âge d'un individu à partir de sa morphologie et de sa stature apparente sur photos et vidéos, en croisant ces données avec des signaux textuels et comportementaux. Par ailleurs, un modèle distinct, déjà actif aux États-Unis depuis 2025 et désormais déployé dans l'Union européenne sur Instagram, puis sur Facebook en juin, détecte les comptes adultes probablement gérés par des adolescents et les bascule automatiquement vers des profils ados, avec leurs restrictions de contenus associées. Ce modèle s'appuie sur les informations de profil, les interactions et les comportements typiques selon l'âge, et est régulièrement ré-entraîné à partir d'un jeu de données annoté par des équipes humaines qui classent des contenus anonymisés selon l'âge probable de leur auteur.

Ces outils répondent à une pression réglementaire et sociétale croissante sur les plateformes pour mieux protéger les mineurs en ligne, notamment en Europe où le Digital Services Act impose des obligations strictes. L'enjeu est considérable : des millions d'adolescents utilisent Instagram en se déclarant adultes, contournant ainsi les restrictions de contenus sensibles. En basculant automatiquement ces profils vers un mode restreint, Meta cherche à limiter leur exposition à des contenus pour adultes sans nécessiter de vérification active de leur part. Pour l'industrie, cela signale une normalisation de la surveillance comportementale et morphologique à des fins de conformité, une frontière technique et éthique que peu d'acteurs avaient franchie aussi explicitement.

Meta se défend d'employer de la reconnaissance faciale, l'outil visuel « n'identifie pas la personne précise », précise le groupe, bien que cette technologie soit déjà intégrée à Instagram depuis 2023. L'entreprise plaide également pour un partage de responsabilités avec Apple et Google, appelant à ce que la vérification de l'âge soit effectuée directement au niveau des boutiques d'applications, ce qui constituerait selon elle « un point centralisé, cohérent et respectueux de la vie privée ». Plusieurs États américains ont déjà légiféré en ce sens, contraignant l'App Store et le Play Store à contrôler l'âge des utilisateurs. Cette position de Meta vise autant à alléger sa charge réglementaire qu'à pousser les grandes plateformes technologiques à endosser collectivement une responsabilité que chaque acteur répugne à assumer seul.

Impact France/UE

Meta déploie ses outils de détection d'âge directement dans l'UE (Instagram d'abord, Facebook en juin 2026) pour se conformer au Digital Services Act, ce qui affectera automatiquement les profils de millions d'adolescents européens en les basculant vers un mode restreint.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA
1The Verge AI 

Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA

Face à la montée en puissance des outils de génération d'images et de texte, une tendance inquiétante émerge dans les communautés créatives en ligne : les humains sont désormais soupçonnés de produire du contenu artificiel, même lorsqu'il s'agit de leur propre travail. Des plateformes comme Instagram, X ou DeviantArt peinent à détecter et étiqueter de manière fiable le contenu généré par IA, laissant illustrateurs, photographes et écrivains se défendre seuls face aux accusations de tromperie. Cette situation crée une asymétrie profondément injuste. Les créateurs humains subissent une présomption de culpabilité tandis que les systèmes d'IA — Midjourney, DALL-E, Sora ou autres — ne sont soumis à aucune obligation d'identification cohérente de leurs productions. Pour les artistes et journalistes qui tirent leurs revenus de leur travail original, cette confusion érode la confiance du public et dévalue leur création. L'absence d'étiquetage fiable profite avant tout aux plateformes et aux entreprises d'IA, au détriment des producteurs de contenu humain. Une solution radicale commence à s'imposer dans le débat : instaurer un label universel pour le contenu humain, comparable au logo Fair Trade ou au label bio, qui permettrait aux créateurs de certifier l'origine de leur travail. Cette idée, portée notamment par des chroniqueurs de The Verge, renverse la logique habituelle — plutôt que de traquer l'IA, on authentifie l'humain. Des initiatives comme C2PA (Coalition for Content Provenance and Authenticity), soutenue par Adobe, Microsoft et d'autres, explorent déjà des standards techniques de provenance, mais leur adoption reste fragmentée et volontaire.

UELes créateurs indépendants européens — illustrateurs, photographes, journalistes — subissent la même présomption de culpabilité sans cadre contraignant ; l'AI Act pourrait servir de levier pour imposer un étiquetage obligatoire des contenus IA à l'échelle de l'UE.

SociétéOpinion
1 source
2MIT Technology Review 

Un plan d'action pour utiliser l'IA au service de la démocratie

Depuis l'invention de l'imprimerie jusqu'à l'essor des médias de masse, chaque révolution de l'information a reconfiguré les formes de gouvernance. Nous entrons aujourd'hui dans une transformation d'une ampleur comparable : l'intelligence artificielle est en train de devenir le principal intermédiaire par lequel les citoyens se forment une opinion et participent à la vie démocratique. Les moteurs de recherche sont déjà largement pilotés par des algorithmes, mais la prochaine génération d'assistants IA ira bien plus loin : elle synthétisera l'information, la mettra en cadre et la présentera avec autorité. Pour un nombre croissant de personnes, interroger une IA deviendra le réflexe par défaut pour se faire une opinion sur un candidat, une loi ou une personnalité publique. Parallèlement, les agents IA personnels commencent à agir au nom de leurs utilisateurs : ils mènent des recherches, rédigent des courriers, soutiennent des causes, et peuvent même orienter des décisions aussi concrètes que le vote sur un référendum ou la réponse à un courrier administratif. Ce double mouvement pose des risques considérables pour les démocraties. L'expérience des réseaux sociaux a déjà montré qu'un algorithme optimisé pour l'engagement, sans agenda politique explicite, peut produire polarisation et radicalisation. Un agent IA qui connaît vos préférences et vos angoisses, conçu pour vous garder actif, expose aux mêmes dérives, avec une subtilité supplémentaire : il se présente comme votre allié, parle en votre nom, et gagne précisément en confiance par cette proximité. À l'échelle collective, les effets deviennent encore plus imprévisibles. Des recherches montrent que des agents individuellement neutres peuvent, en interagissant à grande échelle, générer des biais collectifs. Un espace public où chacun dispose d'un agent personnalisé, parfaitement accordé à ses convictions existantes, n'est plus un espace public : c'est un archipel de mondes privés, chacun cohérent en lui-même, mais collectivement hostile à la délibération partagée qu'exige la démocratie. Cette transformation ne s'annonce pas : elle est déjà en cours, portée par des choix de conception effectués aujourd'hui dans les laboratoires et les départements produit des grandes entreprises technologiques. Les institutions démocratiques ont été conçues pour un monde où le pouvoir se construisait différemment, à une vitesse différente. Trois mutations simultanées les bousculent désormais : la façon dont les citoyens accèdent à la vérité, la façon dont ils exercent leur agentivité civique, et la façon dont se structurent les délibérations collectives. Des acteurs comme Google, OpenAI, Anthropic ou Meta façonnent, souvent sans en avoir pleinement conscience, les nouvelles infrastructures de l'opinion publique. La question n'est plus de savoir si l'IA redéfinira la citoyenneté, mais si les sociétés se donneront les moyens d'en orienter les conséquences avant que les règles du jeu ne soient écrites sans elles.

UELes institutions démocratiques européennes doivent adapter leur cadre réglementaire face aux agents IA qui médiatisent l'opinion publique et risquent de fragmenter la délibération civique des citoyens.

💬 Le problème avec les réseaux sociaux, c'était un algo sans visage qui optimisait dans le vide. Là, c'est un agent qui te connaît, qui parle en ton nom, et qui gagne ta confiance précisément parce qu'il est "de ton côté". C'est une marche de plus, et pas la plus petite.

SociétéOpinion
1 source
L'armée allemande envisage d'utiliser des outils d'IA pour accélérer la prise de décision
3Sciences et Avenir Tech 

L'armée allemande envisage d'utiliser des outils d'IA pour accélérer la prise de décision

L'armée allemande envisage d'intégrer des outils d'intelligence artificielle dans ses processus de commandement, selon le général de division Christian Freuding, qui s'est confié à l'agence Reuters. L'objectif est de permettre l'analyse de données à une vitesse inaccessible aux humains, afin d'accélérer la prise de décision en situation de conflit armé. Cette initiative vise à réduire le temps de réaction dans des environnements où chaque seconde compte. En traitant des flux d'informations complexes en temps réel, l'IA pourrait offrir un avantage tactique décisif, transformant profondément la façon dont les états-majors opèrent sur le terrain. Cette démarche s'inscrit dans une tendance plus large au sein des armées occidentales, qui cherchent à moderniser leurs capacités face aux défis des conflits contemporains, notamment depuis la guerre en Ukraine.

UEL'armée allemande, puissance militaire centrale de l'UE et de l'OTAN, intègre l'IA dans ses processus de commandement, ce qui est susceptible d'influencer les doctrines militaires européennes et d'accélérer l'adoption de l'IA au sein des forces armées des États membres de l'UE.

SociétéActu
1 source
4MIT Technology Review 

The Download : l'état de l'IA et la protection des ours par drones

Le rapport annuel Stanford AI Index 2026, publié cette semaine, dresse un état des lieux chiffré de l'intelligence artificielle mondiale et confirme une réalité fracturée. Parmi ses données les plus frappantes : 73 % des experts américains estiment que l'IA a un impact positif sur l'emploi, contre seulement 23 % du grand public. Cet écart se retrouve dans les domaines de la santé et de l'économie. Par ailleurs, un homme du Texas a été inculpé pour tentative de meurtre sur la personne de Sam Altman, PDG d'OpenAI, après avoir lancé un cocktail Molotov sur sa résidence vendredi dernier. Le suspect aurait détenu une liste d'autres dirigeants de l'industrie de l'IA. Dans le même temps, un mémo interne leaked révèle qu'OpenAI planifie une offensive directe contre son concurrent Anthropic, tout en accusant Microsoft d'avoir "limité sa capacité" à atteindre ses clients, et en cultivant une alliance naissante avec Amazon. Ces développements illustrent les tensions profondes qui traversent l'écosystème IA. Le fossé entre experts et grand public n'est pas anodin : ceux qui utilisent l'IA au quotidien pour le code et les tâches techniques la voient à son meilleur, tandis que le reste de la population fait face à une expérience bien plus inégale. Ce décalage de perception alimente des débats politiques et sociaux mal calibrés. Sur le front compétitif, la rivalité entre grands laboratoires s'intensifie à un moment critique : les meilleurs agents IA n'accomplissent encore que la moitié des tâches complexes qu'un expert humain avec un doctorat peut réaliser, selon une étude publiée dans Nature. L'IA commence néanmoins à transformer les mathématiques en prouvant de nouveaux résultats à un rythme soutenu, et trouve des failles logicielles plus vite qu'elles ne peuvent être corrigées, ce qui représente un risque réel d'exploitation par des hackers. Le rapport Stanford s'inscrit dans un contexte où la rivalité sino-américaine en matière d'IA s'accélère et où les percées de modèles se succèdent plus vite que les capacités de régulation. Les inscriptions en informatique aux États-Unis chutent massivement, une tendance attribuée en partie à la dévaluation perçue du diplôme face aux outils de codage automatisés. Meta s'apprête quant à elle à dépasser Google en revenus publicitaires en 2026, devenant ainsi la première plateforme mondiale de publicité numérique, signe du repositionnement des géants tech autour de l'IA. L'index Stanford rappelle que derrière les annonces spectaculaires, la technologie évolue plus vite que les institutions, les entreprises et les individus ne peuvent s'y adapter.

UELe rapport Stanford AI Index 2026 met en évidence un fossé de perception entre experts et grand public sur l'impact de l'IA sur l'emploi, un enjeu central pour les politiques européennes de régulation et d'adaptation au marché du travail.

SociétéActu
1 source