Aller au contenu principal
Quels types de contenus les IA génératives citent vraiment (et ceux qu’elles ignorent)
OutilsSiècle Digital2h

Quels types de contenus les IA génératives citent vraiment (et ceux qu’elles ignorent)

1 source couvre ce sujet·Source originale ↗·

Une étude publiée le 23 mars par Tom Wells, chercheur spécialisé en GEO (Generative Engine Optimization) chez Wix, révèle que les outils d'IA générative — désormais utilisés comme moteurs de recherche alternatifs — ne citent pas les contenus de façon aléatoire. Selon ses analyses, trois formats de contenu concentrent l'essentiel des références générées par les LLM, tandis que la grande majorité des autres types de pages est systématiquement ignorée.

Ce constat a des implications directes pour les équipes marketing et SEO qui misent sur la visibilité dans les réponses générées par ChatGPT, Perplexity ou Google AI Overviews. Contrairement au référencement classique, où la densité de mots-clés et les backlinks dominent, les LLM semblent privilégier la structure, la clarté factuelle et l'autorité perçue d'un contenu. Les marques qui ne s'adaptent pas à ces critères risquent de disparaître totalement de la surface d'information consommée par des millions d'utilisateurs.

Ce travail s'inscrit dans un champ émergent — le GEO — qui tente de décoder les règles implicites de sélection des grandes IA conversationnelles, de la même façon que le SEO a décrypté les algorithmes de Google dans les années 2000. Wix, en finançant cette recherche, positionne sa plateforme sur ce terrain stratégique. Les conclusions de Wells devraient alimenter les débats sur la concentration de l'attention dans un écosystème où quelques formats favorisés captent l'essentiel de la visibilité éditoriale.

Impact France/UE

Les équipes marketing et SEO françaises et européennes devront adapter leurs stratégies éditoriales aux critères de sélection des IA génératives pour maintenir leur visibilité dans un écosystème informationnel en mutation.

À lire aussi

OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic
1The Decoder 

OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic

OpenAI a lancé un plugin permettant d'intégrer son assistant de codage Codex directement dans Claude Code, l'outil de développement en ligne de commande d'Anthropic. Cette extension permet aux développeurs utilisant Claude Code d'accéder aux capacités de Codex d'OpenAI sans quitter leur environnement de travail habituel, fusionnant ainsi deux écosystèmes concurrents au sein d'une même interface. Cette initiative est remarquable car elle efface temporairement la frontière entre deux des principaux adversaires du secteur de l'IA. Pour les développeurs, cela signifie un accès élargi aux modèles et aux forces spécifiques de chaque plateforme — Codex étant particulièrement réputé pour la génération et la compréhension de code — sans devoir jongler entre plusieurs outils. L'interopérabilité entre assistants IA devient ainsi un argument commercial concret. Ce mouvement s'inscrit dans une tendance plus large de l'industrie où les éditeurs d'IA misent sur l'ouverture et les intégrations tierces pour étendre leur portée, plutôt que de viser l'exclusivité. OpenAI, qui a récemment repositionné Codex comme produit à part entière après des années où GPT-4 dominait les usages de codage, cherche à imposer sa présence dans des environnements qu'il ne contrôle pas directement. La question des suites — si Anthropic facilitera ou au contraire limitera ce type d'intégrations concurrentes dans Claude Code — reste ouverte.

UELes développeurs français et européens utilisant Claude Code peuvent désormais accéder aux capacités de Codex sans changer d'environnement, élargissant concrètement leur palette d'outils IA.

OutilsOutil
1 source
Softr lance une plateforme IA pour permettre aux équipes non techniques de créer des applications métier sans code
2VentureBeat AI 

Softr lance une plateforme IA pour permettre aux équipes non techniques de créer des applications métier sans code

Softr, la plateforme no-code berlinoise utilisée par plus d'un million de créateurs et 7 000 organisations dont Netflix, Google et Stripe, a lancé ce mardi une nouvelle version qu'elle qualifie d'« AI-native » — un pari sur le fait que l'explosion des outils de création d'applications par IA a surtout produit des démonstrations impressionnantes, mais peu de logiciels métier réellement opérationnels. Le cœur de cette mise à jour est l'« AI Co-Builder » : l'utilisateur décrit en langage naturel l'application dont il a besoin, et la plateforme génère un système complet — base de données, interface, permissions et logique métier — connecté et prêt à déployer immédiatement. Mariam Hakobyan, cofondatrice et PDG de Softr, a présenté cette annonce en exclusivité à VentureBeat en amont du lancement. Ce positionnement cible une faille bien réelle du marché actuel. Les plateformes dites de « vibe coding » — Lovable, Bolt, Replit — ont capté l'attention des développeurs et des investisseurs en capital-risque depuis dix-huit mois, mais elles s'adressent mal aux milliards d'utilisateurs non techniques en entreprise qui ont besoin de logiciels opérationnels personnalisés sans pouvoir maintenir du code généré par IA quand il casse. « Un seul prompt peut casser dix étapes déjà complétées », explique Hakobyan. « On finit par maintenir quelque chose qu'on n'avait pas demandé. » Les outils qui génèrent du code brut laissent l'utilisateur face à une base de code illisible : connecter ces apps à des bases de données réelles ou à des systèmes d'authentification requiert souvent des intégrations techniques — Supabase, appels API — qui transforment l'utilisateur en développeur malgré lui. La réponse de Softr repose sur une architecture de « blocs de construction » pré-conçus — tableaux Kanban, vues liste, authentification, gestion des rôles — que l'IA assemble selon les besoins décrits, sans jamais générer de code libre. Après cinq ans passés à construire une infrastructure no-code contrainte et éprouvée, l'entreprise a superposé l'IA sur cette base stable, évitant ainsi le problème d'hallucination qui fragilise les générateurs de code. Ce lancement s'inscrit dans un moment charnière pour tout le secteur : la promesse du no-code se heurte depuis des années à la complexité des logiciels métier réels — portails clients, CRM internes, outils de gestion de stocks — qui exigent fiabilité et sécurité à chaque utilisation. Softr mise sur le fait que l'IA doit guider, pas générer, pour tenir cette promesse auprès des organisations qui n'ont ni le temps ni les ressources pour embaucher un développeur à chaque bug.

UESoftr étant une startup berlinoise, ce lancement renforce l'offre d'un acteur européen du no-code face aux plateformes américaines, avec un potentiel d'adoption direct pour les PME et équipes non techniques en France et en Europe.

OutilsOutil
1 source
Pourquoi Apple supprime massivement les apps de création d’apps de l’App Store
3Frandroid 

Pourquoi Apple supprime massivement les apps de création d’apps de l’App Store

Apple a entrepris une purge ciblée sur son App Store, supprimant plusieurs applications permettant de générer des applications mobiles par intelligence artificielle. La victime la plus récente est Anything, une app de création d'apps propulsée par IA, définitivement retirée du magasin après que plusieurs de ses mises à jour avaient déjà été bloquées par Apple. Cette décision s'inscrit dans un mouvement plus large de restriction touchant toute une catégorie d'outils génératifs permettant à des utilisateurs non-développeurs de produire des applications distribuables. Cette suppression soulève des questions importantes sur les règles de distribution d'Apple. Les applications de type "app builders" IA permettent en effet de contourner partiellement le processus de validation de l'App Store : un utilisateur peut générer une app fonctionnelle sans passer par la revue habituelle d'Apple, ce qui pose des risques en matière de sécurité, de respect des guidelines et de contrôle qualité. Pour les développeurs de ces outils, c'est un signal fort : Apple entend maintenir une maîtrise totale sur ce qui entre dans son écosystème, y compris les applications générées automatiquement. Ce resserrement intervient alors qu'Apple développe elle-même ses propres capacités d'IA avec Apple Intelligence, présentées en juin 2024 et progressivement déployées depuis iOS 18. La firme de Cupertino se trouve ainsi dans une position ambiguë : elle intègre l'IA dans ses propres outils tout en bridant les solutions tierces qui pourraient concurrencer ou déstabiliser son modèle de contrôle vertical. Les développeurs d'apps IA devront désormais naviguer dans un cadre réglementaire encore flou, où les règles semblent s'écrire au fil des suppressions.

UELes développeurs européens d'outils IA de création d'apps doivent revoir leur stratégie de distribution sur l'App Store, bien que le DMA offre en Europe une alternative via le sideloading et les stores tiers.

OutilsOpinion
1 source
Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs
4Next INpact 

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

Le 30 mars 2026, plusieurs développeurs ont découvert avec stupéfaction que GitHub Copilot avait modifié leurs pull requests pour y insérer des messages promotionnels. L'agent IA de Microsoft avait ajouté, directement dans le fil de revue de code, une phrase vantant l'intégration de Copilot avec Raycast — un outil de productivité macOS et Windows — accompagnée d'un émoji éclair et d'un lien vers le site de l'éditeur. La capture d'écran publiée par le développeur australien Zach Manson a rapidement circulé sur les réseaux sociaux, déclenchant une vague d'indignation dans la communauté. Martin Woodward, vice-président en charge des relations développeurs chez GitHub, est intervenu en urgence sur X le soir même pour annoncer la désactivation immédiate de la fonctionnalité. Selon lui, le comportement problématique a été introduit le 24 mars lors d'un déploiement étendant la capacité de Copilot à intervenir sur n'importe quelle pull request à la demande d'un développeur. La réaction a été virulente parce qu'elle touche à quelque chose de fondamental : l'intégrité du code et du processus de revue. Quand un outil censé assister les développeurs commence à modifier leur espace de travail pour y glisser des recommandations commerciales — même habillées en « conseils produits » — la confiance s'effondre immédiatement. GitHub a beau nier toute intention publicitaire, la distinction est difficile à tenir lorsque le message pointe vers un produit tiers spécifique avec un lien cliquable. Pour les équipes qui utilisent les pull requests comme espace de collaboration technique, voir une IA y introduire du contenu non sollicité soulève des questions concrètes sur le contrôle de leur environnement de développement. Cette affaire s'inscrit dans un contexte plus large de tensions croissantes entre GitHub et ses utilisateurs. La plateforme avait annoncé quelques jours plus tôt une extension de la collecte de données issues des interactions avec Copilot, activée par défaut avec désactivation manuelle — un opt-out que beaucoup ont mal accueilli. Zach Manson a d'ailleurs cité la théorie de la « merdification » de Cory Doctorow pour décrire la trajectoire des plateformes tech : séduire les utilisateurs, puis monétiser leur attention au détriment de l'expérience. GitHub appartient à Microsoft depuis 2018 et doit rentabiliser ses investissements massifs dans Copilot, ce qui crée une pression structurelle vers ce type de dérives. La désactivation rapide montre que la communauté des développeurs reste capable d'imposer un recul, mais l'incident illustre à quel point la frontière entre assistance IA et intrusion commerciale peut être franchie discrètement, sous couvert d'une simple mise à jour.

UEL'extension de la collecte de données Copilot activée par défaut soulève des questions de conformité RGPD pour les développeurs et entreprises européennes utilisant GitHub.

OutilsOutil
1 source