Aller au contenu principal
OutilsBlog du Modérateur6sem

Devenir un expert de la data en 2026 : ce que l’IA a vraiment changé, et ce qui reste fondamental

Résumé IASource uniqueImpact UE
Source originale ↗·

L'essor de l'intelligence artificielle générative redessine en profondeur les contours du métier de professionnel de la data. Antoine Krajnc, fondateur et CEO de Jedha — école de formation spécialisée en data science et IA — dresse un état des lieux nuancé : si les outils évoluent à vitesse accélérée, les fondamentaux du métier, eux, n'ont pas disparu.

Pour Krajnc, le vrai changement de paradigme réside dans la capacité à challenger les résultats produits par l'IA. Les modèles génératifs peuvent automatiser des tâches autrefois chronophages — nettoyage de données, écriture de code, exploration exploratoire — mais cela exige en contrepartie un regard critique plus affûté. Un professionnel incapable d'évaluer la pertinence d'une sortie de modèle devient dépendant d'un outil qu'il ne maîtrise pas.

Les compétences qui restent incontournables en 2026 sont celles que l'IA ne peut pas substituer : la compréhension des mathématiques et statistiques sous-jacentes, la capacité à formuler les bonnes questions métier, et l'aptitude à communiquer des insights complexes à des interlocuteurs non techniques. Jedha insiste notamment sur l'importance de former des profils capables de travailler avec l'IA comme amplificateur, et non de la subir comme un outil opaque.

Dans un marché du travail où les offres pour data analysts et data scientists continuent de progresser malgré l'automatisation, Krajnc voit une opportunité pour ceux qui combinent rigueur technique et agilité face aux nouveaux outils. La formation continue et la capacité d'adaptation rapide s'imposent comme les véritables différenciateurs pour faire carrière dans la data en 2026.

Impact France/UE

Jedha, école française de data science, positionne ses formations comme réponse aux nouvelles exigences du marché du travail en France.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'IA qui fait vraiment la différence pour les entreprises
1VentureBeat AI 

L'IA qui fait vraiment la différence pour les entreprises

Après deux ans de démonstrations spectaculaires et de prototypes précipités, les dirigeants technologiques des grandes entreprises adoptent en 2026 un discours nettement plus pragmatique sur l'intelligence artificielle. Lors d'un webinaire organisé par OutSystems, des responsables techniques issus d'entreprises comme Thermo Fisher Scientific et McConkey Auction Group ont témoigné d'une même priorité : faire passer les agents IA du stade expérimental à la production réelle, avec des résultats mesurables. Chez Thermo Fisher, Rajkiran Vajreshwari, responsable du développement applicatif, a décrit comment son équipe a abandonné les assistants IA mono-tâches au profit d'un système multi-agents coordonné : à l'arrivée d'un ticket de support, un agent de triage classe la demande et la route dynamiquement vers un agent spécialisé — intention et priorité, contexte produit, dépannage ou conformité — chacun opérant dans un périmètre strict et auditable. L'enjeu central n'est plus le choix du bon modèle de langage, mais l'orchestration : comment router les tâches, coordonner les workflows, gouverner l'exécution et intégrer les agents dans des systèmes construits sur des décennies. Une nouvelle catégorie de risque est apparue en parallèle : le « shadow AI », autrement dit le code de niveau production généré par des employés sans supervision informatique. Ces outils maison sont exposés aux hallucinations, aux fuites de données, aux violations de politique et à la dérive des modèles. Luis Blando, CPTO d'OutSystems, résume la réponse des organisations les plus avancées en trois actions : fournir des garde-fous aux utilisateurs, utiliser l'IA pour gouverner l'IA à l'échelle du portefeuille applicatif, et s'appuyer sur des plateformes qui intègrent ces contrôles nativement plutôt que de les construire manuellement. Ce tournant pragmatique survient alors que les premières vagues d'enthousiasme autour des LLM se heurtent à leurs limites réelles en environnement d'entreprise : sans orchestration, sans connexion aux données métier existantes et sans gouvernance, les modèles les plus puissants produisent peu de valeur durable. Les profils les plus recherchés ne sont plus les data scientists spécialisés, mais les développeurs généralistes et les architectes d'entreprise capables de faire dialoguer agents IA, systèmes legacy et processus métier. La compétition se joue désormais moins sur la puissance brute des modèles que sur la capacité des plateformes — OutSystems, mais aussi Microsoft, Salesforce ou ServiceNow — à proposer des environnements où les agents peuvent être déployés, surveillés et gouvernés à l'échelle industrielle.

OutilsOutil
1 source
GitAgent : le Docker des agents IA qui résout enfin la fragmentation entre LangChain, AutoGen et Claude Code
2MarkTechPost 

GitAgent : le Docker des agents IA qui résout enfin la fragmentation entre LangChain, AutoGen et Claude Code

GitAgent est un outil CLI open-source et une spécification qui introduit un format universel et agnostique de framework pour le développement d'agents IA, permettant de découpler la définition d'un agent de son environnement d'exécution. Il s'attaque à la fragmentation actuelle entre les principaux frameworks — LangChain, AutoGen, CrewAI, OpenAI Assistants et Claude Code — en structurant un agent comme un répertoire Git composé de fichiers clés : agent.yaml (manifest), SOUL.md (personnalité), DUTIES.md (responsabilités), ainsi que des dossiers skills/, tools/, rules/ et memory/. Git sert de couche de supervision native : chaque évolution de l'état interne de l'agent (mémoire, compétences) est traitée comme un changement de code, garantissant traçabilité et versioning complet.

OutilsOutil
1 source
Quels types de contenus les IA génératives citent vraiment (et ceux qu’elles ignorent)
3Siècle Digital 

Quels types de contenus les IA génératives citent vraiment (et ceux qu’elles ignorent)

Une étude publiée le 23 mars par Tom Wells, chercheur spécialisé en GEO (Generative Engine Optimization) chez Wix, révèle que les outils d'IA générative — désormais utilisés comme moteurs de recherche alternatifs — ne citent pas les contenus de façon aléatoire. Selon ses analyses, trois formats de contenu concentrent l'essentiel des références générées par les LLM, tandis que la grande majorité des autres types de pages est systématiquement ignorée. Ce constat a des implications directes pour les équipes marketing et SEO qui misent sur la visibilité dans les réponses générées par ChatGPT, Perplexity ou Google AI Overviews. Contrairement au référencement classique, où la densité de mots-clés et les backlinks dominent, les LLM semblent privilégier la structure, la clarté factuelle et l'autorité perçue d'un contenu. Les marques qui ne s'adaptent pas à ces critères risquent de disparaître totalement de la surface d'information consommée par des millions d'utilisateurs. Ce travail s'inscrit dans un champ émergent — le GEO — qui tente de décoder les règles implicites de sélection des grandes IA conversationnelles, de la même façon que le SEO a décrypté les algorithmes de Google dans les années 2000. Wix, en finançant cette recherche, positionne sa plateforme sur ce terrain stratégique. Les conclusions de Wells devraient alimenter les débats sur la concentration de l'attention dans un écosystème où quelques formats favorisés captent l'essentiel de la visibilité éditoriale.

UELes équipes marketing et SEO françaises et européennes devront adapter leurs stratégies éditoriales aux critères de sélection des IA génératives pour maintenir leur visibilité dans un écosystème informationnel en mutation.

OutilsPaper
1 source
ChatGPT et Claude : Gemini veut devenir votre IA principale en aspirant la mémoire des autres
4Frandroid 

ChatGPT et Claude : Gemini veut devenir votre IA principale en aspirant la mémoire des autres

Google a lancé une nouvelle fonctionnalité pour Gemini permettant aux utilisateurs d'importer leurs mémoires et préférences depuis d'autres chatbots, notamment ChatGPT d'OpenAI et Claude d'Anthropic. Concrètement, l'outil récupère l'historique de personnalisation — préférences de ton, informations personnelles, habitudes de travail — accumulé dans ces assistants concurrents, et les transfère en quelques clics vers Gemini. La fonctionnalité est déployée progressivement auprès des utilisateurs via l'interface web et mobile de Gemini. L'enjeu est considérable : la mémoire personnalisée est devenue l'un des principaux facteurs de rétention dans la guerre des chatbots. Un utilisateur qui a passé des mois à "éduquer" ChatGPT sur ses préférences hésite à tout recommencer à zéro ailleurs. En supprimant cette friction, Google retire le principal obstacle qui empêche les utilisateurs de migrer. Pour les professionnels et les utilisateurs intensifs, c'est un signal fort : Gemini veut devenir l'IA centrale du quotidien, et non plus un outil secondaire. Cette manœuvre s'inscrit dans une bataille de parts de marché où ChatGPT reste dominant malgré la montée en puissance de Claude et Gemini. Google a fortement investi dans Gemini depuis 2023, intégrant le modèle dans l'ensemble de son écosystème (Gmail, Docs, Android). L'importation de mémoire est une tactique d'acquisition directe, similaire à ce que font les banques ou opérateurs téléphoniques pour faciliter la portabilité — sauf qu'ici, c'est Google qui fixe les règles du jeu sur sa propre plateforme.

UELes utilisateurs européens de Gemini peuvent désormais importer leurs préférences depuis ChatGPT ou Claude, réduisant la friction de migration vers l'écosystème Google sur le marché européen des assistants IA.

OutilsOutil
1 source