Aller au contenu principal
GEO : quand l’intelligence artificielle redessine les règles du search
OutilsFrenchWeb2h

GEO : quand l’intelligence artificielle redessine les règles du search

1 source couvre ce sujet·Source originale ↗·

Les moteurs de recherche génératifs -- ChatGPT, Perplexity AI, Google AI Overviews -- transforment en profondeur la manière dont les internautes accèdent à l'information en ligne. Là où le SEO traditionnel visait à positionner des pages web dans des listes de résultats, le GEO (Generative Engine Optimization) désigne les pratiques émergentes pour apparaître dans les réponses synthétiques produites directement par ces systèmes d'IA. Les directions marketing et les responsables de la visibilité digitale se retrouvent confrontés à un changement de paradigme dont les contours restent encore à définir.

L'enjeu est considérable : si un moteur génératif répond directement à la question d'un utilisateur sans qu'il visite un site, le trafic organique s'effondre, quelles que soient les positions SEO obtenues. Des études récentes montrent déjà une baisse du taux de clics sur les résultats Google depuis le déploiement des AI Overviews aux États-Unis. Pour les marques, les éditeurs et les e-commerçants, la question n'est plus seulement d'être bien référencé, mais d'être cité, synthétisé ou recommandé par ces nouveaux intermédiaires algorithmiques.

Google, Microsoft avec Bing Copilot et des acteurs comme Perplexity AI se livrent une bataille pour capter l'intention de recherche avant même que l'utilisateur ne clique. Face à cette recomposition, les professionnels du marketing explorent de nouvelles tactiques : structuration sémantique renforcée, production de contenus factuels et sourcés, construction d'une autorité thématique reconnue par les LLM. Le GEO n'est pas encore une discipline codifiée, mais il s'impose déjà comme un chantier stratégique incontournable pour 2025 et au-delà.

Impact France/UE

Les entreprises et éditeurs européens doivent adapter leur stratégie de visibilité digitale face à la montée des moteurs génératifs qui réduisent le trafic organique traditionnel.

À lire aussi

Comment garantir le succès d’un projet d’IA agentielle en entreprise
1Le Big Data 

Comment garantir le succès d’un projet d’IA agentielle en entreprise

Les projets d'intelligence artificielle agentielle explosent dans les entreprises, mais la réalité des déploiements reste bien en deçà des ambitions affichées. Selon McKinsey, le marché mondial de l'IA agentielle pourrait bondir de 5 à 7 milliards de dollars en 2024 à plus de 199 milliards d'ici 2034. Pourtant, Gartner estime que plus de 40 % de ces projets seront abandonnés avant fin 2027, et une étude Qlik révèle que si 97 % des entreprises ont prévu un budget dédié, seulement 18 % sont parvenues à un déploiement complet. Le fossé entre l'enthousiasme et l'exécution est immense, et il s'explique avant tout par des infrastructures de données insuffisamment matures. Contrairement aux outils d'IA générative, qui assistent les employés dans des tâches ponctuelles et peuvent être contrôlés avant toute action, les agents IA agissent directement dans les flux de travail opérationnels : ils détectent des anomalies financières, ajustent la chaîne d'approvisionnement, déclenchent des processus automatiquement. Cette autonomie réduit drastiquement la marge d'erreur tolérée. Un agent qui s'appuie sur des données fragmentées, dupliquées ou mal attribuées peut prendre des décisions erronées sans possibilité de correction immédiate. Les données non structurées, courriels, documents internes, bases de connaissances, aggravent le problème : leur propriétaire est rarement identifié, leur exactitude difficile à vérifier. Résultat : les entreprises découvrent au moment du déploiement que leurs fondations de données ne sont tout simplement pas prêtes à supporter ce niveau de responsabilité. La gouvernance des données et la clarté des responsabilités humaines constituent donc le vrai enjeu stratégique de l'IA agentielle. Définir qui est propriétaire des données, qui valide les décisions automatisées et à quel moment une intervention humaine s'impose n'est pas une formalité administrative : c'est la condition pour que les équipes fassaient confiance au système et pour garantir conformité et traçabilité. En Europe, la loi sur l'IA impose d'ailleurs des exigences de transparence et de gestion des risques dès la conception, ce qui, malgré la contrainte perçue, offre un cadre structurant pour une adoption plus maîtrisée. La prolifération des outils ajoute une couche de complexité supplémentaire : les entreprises qui empilent des solutions sans architecture cohérente se retrouvent avec des silos technologiques qui reproduisent exactement les problèmes de données qu'elles cherchaient à résoudre. La consolidation préalable des données n'est pas un prérequis technique parmi d'autres, c'est le fondement sans lequel aucun projet d'IA agentielle sérieux ne peut tenir ses promesses à grande échelle.

UEL'AI Act européen impose des exigences de transparence et de gestion des risques dès la conception pour les projets d'IA agentielle, structurant directement les déploiements en entreprise sur le marché européen.

OutilsOpinion
1 source
Combiner Google Search, Google Maps et fonctions personnalisées dans un appel Gemini avec chaînes d'agents multi-étapes
2MarkTechPost 

Combiner Google Search, Google Maps et fonctions personnalisées dans un appel Gemini avec chaînes d'agents multi-étapes

Google a annonce en mars 2026 une mise a jour majeure de son API Gemini permettant desormais de combiner dans un seul appel API des outils integres comme Google Search et Google Maps avec des fonctions personnalisees definies par le developpeur. Jusqu'ici, ces capacites devaient etre appelees separement, necessitant plusieurs requetes et une orchestration manuelle cote client. La mise a jour introduit egalement trois mecanismes cles : la circulation de contexte, qui preserve l'historique complet de chaque appel d'outil et de chaque reponse entre les tours de conversation ; les identifiants uniques de reponse d'outil, qui permettent de lier precisement chaque appel de fonction parallele a son resultat correspondant ; et le "Grounding with Google Maps", qui injecte des donnees de localisation en temps reel directement dans le raisonnement du modele. Les modeles concernes sont gemini-3-flash-preview pour les combinaisons d'outils et gemini-2.5-flash pour l'ancrage cartographique, les deux etant accessibles sans configuration de facturation. Cette evolution transforme la facon dont les developpeurs peuvent construire des agents IA autonomes. Auparavant, orchestrer plusieurs sources d'information, une recherche web, une donnee meteo via API tierce, et une localisation geographique, exigeait plusieurs allers-retours et une logique de coordination externe complexe. Desormais, un unique appel suffit pour que Gemini planifie, execute et synthetise des informations issues de sources heterogenes en une seule chaine de raisonnement. Pour les applications metier, assistants de voyage, outils de veille concurrentielle, agents de support client, cela reduit la latence, simplifie l'architecture et rend les systemes multi-outils beaucoup plus accessibles aux equipes de taille modeste. L'introduction des identifiants de reponse paralleles resout par ailleurs un probleme concret de fiabilite : quand plusieurs fonctions sont appelees simultanement, il etait auparavant difficile de garantir que chaque reponse correspondait bien a la bonne requete. Ces annonces s'inscrivent dans une competition intense entre Google, OpenAI et Anthropic pour imposer leur API comme la couche d'orchestration de reference pour les agents IA. OpenAI avait deja introduit le "parallel function calling" dans GPT-4 en 2023, et Anthropic a renforce les capacites d'outils de Claude tout au long de 2025. Google repond avec une integration native de son ecosysteme, Search et Maps etant des atouts considerables qu'aucun concurrent ne peut repliquer a l'identique. La prochaine etape probable est une extension de ce modele a d'autres services Google (Gmail, Calendar, Drive), transformant Gemini en un agent capable d'agir directement dans l'infrastructure numerique quotidienne des entreprises. La question qui demeure est celle du controle et de la transparence : a mesure que les chaines agentiques se complexifient, auditer ce qu'un modele a reellement fait, et pourquoi, devient un enjeu critique pour la confiance des utilisateurs professionnels.

OutilsOutil
1 source
Comment deployer Open WebUI avec integration securisee de l'API OpenAI, tunnel public et acces au chat depuis le navigateur
3MarkTechPost 

Comment deployer Open WebUI avec integration securisee de l'API OpenAI, tunnel public et acces au chat depuis le navigateur

Un tutoriel publié récemment détaille comment déployer Open WebUI dans Google Colab, l'environnement de notebooks Python hébergé par Google, en le connectant à l'API officielle d'OpenAI pour obtenir une interface de chat accessible directement depuis un navigateur. La procédure repose entièrement sur Python et couvre l'installation des dépendances via pip, la configuration sécurisée de la clé API OpenAI par saisie terminal (via getpass, pour éviter que les identifiants n'apparaissent en clair dans le notebook), la définition des variables d'environnement nécessaires, le lancement du serveur Open WebUI sur le port 8080, et la création d'un tunnel public via l'outil Cloudflared de Cloudflare. Ce tunnel génère une URL partageable qui permet d'accéder à l'interface depuis n'importe quel navigateur, même en dehors de Colab. Le modèle par défaut configuré dans l'exemple est gpt-4o-mini, mais l'utilisateur peut en choisir un autre au démarrage. Un répertoire de données dédié est créé dans /content/open-webui-data pour stocker les données d'exécution, et une clé secrète aléatoire est générée automatiquement pour sécuriser l'interface web. Ce type de déploiement intéresse principalement les développeurs, chercheurs et équipes techniques qui souhaitent expérimenter Open WebUI sans disposer d'un serveur dédié ni passer par une installation locale complexe. Colab offre une machine virtuelle gratuite (ou quasi-gratuite) avec accès réseau, ce qui en fait un terrain de test rapide pour des outils comme Open WebUI qui nécessitent normalement un environnement serveur. La capacité à exposer le service via un tunnel Cloudflare résout le problème classique d'accessibilité des services locaux dans Colab, rendant l'interface partageable en quelques minutes. Pour les équipes qui évaluent des alternatives à ChatGPT ou qui veulent tester Open WebUI avant un déploiement en production, cette approche réduit drastiquement la friction d'entrée. Open WebUI est une interface web open source conçue pour interagir avec des modèles de langage, qu'ils soient hébergés localement via Ollama ou accessibles via des API tierces comme celle d'OpenAI. Le projet a gagné en popularité depuis 2023 comme alternative auto-hébergeable aux interfaces propriétaires, avec des fonctionnalités comme la gestion de conversations, le support multi-modèles et la personnalisation des prompts système. Cloudflare Tunnel, l'outil utilisé ici pour l'exposition publique, est un service qui crée des connexions sécurisées sortantes sans nécessiter d'ouverture de ports ni de configuration réseau avancée. La combinaison de ces deux outils dans Colab reflète une tendance plus large : rendre les infrastructures IA accessibles à des non-ops, en abaissant les prérequis techniques pour expérimenter des stacks qui étaient jusqu'ici réservées aux équipes disposant de leurs propres serveurs.

OutilsTuto
1 source
Amazon Bedrock Projects : gérer les coûts de l'IA
4AWS ML Blog 

Amazon Bedrock Projects : gérer les coûts de l'IA

Amazon a lancé une nouvelle fonctionnalité appelée Amazon Bedrock Projects, qui permet aux équipes techniques d'attribuer précisément les coûts d'inférence IA à des charges de travail spécifiques. Concrètement, chaque "projet" dans Bedrock constitue une frontière logique représentant une application, un environnement ou une expérimentation. Les développeurs associent des tags de ressources à ces projets et transmettent un identifiant de projet dans leurs appels API. Ces données remontent ensuite dans AWS Cost Explorer et AWS Data Exports, les outils de suivi financier d'Amazon Web Services, permettant de filtrer, regrouper et analyser les dépenses par dimension métier : application, équipe, environnement ou centre de coûts. La fonctionnalité est compatible avec les API OpenAI (Responses API et Chat Completions API), ce qui facilite l'intégration pour les équipes déjà habituées à ces standards. Les requêtes envoyées sans identifiant de projet sont automatiquement rattachées à un projet par défaut dans le compte AWS concerné. L'enjeu est direct pour les grandes organisations qui font tourner plusieurs applications IA en parallèle : sans attribution précise, impossible de savoir quelle équipe consomme quoi, ni d'effectuer des refacturations internes (chargebacks) ou d'investiguer des pics de dépenses inexpliqués. Bedrock Projects répond à ce besoin en donnant une visibilité granulaire sur la facture IA, département par département. Une équipe "CustomerExperience" peut ainsi être distinguée d'une équipe "DataScience", chacune avec son propre centre de coûts. Cela permet également de guider les décisions d'optimisation : identifier quels workloads sont disproportionnément coûteux par rapport à leur valeur métier, et agir en conséquence. Cette annonce s'inscrit dans une tendance plus large de maturité de la FinOps appliquée à l'IA. À mesure que les déploiements LLM passent du stade expérimental à la production à grande échelle, la gestion financière devient un enjeu stratégique autant que technique. AWS rejoint ainsi des préoccupations déjà bien présentes chez les DSI et les directeurs financiers, qui voient les budgets cloud IA gonfler rapidement sans toujours disposer des outils pour les piloter. La stratégie de tags recommandée par Amazon -- Application, Environment, Team, CostCenter -- reflète les pratiques standard de gouvernance cloud, mais appliquées désormais spécifiquement à la couche inférence. Les prochaines étapes logiques pourraient inclure des alertes budgétaires par projet ou des quotas d'utilisation, des mécanismes déjà existants dans AWS pour d'autres services et qui manquent encore à Bedrock Projects dans sa forme actuelle.

UELes organisations européennes utilisant AWS Bedrock peuvent désormais mieux contrôler et attribuer leurs coûts d'inférence IA, un enjeu croissant pour les DSI soumis à des contraintes budgétaires strictes.

OutilsActu
1 source