Aller au contenu principal
Comment HubSpot révolutionne le marketing avec l’IA ?
OutilsLe Big Data2h

Comment HubSpot révolutionne le marketing avec l’IA ?

1 source couvre ce sujet·Source originale ↗·

HubSpot a intégré en 2024 et 2025 un écosystème d'agents IA autonomes, baptisé Breeze, directement dans sa plateforme CRM utilisée par plus de 288 000 clients. Lancé officiellement lors de l'INBOUND 2024 puis enrichi jusqu'en 2026, Breeze se décompose en trois couches : un assistant conversationnel généraliste (Breeze Assistant), des agents spécialisés par fonction (Breeze Agents), et plus de 80 fonctionnalités IA intégrées comme l'AI Blog Writer, le Content Remix ou le scoring prédictif de leads. Parmi ces agents, le Prospecting Agent surveille les comptes cibles, détecte les signaux d'intention d'achat et rédige des emails personnalisés en autonomie, déjà adopté par plus de 10 000 clients. Un Customer Agent prend en charge le support client de bout en bout. Ces agents se configurent en quelques heures et restent traçables et contrôlables par les équipes.

L'impact est mesurable : selon une enquête interne HubSpot, 72 % des startups utilisant ces outils constatent une amélioration de l'up-sell et du cross-sell, et 37 % observent une baisse significative de leur coût d'acquisition client. Le Prospecting Agent permettrait de presque doubler le volume de rendez-vous qualifiés. Au-delà des chiffres, le changement de paradigme est structurel : les équipes marketing et commerciales passent de l'exécution manuelle de tâches répétitives à une supervision stratégique, pendant que les agents gèrent la prospection, la création de contenu et le support. Pour les PME et startups B2B, l'enjeu est direct, automatiser des workflows complets sans recruter, avec une cohérence de données garantie par le CRM natif.

Ce virage s'inscrit dans un contexte où le comportement des acheteurs a profondément changé : plus de six recherches sur dix ne génèrent désormais aucun clic, les réponses étant fournies directement par des assistants IA ou des extraits enrichis dans les moteurs de recherche. Les tunnels de conversion classiques, fondés sur des scénarios "si X alors Y", montrent leurs limites face à des parcours d'achat de plus en plus fragmentés et imprévisibles. HubSpot répond à cette rupture en positionnant Breeze comme une couche d'intelligence unifiée, appuyée sur les données CRM de chaque entreprise, ce qui la différencie des solutions IA génériques. La concurrence avec Salesforce Einstein, Microsoft Dynamics ou des outils comme Clay s'intensifie, et la capacité à proposer des agents prêts à l'emploi, sans développement sur mesure, devient un avantage décisif pour capter les équipes RevOps des entreprises de taille intermédiaire.

Impact France/UE

Les PME et startups B2B françaises utilisant HubSpot peuvent automatiser leur prospection et support client via Breeze sans développement sur mesure.

À lire aussi

Pourquoi des entreprises comme Apple misent sur des agents IA aux capacités bridées
1AI News 

Pourquoi des entreprises comme Apple misent sur des agents IA aux capacités bridées

Apple, Qualcomm et d'autres acteurs majeurs de l'industrie technologique développent une nouvelle génération d'assistants IA capables d'agir de manière autonome au sein des applications, réserver des services, publier du contenu, naviguer dans des flux complexes. Lors d'une phase bêta privée, un de ces systèmes agentiques a ainsi parcouru l'intégralité d'un tunnel de paiement dans une application avant de s'arrêter net à l'écran de confirmation, attendant le feu vert de l'utilisateur. Ces agents ne sont pas conçus pour agir librement : ils intègrent des points de validation obligatoires, notamment pour toute action sensible liée aux paiements, aux modifications de compte ou aux publications. Les fournisseurs de services de paiement sont déjà en discussion pour intégrer leurs systèmes d'authentification sécurisée directement dans ces flux agentiques, bien que ces dispositifs soient encore en cours de développement. Ce modèle dit "human-in-the-loop", où l'agent prépare l'action mais laisse la décision finale à l'humain, répond à un enjeu concret : à mesure que l'IA gagne en capacité d'action, les risques d'erreur se transforment en risques financiers ou de fuite de données. Pour les utilisateurs grand public, une réservation mal déclenchée ou une transaction non souhaitée peut avoir des conséquences immédiates. Les entreprises tentent donc de limiter le périmètre d'action de ces agents : plutôt que de leur donner un accès total aux applications et aux données, elles définissent précisément quels services l'IA peut toucher, dans quelles conditions, et avec quels droits. Sur l'appareil, le traitement local des données vise également à éviter que des informations sensibles soient transmises vers des serveurs externes. Le débat sur la gouvernance des IA agentiques s'était jusqu'ici concentré sur les usages entreprise, cybersécurité, automatisation à grande échelle, conformité réglementaire. Le déploiement grand public introduit une dimension différente : des millions d'utilisateurs, souvent peu familiers des risques, interagissant avec des systèmes capables d'engager des dépenses ou de modifier des comptes en quelques secondes. Apple, dont les travaux de recherche ont exploré des mécanismes de pause avant toute action non explicitement demandée, semble vouloir établir un standard : des environnements contrôlés où l'autonomie de l'agent est réelle mais bornée. Dans le contexte du règlement européen sur l'IA, qui entre progressivement en application en 2026, cette architecture "agentique avec garde-fous" pourrait s'imposer comme la norme par défaut pour tout acteur souhaitant déployer ces technologies auprès du grand public.

UEL'architecture 'agentique avec garde-fous' pourrait s'imposer comme norme de conformité sous le règlement européen sur l'IA, qui entre progressivement en application en 2026, imposant des contraintes concrètes aux acteurs déployant des agents IA auprès du grand public en Europe.

OutilsOpinion
1 source
Sprinklr muscle son IA pour les équipes marketing et service client
2Le Big Data 

Sprinklr muscle son IA pour les équipes marketing et service client

Sprinklr a dévoilé sa mise à jour Printemps 2026, une refonte significative de sa plateforme unifiée destinée aux équipes marketing et service client. Au cœur de cette version, l'éditeur américain mise sur des agents autonomes dotés d'un système de validation par tests et de journaux détaillés, permettant aux entreprises de comprendre précisément le comportement de chaque agent déployé. Le Copilote Agent est également renforcé : il intervient désormais en temps réel pour formuler des recommandations ciblées sur des indicateurs opérationnels comme la résolution au premier contact. En parallèle, le Copilote Marketing offre une lecture instantanée des performances de campagne, tandis qu'un copilote dédié aux retours clients transforme les données brutes en insights directement exploitables. L'intégration avec TikTok et Canva vient compléter l'arsenal des équipes créatives, facilitant la production de contenus dans le respect des règles de marque. Cette mise à jour répond à une attente critique des grandes organisations : déployer l'IA à grande échelle sans perdre le contrôle ni la lisibilité sur ce qu'elle produit. Karthik Suri, Chief Product Officer de Sprinklr, formule clairement l'enjeu : l'IA doit non seulement générer des résultats mesurables, mais aussi inspirer confiance. En rendant les agents testables, ajustables et traçables via une interface sans code baptisée AI+ Studio, Sprinklr abaisse la barrière technique pour les équipes métier tout en renforçant la gouvernance. Les profils clients unifiés, qui agrègent les données issues de multiples canaux dans une vue consolidée, réduisent la fragmentation informationnelle sans multiplier les outils. L'ensemble de la chaîne analytique est également revue : les signaux collectés sont filtrés et enrichis par l'IA générative, ce qui limite le bruit et améliore la pertinence des informations remontées aux équipes. Sprinklr occupe une position établie sur ce marché, figurant dans le Magic Quadrant de Gartner sur la Voix du Client, ce qui lui confère une crédibilité auprès des grands comptes cherchant à consolider leurs outils d'expérience client. La tendance de fond est claire : après des années de promesses autour de l'IA générative, les entreprises exigent désormais des résultats vérifiables et des mécanismes de contrôle robustes. Sprinklr répond à cette maturité du marché en positionnant ses agents non comme des boîtes noires, mais comme des briques pilotables et auditables. La prochaine étape sera de démontrer, chiffres à l'appui, que ces copilotes améliorent effectivement les taux de résolution et réduisent les coûts opérationnels, deux métriques sur lesquelles les directions achats des grandes entreprises attendent des preuves concrètes avant tout déploiement à grande échelle.

UELes grandes entreprises européennes utilisant Sprinklr pour leur service client peuvent évaluer ces nouvelles fonctionnalités d'agents autonomes et de gouvernance IA pour améliorer leurs opérations marketing et support.

OutilsOutil
1 source
Guide de code complet sur NVIDIA KVPress : inférence LLM à contexte long et compression du cache KV
3MarkTechPost 

Guide de code complet sur NVIDIA KVPress : inférence LLM à contexte long et compression du cache KV

NVIDIA a publié KVPress, une bibliothèque open source conçue pour compresser le cache clé-valeur (KV cache) des grands modèles de langage et réduire drastiquement leur consommation mémoire lors des inférences sur de longs contextes. Un tutoriel complet publié récemment par des ingénieurs en IA illustre son fonctionnement concret à travers une implémentation pas-à-pas exécutable sur Google Colab. L'exemple s'appuie sur le modèle Qwen2.5-1.5B-Instruct de Qwen, chargé en quantification 4 bits via la bibliothèque BitsAndBytes, et fait appel à la version 0.4.0 de KVPress. Deux stratégies de compression sont comparées : ExpectedAttentionPress, qui estime l'importance des tokens en fonction de l'attention attendue, et KnormPress, qui s'appuie sur la norme des vecteurs K pour éliminer les entrées peu pertinentes. Le pipeline génère un corpus synthétique long, pose des questions ciblées sur ce corpus, puis mesure les écarts de performance et d'empreinte mémoire entre la génération standard et les différentes configurations compressées. L'enjeu est considérable pour l'industrie du traitement du langage naturel. Le KV cache est le principal goulot d'étranglement mémoire lors de l'inférence sur de longs contextes : chaque token généré alimente un cache qui grossit linéairement, rendant les fenêtres de 32 000, 128 000 voire un million de tokens extrêmement coûteuses en VRAM. KVPress permet de ne conserver dans ce cache que les entrées jugées les plus informatives, en supprimant dynamiquement les tokens à faible contribution. Pour les développeurs déployant des applications d'analyse de documents, de recherche d'information ou d'agents conversationnels à mémoire longue, cette compression peut rendre viables des scénarios qui nécessiteraient sinon du matériel de classe A100 ou H100. La possibilité de faire tourner ces expériences sur Colab, avec une simple GPU grand public, illustre bien la baisse de barrière à l'entrée que KVPress ambitionne d'offrir. La gestion du KV cache est devenue l'un des fronts les plus actifs de la recherche en inférence LLM depuis que les fenêtres contextuelles ont explosé en 2023-2024. Des techniques comme Sliding Window Attention, PagedAttention (à la base de vLLM) ou les approches de quantification du cache ont émergé pour répondre à cette pression. NVIDIA, en proposant KVPress comme couche d'abstraction modulaire compatible avec le pipeline Hugging Face Transformers, cherche à standardiser l'accès à ces optimisations pour un public plus large que les seules équipes d'infrastructure. La prochaine étape naturelle sera d'évaluer ces stratégies sur des modèles de plus grande taille et sur des benchmarks de rétention d'information à longue portée, pour quantifier précisément le compromis entre taux de compression et fidélité des réponses dans des cas d'usage de production.

OutilsTuto
1 source
OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus
4VentureBeat AI 

OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus

OpenAI a lancé un nouveau palier d'abonnement à 100 dollars par mois pour ChatGPT, baptisé ChatGPT Pro, ciblant explicitement les développeurs et les "vibe coders", ces utilisateurs qui construisent des logiciels en langage naturel avec l'aide de l'IA. Cette offre se positionne entre le plan Plus à 20 dollars et le plan Pro existant à 200 dollars, et son argument principal est simple : elle offre cinq fois plus d'utilisation de Codex, l'environnement de développement assisté par IA d'OpenAI, par rapport au plan Plus. Sam Altman, PDG et co-fondateur d'OpenAI, a annoncé le lancement sur X en évoquant une "très forte demande". Concrètement, le plan à 100 dollars permet par exemple d'envoyer entre 300 et 1 500 messages locaux avec le modèle GPT-5.3-Codex toutes les cinq heures, contre 45 à 225 pour le plan Plus, et d'effectuer entre 50 et 400 tâches cloud sur la même fenêtre, contre 10 à 60. Les revues de code passent également de 10 à 25 pull requests par semaine à 100 à 250. Le plan à 200 dollars offre quant à lui le double du plan à 100 dollars, soit dix fois les limites du Plus. Ce lancement signale une montée en puissance d'OpenAI sur le segment du développement logiciel assisté, un marché devenu stratégique. En introduisant un palier intermédiaire, l'entreprise cherche à capter les développeurs qui trouvaient le plan Plus trop limité sans vouloir payer 200 dollars. La décision est toutefois ambiguë : OpenAI a simultanément annoncé un "rééquilibrage" de l'utilisation de Codex pour les abonnés Plus, réduisant les sessions longues au profit de sessions plus courtes et distribuées dans la semaine, ce qui revient de facto à restreindre les usages intensifs des utilisateurs à 20 dollars, les incitant à passer à la formule supérieure. Le contexte concurrentiel explique en grande partie cette accélération. Anthropic, principal rival d'OpenAI, a récemment révélé un chiffre d'affaires annualisé dépassant 30 milliards de dollars, devançant les 24 à 25 milliards estimés d'OpenAI. Cette croissance est portée en grande partie par l'adoption massive de Claude Code et Claude Cowork, des outils de développement assisté par IA qui gagnent rapidement du terrain auprès des équipes techniques. OpenAI, qui a largement contribué à populariser l'IA générative, se retrouve ainsi à devoir défendre son leadership sur un segment qu'il a pourtant contribué à inventer. La guerre des abonnements pour coder avec l'IA ne fait que commencer, avec des acteurs comme Google, GitHub Copilot et Cursor également dans la course.

UELes développeurs européens disposent d'un nouveau palier intermédiaire à 100$/mois pour accéder à Codex avec des limites 5x supérieures au plan Plus, une option concrètement utilisable par les équipes techniques en France et en Europe.

OutilsOutil
1 source