Aller au contenu principal
OutilsBen's Bites2h

Codex gagne du terrain

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI accélère le déploiement de Codex auprès du grand public en annonçant plusieurs évolutions majeures visant à rendre l'outil accessible aux utilisateurs non techniques. La plateforme permet désormais d'importer des paramètres, plugins, agents et configurations de projets depuis des outils concurrents comme Claude, facilitant la migration pour ceux qui souhaitent changer d'environnement. Des améliorations concrètes ont également été déployées pour les tâches du quotidien : création de présentations et de feuilles de calcul, interface plus intuitive, et une intégration iMessage non officielle qui permet d'interagir avec Codex directement depuis son téléphone via un fil de discussion persistant. Par ailleurs, xAI a lancé Grok 4.3 dans son API publique : le modèle supporte un contexte d'un million de tokens, accepte texte et images en entrée, intègre des capacités de raisonnement et dispose d'une base de connaissance arrêtée à décembre 2025. Son tarif, fixé à 1,25 dollar pour un million de tokens en entrée et 2,50 dollars en sortie, le positionne comme une alternative nettement moins chère que Claude Sonnet 4.6 pour des performances comparables.

Ces mouvements signalent une intensification de la concurrence dans le segment des assistants de développement et de productivité alimentés par l'IA. En ciblant explicitement les non-développeurs, OpenAI cherche à élargir considérablement son marché potentiel pour Codex, qui était jusqu'ici perçu comme un outil avant tout destiné aux ingénieurs. La guerre des prix entre modèles LLM s'accentue également : la tarification agressive de Grok 4.3 par xAI force les autres acteurs à justifier leurs propres coûts, ce qui devrait bénéficier aux entreprises et développeurs cherchant à réduire leurs dépenses d'infrastructure IA. Enfin, la société Entire, fondée par l'ex-PDG de GitHub, a dévoilé deux outils complémentaires : git-sync, un utilitaire pour synchroniser des dépôts git entre sources sans clonage local, et Dispatches, une fonctionnalité générant automatiquement des notes de version à partir des commits et sessions d'agents par dépôt et plage de dates.

Codex a été lancé par OpenAI comme successeur de GitHub Copilot dans une logique d'agent de développement autonome, mais la plateforme peine encore à s'imposer comme outil universel face à des concurrents comme Claude ou Cursor. L'ouverture à des profils non techniques représente un pivot stratégique notable, dans un contexte où la frontière entre outils de développement et outils de productivité généraliste s'efface progressivement. Du côté des benchmarks, un signe d'avertissement : Base44 indique dans son outil Frustration Meter qu'Opus 4.7 génère 43 % de frustration en plus qu'Opus 4.6, suggérant que la course aux capacités ne se traduit pas toujours par une meilleure expérience utilisateur. Les semaines à venir diront si Codex réussit son pari d'élargissement, et si Grok 4.3 parvient à s'imposer comme le modèle rapport qualité-prix de référence.

Impact France/UE

La guerre des prix entre LLM (Grok 4.3 à 1,25 $/M tokens en entrée) devrait permettre aux développeurs et entreprises européens de réduire sensiblement leurs coûts d'infrastructure IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Ars Technica AI 

Adobe amène Creative Cloud sur le terrain de Claude Code

Adobe vient de franchir une étape importante dans l'évolution de Creative Cloud en lançant Firefly AI Assistant, une interface conversationnelle capable de gérer des projets complexes et multi-modaux à travers plusieurs applications simultanément. Contrairement aux fonctionnalités d'IA ponctuelles déjà intégrées dans Photoshop, Illustrator ou Premiere Pro, ce nouvel outil fonctionne comme un chef d'orchestre entre les différentes applications de la suite, en interagissant régulièrement avec l'utilisateur pour poser des questions ou proposer des ajustements en cours de tâche. Les utilisateurs peuvent intervenir à tout moment pour apporter des précisions, un peu à la manière des outils de programmation assistée par IA comme Claude Code. L'outil répond à deux besoins distincts : offrir aux créatifs expérimentés un moyen efficace de déléguer les tâches répétitives et chronophages qui traversent plusieurs logiciels, tout en abaissant la barrière d'entrée pour les utilisateurs occasionnels ou débutants. Adobe reconnaît que la complexité croissante de ses outils a jusqu'ici "élargi le fossé entre l'idée et la réalisation", une formulation qui souligne un problème structurel dans l'expérience utilisateur de la suite Creative Cloud. Firefly AI Assistant entend combler cet écart en rendant l'orchestration de workflows multi-applications accessible via une simple conversation. Adobe proposait déjà des interfaces de chat dans certaines applications individuelles ainsi qu'un accès à des modèles génératifs via la marque Firefly. Mais la nouveauté réside dans la capacité à orchestrer des tâches à travers l'ensemble de l'écosystème Creative Cloud, et non plus application par application. Ce lancement s'inscrit dans une course industrielle où Microsoft, Google et de nombreuses startups cherchent à transformer leurs suites logicielles en agents autonomes capables d'exécuter des projets de bout en bout. Pour Adobe, dont le modèle repose sur des abonnements Creative Cloud à plusieurs dizaines d'euros par mois, l'enjeu est de justifier la valeur de la plateforme dans un contexte où des concurrents spécialisés en IA générative gagnent du terrain.

UELes professionnels créatifs français et européens abonnés à Creative Cloud pourront déléguer des workflows multi-applications via une interface conversationnelle, réduisant la barrière d'entrée à l'orchestration de projets complexes.

OutilsOutil
1 source
Ce chatbot axé sur la confidentialité gagne du terrain — voici pourquoi et comment l'essayer
2ZDNET AI 

Ce chatbot axé sur la confidentialité gagne du terrain — voici pourquoi et comment l'essayer

Duck.ai, le service de chatbot lancé par DuckDuckGo, connaît une montée en popularité significative parmi les utilisateurs soucieux de leur vie privée. Proposant un accès gratuit à plusieurs modèles d'IA — dont GPT-4o mini d'OpenAI, Claude d'Anthropic et Llama de Meta — la plateforme se distingue par une promesse forte : aucune conversation n'est stockée, aucune donnée n'est utilisée pour entraîner les modèles, et les échanges sont anonymisés avant d'être transmis aux fournisseurs tiers. L'attrait de Duck.ai répond à une préoccupation croissante autour de la collecte de données par les grandes plateformes d'IA. Contrairement à ChatGPT ou Gemini, qui peuvent utiliser les conversations pour améliorer leurs modèles sauf opt-out explicite, Duck.ai intègre la protection de la vie privée par défaut. Pour les professionnels, journalistes ou particuliers qui échangent des informations sensibles, cette garantie représente une différence substantielle dans le choix de leur outil quotidien. Ce succès s'inscrit dans un contexte de méfiance grandissante envers les géants de la tech après plusieurs controverses liées à la gestion des données personnelles par des services d'IA. DuckDuckGo, moteur de recherche fondé en 2008 sur le principe du non-pistage, capitalise ici sur une réputation établie de longue date. Avec l'intensification du débat réglementaire en Europe autour du RGPD appliqué à l'IA générative, des alternatives axées sur la confidentialité pourraient continuer à gagner du terrain face aux acteurs dominants.

UEDans un contexte de renforcement du RGPD appliqué à l'IA générative, Duck.ai représente une alternative conforme par défaut pour les professionnels et particuliers européens qui échangent des données sensibles via des chatbots.

OutilsOutil
1 source
PME : gagnez du temps avec l’IA intégrée de Salesforce
3Le Big Data 

PME : gagnez du temps avec l’IA intégrée de Salesforce

Salesforce a intégré Agentforce directement dans ses offres Starter et Pro Suite, les versions destinées aux petites et moyennes entreprises, sans surcoût ni configuration technique complexe. Cette mise à jour déploie un agent conversationnel appelé Employee Agent, capable de générer en quelques secondes une synthèse complète de l'historique d'un client, de rédiger des emails personnalisés à partir des échanges passés et d'automatiser les tâches répétitives de saisie et de recherche. La fonctionnalité s'appuie sur une plateforme unique qui réunit ventes, service client et marketing, sans nécessiter de manipulation externe ni de transfert de données vers des outils tiers. Pour les équipes de PME, où un même collaborateur jongle souvent entre prospection, support client et communication, le gain est immédiat et concret. Préparer un rendez-vous ne nécessite plus de fouiller des dizaines d'onglets : un simple clic affiche l'intégralité du contexte client. Michael Clark, responsable des revenus chez Asymbl, le résume directement : avant, son équipe passait un temps considérable à relire d'anciennes notes ; désormais, les commerciaux ouvrent l'interface, demandent le contexte et sont prêts à discuter. La productivité gagnée sur ces tâches à faible valeur ajoutée se redéploie vers les interactions humaines qui font la différence dans une petite structure. Les données clients restent par ailleurs dans un environnement fermé et sécurisé, sans transfert vers des solutions tierces, ce qui lève l'un des principaux freins à l'adoption de l'IA en entreprise. Ce lancement s'inscrit dans un contexte bien documenté : neuf dirigeants de PME sur dix reconnaissent les bénéfices de l'intelligence artificielle, mais près de la moitié se déclarent submergés par la multiplication des outils et bloqués par les coûts ou la complexité technique. Salesforce tente de répondre précisément à ces obstacles en proposant une intégration transparente, sans couche supplémentaire à paramétrer. La stratégie reflète un mouvement plus large dans l'industrie du CRM : après avoir outillé les grands comptes, les éditeurs se disputent désormais le marché des petites structures, où la bataille de l'adoption se joue sur la simplicité et la transparence tarifaire. Pour Salesforce, Agentforce représente aussi un levier de fidélisation de cette clientèle à fort potentiel, en rendant l'IA indissociable du flux de travail quotidien dès les premiers abonnements.

UELes PME françaises et européennes abonnées aux offres Starter ou Pro Suite peuvent désormais accéder à des fonctionnalités d'IA conversationnelle sans surcoût ni configuration technique, réduisant potentiellement les freins à l'adoption de l'IA dans le tissu entrepreneurial européen.

OutilsOutil
1 source
GitHub Copilot passe à une facturation à l’usage à partir du 1er juin
4Next INpact 

GitHub Copilot passe à une facturation à l’usage à partir du 1er juin

GitHub a annoncé mardi 27 avril que son assistant de programmation Copilot basculera vers une facturation à l'usage à compter du 1er juin 2025. Le principe repose sur un système de "crédits IA" alloués selon l'abonnement souscrit : un Copilot Pro à 10 dollars par mois donnera accès à 1 000 crédits, tandis qu'un Copilot Pro+ à 39 dollars par mois en offrira 3 900. Une fois l'enveloppe épuisée, l'utilisateur devra acheter des crédits supplémentaires pour continuer à accéder aux modèles génératifs avancés. En parallèle, Microsoft a annoncé le déploiement de Copilot auprès des 743 000 employés d'Accenture, le plus grand déploiement externe jamais annoncé pour l'outil. Ce changement marque la fin d'un modèle hybride qui combinait abonnement fixe et quota de "requêtes premium", dans lequel GitHub absorbait une part croissante des coûts d'inférence. La plateforme l'admet sans détour : "une simple question posée via le chat et une session de codage autonome de plusieurs heures peuvent coûter le même prix à l'utilisateur", ce qui rend l'ancien système intenable. La complétion automatique et les suggestions de code restent disponibles sans consommer de crédits, ce qui protège les usages basiques. En revanche, les développeurs qui utilisent Copilot en mode agent, sur plusieurs fichiers en continu, verront leur facture augmenter sensiblement. GitHub aligne ainsi sa tarification sur celle d'Anthropic et d'OpenAI, adoptant une logique de facturation au token qui était jusqu'ici propre aux API brutes. Cette décision s'inscrit dans une série de signaux qui se sont accumulés ces dernières semaines. Le 21 avril, GitHub avait déjà suspendu les nouvelles souscriptions individuelles, officiellement pour mieux gérer la charge. La montée en puissance des agents de codage autonomes, capables de travailler pendant des heures sur une codebase entière, a profondément déséquilibré l'économie des abonnements forfaitaires. Ces agents consomment des volumes de tokens sans commune mesure avec un simple chat, et leur adoption rapide a rendu inévitable une révision du modèle économique. Pour GitHub et Microsoft, l'enjeu est aussi stratégique : maintenir la qualité de service face à une utilisation intensive tout en retrouvant une rentabilité sur un produit qui génère des coûts d'infrastructure considérables. Les prochains mois diront si les développeurs acceptent ce passage au compteur ou se tournent vers des alternatives comme Cursor ou Windsurf, qui n'ont pas encore fait le même virage.

UELes développeurs français et européens utilisant GitHub Copilot en mode agent devront revoir leur budget ou migrer vers des alternatives, leur facture pouvant augmenter sensiblement à partir du 1er juin 2025.

OutilsOutil
1 source