Aller au contenu principal
Codex propose désormais une tarification plus flexible pour les équipes
OutilsOpenAI Blog9h

Codex propose désormais une tarification plus flexible pour les équipes

1 source couvre ce sujet·Source originale ↗·

OpenAI a annoncé l'ajout d'une option de facturation à l'usage pour Codex, son agent de programmation, disponible désormais pour les abonnés ChatGPT Business et Enterprise. Ce modèle tarifaire vient compléter les formules d'abonnement existantes et permet aux équipes de ne payer que ce qu'elles consomment réellement, sans engagement forfaitaire fixe.

Ce changement facilite concrètement l'adoption de Codex dans les entreprises qui hésitaient à s'engager sur un abonnement avant d'évaluer leur usage réel. Les équipes de développement peuvent désormais tester l'outil à petite échelle, mesurer le retour sur investissement, puis augmenter progressivement leur consommation sans friction tarifaire. C'est particulièrement pertinent pour les grandes organisations où les déploiements se font par étapes et nécessitent des validations budgétaires successives.

Codex s'inscrit dans la stratégie d'OpenAI pour conquérir le marché des outils de développement, en concurrence directe avec GitHub Copilot (Microsoft), Cursor et Claude d'Anthropic. La tarification à l'usage est devenue un standard dans ce secteur, les entreprises préférant une corrélation directe entre coût et valeur produite. Cette flexibilité tarifaire devrait accélérer la pénétration de Codex dans les équipes techniques enterprise, segment où la friction à l'adoption reste le principal frein.

Impact France/UE

Les équipes de développement européennes abonnées à ChatGPT Business ou Enterprise peuvent désormais adopter Codex sans engagement forfaitaire, réduisant la friction budgétaire pour les DSI soumis à des cycles de validation stricts.

À lire aussi

Google Vids s'enrichit de l'IA avec les modèles Veo et Lyria, et des avatars pilotables
1Ars Technica AI 

Google Vids s'enrichit de l'IA avec les modèles Veo et Lyria, et des avatars pilotables

Google a annoncé une mise à jour majeure de son outil de création vidéo Google Vids, intégrant ses derniers modèles d'IA générative, dont Veo 3.1 pour la vidéo et Lyria pour l'audio. Le modèle Veo 3.1, déployé en premier sur Gemini fin 2025, promet des améliorations significatives en termes de réalisme et de cohérence visuelle. L'outil propose désormais des avatars IA directables — des personnages numériques contrôlables qui peuvent apparaître dans les vidéos générées — ainsi qu'une intégration facilitée avec YouTube pour le partage de contenus. Les vidéos produites durent huit secondes et sont rendues en résolution 720p. L'accès à ces fonctionnalités reste plafonné selon le niveau d'abonnement : les utilisateurs sans abonnement IA n'obtiennent que 10 générations vidéo par mois, les abonnés AI Pro en ont 50, tandis que les clients du plan AI Ultra — personnel ou entreprise, le plus coûteux de Google — bénéficient de 1 000 générations mensuelles. Ce modèle économique positionne Google Vids comme un outil grand public et professionnel à la fois, ciblant des usages concrets comme la création de flyers animés, de vidéos de présentation commerciale ou de cartes de vœux vidéo. Cette mise à jour intervient dans un contexte de vive concurrence sur le marché de la vidéo générative, où OpenAI a récemment restreint ses ambitions dans ce domaine. Google, au contraire, accélère le déploiement de Veo dans ses produits grand public, après l'avoir d'abord présenté comme un outil destiné aux cinéastes professionnels. Le glissement vers des cas d'usage plus accessibles illustre la stratégie de Google pour monétiser ses capacités d'IA via Google One et Workspace, tout en cherchant à ancrer ses modèles dans les habitudes quotidiennes des utilisateurs face à des concurrents comme Adobe, Canva ou Runway.

UELes utilisateurs européens de Google Workspace et Google One peuvent accéder aux nouvelles fonctionnalités vidéo de Google Vids selon leur niveau d'abonnement, avec des implications tarifaires directes pour les professionnels et entreprises.

OutilsOutil
1 source
Passer de ChatGPT à Gemini sans repartir de zéro
2ZDNET AI 

Passer de ChatGPT à Gemini sans repartir de zéro

Google a lancé une fonctionnalité permettant aux utilisateurs de ChatGPT de migrer leur historique de conversations, leurs préférences et leurs souvenirs personnalisés directement vers Gemini, sans repartir de zéro. Concrètement, la procédure passe par les paramètres de Gemini, où une option d'importation permet de connecter son compte OpenAI et de transférer les données stockées, y compris les instructions personnalisées et les mémos que l'assistant avait mémorisés au fil du temps. Ce type de portabilité représente un changement significatif dans la manière dont les assistants IA cherchent à fidéliser ou à attirer des utilisateurs. Jusqu'ici, changer d'outil signifiait tout réapprendre à son assistant : habitudes de travail, ton préféré, contexte professionnel. En supprimant ce frein, Google abaisse concrètement le coût du changement pour les millions d'utilisateurs de ChatGPT, notamment les abonnés Plus qui ont construit une base de mémoire sur plusieurs mois. La bataille pour la rétention des utilisateurs d'IA s'intensifie alors qu'OpenAI, Google et Anthropic se disputent les mêmes professionnels et créateurs. Google avait déjà intégré Gemini dans Workspace, mais la portabilité des données personnalisées constitue un argument nouveau. Cette fonctionnalité pourrait aussi pousser OpenAI à proposer des options d'export plus complètes, et alimenter le débat réglementaire autour de l'interopérabilité des données entre plateformes d'IA.

UELa portabilité des données entre plateformes d'IA s'inscrit dans les débats réglementaires européens sur l'interopérabilité, notamment dans le cadre du Digital Markets Act et de l'AI Act.

💬 Google qui joue la carte de la portabilité, c'est un coup bien pensé. Ça fait des mois qu'on sait que la vraie valeur d'un assistant, c'est pas le modèle, c'est tout ce qu'on lui a appris sur nous. Reste à voir si les souvenirs importés survivent vraiment au transfert, ou si c'est juste un argument marketing pour faire parler d'un Gemini qui peine encore à convaincre sans béquilles.

OutilsOutil
1 source
ChatGPT arrive dans Apple CarPlay ! Voici comment l’IA va changer vos trajets
3Le Big Data 

ChatGPT arrive dans Apple CarPlay ! Voici comment l’IA va changer vos trajets

OpenAI a lancé le 2 avril 2026 l'intégration de ChatGPT dans Apple CarPlay, rendue possible par la mise à jour iOS 26.4. Cette nouvelle catégorie d'applications, baptisée "assistants conversationnels vocaux", ouvre pour la première fois la plateforme automobile d'Apple à des IA tierces — et OpenAI en est le premier bénéficiaire. Concrètement, ChatGPT s'affiche comme une application standard dans l'interface CarPlay via l'iPhone connecté. Une fois lancée, l'interaction est entièrement vocale : aucun texte, aucune image n'apparaît à l'écran. Le conducteur pose ses questions à voix haute et reçoit des réponses audio, qu'il s'agisse de brainstorming, de rédaction, de résumés ou de simples conversations. Le chatbot ne contrôle aucune fonction du véhicule et n'interfère pas avec Siri, qui conserve l'accès aux réglages système et commandes natives d'Apple. Cette intégration marque un tournant dans la manière dont les intelligences artificielles génératives s'imposent dans des environnements jusqu'ici verrouillés. Apple, réputée pour la rigidité de son écosystème, accepte pour la première fois qu'un assistant conversationnel concurrent à Siri soit accessible nativement depuis le tableau de bord. Pour les utilisateurs, cela signifie un accès à une IA de haut niveau pendant les trajets longs ou les embouteillages, sans manipulation de l'écran. Pour l'industrie, c'est un signal fort : les assistants vocaux génériques, capables de raisonner et de produire du contenu, commencent à supplanter les assistants à commandes limitées dans les usages quotidiens, y compris en mobilité. Cette ouverture d'Apple intervient dans un contexte de compétition accrue entre les grandes plateformes pour contrôler l'interface humain-machine dans l'habitacle. Google intègre depuis plusieurs années Gemini dans Android Auto, et les constructeurs automobiles multiplient les partenariats avec des IA (Mercedes avec ChatGPT, Volkswagen avec son propre assistant). En assouplissant ses règles pour iOS 26.4, Apple répond à une pression croissante des utilisateurs et des développeurs. Des limites subsistent toutefois : ChatGPT dans CarPlay ne dispose pas de mot de réveil, ce qui oblige le conducteur à lancer manuellement l'application — une friction notable en conduite. Un contournement existe via Siri, mais reste peu intuitif. Selon les rumeurs circulant autour d'iOS 27, Apple pourrait permettre de définir son assistant vocal par défaut, ce qui changerait radicalement la donne pour OpenAI comme pour ses concurrents.

UELes conducteurs européens utilisant un iPhone et Apple CarPlay peuvent désormais accéder à ChatGPT en mode vocal durant leurs trajets, sans action réglementaire spécifique à la France ou à l'UE.

💬 Apple qui laisse un concurrent direct de Siri entrer dans CarPlay, c'est du jamais vu. La friction reste réelle (pas de mot de réveil, donc tu lances l'appli toi-même en conduisant), mais c'est la première brèche dans un écosystème qui était verrouillé à double tour. Si iOS 27 permet de définir son assistant vocal par défaut, là ça change vraiment quelque chose pour tout le monde.

OutilsOutil
1 source
Strands Evals : simuler des utilisateurs réalistes pour évaluer les agents IA multi-tours
4AWS ML Blog 

Strands Evals : simuler des utilisateurs réalistes pour évaluer les agents IA multi-tours

Amazon a publié dans son SDK Strands Evaluations une fonctionnalité appelée ActorSimulator, destinée à automatiser l'évaluation des agents IA dans des conversations multi-tours. Contrairement aux tests à tour unique — où l'on fournit une entrée, on collecte une sortie et on juge le résultat — les interactions réelles s'étendent sur plusieurs échanges : l'utilisateur pose des questions de suivi, change de direction ou exprime sa frustration face à des réponses incomplètes. Un assistant de voyage qui gère correctement "Réserve-moi un vol pour Paris" peut échouer lorsque le même utilisateur enchaîne avec "En fait, peut-on regarder les trains ?" ou "Qu'en est-il des hôtels près de la tour Eiffel ?". L'ActorSimulator permet de générer des utilisateurs simulés avec des personas structurés et des objectifs définis, puis de les laisser converser naturellement avec un agent sur plusieurs tours, à grande échelle. L'enjeu est considérable pour les équipes qui développent des agents conversationnels en production. Conduire manuellement des centaines de conversations multi-tours à chaque modification d'un agent est insoutenable, et les jeux de données statiques d'entrées/sorties ne capturent pas la dynamique réelle : la "bonne" prochaine question de l'utilisateur dépend entièrement de ce que l'agent vient de répondre. Les approches artisanales consistant à demander à un LLM de "jouer l'utilisateur" sans définition structurée du persona produisent des résultats incohérents d'une exécution à l'autre, rendant impossible la détection fiable de régressions. L'ActorSimulator répond à ce problème en combinant le réalisme d'une conversation humaine avec la reproductibilité et l'échelle des tests automatisés. Ce développement s'inscrit dans une tendance plus large de l'industrie à professionnaliser l'évaluation des agents IA, à mesure que ceux-ci quittent les démos pour entrer dans des usages critiques. AWS positionne Strands Evaluations comme une infrastructure d'évaluation systématique, comparable aux simulateurs de vol ou aux moteurs de jeu qui testent des millions de comportements avant déploiement. La difficulté fondamentale réside dans la croissance combinatoire des chemins de conversation : plus les capacités d'un agent s'étoffent, plus le nombre de scénarios possibles explose au-delà de ce que des équipes humaines peuvent explorer. En permettant la simulation structurée de personas avec des objectifs explicites et un suivi de progression, Strands Evals vise à offrir aux équipes d'évaluation un outil comparable à ce que les testeurs de logiciels ont dans d'autres disciplines d'ingénierie, avec des résultats comparables dans le temps.

OutilsOutil
1 source