Aller au contenu principal
OutilsVentureBeat AI1h

OpenAI transforme sa soirée GPT-5.5 complète en un mois d'accès gratuit à Codex pour 8 000 développeurs

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a envoyé lundi un email surprise à plus de 8 000 développeurs ayant postulé pour sa soirée privée baptisée « GPT-5.5 on 5/5 », organisée le 5 mai à San Francisco de 17h55 à 20h55 heure du Pacifique. Incapable d'accueillir tout le monde dans ses locaux, l'entreprise a compensé en multipliant par dix les limites d'utilisation quotidiennes de Codex, son agent de programmation propulsé par IA, sur les comptes ChatGPT personnels des candidats, qu'ils aient été acceptés, mis sur liste d'attente ou refusés. Ce cadeau reste actif jusqu'au 5 juin. Sam Altman avait annoncé la surprise sur X quelques minutes avant l'envoi des emails, récoltant plus de 521 000 vues en quelques heures. La soirée elle-même, tenue dans un lieu gardé secret jusqu'à la confirmation des invitations, ne comportait aucune annonce produit : juste de la nourriture, des boissons, des goodies et une discussion informelle avec l'équipe derrière GPT-5.5.

Pour les développeurs, l'impact est concret et immédiat. Codex fonctionne sous des plafonds d'utilisation journaliers variables selon l'abonnement, et un multiplicateur de dix donne accès à un volume d'usage bien plus large pour prototyper, déboguer et livrer du code. GPT-5.5, le modèle qui alimente Codex, affiche selon OpenAI une latence par token comparable à GPT-4, mais à un niveau d'intelligence supérieur et avec significativement moins de tokens par tâche. Sur 31 jours, cette fenêtre d'accès élargi vise à transformer l'essai en habitude profonde : l'idée est que les développeurs qui travailleront pendant un mois entier avec Codex à plein régime hésiteront à revenir en arrière, et qu'une partie d'entre eux souscrira à un abonnement payant pour maintenir ce flux de travail après le 5 juin. Une question reste ouverte : ce bonus se cumule-t-il avec le multiplicateur x20 inclus dans l'abonnement Pro à 200 dollars par mois ? Selon un utilisateur ayant contacté le support OpenAI, la réponse serait non, le système applique la limite la plus haute, sans addition.

Cette opération s'inscrit dans une stratégie d'expansion agressive d'OpenAI sur le marché des outils de développement, où GitHub Copilot, Cursor et d'autres concurrents se disputent l'adoption quotidienne des ingénieurs. En inondant des milliers de développeurs d'un accès premium durant une période clé, OpenAI subventionne une adoption intensive plutôt que de laisser Codex se découvrir progressivement. La soirée du 5 mai comportait elle-même un élément de mise en scène produit : Altman a révélé que GPT-5.5 avait lui-même planifié l'événement, proposant la date, suggérant que les toasts soient portés par des humains et recommandant l'installation d'une boîte à suggestions pour le prochain modèle, ce qu'Altman a qualifié de « comportement émergent étrange ». Codex a également géré la sélection des invités, boucle logique dans une soirée conçue autant comme démonstration que comme célébration.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout
1Le Big Data 

Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout

OpenAI a annoncé le 16 avril 2026 une mise à jour majeure de Codex, son assistant de développement intégré à ChatGPT, transformant profondément ce qui était jusqu'alors un outil de génération de code en un agent capable d'interagir avec l'ensemble d'un environnement informatique. La nouveauté la plus spectaculaire est le mode "computer use" : Codex peut désormais s'exécuter en arrière-plan sur macOS, ouvrir des applications, naviguer, cliquer et saisir du texte via son propre curseur, exactement comme le ferait un utilisateur humain. Plusieurs instances peuvent tourner en parallèle sans interférer avec le travail en cours. S'y ajoutent un navigateur intégré permettant d'annoter des pages web pour guider l'agent, la génération et l'amélioration d'images via gpt-image-1, une fonction mémoire qui retient les préférences et habitudes de travail entre les sessions, ainsi que plus de 90 nouveaux plugins incluant Jira via Atlassian Rovo, CircleCI, GitLab Issues et la suite Microsoft. Codex gère également les commentaires GitHub, plusieurs onglets de terminal et les connexions SSH en accès anticipé. Cette mise à jour repositionne Codex comme un véritable agent de travail autonome, et non plus comme un simple copilote de code. Pour les développeurs, la capacité à tester des interfaces sans API, à itérer visuellement sur du front-end ou à orchestrer des tâches répétitives sans intervention manuelle représente un gain de productivité substantiel. La fonction mémoire va plus loin encore : Codex peut analyser des commentaires dans Google Docs, récupérer du contexte depuis Slack ou Notion, et produire une liste d'actions priorisées pour reprendre un projet là où il a été laissé. Sam Altman lui-même a déclaré que le mode computer use s'est révélé "encore plus utile que prévu" lors des démonstrations internes, soulignant l'ampleur du changement par rapport aux attentes initiales. Cette évolution s'inscrit dans une compétition directe avec Anthropic et son assistant Claude, clairement visé par le titre "Claude-Killer" employé dans la presse spécialisée. OpenAI cherche à consolider ChatGPT comme plateforme centrale du travail des développeurs, en absorbant des workflows qui nécessitaient jusqu'ici plusieurs outils distincts. La stratégie des plugins MCP et des intégrations tierces rappelle l'approche d'un système d'exploitation plutôt que d'un simple assistant IA. Le déploiement reste progressif : le mode computer use est limité à macOS dans un premier temps, certaines fonctions de personnalisation et de mémoire seront déployées graduellement pour les entreprises, et les utilisateurs européens et britanniques ainsi que les établissements éducatifs bénéficieront également de ces nouveautés selon un calendrier non précisé.

UELes utilisateurs européens et britanniques sont explicitement mentionnés comme futurs bénéficiaires des nouvelles fonctionnalités de Codex, mais selon un calendrier non encore précisé par OpenAI.

💬 Le "Claude-Killer", ok, le titre fait vendre. Ce qui m'intéresse vraiment, c'est la combinaison computer use plus mémoire persistante, parce que là on a un agent qui reprend le contexte d'une session à l'autre et clique dans tes apps sans passer par une API. Reste à voir si ça tient sur de vrais projets (pas juste des démos internes où Sam dit que c'est "encore mieux que prévu"), et côté Europe on attendra sagement un calendrier "non précisé".

OutilsOutil
1 source
RunPod Flash : un outil Python open source pour accélérer le développement IA sans conteneurs
2VentureBeat AI 

RunPod Flash : un outil Python open source pour accélérer le développement IA sans conteneurs

RunPod, la plateforme cloud spécialisée dans les GPU haute performance pour le développement IA, a lancé ce jeudi un nouvel outil open source baptisé RunPod Flash. Distribué sous licence MIT, cet outil Python vise à supprimer une contrainte jusqu'ici incontournable dans le développement serverless sur GPU : la conteneurisation Docker. Dans le cycle de développement traditionnel, un développeur devait écrire un Dockerfile, construire une image, la pousser vers un registre, puis attendre que l'environnement se déploie avant qu'une seule ligne de code puisse s'exécuter sur un GPU distant. Flash remplace ce processus par un moteur de build multiplateforme qui génère automatiquement un artefact Linux x86_64 depuis un Mac M-series, détecte la version Python locale, force les wheels binaires, et monte les dépendances directement à l'exécution sur la flotte serverless de RunPod. Le nouveau décorateur @Endpoint, pièce centrale de cette version GA, centralise la configuration de ce pipeline en un seul appel de fonction. L'impact concret est double. Pour les équipes de recherche, la suppression de ce que RunPod appelle la "taxe de packaging" réduit drastiquement les cycles d'itération : plus besoin de rebuilder et repousser une image à chaque modification de code. Pour les applications en production, Flash embarque des fonctionnalités de niveau entreprise, API HTTP avec load balancing basse latence, traitement par lots en file d'attente, stockage persistant multi-datacenter. L'outil permet également de construire des pipelines dits "polyglots" : un endpoint CPU bon marché peut prendre en charge le prétraitement des données avant de router automatiquement vers un GPU NVIDIA H100 ou B200 pour l'inférence. Cette architecture réduit aussi les "cold starts", ces délais à froid qui pénalisent les environnements serverless, en évitant d'initialiser de lourdes images conteneurisées à chaque requête. Derrière Flash se trouve une infrastructure réseau propriétaire SDN/CDN que RunPod a construite pour résoudre ce que son CTO Brennen Smith décrit comme le vrai problème du GPU cloud : non pas les processeurs eux-mêmes, mais le réseau et le stockage qui les relient. L'outil est explicitement conçu pour servir de substrat aux agents IA et assistants de code, Claude Code, Cursor, Cline sont cités nommément, leur permettant d'orchestrer et déployer du matériel distant de façon autonome. "Tout le monde parle d'IA agentique, mais il faut une colle solide pour que ces agents puissent réellement fonctionner", a déclaré Smith à VentureBeat. RunPod entre ainsi en compétition directe avec AWS Lambda et Modal sur le segment du serverless GPU, en pariant que la suppression de la friction de déploiement sera le facteur décisif pour les labs et équipes produit qui multiplient les expérimentations IA.

OutilsActu
1 source
3VentureBeat AI 

OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus

OpenAI a lancé un nouveau palier d'abonnement à 100 dollars par mois pour ChatGPT, baptisé ChatGPT Pro, ciblant explicitement les développeurs et les "vibe coders", ces utilisateurs qui construisent des logiciels en langage naturel avec l'aide de l'IA. Cette offre se positionne entre le plan Plus à 20 dollars et le plan Pro existant à 200 dollars, et son argument principal est simple : elle offre cinq fois plus d'utilisation de Codex, l'environnement de développement assisté par IA d'OpenAI, par rapport au plan Plus. Sam Altman, PDG et co-fondateur d'OpenAI, a annoncé le lancement sur X en évoquant une "très forte demande". Concrètement, le plan à 100 dollars permet par exemple d'envoyer entre 300 et 1 500 messages locaux avec le modèle GPT-5.3-Codex toutes les cinq heures, contre 45 à 225 pour le plan Plus, et d'effectuer entre 50 et 400 tâches cloud sur la même fenêtre, contre 10 à 60. Les revues de code passent également de 10 à 25 pull requests par semaine à 100 à 250. Le plan à 200 dollars offre quant à lui le double du plan à 100 dollars, soit dix fois les limites du Plus. Ce lancement signale une montée en puissance d'OpenAI sur le segment du développement logiciel assisté, un marché devenu stratégique. En introduisant un palier intermédiaire, l'entreprise cherche à capter les développeurs qui trouvaient le plan Plus trop limité sans vouloir payer 200 dollars. La décision est toutefois ambiguë : OpenAI a simultanément annoncé un "rééquilibrage" de l'utilisation de Codex pour les abonnés Plus, réduisant les sessions longues au profit de sessions plus courtes et distribuées dans la semaine, ce qui revient de facto à restreindre les usages intensifs des utilisateurs à 20 dollars, les incitant à passer à la formule supérieure. Le contexte concurrentiel explique en grande partie cette accélération. Anthropic, principal rival d'OpenAI, a récemment révélé un chiffre d'affaires annualisé dépassant 30 milliards de dollars, devançant les 24 à 25 milliards estimés d'OpenAI. Cette croissance est portée en grande partie par l'adoption massive de Claude Code et Claude Cowork, des outils de développement assisté par IA qui gagnent rapidement du terrain auprès des équipes techniques. OpenAI, qui a largement contribué à populariser l'IA générative, se retrouve ainsi à devoir défendre son leadership sur un segment qu'il a pourtant contribué à inventer. La guerre des abonnements pour coder avec l'IA ne fait que commencer, avec des acteurs comme Google, GitHub Copilot et Cursor également dans la course.

UELes développeurs européens disposent d'un nouveau palier intermédiaire à 100$/mois pour accéder à Codex avec des limites 5x supérieures au plan Plus, une option concrètement utilisable par les équipes techniques en France et en Europe.

OutilsOutil
1 source
OpenAI prépare Hermes pour ChatGPT : Le « tueur d’emplois » ultime ?
4Le Big Data 

OpenAI prépare Hermes pour ChatGPT : Le « tueur d’emplois » ultime ?

OpenAI travaille en secret sur une fonctionnalité majeure pour ChatGPT, baptisée en interne "Hermes". Les premières informations proviennent de captures d'écran issues de tests internes, diffusées le 21 avril 2026 par Tibor Blaho, un leaker reconnu pour la fiabilité de ses révélations sur OpenAI. D'après ces images, Hermes serait une plateforme complète dédiée aux agents IA, intégrant un outil de création appelé "Studio", des modèles de workflows prêts à l'emploi, ainsi qu'un système de planification. Les agents pourraient fonctionner 24h/24 et 7j/7, être déployés dans des services tiers comme Slack, et se voir attribuer des compétences, fichiers, instructions et mémoire persistante. Un utilisateur pourrait, par exemple, confier à un agent la gestion des messages Slack entrants pendant la nuit ou la génération automatique d'un rapport hebdomadaire chaque lundi matin. L'enjeu est considérable pour le marché du travail et l'industrie technologique. Si Hermes tient ses promesses, combiné à Codex, l'outil de génération de code d'OpenAI, il pourrait automatiser une part significative des tâches administratives et répétitives au sein des entreprises. Les postes concernés ne disparaîtraient pas nécessairement du jour au lendemain, mais pourraient se réduire progressivement à des fonctions de supervision, selon les observateurs du secteur. Pour les entreprises, cela représenterait un levier de productivité important. Pour les travailleurs du tertiaire, c'est une pression supplémentaire sur des métiers déjà fragilisés par l'automatisation croissante des processus. Hermes s'inscrit dans une stratégie plus large d'OpenAI visant à transformer ChatGPT en une véritable plateforme d'agents, en capitalisant sur les GPT personnalisés et le générateur de workflows déjà présents. Aucun calendrier officiel ni détail technique n'ont été communiqués par l'entreprise, qui reste délibérément discrète. Selon certains observateurs, ce silence serait lié à des contraintes d'infrastructure : OpenAI voudrait s'assurer de disposer d'une capacité de calcul suffisante avant d'annoncer un lancement et de déclencher une explosion de la demande. En parallèle, d'autres fonctionnalités seraient en développement, dont une personnalisation des images à partir d'une photo de référence dans ImageGen, un "Concours Images 2.0" et un mode "Résumé audio" offrant plusieurs formats allant du podcast radio au briefing exécutif. OpenAI se retrouve en compétition directe avec Google, Microsoft et des acteurs émergents comme Cohere sur le segment des agents d'entreprise, un marché que tous considèrent comme le prochain terrain décisif de l'IA générative.

UESi Hermes est lancé, les travailleurs européens du tertiaire seraient exposés à une automatisation accrue de leurs tâches administratives et répétitives via ChatGPT.

OutilsOutil
1 source