Aller au contenu principal
OpenAI permet désormais aux équipes de créer des bots personnalisés capables de travailler de façon autonome
OutilsThe Verge1h

OpenAI permet désormais aux équipes de créer des bots personnalisés capables de travailler de façon autonome

1 source couvre ce sujet·Source originale ↗·
OpenAI permet désormais aux équipes de créer des bots personnalisés capables de travailler de façon autonome
▶ Voir sur YouTube

OpenAI a annoncé le déploiement d'agents "workspace" directement intégrés à ChatGPT, désormais accessibles aux abonnés des formules Business, Enterprise, Edu et Teachers. Ces agents, hébergés dans le cloud, sont conçus pour exécuter des tâches professionnelles de manière autonome : l'un peut par exemple surveiller le web à la recherche de retours sur un produit et envoyer un rapport automatisé sur Slack, tandis qu'un autre est capable de rédiger des e-mails de suivi commercial directement dans Gmail. OpenAI a présenté ces capacités dans un billet de blog accompagné de plusieurs cas d'usage concrets.

Pour les entreprises abonnées, ce lancement représente un changement de paradigme : il ne s'agit plus seulement d'un assistant qui répond à des questions, mais d'un système capable d'agir dans leurs outils du quotidien sans intervention humaine constante. L'intégration native à des services comme Slack et Gmail abaisse significativement la barrière d'adoption pour des équipes non techniques, et positionne ChatGPT comme une plateforme d'automatisation opérationnelle à part entière.

Cette annonce s'inscrit dans une course effrénée au développement d'agents IA autonomes. Le phénomène a été amplifié par la viralité d'OpenClaw, un agent IA se présentant comme "l'IA qui fait vraiment les choses", fondé par Peter Steinberger, qui a depuis rejoint OpenAI. La tendance reflète une conviction grandissante dans l'industrie : la prochaine vague de valeur de l'IA ne viendra pas des chatbots, mais des systèmes capables d'agir de façon autonome dans des environnements de travail réels.

Impact France/UE

Les entreprises françaises et européennes abonnées à ChatGPT Business ou Enterprise peuvent désormais déployer ces agents autonomes dans leurs outils quotidiens (Slack, Gmail) sans compétences techniques.

À lire aussi

Transcription audio multilingue économique à grande échelle avec Parakeet-TDT et AWS Batch
1AWS ML Blog 

Transcription audio multilingue économique à grande échelle avec Parakeet-TDT et AWS Batch

NVIDIA a publié en août 2025 Parakeet-TDT-0.6B-v3, un modèle de transcription automatique de la parole open source couvrant 25 langues européennes, dont le français, l'allemand, l'espagnol, le polonais ou l'ukrainien. Capable de détecter automatiquement la langue parlée, ce modèle affiche un taux d'erreur sur les mots de 6,34 % en conditions acoustiques propres et de 11,66 % à 0 dB de rapport signal/bruit, tout en prenant en charge des fichiers audio allant jusqu'à trois heures. Distribué sous licence CC-BY-4.0, il s'appuie sur une architecture Token-and-Duration Transducer (TDT) qui prédit simultanément les tokens de texte et leur durée, permettant de sauter silences et segments redondants pour atteindre des vitesses d'inférence très largement supérieures au temps réel. Dans la configuration présentée, le modèle tourne sur AWS Batch avec des instances GPU G6 équipées de NVIDIA L4, qui offrent le meilleur ratio coût/performance, bien qu'il soit également compatible avec des instances G5, G4dn ou P5 pour un débit maximal. Le pipeline est entièrement événementiel : un fichier audio déposé sur Amazon S3 déclenche une règle Amazon EventBridge, qui soumet automatiquement un job à AWS Batch, lequel provisionne les ressources, télécharge l'image de conteneur depuis Amazon ECR et restitue une transcription JSON horodatée dans un bucket de sortie. Le coût final descend à quelques fractions de centime par heure d'audio. L'enjeu principal est économique. Pour les organisations traitant des volumes massifs d'audio, qu'il s'agisse d'archives médias, d'enregistrements de centres d'appels, de données d'entraînement pour l'IA ou de sous-titrage vidéo à la demande, les services ASR gérés facturent généralement à la durée réelle du fichier, ce qui fait exploser les coûts dès que les volumes augmentent. En ne payant que de brèves fenêtres de calcul GPU plutôt que la totalité de la durée audio, combiné à l'utilisation d'instances EC2 Spot moins onéreuses et au streaming par tampons, ce pipeline peut réduire la facture de transcription de façon substantielle par rapport aux APIs cloud classiques comme celles d'AWS Transcribe ou de Google Speech-to-Text. La prise en charge native de 25 langues sans configuration par langue supprime également une complexité opérationnelle significative pour les entreprises internationales. Cette approche s'inscrit dans une tendance plus large consistant à substituer des modèles open source performants aux services gérés pour les charges de travail à fort volume. NVIDIA, qui diffuse Parakeet dans le cadre de son écosystème NeMo, cherche à s'imposer comme référence en ASR face à OpenAI avec Whisper, à AssemblyAI ou encore à Amazon Transcribe. Le fait qu'un modèle de 600 millions de paramètres atteigne ces niveaux de précision multilingue ouvre la voie à des pipelines entièrement maîtrisés, hébergés en interne ou dans un cloud privé, sans dépendance à un fournisseur. La prochaine étape logique pour les équipes qui adoptent cette architecture sera d'enchaîner directement en aval des modules de post-traitement automatisés, résumé, analyse de sentiment ou détection d'entités, pour extraire encore plus de valeur des transcriptions produites.

UELe modèle Parakeet couvre nativement 25 langues européennes dont le français, offrant aux organisations françaises et européennes un pipeline de transcription audio économique et souverain, sans dépendance à un service ASR propriétaire.

OutilsTuto
1 source
Grok va bientôt personnaliser votre fil d'actualité sur X
2The Verge 

Grok va bientôt personnaliser votre fil d'actualité sur X

X a annoncé mercredi une nouvelle fonctionnalité permettant à Grok, son chatbot d'intelligence artificielle, de prendre en charge la curation du fil d'actualité des utilisateurs. Selon Nikita Bier, directeur produit de X, les abonnés Premium sur iOS bénéficient d'un accès anticipé à cette option : ils peuvent épingler des thématiques spécifiques dans leur onglet d'accueil, que Grok utilise ensuite pour sélectionner et ordonner les publications affichées dans chaque fil. L'accès anticipé pour les utilisateurs Android est prévu « très prochainement », selon Bier. Cette évolution représente un changement majeur dans la manière dont X gère la personnalisation de son interface. Jusqu'ici, l'algorithme de recommandation fonctionnait de manière opaque, sans que l'utilisateur puisse y injecter directement des préférences thématiques explicites. Avec Grok intégré à la boucle, la plateforme promet une personnalisation plus fine, en combinant la compréhension sémantique de chaque publication par l'IA avec les données comportementales de l'utilisateur. Le système serait encore plus efficace sur des sujets avec lesquels l'utilisateur interagit déjà régulièrement. Cette fonctionnalité s'inscrit dans la stratégie plus large d'Elon Musk d'intégrer Grok au coeur de l'expérience X, après des mois de déploiements progressifs incluant les résumés de fils de discussion, l'analyse d'images et le mode vocal. En faisant de l'IA le filtre central du fil d'actualité, X se positionne face à des concurrents comme TikTok ou YouTube, dont les algorithmes de recommandation ultra-personnalisés ont prouvé leur efficacité en matière d'engagement. La question de la transparence algorithmique et des biais potentiels introduits par Grok dans la sélection de l'information reste entière.

UELes questions de transparence algorithmique soulevées pourraient renforcer les obligations de X vis-à-vis du Digital Services Act (DSA) européen, qui impose aux très grandes plateformes de rendre compte de leurs systèmes de recommandation.

OutilsOutil
1 source
Créez votre premier agent en quelques minutes : nouvelles fonctionnalités d'Amazon Bedrock AgentCore
3AWS ML Blog 

Créez votre premier agent en quelques minutes : nouvelles fonctionnalités d'Amazon Bedrock AgentCore

Amazon a annoncé de nouvelles fonctionnalités pour Bedrock AgentCore, sa plateforme de développement d'agents IA, qui promettent de réduire drastiquement le temps nécessaire pour passer d'une idée à un agent fonctionnel. La pièce maîtresse de cette mise à jour est le "managed agent harness", une couche d'infrastructure gérée qui permet de déclarer et lancer un agent en trois appels d'API seulement, sans écrire de code d'orchestration. Le développeur n'a qu'à définir quel modèle utiliser, quels outils appeler et quelles instructions suivre : AgentCore assemble automatiquement le calcul, la mémoire, les identités et la sécurité. La plateforme est compatible avec les frameworks déjà en usage dans l'industrie : LangGraph, LlamaIndex, CrewAI et Strands Agents, le framework open source d'AWS qui propulse le harness. AgentCore gère également la persistance de l'état de session sur un système de fichiers durable, ce qui permet à un agent de suspendre une tâche en cours et de la reprendre exactement là où il s'était arrêté. Jusqu'ici, construire l'infrastructure sous-jacente d'un agent, compute, sandbox d'exécution de code, connexions sécurisées aux outils, stockage persistant, gestion des erreurs, représentait plusieurs jours de travail avant de pouvoir tester la moindre logique métier. Avec AgentCore, tester une variante d'agent, changer de modèle ou ajouter un outil devient une modification de configuration et non une réécriture de code. Rodrigo Moreira, VP Engineering chez VTEX, l'un des premiers utilisateurs, confirme que ce qui prenait auparavant des jours de mise en place peut désormais être validé en quelques minutes. Cette accélération du cycle de prototypage est particulièrement significative pour les équipes produit qui veulent itérer rapidement sur la logique agent sans s'embourber dans la plomberie backend. Les patterns "human-in-the-loop", souvent coûteux à implémenter, deviennent pratiques grâce à la persistance native de session, sans nécessiter de refonte architecturale ultérieure. La sortie de ces fonctionnalités s'inscrit dans une concurrence féroce entre les grands fournisseurs cloud pour capter les équipes qui industrialisent l'IA agentique. AWS fait le pari que les développeurs adoptent plus facilement un service géré s'il supprime la friction initiale tout en restant extensible : lorsque les besoins d'orchestration personnalisée ou de coordination multi-agents se précisent, il suffit de basculer d'une configuration déclarative vers du code, sur la même plateforme, avec la même pipeline de déploiement et le même isolement microVM. La prochaine étape annoncée, déployer et opérer les agents depuis le même terminal, vise à unifier le cycle complet de développement, de la première idée jusqu'à la production, dans un seul environnement sans rupture d'outil.

UELes équipes de développement françaises et européennes peuvent réduire leur temps de prototypage d'agents IA, accélérant l'industrialisation de l'IA agentique pour les entreprises du continent.

OutilsOutil
1 source
Equinox et JAX en pratique : modules natifs, transformations filtrées, couches à état et pipelines d'entraînement
4MarkTechPost 

Equinox et JAX en pratique : modules natifs, transformations filtrées, couches à état et pipelines d'entraînement

Equinox s'impose discrètement comme l'une des bibliothèques de deep learning les plus élégantes construites sur JAX, l'environnement de calcul numérique de Google. Développée comme une surcouche légère, elle repose sur un principe central : chaque modèle est un eqx.Module, traité nativement comme un PyTree, la structure d'arbre que JAX utilise pour manipuler ses tenseurs. Concrètement, cela signifie qu'une couche Linear, un bloc convolutif Conv1dBlock ou un réseau MLP se décomposent automatiquement en feuilles (les poids, les biais) et en métadonnées structurelles, sans couche d'abstraction cachée. Le tutoriel publié cette semaine détaille l'ensemble du workflow : initialisation des modules, champs statiques via eqx.field(static=True), transformations filtrées comme filterjit et filtergrad, couches avec état comme BatchNorm, et entraînement complet sur un problème de régression synthétique, le tout combiné avec Optax pour l'optimisation et Jaxtyping pour les annotations de forme. L'intérêt pratique d'Equinox réside dans la façon dont il résout une friction fondamentale de JAX : comment gérer des paramètres entraînables et des métadonnées non-différentiables dans le même objet. Avec les transformations filtrées, il devient possible d'appliquer jit ou grad uniquement sur les feuilles numériques du modèle, en excluant automatiquement les chaînes de caractères, entiers ou booléens qui définissent l'architecture. Cette distinction évite les erreurs de traçage silencieuses qui affectent les approches naïves. Pour les chercheurs qui travaillent sur des architectures expérimentales, où l'on mélange souvent des hyperparamètres fixes et des poids appris, c'est un gain de fiabilité et de lisibilité significatif. Les couches comme BatchNorm, qui maintiennent un état interne (moyenne courante, variance), sont également prises en charge de manière explicite, sans recourir à des contournements complexes. Equinox s'inscrit dans un mouvement plus large qui voit JAX gagner du terrain dans la recherche en apprentissage automatique, notamment face à PyTorch. Google DeepMind, qui l'utilise intensivement, ainsi que de nombreux laboratoires académiques ont adopté cet écosystème pour sa capacité à composer des transformations fonctionnelles (différentiation, vectorisation, parallélisme) de façon modulaire. Equinox se positionne comme une alternative à Flax ou Haiku, les deux bibliothèques historiques de l'écosystème JAX, en privilegiant une syntaxe plus proche de PyTorch tout en restant purement fonctionnelle. Avec l'essor des modèles de grande taille et les besoins croissants en parallélisme matériel, des outils qui séparent clairement la structure du modèle de son état numérique devraient continuer à gagner en adoption dans les mois à venir.

OutilsTuto
1 source