Aller au contenu principal
Amazon Bedrock AgentCore permet d'intégrer un agent IA de navigation en direct dans une application React
OutilsAWS ML Blog1h

Amazon Bedrock AgentCore permet d'intégrer un agent IA de navigation en direct dans une application React

1 source couvre ce sujet·Source originale ↗·

Amazon a lancé le composant BrowserLiveView dans son SDK TypeScript Bedrock AgentCore, permettant aux développeurs d'intégrer un flux vidéo en temps réel d'une session de navigation autonome directement dans leurs applications React. Concrètement, trois lignes de JSX suffisent pour embarquer ce flux live : le composant reçoit une URL présignée SigV4 générée côté serveur, établit une connexion WebSocket persistante, et diffuse la session du navigateur distant via le protocole Amazon DCV. L'architecture repose sur trois couches : le navigateur React de l'utilisateur qui affiche le flux, un serveur applicatif qui orchestre les sessions via l'API Bedrock AgentCore, et l'infrastructure AWS Cloud qui héberge les sessions navigateur isolées. Les sessions peuvent également être enregistrées sur Amazon S3 pour un visionnage différé depuis la console AWS.

Cette visibilité en temps réel répond à un problème concret de confiance dans les agents IA autonomes. Lorsqu'un agent navigue sur le web, remplit des formulaires ou traite des données sensibles au nom d'un utilisateur, celui-ci n'a jusqu'ici aucune fenêtre sur ces actions. Avec BrowserLiveView, l'utilisateur suit chaque navigation, chaque soumission de formulaire et chaque interaction au moment où elle se produit, ce qui est nettement plus rassurant que recevoir une simple confirmation textuelle après coup. Pour les workflows supervisés, notamment dans les secteurs régulés comme la finance ou la santé, un superviseur peut observer l'agent en direct et intervenir sans quitter l'application. L'outil répond aussi aux exigences d'audit : la preuve visuelle des actions de l'agent constitue une traçabilité exploitable pour la conformité réglementaire et le débogage.

Amazon Bedrock AgentCore s'inscrit dans la stratégie plus large d'AWS pour industrialiser les agents IA fiables en entreprise. La question de la transparence des agents autonomes est devenue centrale alors que les grandes organisations cherchent à déléguer des tâches complexes à des systèmes IA tout en conservant un contrôle humain. Plusieurs acteurs, dont Google avec ses agents Gemini et Microsoft avec Copilot Studio, développent des approches similaires de supervision d'agents web. AWS positionne ici son offre sur la simplicité d'intégration et la sécurité native, avec une authentification déléguée sans infrastructure streaming à maintenir côté développeur. La prochaine étape logique sera l'extension de cette visibilité à d'autres types d'agents au-delà de la navigation web, et probablement des mécanismes d'intervention manuelle directement depuis le flux live pour renforcer encore le contrôle humain dans la boucle.

Impact France/UE

Les entreprises françaises et européennes utilisant AWS Bedrock pour des agents autonomes dans des secteurs régulés (finance, santé) disposent d'un mécanisme de traçabilité visuelle directement exploitable pour répondre aux exigences d'audit et de conformité imposées par le droit européen.

À lire aussi

Préparez votre portefeuille : OpenAI lance un nouveau niveau ChatGPT Pro à 100 $
1Le Big Data 

Préparez votre portefeuille : OpenAI lance un nouveau niveau ChatGPT Pro à 100 $

OpenAI a annoncé le 9 avril 2026 un nouveau niveau d'abonnement ChatGPT Pro à 100 dollars par mois, venant s'ajouter au niveau Plus existant. Ce plan premium offre entre 5 et 20 fois plus d'utilisation de Codex, l'outil de génération et de complétion de code intégré à ChatGPT. Les abonnés Pro accèdent également au raisonnement avancé via GPT-5.4 Pro, à un nombre maximal de tâches Codex simultanées, au chargement illimité de fichiers avec GPT-5.3, à la génération d'images sans restriction, ainsi qu'à un accès étendu à la recherche approfondie, au mode agent, aux projets, aux tâches planifiées et aux GPT personnalisés. OpenAI a précisé dans la foulée que l'accès promotionnel à Codex accordé aux abonnés Plus prenait fin le jour même de l'annonce. Ce nouveau palier cible principalement les développeurs intensifs et les professionnels qui s'appuient quotidiennement sur des capacités de raisonnement avancées. Pour eux, la possibilité de conduire des sessions Codex longues et complexes représente un gain concret : prototypes plus ambitieux, itérations plus rapides, réduction du temps de développement logiciel. Les entreprises technologiques peuvent également y voir un levier pour accélérer leurs cycles de production sans multiplier les abonnements individuels. L'accès anticipé aux nouvelles fonctionnalités constitue un avantage supplémentaire pour ceux qui cherchent à rester à la pointe des capacités disponibles. À 100 dollars mensuels, le tarif reste élevé pour un usage individuel, mais se positionne en dessous des coûts d'API pour des volumes d'utilisation équivalents. Cette annonce s'inscrit dans une stratégie de montée en gamme progressive qu'OpenAI déploie depuis le lancement de ChatGPT Plus à 20 dollars en 2023. La société fait face à des coûts d'infrastructure considérables liés à l'entraînement et à l'inférence de modèles toujours plus puissants, et la segmentation tarifaire lui permet de financer ces investissements tout en conservant une offre accessible au grand public. La guerre des assistants IA s'intensifie avec Google, Anthropic et Microsoft qui proposent leurs propres niveaux premium, poussant chaque acteur à différencier son offre par la performance brute et les outils spécialisés. Codex, repositionné comme outil central du plan Pro, illustre le pari d'OpenAI sur le marché des développeurs, segment jugé stratégique pour ancrer l'usage professionnel de ChatGPT dans les workflows d'entreprise. Les prochains mois diront si ce prix trouve preneur au-delà des early adopters.

UELes développeurs et entreprises françaises peuvent souscrire à ce nouveau palier, mais sans avantage tarifaire spécifique pour l'Europe et avec un coût élevé pour un usage individuel.

OutilsOpinion
1 source
Google Gemini peut désormais répondre à vos questions avec des modèles 3D et des simulations
2The Verge AI 

Google Gemini peut désormais répondre à vos questions avec des modèles 3D et des simulations

Google a dévoilé une nouvelle fonctionnalité pour son assistant Gemini permettant de générer des modèles 3D interactifs et des simulations en réponse aux questions des utilisateurs. Concrètement, lorsqu'un utilisateur pose une question sur un phénomène physique ou scientifique, Gemini peut désormais produire une représentation tridimensionnelle animée, accompagnée de commandes permettant de la manipuler en temps réel : rotation du modèle, curseurs pour ajuster des paramètres, boutons pour mettre en pause ou masquer certains éléments visuels. Lors d'un test rapporté par The Verge, un utilisateur a demandé une simulation de la Lune orbitant autour de la Terre, et Gemini a généré un modèle 3D complet avec un curseur pour contrôler la vitesse de l'orbite, une option pour masquer la trajectoire et un bouton de pause. Cette évolution représente un changement notable dans la façon dont les IA conversationnelles transmettent l'information. Plutôt que de se limiter à du texte ou des images statiques, Gemini ouvre la voie à une pédagogie interactive, particulièrement utile pour l'enseignement des sciences, de la physique ou de l'astronomie. Les enseignants, étudiants et professionnels pourront explorer des concepts complexes de manière intuitive, sans recourir à des logiciels spécialisés. Cette fonctionnalité s'inscrit dans la course que se livrent les grands acteurs de l'IA générative pour différencier leurs produits au-delà du simple chat textuel. Google, qui fait face à une concurrence intense d'OpenAI et d'Anthropic, cherche à positionner Gemini comme un assistant multimodal de référence. La capacité à produire des visualisations dynamiques et paramétrables pourrait devenir un avantage décisif, notamment dans les secteurs éducatif et scientifique.

UELes utilisateurs européens de Gemini peuvent dès maintenant exploiter cette fonctionnalité pour l'enseignement scientifique et la vulgarisation, sans nécessiter de logiciels spécialisés.

OutilsOutil
1 source
Amazon Bedrock : comprendre le cycle de vie des modèles
3AWS ML Blog 

Amazon Bedrock : comprendre le cycle de vie des modèles

Amazon Web Services a formalisé le cycle de vie des modèles de fondation (FM) disponibles sur sa plateforme Bedrock, en introduisant un cadre structuré en trois états distincts : Actif, Hérité (Legacy) et Fin de vie (EOL). Ce système vise à donner aux entreprises une visibilité suffisante pour planifier leurs migrations sans interruption de service. Concrètement, un modèle reste disponible au minimum 12 mois après son lancement, puis passe en état Legacy avec un préavis d'au moins 6 mois avant sa date de fin de vie. AWS a également introduit une nouvelle phase intermédiaire appelée "extended access" pour les modèles dont la fin de vie est postérieure au 1er février 2026 : après 3 mois en état Legacy, le modèle entre dans cette période d'accès étendu pendant laquelle les utilisateurs actifs peuvent continuer à l'utiliser au moins 3 mois supplémentaires. Durant cette fenêtre, les demandes d'augmentation de quota ne seront plus approuvées et les tarifs peuvent être ajustés par le fournisseur du modèle, avec notification préalable. Cet encadrement change concrètement la manière dont les équipes techniques doivent gérer leurs applications IA en production. Jusqu'ici, une fin de vie pouvait surprendre des équipes insuffisamment préparées, entraînant des pannes ou des migrations précipitées. Avec ce calendrier prévisible, les développeurs peuvent anticiper les transitions, tester les modèles de remplacement via la console Bedrock ou l'API, et adapter leur code sans urgence. L'état d'un modèle est désormais exposé directement dans les réponses API via le champ modelLifecycle, accessible lors d'appels GetFoundationModel ou ListFoundationModels. Il faut toutefois noter que les comptes inactifs en phase Legacy, c'est-à-dire n'ayant pas appelé le modèle pendant 15 jours ou plus, peuvent perdre l'accès prématurément. La migration vers un nouveau modèle reste une action manuelle : rien ne se fait automatiquement lorsqu'un modèle atteint sa date EOL. Cette politique s'inscrit dans un contexte où Amazon Bedrock multiplie les modèles disponibles, provenant de fournisseurs comme Anthropic, Meta, Mistral ou Cohere, chacun avec ses propres cycles de mise à jour. À mesure que ces modèles évoluent rapidement, l'accumulation de versions obsolètes pose des problèmes de maintenance et de sécurité pour AWS comme pour ses clients. En clarifiant les règles du jeu, AWS cherche à professionnaliser la gestion du cycle de vie des IA en entreprise, sur le modèle de ce que font déjà les plateformes cloud pour leurs APIs et services logiciels. La prochaine étape pour les équipes utilisant Bedrock sera d'intégrer ces états dans leurs processus de surveillance et d'alerte, afin de ne jamais être pris de court lors d'une transition de modèle.

UELes entreprises européennes utilisant Amazon Bedrock doivent intégrer ce nouveau cadre de cycle de vie dans leurs processus de gestion des applications IA en production pour éviter des interruptions de service.

OutilsOpinion
1 source
Intel TSNC : l’incroyable IA qui va réduire le poids de vos jeux vidéo par 18
4Le Big Data 

Intel TSNC : l’incroyable IA qui va réduire le poids de vos jeux vidéo par 18

Intel a dévoilé une nouvelle technologie baptisée TSNC, pour Texture Set Neural Compression, capable de réduire la taille des textures de jeux vidéo jusqu'à 18 fois par rapport aux formats non compressés. Concrètement, l'outil propose deux profils : une Variante A qui offre une compression jusqu'à 9x avec une perte de qualité visuelle d'environ 5 %, à peine perceptible à l'œil nu, et une Variante B qui pousse la compression à 18x au prix d'une légère dégradation entre 6 et 7 %. Plutôt que d'imposer un format propriétaire incompatible avec les outils existants, Intel a conçu TSNC pour s'intégrer naturellement dans les pipelines de production actuels, en s'appuyant sur la compression par blocs BC1 déjà standard dans l'industrie. Un réseau de neurones est entraîné sur des ensembles de textures similaires, regroupées dans un espace commun, puis un MLP à trois couches se charge de reconstruire les données au moment voulu. Cette décompression peut intervenir à l'installation, lors des temps de chargement, ou en cours de session selon les priorités du développeur. Sur l'architecture Panther Lake avec GPU intégré Arc B390, les cœurs XMX dédiés à l'IA génèrent le premier pixel en 0,194 nanoseconde, une latence pratiquement invisible pour un joueur. L'enjeu est considérable pour l'ensemble de la chaîne, des studios aux joueurs. Les jeux modernes atteignent régulièrement plusieurs dizaines de gigaoctets, une tendance directement liée à l'accumulation de textures haute résolution. Quand la VRAM sature, les performances s'effondrent brutalement. Une compression aussi agressive, sans perte visuelle notable, permettrait de réduire significativement la taille des téléchargements, d'alléger la pression sur la mémoire vidéo et d'améliorer l'expérience sur des machines d'entrée et de milieu de gamme. Intel a d'ailleurs prévu une solution de repli basée sur des instructions classiques pour les GPU plus anciens ou ceux de la concurrence, ce qui ouvre la technologie bien au-delà de son propre écosystème matériel. Cette annonce s'inscrit dans une compétition qui s'intensifie autour de la compression neuronale des textures. Nvidia travaille déjà sur sa propre technologie, baptisée NTC, tandis que Sony serait engagé sur des projets analogues en vue d'une future PlayStation 6. La pression exercée par l'explosion des tailles de jeux pousse toute l'industrie à chercher des solutions alternatives à la simple augmentation de la VRAM ou de la capacité de stockage. Intel, en adoptant une stratégie compatible avec les standards existants, cherche à faciliter l'adoption par les studios sans les forcer à revoir entièrement leurs workflows. La vraie question désormais est celle de l'intégration dans les moteurs de jeu comme Unreal ou Unity, et du calendrier auquel les premiers titres l'exploiteront concrètement.

UELes studios de jeux européens pourraient intégrer TSNC dans leurs pipelines de production pour réduire la taille des jeux et alléger la pression sur la mémoire vidéo, sous réserve d'une adoption par les moteurs Unreal et Unity.

OutilsOutil
1 source