Aller au contenu principal
Google met à jour son mode IA pour ouvrir les liens sans quitter la page
OutilsThe Verge AI2h

Google met à jour son mode IA pour ouvrir les liens sans quitter la page

1 source couvre ce sujet·Source originale ↗·

Google enrichit son mode IA dans Chrome avec une nouvelle fonctionnalité permettant d'ouvrir des liens sources directement aux côtés de la conversation, sans quitter la page. Concrètement, lorsqu'un utilisateur clique sur une source citée par l'IA, le site s'affiche en vue partagée, côte à côte avec le chat, plutôt que dans un nouvel onglet. Cette mise à jour s'applique à AI Mode, l'interface de recherche conversationnelle intégrée à Google Search depuis 2025.

Ce changement améliore significativement la fluidité du parcours de recherche : l'utilisateur peut désormais consulter la source primaire tout en continuant à poser des questions à l'IA sur le contenu affiché. Pour les professionnels et chercheurs qui jonglent entre sources multiples, cela réduit la friction entre la vérification des faits et l'exploration assistée. Google positionne ainsi AI Mode comme un véritable environnement de travail intégré, pas seulement un moteur de réponses.

AI Mode a été lancé l'an dernier comme une surcouche conversationnelle à Google Search, logée dans un panneau latéral. Depuis, Google y a progressivement ajouté des capacités comme la génération d'images de tenues ou de décoration, la visualisation de voyages, et la recherche de réservations de restaurants. Cette nouvelle fonctionnalité s'inscrit dans une course plus large entre Google, Microsoft (Copilot dans Edge) et d'autres acteurs pour transformer le navigateur lui-même en interface d'IA contextuelle, où la frontière entre recherche et navigation s'efface progressivement.

Impact France/UE

Les utilisateurs français de Chrome bénéficient directement de cette amélioration de l'interface AI Mode, qui réduit la friction lors de la vérification des sources dans les recherches assistées par IA.

À lire aussi

OpenAI met à jour Codex pour contrôler d'autres applications, générer des images et prévisualiser des pages web
1VentureBeat AI 

OpenAI met à jour Codex pour contrôler d'autres applications, générer des images et prévisualiser des pages web

OpenAI a annoncé une mise à jour majeure de son application desktop Codex, disponible sur Mac et Windows, confirmant au passage que la plateforme compte désormais 3 millions de développeurs actifs chaque semaine. La nouveauté centrale s'appelle "Computer Use" : Codex peut désormais voir, cliquer et taper dans n'importe quelle application installée sur l'ordinateur de l'utilisateur. Andrew Ambrosino, responsable du développement de l'application Codex chez OpenAI, l'a formulé sans détour : "Codex peut réellement cliquer sur des applications, lancer des applications et saisir du texte dans des applications. Cela fonctionne avec n'importe quelle application sur votre machine." Sur macOS, cette interaction se déroule en arrière-plan pendant que l'utilisateur continue de travailler normalement, ce qui permet à plusieurs agents d'opérer simultanément. L'application intègre également un navigateur web natif pour prévisualiser les interfaces frontend, ainsi qu'un accès direct au modèle de génération d'images gpt-image-1.5, utilisable pour produire des visuels cohérents destinés à des sites web, des présentations ou même des jeux vidéo complets avec des centaines d'assets graphiques. L'enjeu est considérable pour les développeurs professionnels : Codex devient un environnement de développement logiciel unifié, couvrant l'intégralité du cycle de vie d'un projet, de la revue de pull requests GitHub à la gestion d'infrastructure distante. Concrètement, un agent peut trier des tickets JIRA ou tester une modification frontend pendant que le développeur travaille en parallèle sur autre chose. Thibault Sottiaux, directeur de Codex chez OpenAI, résume l'ambition : "Il s'agit de placer un agent très capable entre les mains des développeurs, et nous voyons maintenant que nous sommes en mesure d'étendre son action à l'ensemble de l'ordinateur." Sur Windows, la fonctionnalité de contrôle du curseur en arrière-plan n'est pas encore disponible au lancement, bien que l'application puisse déjà extraire des informations des autres applications pour les afficher à l'utilisateur. Cette évolution s'inscrit dans une course directe avec Anthropic, qui a récemment repositionné Claude avec ses vues Claude Cowork et une application desktop remaniée pour Mac et Windows. Mais Claude ne propose pas encore d'interaction simultanée avec le curseur en arrière-plan sur l'ensemble des applications système comme le fait Codex. OpenAI assume pleinement ce choix de développer ces capacités dans Codex plutôt que dans ChatGPT, son application phare grand public : Sottiaux explique que Codex est "l'agent le plus puissant" de la société, déjà ancré dans l'environnement de travail des développeurs, ce qui en fait le terrain naturel pour ces expérimentations. L'entreprise a confirmé vouloir faire de Codex une "Super App" pour les développeurs, une orientation qui, si elle tient ses promesses, pourrait redéfinir la manière dont les ingénieurs logiciels interagissent avec leurs outils au quotidien.

UELes développeurs européens peuvent adopter un environnement de développement unifié avec contrôle système natif, accélérant potentiellement l'intégration de l'IA dans leurs workflows professionnels.

OutilsOutil
1 source
Codex s'enrichit de nouvelles fonctionnalités, dont l'utilisation de votre ordinateur en arrière-plan
2Ars Technica AI 

Codex s'enrichit de nouvelles fonctionnalités, dont l'utilisation de votre ordinateur en arrière-plan

OpenAI a déployé aujourd'hui une nouvelle version de son application desktop Codex, apportant un ensemble de fonctionnalités inédites qui étendent son champ d'action bien au-delà du code. Parmi les ajouts les plus notables figure la capacité d'effectuer des tâches sur l'ordinateur de l'utilisateur en arrière-plan, sans interrompre le travail en cours sur le bureau. L'entreprise a détaillé cette mise à jour dans un billet de blog officiel, présentant également des améliorations pour les développeurs et une ouverture vers des usages non techniques. Cette fonctionnalité d'exécution en arrière-plan représente un changement de paradigme significatif : l'agent ne se contente plus de répondre à des requêtes ponctuelles, il agit de manière autonome sur la machine pendant que l'utilisateur continue son activité normale. Pour les développeurs comme pour les professionnels du secteur, cela ouvre la voie à une automatisation plus profonde des tâches répétitives, qu'il s'agisse de refactorisation de code, de recherche ou de traitement de fichiers, sans mobiliser l'attention de l'utilisateur. Cette mise à jour s'inscrit dans la stratégie plus large d'OpenAI de transformer Codex en une "super app" polyvalente, capable de couvrir à la fois les besoins techniques et les tâches de travail du savoir en général. La compétition dans ce segment s'intensifie, avec des concurrents comme Anthropic (Claude) et Google (Gemini) qui proposent également des agents de bureau. OpenAI mise sur l'intégration native et la discrétion d'exécution pour se différencier dans une course qui redéfinit la relation entre l'humain et l'ordinateur.

OutilsOutil
1 source
Génération SQL à partir de texte : une approche économique avec Amazon Nova Micro et Bedrock
3AWS ML Blog 

Génération SQL à partir de texte : une approche économique avec Amazon Nova Micro et Bedrock

Amazon Web Services propose une nouvelle approche pour déployer des modèles de langage spécialisés dans la génération de requêtes SQL à partir du langage naturel, en combinant l'optimisation LoRA (Low-Rank Adaptation) avec l'inférence serverless d'Amazon Bedrock. Le modèle ciblé est Amazon Nova Micro, un modèle fondation léger disponible sur Bedrock. La solution a été testée sur un volume de 22 000 requêtes mensuelles pour un coût de seulement 0,80 dollar par mois, contre des dépenses bien supérieures avec une infrastructure hébergée en permanence. Deux chemins d'implémentation distincts sont proposés : l'un via la personnalisation gérée d'Amazon Bedrock, l'autre via des jobs d'entraînement Amazon SageMaker AI pour un contrôle plus fin des hyperparamètres. Les deux options convergent vers le même pipeline de déploiement sur Bedrock en inférence à la demande. Le jeu de données utilisé pour la démonstration est sql-create-context, une combinaison des datasets WikiSQL et Spider comprenant plus de 78 000 exemples de questions en langage naturel associées à des requêtes SQL de complexité variable. L'enjeu principal est économique : les modèles fine-tunés nécessitent traditionnellement une infrastructure dédiée tournant en continu, même en l'absence de trafic, ce qui génère des coûts fixes importants. Le modèle pay-per-token d'Amazon Bedrock élimine ce gaspillage en ne facturant que les tokens réellement traités. Pour les entreprises avec des dialectes SQL maison ou des schémas métier très spécifiques, cette combinaison rend accessible la personnalisation des LLMs sans engager de budget infrastructure significatif. Les équipes techniques gagnent également en simplicité opérationnelle : pas de gestion de serveurs, pas de scaling manuel, pas de surveillance d'infrastructure GPU. La génération SQL par IA est un cas d'usage critique en entreprise, car elle permet à des utilisateurs non-techniques d'interroger des bases de données en langage naturel. Les modèles généralistes gèrent bien le SQL standard, mais échouent sur les dialectes propriétaires ou les schémas complexes propres à chaque organisation. Le fine-tuning résout ce problème, mais introduisait jusqu'ici un compromis coûteux. AWS positionne ici Bedrock comme une infrastructure mutualisée capable d'héberger des adaptateurs LoRA à la demande, une approche qui pourrait devenir un standard pour les déploiements d'IA spécialisée à faible volume. La maturité croissante des outils de personnalisation cloud laisse entrevoir une généralisation de ce modèle économique à d'autres tâches NLP d'entreprise.

UELes entreprises européennes hébergées sur AWS peuvent adopter cette architecture serverless pour réduire leurs coûts de déploiement de modèles SQL spécialisés, Bedrock étant disponible dans les régions EU.

OutilsOutil
1 source
L'IA générative d'AWS au service du commerce de détail
4AWS ML Blog 

L'IA générative d'AWS au service du commerce de détail

Amazon Web Services propose une solution complète de commerce en ligne basée sur l'intelligence artificielle générative, permettant aux enseignes de déployer un système d'essayage virtuel et de recommandation de produits. Construite autour d'Amazon Nova Canvas, Amazon Rekognition et Amazon OpenSearch Serverless, l'architecture repose entièrement sur des services sans serveur (serverless) et se déploie via une seule commande grâce au modèle AWS SAM. Cinq fonctions Lambda spécialisées orchestrent les différentes capacités : interface chatbot, traitement de l'essayage virtuel, génération de recommandations, ingestion de données et recherche intelligente. Le stockage s'appuie sur des buckets S3, la recherche vectorielle sur OpenSearch Serverless, et le suivi analytique en temps réel sur DynamoDB. La solution est disponible en open source sur GitHub et peut être déployée directement dans un compte AWS, de préférence en région us-east-1. Cette technologie s'attaque à un problème économique majeur du e-commerce : l'incertitude des acheteurs face à la taille et au rendu visuel des produits, qui génère des taux de retour élevés, des coûts opérationnels importants et une frustration client. En permettant aux consommateurs de visualiser de façon réaliste un vêtement ou un accessoire porté sur eux, le système améliore directement la confiance à l'achat et réduit les retours, avec un impact mesurable sur la rentabilité. Au-delà de l'essayage, la solution intègre une recherche en langage naturel comprenant l'intention client, des recommandations visuellement pertinentes basées sur Amazon Titan Multimodal Embeddings, et un tableau de bord analytique qui aide les retailers à optimiser leur inventaire et leurs décisions merchandising. Le commerce en ligne est sous pression croissante pour reproduire l'expérience sensorielle du magasin physique, un défi que les technologies de réalité augmentée et d'IA générative commencent seulement à résoudre à grande échelle. AWS positionne cette solution autant pour ses partenaires intégrateurs que pour les retailers qui souhaitent accélérer leur transformation numérique sans développer d'infrastructure propriétaire. La conception modulaire permet d'adopter une ou plusieurs fonctionnalités de façon indépendante, abaissant ainsi la barrière à l'entrée pour les enseignes de taille intermédiaire. À mesure que les modèles de fondation d'Amazon Bedrock gagnent en disponibilité régionale et en performance, ce type de solution hybride, combinant vision par ordinateur, embeddings multimodaux et génération d'images, devrait s'imposer comme standard dans les plateformes e-commerce de nouvelle génération.

UELes retailers français et européens peuvent déployer cette solution pour réduire leurs taux de retour e-commerce, mais au prix d'une dépendance totale à l'infrastructure cloud américaine d'AWS.

OutilsOutil
1 source