Aller au contenu principal
OutilsThe Verge AI1h

Google lance une application Gemini AI sur Mac

2 sources couvrent ce sujet·Source originale ↗·
Egalement couvert par :TechCrunch AI

Google a lancé une application Gemini dédiée sur Mac, permettant aux utilisateurs d'interagir avec l'assistant IA sans quitter leur flux de travail. Le raccourci clavier Option + Espace fait apparaître une bulle de chat flottante depuis laquelle on peut poser des questions à Gemini ou partager le contenu de la fenêtre active. L'application demande au préalable l'autorisation d'accéder aux informations du système, après quoi l'assistant analyse ce qui est affiché à l'écran pour formuler ses réponses.

Cette intégration directe dans l'environnement de bureau représente un changement notable dans la façon dont les assistants IA s'insèrent dans le quotidien des professionnels. Plutôt que d'ouvrir un onglet de navigateur ou de basculer entre applications, l'utilisateur obtient une aide contextuelle instantanée, ancrée dans ce qu'il est en train de faire. Pour les développeurs, rédacteurs ou analystes qui jonglent avec plusieurs fenêtres, ce gain de fluidité peut se traduire concrètement en gain de temps.

Cette approche rappelle directement la nouvelle version de Spotlight chez Apple, qui permet désormais d'effectuer des actions sur l'appareil via une interface similaire. Google entre ainsi dans une compétition directe avec Apple Intelligence sur le territoire macOS, terrain historiquement dominé par Apple. Alors que Microsoft intègre Copilot dans Windows depuis 2023, la bataille des assistants IA natifs sur les systèmes d'exploitation grand public s'intensifie, chaque acteur cherchant à devenir le point d'entrée privilégié de l'utilisateur.

À lire aussi

1Le Big Data 

NVIDIA vient de tuer le rendu 3D classique : découvrez Lyra 2.0 !

NVIDIA a publié le 15 avril 2026 Lyra 2.0, un nouveau framework de recherche capable de générer des environnements 3D persistants et explorables à grande échelle. Développé par NVIDIA Research, cet outil repose sur une génération vidéo 3D guidée par une caméra virtuelle : le système reconstruit progressivement la structure volumétrique d'une scène à partir de séquences d'images, transformant chaque mouvement de caméra en matière tridimensionnelle exploitable. La particularité centrale est la persistance géométrique, chaque zone visitée est mémorisée par image, ce qui permet de revenir en arrière sans que le système réinvente les détails disparus de son champ de vue. Lyra 2.0 intègre également un mécanisme de correction de la dérive temporelle, un phénomène qui dégradait les scènes générées sur la durée dans les approches précédentes. Les scènes produites peuvent être exportées en Gaussian Splatting, une technique de rendu rapide basée sur des points lumineux, et intégrées à des simulateurs comme Isaac Sim. L'impact concret de Lyra 2.0 touche plusieurs industries simultanément. Pour les studios de jeu vidéo et les équipes de production 3D, la technologie court-circuite une partie du pipeline traditionnel de modélisation : au lieu de construire manuellement des environnements, on les traverse pendant leur génération automatique. Pour la robotique et l'IA embarquée, les environnements générés deviennent des terrains d'entraînement réalistes, permettant de tester des agents intelligents dans des conditions proches du monde réel sans coûteuses captures physiques. La reconstruction feed-forward, qui transforme une vidéo en structure 3D sans étape manuelle lourde, ouvre la voie à une production de données synthétiques à une échelle difficile à atteindre jusqu'ici. C'est ce double usage, création visuelle et simulation opérationnelle, qui distingue Lyra 2.0 des outils de génération vidéo classiques. La sortie de Lyra 2.0 intervient dans un contexte de compétition intense autour des mondes 3D génératifs. NVIDIA a publié le code source le 15 avril 2026, soit un jour seulement après que World Labs a lancé Spark 2.0, son propre système concurrent. Ce calendrier serré illustre la course que se livrent les grands acteurs de l'IA pour imposer leurs standards dans ce segment émergent. NVIDIA part avec un avantage structurel : son écosystème logiciel, Isaac Sim, Gaussian Splatting, les GPU omniprésents dans les datacenters, lui permet d'intégrer Lyra 2.0 dans des workflows industriels existants dès le départ. Les prochaines étapes attendues concernent l'amélioration de la résolution des scènes générées, la gestion des environnements extérieurs complexes, et l'intégration plus poussée avec les pipelines de simulation robotique où NVIDIA investit massivement depuis plusieurs années.

UELes studios de jeux vidéo et équipes de robotique européens peuvent adopter ce framework open source pour accélérer leur pipeline de création 3D et générer des données d'entraînement synthétiques sans captures physiques coûteuses.

OutilsPaper
1 source
2VentureBeat AI 

Nous avons testé la nouvelle app bureau Claude Code et les 'Routines' : ce que les entreprises doivent savoir

Le 14 avril 2026, Anthropic a lancé deux mises à jour majeures pour Claude Code : une refonte complète de l'application desktop (Mac et Windows) et l'introduction des « Routines » en aperçu de recherche. L'application redessinée s'articule autour d'une nouvelle fonctionnalité centrale appelée « Mission Control » : une barre latérale permettant de gérer toutes les sessions actives et récentes en un seul écran, filtrables par statut, projet ou environnement. En parallèle, les Routines se déclinent en trois catégories : les Routines planifiées (exécution sur un calendrier, comme un cron job sophistiqué), les Routines API (endpoints dédiés avec tokens d'authentification pour déclencher Claude via HTTP depuis des outils comme Datadog), et les Routines Webhook (déclenchées par des événements GitHub, comme des commentaires de pull request ou des échecs CI/CD). Les limites quotidiennes sont fixées à 5 Routines pour les utilisateurs Pro, 15 pour Max, et 25 pour les abonnements Team et Enterprise, avec possibilité d'acheter des quotas supplémentaires. Ces mises à jour marquent un changement de philosophie profond : Anthropic abandonne le paradigme du « copilote » à fil unique pour celui de l'orchestration multi-agents. Un développeur peut désormais piloter simultanément un refactoring dans un dépôt, une correction de bugs dans un second et l'écriture de tests dans un troisième, tout en surveillant l'avancement depuis un seul tableau de bord. La fonctionnalité « Side Chat » (accessible via ⌘ + ;, ou via la commande /btw en terminal) répond à un problème concret du travail agentique : poser une question de clarification sans polluer l'historique de la tâche principale. Surtout, les Routines déplacent l'exécution vers l'infrastructure cloud d'Anthropic, ce qui signifie qu'une tâche critique, comme le tri nocturne de bugs depuis un backlog Linear, peut tourner à 2h du matin sans que l'ordinateur du développeur soit allumé. Ces annonces s'inscrivent dans une tendance de fond qui voit les grands acteurs de l'IA transformer leurs outils de développement en plateformes d'automatisation d'entreprise. Pendant des années, le secteur s'est concentré sur des assistants réactifs intégrés aux IDE ; l'évolution vers des agents autonomes capables d'agir sur plusieurs dépôts en parallèle, et de s'intégrer directement dans les pipelines CI/CD ou les systèmes d'alerte, représente une rupture architecturale. Anthropic doit cependant convaincre les développeurs attachés au terminal, plus léger et mieux intégré aux workflows shell existants, que l'interface graphique apporte une valeur réelle. La bataille pour devenir l'environnement de référence du développeur augmenté est désormais ouverte, avec OpenAI, Google et des acteurs comme Cursor en embuscade.

UELes développeurs et entreprises européens peuvent intégrer Claude Code directement dans leurs pipelines CI/CD et systèmes d'alerte, mais l'exécution des Routines sur l'infrastructure cloud d'Anthropic soulève des questions de conformité RGPD pour les équipes soumises à des contraintes de résidence des données.

OutilsOutil
1 source
3Ars Technica AI 

Adobe amène Creative Cloud sur le terrain de Claude Code

Adobe vient de franchir une étape importante dans l'évolution de Creative Cloud en lançant Firefly AI Assistant, une interface conversationnelle capable de gérer des projets complexes et multi-modaux à travers plusieurs applications simultanément. Contrairement aux fonctionnalités d'IA ponctuelles déjà intégrées dans Photoshop, Illustrator ou Premiere Pro, ce nouvel outil fonctionne comme un chef d'orchestre entre les différentes applications de la suite, en interagissant régulièrement avec l'utilisateur pour poser des questions ou proposer des ajustements en cours de tâche. Les utilisateurs peuvent intervenir à tout moment pour apporter des précisions, un peu à la manière des outils de programmation assistée par IA comme Claude Code. L'outil répond à deux besoins distincts : offrir aux créatifs expérimentés un moyen efficace de déléguer les tâches répétitives et chronophages qui traversent plusieurs logiciels, tout en abaissant la barrière d'entrée pour les utilisateurs occasionnels ou débutants. Adobe reconnaît que la complexité croissante de ses outils a jusqu'ici "élargi le fossé entre l'idée et la réalisation", une formulation qui souligne un problème structurel dans l'expérience utilisateur de la suite Creative Cloud. Firefly AI Assistant entend combler cet écart en rendant l'orchestration de workflows multi-applications accessible via une simple conversation. Adobe proposait déjà des interfaces de chat dans certaines applications individuelles ainsi qu'un accès à des modèles génératifs via la marque Firefly. Mais la nouveauté réside dans la capacité à orchestrer des tâches à travers l'ensemble de l'écosystème Creative Cloud, et non plus application par application. Ce lancement s'inscrit dans une course industrielle où Microsoft, Google et de nombreuses startups cherchent à transformer leurs suites logicielles en agents autonomes capables d'exécuter des projets de bout en bout. Pour Adobe, dont le modèle repose sur des abonnements Creative Cloud à plusieurs dizaines d'euros par mois, l'enjeu est de justifier la valeur de la plateforme dans un contexte où des concurrents spécialisés en IA générative gagnent du terrain.

UELes professionnels créatifs français et européens abonnés à Creative Cloud pourront déléguer des workflows multi-applications via une interface conversationnelle, réduisant la barrière d'entrée à l'orchestration de projets complexes.

OutilsOutil
1 source
4AWS ML Blog 

Rede Mater Dei de Saúde surveille ses agents IA dans le circuit de facturation avec Amazon Bedrock AgentCore

Le réseau hospitalier brésilien Rede Mater Dei de Saúde déploie actuellement une suite de douze agents d'intelligence artificielle pour automatiser l'ensemble de son cycle de facturation médicale, en s'appuyant sur Amazon Bedrock AgentCore, le service d'infrastructure d'agents d'AWS. Cette initiative, développée en partenariat avec le cabinet de données A3Data et le AWS Generative AI Innovation Center, vise à réduire drastiquement le taux de refus de remboursement des assureurs, qui a bondi en 2024 de 11,89 % à 15,89 % dans le secteur hospitalier privé brésilien, selon l'association nationale Anahp, représentant jusqu'à 10 milliards de reais de revenus non perçus pour le secteur. Parmi les premiers agents déployés figurent un agent Contrats, qui centralise les règles contractuelles dispersées dans des documents hétérogènes, un agent Paramétrage, qui traduit automatiquement ces règles dans le système ERP de l'hôpital, et un agent Autorisation, qui automatise les échanges avec les compagnies d'assurance santé. L'enjeu est directement financier et opérationnel. Rede Mater Dei, qui gère des établissements à Belo Horizonte, Salvador, Goiânia, Uberlândia et plusieurs autres villes brésiliennes, faisait face à des centaines d'employés affectés à des tâches manuelles répétitives, à des données fragmentées et à un fort turnover sur ces postes. Chaque erreur dans le cycle de facturation, de l'accréditation des prestataires jusqu'à la facturation finale, se traduisait par des refus de remboursement coûteux et des corrections chronophages. Les agents IA fonctionnent désormais de manière orchestrée et continue, structurés en trois couches : une couche de données (DEL), une couche d'exécution des agents (AEL) et une couche de gouvernance et conformité (TCL), garantissant traçabilité et auditabilité de chaque décision automatisée. Ce projet s'inscrit dans un contexte de pression croissante sur la rentabilité des hôpitaux privés en Amérique latine, où les processus administratifs restent largement manuels et les systèmes d'information souvent morcelés. Rede Mater Dei, fort de 45 ans d'histoire, fait figure de pionnier continental en testant AgentCore Evaluation dans un environnement de production réel à haute criticité. Amazon Bedrock AgentCore, lancé comme service d'exécution serverless pour agents IA, offre nativement la gestion de la mémoire, l'intégration d'outils et l'observabilité en production, des capacités indispensables lorsque des agents autonomes prennent des décisions impactant directement les flux de trésorerie d'un réseau hospitalier. La suite complète de douze agents, une fois déployée intégralement, ambitionne de constituer une véritable "force de travail numérique" capable de percevoir, décider et agir sans intervention humaine sur l'ensemble du cycle de revenus.

OutilsActu
1 source