Aller au contenu principal
OutilsThe Verge AI2h

Meta se prépare à lancer deux nouvelles lunettes Ray-Ban avec IA

1 source couvre ce sujet·Source originale ↗·

**Meta** et son partenaire fabricant **EssilorLuxottica** se préparent à lancer la prochaine génération de leurs lunettes connectées **Ray-Ban AI**. Des dépôts auprès de la **FCC** (Federal Communications Commission) américaine, publiés début mars 2026, révèlent l'existence de **deux nouveaux modèles** Ray-Ban Meta. Ces documents décrivent les appareils testés comme des « unités de production », ce qui indique généralement une commercialisation imminente. Ce lancement marque une nouvelle étape dans la course aux lunettes intelligentes grand public. Les Ray-Ban Meta, dotées d'une caméra, de microphones et d'un assistant IA vocal, ont déjà redéfini ce segment en combinant un design familier avec des fonctionnalités d'IA embarquées. **Deux nouveaux modèles** simultanés suggèrent une stratégie d'élargissement de la gamme, possiblement pour toucher différents segments de prix ou d'usages. Pour des millions de consommateurs, cela pourrait signifier des lunettes encore plus capables, avec de meilleures performances d'IA ou une autonomie améliorée. Meta avait dévoilé ses Ray-Ban de **deuxième génération fin 2023**, un peu plus d'un mois après les dépôts FCC correspondants — ce précédent laisse penser qu'une annonce officielle pourrait intervenir rapidement. La collaboration avec EssilorLuxottica, géant mondial de l'optique, donne à Meta un avantage de distribution et de légitimité que ses concurrents peinent à égaler. Alors qu'**Apple** et **Google** restent discrets sur leurs propres lunettes AR, Meta consolide sa position de leader incontesté du marché des lunettes connectées à l'IA.

Impact France/UE

EssilorLuxottica, groupe franco-italien (Essilor étant d'origine française), est co-fabricant des lunettes Ray-Ban Meta, ce qui positionne un acteur européen majeur au cœur du marché des wearables IA grand public.

À lire aussi

1Le Monde Pixels41min

Manus, une IA chinoise dernier cri prise dans la bataille technologique entre la Chine et les Etats-Unis

**Manus**, l'agent IA développé par la startup chinoise **Butterfly Effect** (filiale de **Monica**), a fait irruption sur la scène mondiale début mars 2025, déclenchant une vague d'enthousiasme sans précédent. En quelques jours, la liste d'attente pour accéder à la version bêta a dépassé **un million de personnes**, tandis que les démonstrations virales montraient l'agent accomplir de manière autonome des tâches complexes : recherche approfondie, rédaction de rapports, gestion de fichiers, navigation web. Contrairement aux chatbots classiques, Manus agit sans supervision humaine continue. L'émergence de Manus s'inscrit dans un contexte de compétition technologique féroce entre **Pékin** et **Washington**. Après le choc **DeepSeek** en janvier 2025, qui avait démontré qu'une IA chinoise pouvait rivaliser avec les meilleurs modèles américains à moindre coût, Manus confirme que la Chine n'entend pas rester en marge de la révolution des agents IA — un segment jugé stratégique par les deux puissances. Cette montée en puissance intervient alors que les États-Unis ont renforcé leurs restrictions sur l'exportation de puces vers la Chine. **Nvidia**, dont les GPU H100 sont au cœur du développement IA, se retrouve au centre de ces tensions. La capacité des équipes chinoises à produire des résultats compétitifs malgré ces contraintes matérielles soulève des questions sur l'efficacité réelle des sanctions américaines, et laisse présager une intensification de la rivalité technologique entre les deux blocs.

UELa rivalité sino-américaine sur les puces IA et l'émergence d'agents autonomes chinois compétitifs renforcent la pression sur l'Europe pour accélérer sa propre souveraineté technologique en matière d'IA.

OutilsOpinion
1 source
2Le Big Data49min

OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA

**OpenClaw**, l'agent IA local et open source lancé fin 2025, a rapidement dépassé **Linux** et **React** sur GitHub pour atteindre plus de **330 000 étoiles**, s'imposant comme l'un des projets les plus suivis de la plateforme. Contrairement aux chatbots classiques, OpenClaw agit directement sur la machine de l'utilisateur de manière autonome. Pour étendre ses capacités, la communauté a développé une marketplace d'extensions appelée **ClawHub**, proposant des milliers de modules baptisés Skills. Parmi les plus plébiscités : le **Skill Obsidian**, qui synchronise l'agent avec une base de notes locale en Markdown ; le module **RAG (Retrieval-Augmented Generation)** pour interroger des documents PDF et archives internes sans envoyer de données vers des serveurs externes ; le **Skill GOG** pour connecter l'agent à Gmail, Google Calendar et Drive via OAuth ; et enfin le **Skill GitHub**, qui s'appuie sur le CLI officiel `gh` pour gérer le cycle de vie complet d'un dépôt de code. Ce qui distingue OpenClaw des assistants IA classiques, c'est précisément cette capacité à passer de la consultation à l'exécution concrète. Un utilisateur peut demander à l'agent de trier sa boîte mail, rédiger une note structurée dans Obsidian, ou créer une pull request sur GitHub — le tout sans ouvrir un seul onglet de navigateur. Le module RAG est particulièrement stratégique pour les entreprises : il permet d'interroger des gigaoctets de documentation interne sensible en restant entièrement en local, éliminant le risque de fuite de données vers des API tierces. Pour les développeurs, le Skill GitHub transforme l'agent en ingénieur DevOps autonome capable de gérer des workflows complexes sans supervision constante. OpenClaw s'inscrit dans une tendance de fond : la montée des agents IA locaux, souverains et extensibles, portée par la communauté open source. Son ascension fulgurante rappelle celle de projets comme **Docker** ou **Kubernetes** en leur temps — des outils qui ont redéfini les pratiques professionnelles en quelques mois. La marketplace **ClawHub** joue un rôle central dans cet écosystème, en reproduisant le modèle de distribution des extensions de VS Code ou des plugins npm, mais appliqué à l'automatisation par IA. Les prochains enjeux tournent autour de la sécurité des Skills tiers, de la standardisation des interfaces entre modules, et de l'émergence d'agents capables de chaîner plusieurs Skills de manière fiable sur des tâches longues — un défi technique que la communauté commence à peine à adresser.

UELe module RAG local d'OpenClaw répond aux exigences de souveraineté des données imposées par le RGPD, permettant aux entreprises européennes de traiter des documents internes sensibles sans transférer de données vers des serveurs tiers.

OutilsOutil
1 source
3AWS ML Blog1h

Créer une IA adaptée à l'âge et au contexte avec Amazon Bedrock Guardrails

**Amazon Web Services** a dévoilé une architecture serverless permettant d'adapter automatiquement les réponses d'une IA générative selon le profil de l'utilisateur — son âge, son rôle professionnel et son niveau d'expertise. La solution repose sur **Amazon Bedrock Guardrails**, un système de filtrage centralisé qui sélectionne dynamiquement l'un des **cinq profils de protection** disponibles au moment de l'inférence : enfants (conforme COPPA), adolescents en contexte éducatif, professionnels de santé, patients, et adultes grand public. L'authentification passe par **Amazon Cognito**, les profils utilisateurs sont stockés dans **Amazon DynamoDB**, et l'ensemble est exposé via **Amazon API Gateway** et **AWS Lambda**, sans serveur à gérer. Concrètement, un même prompt reçoit une réponse différente selon que l'appelant est un pédiatre ou un enfant de dix ans. Cette approche répond à un problème réel dans les déploiements IA à grande échelle : les garde-fous basés uniquement sur le prompt sont contournables par des techniques de manipulation — les modèles peuvent être amenés à ignorer leurs instructions de sécurité. En centralisant les politiques dans une couche d'application indépendante du code métier, **AWS** rend les règles de modération non débordables par l'application elle-même. Pour les secteurs sensibles comme **la santé ou l'éducation**, où une réponse inappropriée peut avoir des conséquences réelles sur des utilisateurs vulnérables, ce niveau de contrôle devient un prérequis de conformité. Le résultat est aussi une réduction de la complexité opérationnelle : au lieu de maintenir des logiques de personnalisation dans chaque application, une seule configuration centralisée s'applique à l'ensemble du parc. La montée en puissance des applications IA dans des environnements réglementés — santé, éducation, services publics — a mis en lumière les limites du prompt engineering comme seule ligne de défense. Les grandes organisations déploient désormais des couches de gouvernance distinctes du modèle lui-même, une tendance que **Google**, **Microsoft** et **AWS** adressent chacun avec leurs propres systèmes de guardrails. La spécificité de cette implémentation **Bedrock** est d'associer l'identité authentifiée de l'utilisateur à une politique d'inférence en temps réel, plutôt que de laisser l'application décider. Les suites probables incluent une adoption dans les plateformes e-learning et les portails patients, où le respect du **COPPA** et du **HIPAA** est légalement contraignant, et où la traçabilité des décisions de modération devient un enjeu d'audit.

UEL'architecture proposée peut aider les entreprises européennes à se conformer à l'AI Act et au RGPD en déployant des garde-fous contextuels pour les secteurs réglementés comme la santé et l'éducation.

OutilsOutil
1 source
4AWS ML Blog1h

Affiner les LLM avec des données non structurées via SageMaker Unified Studio et S3

**Amazon Web Services** a annoncé une intégration entre **Amazon SageMaker Unified Studio** et les buckets **Amazon S3** grand public, permettant d'exploiter des données non structurées directement dans les workflows de machine learning. Le cas d'usage présenté illustre l'affinage du modèle **Llama 3.2 11B Vision Instruct** — développé par Meta — pour des tâches de questions-réponses visuelles (VQA), comme l'extraction automatique d'informations depuis des reçus ou documents scannés. Le modèle de base atteint un score ANLS de **85,3 %** sur le benchmark DocVQA, une métrique mesurant la similarité entre réponse prédite et réponse attendue. Pour l'affinage, AWS utilise le dataset DocVQA de **Hugging Face**, qui contient **39 500 exemples** d'entraînement associant image, question et réponse. Trois versions affinées sont produites avec des volumes de données variables : **1 000, 5 000 et 10 000 images**, orchestrées entièrement via SageMaker Unified Studio et évaluées avec Amazon SageMaker MLflow en mode serverless. Cet affinement ciblé permet aux équipes data de dépasser les limites d'un modèle généraliste sans reconstruire une infrastructure complexe de bout en bout. Pour les entreprises traitant des documents à haute valeur — contrats, factures, rapports médicaux — gagner quelques points de précision au-delà de 85 % peut représenter une différence opérationnelle significative. L'intégration native entre S3 et le catalogue SageMaker supprime une friction majeure : les données non structurées (images, PDF, textes bruts) deviennent des actifs directement exploitables par les équipes ML sans pipeline d'ingestion personnalisé. Le suivi des expériences via **MLflow serverless** permet en outre de comparer objectivement les trois variantes affinées et de documenter les gains de performance, une exigence croissante dans les déploiements enterprise. Cette annonce s'inscrit dans la stratégie d'AWS pour faire de SageMaker Unified Studio une plateforme unifiée couvrant l'ensemble du cycle MLOps, depuis l'ingestion des données brutes jusqu'au déploiement en production. La montée en puissance des modèles multimodaux — capables de traiter simultanément texte et image — crée une demande forte pour des outils d'affinage accessibles, sans que chaque équipe doive maîtriser les subtilités de l'entraînement distribué. AWS positionne ici **SageMaker JumpStart** comme point d'accès aux modèles fondamentaux, tandis que l'infrastructure d'entraînement repose sur des instances **p4de.24xlarge**, des GPU haute performance nécessitant une demande d'augmentation de quota. La prochaine étape logique pour AWS sera d'élargir cette intégration à d'autres formats de données non structurées et à davantage de modèles fondamentaux, dans un contexte où **Google**, **Microsoft Azure** et les plateformes spécialisées comme **Modal** ou **Together AI** se disputent le même terrain des équipes ML entreprise.

OutilsOutil
1 source