Aller au contenu principal
Déclaration conjointe d'OpenAI et de Microsoft
RechercheOpenAI Blog34sem

Déclaration conjointe d'OpenAI et de Microsoft

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI et Microsoft ont signé un nouvel MOU pour renforcer leur partenariat et leur engagement commun envers la sécurité et l'innovation en IA. Cette collaboration met l'accent sur l'amélioration continue des systèmes d'IA, garantissant leur responsabilité et leur alignement avec les valeurs humaines.

Impact France/UE

Microsoft et OpenAI fortissent leur alliance pour développer des systèmes d'IA sécurisés et alignés sur les valeurs humaines, affectant potentiellement des entreprises françaises et européennes en secteurs gérés par l'IA, en se conformant à des réglementations comme l'AI Act et le RGPD.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Déclaration conjointe d'OpenAI et de Microsoft
1OpenAI Blog 

Déclaration conjointe d'OpenAI et de Microsoft

OpenAI et Microsoft maintiennent une collaboration étroite en recherche, ingénierie et développement de produits, capitalisant sur des années de coopération approfondie et de succès partagés.

UEOpenAI et Microsoft renforcent leur partenariat pour l'innovation en IA, influençant potentiellement des entreprises françaises et européennes, sans impact direct immédiat sur la conformité aux lois comme le RGPD ou l'AI Act, mais ouvrant des opportunités dans les secteurs de l'IA et du développement de produits.

RechercheActu
1 source
Implémentation de Microsoft OpenMementos : analyse des traces, compression de contexte et préparation des données d'affinage
2MarkTechPost 

Implémentation de Microsoft OpenMementos : analyse des traces, compression de contexte et préparation des données d'affinage

Microsoft a publié OpenMementos, un jeu de données conçu pour entraîner des modèles de langage capables de raisonnement long, structuré et compressible. Le dataset, disponible sur HuggingFace sous l'identifiant microsoft/OpenMementos, organise chaque trace de raisonnement en une série de blocs délimités par des tokens spéciaux (<|blockstart|>, <|blockend|>) accompagnés chacun de leur résumé condensé, appelé memento, encadré par <|summarystart|> et <|summaryend|>. Un tutoriel technique détaillé, conçu pour fonctionner directement dans Google Colab, montre comment accéder au dataset en mode streaming sans le télécharger intégralement, analyser sa structure interne, mesurer les taux de compression bloc-par-bloc sur 500 exemples répartis selon le domaine et la source, puis préparer les données pour un fine-tuning supervisé. L'ensemble du pipeline repose sur des bibliothèques Python standard : HuggingFace Datasets, Transformers, Pandas et Matplotlib. La valeur centrale d'OpenMementos réside dans son architecture de compression. Chaque réponse longue d'un modèle de raisonnement est découpée en blocs discrets, puis chaque bloc est automatiquement réduit à un memento de quelques phrases. Le tutoriel mesure ce rapport de compression en caractères et en mots par domaine, révélant à quel point les mementos permettent de préserver l'essentiel du raisonnement avec une fraction du volume textuel. Cette structure est directement exploitable pour l'entraînement : plutôt que de forcer un modèle à reproduire intégralement des chaînes de pensée verbeuses, on peut l'entraîner à produire des résumés intermédiaires compacts, ce qui réduit les coûts de calcul à l'inférence tout en maintenant la cohérence logique sur des problèmes complexes. Ce travail s'inscrit dans une tendance de fond qui agite les laboratoires d'IA depuis fin 2024 : comment rendre les modèles de raisonnement économiquement viables. Les approches chain-of-thought et les architectures de type "thinking model", popularisées par OpenAI avec o1 puis par DeepSeek-R1 et Qwen-QwQ, génèrent des traces de raisonnement extrêmement longues et coûteuses à stocker, transmettre et inférer. Microsoft répond à ce défi avec une solution de compression supervisée des traces, en annotant explicitement les résumés intermédiaires au niveau des blocs. OpenMementos fournit ainsi une base d'entraînement structurée pour des modèles capables de "penser de façon compacte", une propriété qui pourrait devenir déterminante à mesure que les applications industrielles exigent des latences et des coûts d'inférence maîtrisés sur des tâches de raisonnement multi-étapes.

RecherchePaper
1 source
3MIT Technology Review 

OpenAI mise tout sur la création d'un chercheur entièrement automatisé

OpenAI réoriente ses efforts de recherche vers un objectif ambitieux : construire un "chercheur IA" entièrement automatisé, capable de résoudre seul des problèmes complexes en mathématiques, sciences du vivant ou politique. Le chef scientifique Jakub Pachocki annonce un premier jalon pour septembre 2026 — un "intern IA" autonome — suivi d'un système multi-agents complet prévu pour 2028. Face à la concurrence d'Anthropic et Google DeepMind, OpenAI affirme disposer désormais de la plupart des briques nécessaires pour atteindre cet objectif.

RecherchePaper
1 source
OpenAI offre aux mainteneurs open-source six mois d'accès gratuit à ChatGPT Pro et Codex
4The Decoder 

OpenAI offre aux mainteneurs open-source six mois d'accès gratuit à ChatGPT Pro et Codex

OpenAI offre gratuitement pendant six mois à mainteneurs de projets open-source les versions Pro de ChatGPT et Codex, ainsi que des outils de sécurité. Cette initiative vise à soutenir les développeurs open-source.

UEOpenAI offre gratuitement pendant six mois à mainteneurs de projets open-source français/européens les versions Pro de ChatGPT et Codex, soutenant ainsi les initiatives de développement logiciel open-source dans l'UE.

RechercheOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour