Aller au contenu principal
Le scientifique en chef d'OpenAI fait confiance à l'IA pour les expériences, mais estime qu'elle n'est pas encore capable de concevoir des systèmes complexes
LLMsThe Decoder6sem

Le scientifique en chef d'OpenAI fait confiance à l'IA pour les expériences, mais estime qu'elle n'est pas encore capable de concevoir des systèmes complexes

Résumé IASource uniqueImpact UE
Source originale ↗·

Jakub Pachocki, scientifique en chef d'OpenAI, a partagé une perspective nuancée sur l'utilisation de l'IA dans son propre travail de recherche : si l'IA a profondément transformé sa productivité quotidienne, elle reste, selon lui, loin d'être autonome sur les tâches de conception complexes.

Celui qui pilote la recherche fondamentale chez OpenAI reconnaît que les outils d'IA ont radicalement changé son flux de travail. Des expériences qui lui demandaient auparavant une semaine entière peuvent désormais être déléguées à l'IA, lui libérant un temps précieux pour des réflexions de plus haut niveau. Ce témoignage de première main, venant d'un des chercheurs les plus influents du domaine, illustre concrètement le gain de productivité que ces outils apportent même aux experts.

Malgré cet enthousiasme pratique, Pachocki pose une limite claire : l'IA n'est pas encore capable de concevoir des systèmes complexes de façon autonome. Là où l'automatisation fonctionne bien pour les tâches répétitives et les expériences balisées, la conception architecturale — qui exige raisonnement stratégique, intuition et prise de décision dans l'incertitude — reste le domaine réservé de l'humain. Une distinction importante à l'heure où le débat sur les agents autonomes de recherche s'intensifie.

Cette prise de position intervient dans un contexte où OpenAI et ses concurrents investissent massivement dans des systèmes capables d'automatiser la recherche scientifique elle-même. Le signal envoyé par Pachocki est clair : l'IA est un outil de levier, pas encore un chercheur indépendant.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Decoder 

Les LLM excellent en code et en maths mais peinent sur les questions triviales, et ce n'est pas contradictoire

Les grands modèles de langage (LLM) affichent des performances remarquables sur les tâches structurées : ils peuvent remanier des bases de code entières en quelques heures, résoudre des problèmes mathématiques complexes et obtenir des scores proches de l'humain sur les benchmarks académiques les plus exigeants. Pourtant, ces mêmes modèles trébuchent régulièrement sur des questions anodines du quotidien, des situations qui ne requièrent aucune expertise technique mais simplement du bon sens et une compréhension souple du langage naturel informel. Ce paradoxe apparent n'en est pas un : il révèle une limite structurelle des architectures actuelles. Les LLM excellent dans les domaines où les données d'entraînement sont abondantes, formatées et codifiées, comme le code source ou les démonstrations mathématiques. En revanche, le langage courant est ambigu, chargé de sous-entendus culturels et de contexte implicite, des dimensions que les modèles reproduisent statistiquement sans les comprendre véritablement. Le fossé entre performance sur benchmark et utilité réelle dans la vie quotidienne reste donc considérable. Ce constat alimente un débat central dans la recherche en IA : les capacités impressionnantes des LLM sur des tâches spécialisées sont-elles le signe d'une intelligence générale émergente, ou simplement le reflet d'une mémorisation sophistiquée de patterns ? Pour les équipes qui développent des assistants grand public chez OpenAI, Google ou Anthropic, combler cet écart entre compétence technique et intelligence conversationnelle ordinaire constitue l'un des défis prioritaires des prochaines années.

LLMsPaper
1 source
Le prompt système d'OpenAI Codex contient une directive explicite : "ne jamais parler de gobelins
2Ars Technica AI 

Le prompt système d'OpenAI Codex contient une directive explicite : "ne jamais parler de gobelins

Le system prompt du CLI Codex d'OpenAI contient une directive inhabituelle : GPT-5.5 reçoit l'instruction explicite de "ne jamais parler de gobelins, de gremlins, de ratons laveurs, de trolls, d'ogres, de pigeons ou d'autres animaux ou créatures, sauf si cela est absolument et sans ambiguïté pertinent pour la requête de l'utilisateur." Cette consigne, rendue publique la semaine dernière via le dépôt GitHub open source de Codex CLI, apparaît deux fois dans un ensemble d'instructions de base de plus de 3 500 mots destinées au modèle récemment lancé. Elle côtoie d'autres rappels plus classiques, comme l'interdiction d'utiliser des emojis ou des tirets cadratins sans instruction explicite, ou encore la mise en garde contre les commandes destructives telles que git reset --hard. Ce qui rend cette directive significative, c'est son absence dans les instructions système des modèles antérieurs figurant dans le même fichier JSON. Cela suggère qu'OpenAI fait face à un problème apparu spécifiquement avec GPT-5.5 : le modèle aurait tendance à introduire spontanément des références à des gobelins ou autres créatures dans des conversations sans rapport. Des témoignages récents sur les réseaux sociaux confirment ce comportement, plusieurs utilisateurs signalant des réponses inopinément peuplées de créatures fantastiques lors d'échanges techniques ou professionnels. Ce type d'incident met en lumière un défi persistant du développement des grands modèles de langage : les comportements émergents imprévisibles qui surgissent lors du passage à l'échelle. Lorsqu'un modèle développe des biais ou des obsessions thématiques non intentionnelles, la solution la plus rapide reste souvent d'intervenir directement dans le system prompt plutôt que de relancer un cycle d'entraînement complet. Cette approche, parfois surnommée "patch de comportement", révèle les limites du contrôle fin sur des systèmes aussi complexes que GPT-5.5, dont le déploiement s'accompagne inévitablement d'ajustements post-lancement que même l'équipe d'OpenAI ne peut anticiper entièrement.

LLMsOpinion
1 source
OpenAI lance GPT-Rosalind, son premier modèle d'IA pour les sciences du vivant, conçu pour accélérer la découverte de médicaments et la génomique
3MarkTechPost 

OpenAI lance GPT-Rosalind, son premier modèle d'IA pour les sciences du vivant, conçu pour accélérer la découverte de médicaments et la génomique

OpenAI a lancé GPT-Rosalind, son premier modèle d'intelligence artificielle spécialisé dans les sciences du vivant, conçu pour accélérer la recherche en biologie, en génomique et en découverte de médicaments. Contrairement aux modèles généralistes comme GPT-5, GPT-Rosalind est fine-tuné sur les exigences analytiques propres à la recherche biologique : synthèse de littérature scientifique, conception de protocoles expérimentaux, prédiction de comportements de séquences ARN, et planification d'hypothèses. Le modèle est accessible via ChatGPT, Codex et l'API d'OpenAI, mais uniquement dans le cadre d'un programme d'accès contrôlé réservé aux entreprises qualifiées aux États-Unis. OpenAI lance simultanément un plugin Life Sciences pour Codex, connectant les modèles à plus de 50 outils scientifiques et bases de données biologiques. Sur le benchmark BixBench, conçu pour évaluer des tâches réelles de bioinformatique, GPT-Rosalind atteint un taux de réussite de 0,751. Sur LABBench2, il surpasse GPT-5.4 sur six des onze tâches testées, avec des gains particulièrement nets sur CloningQA, qui évalue la conception de réactifs pour des protocoles de clonage moléculaire. Le potentiel concret de ce modèle est illustré par une évaluation menée en partenariat avec Dyno Therapeutics sur des séquences ARN inédites, jamais intégrées à aucun corpus d'entraînement public. Dans cet environnement Codex, les meilleures soumissions du modèle se sont classées au-dessus du 95e percentile des experts humains pour les tâches de prédiction, et au 84e percentile pour la génération de séquences. Ce résultat est particulièrement significatif car il exclut tout effet de mémorisation et démontre une capacité de raisonnement réelle sur des données biologiques nouvelles. Pour l'industrie pharmaceutique, où le développement d'un médicament prend en moyenne dix à quinze ans et coûte des milliards de dollars, des outils capables de compresser les phases analytiques les plus lourdes représentent un levier économique et scientifique considérable. Ce lancement s'inscrit dans une course que se livrent les grands laboratoires d'IA pour s'imposer dans les sciences de la vie, un secteur qui attire des investissements massifs et où les enjeux réglementaires sont élevés. Google DeepMind a déjà marqué ce terrain avec AlphaFold pour la prédiction de structures protéiques, tandis que des startups comme Insilico Medicine ou Recursion Pharmaceuticals misent sur l'IA pour repenser entièrement le pipeline de découverte de médicaments. OpenAI positionne GPT-Rosalind non pas comme un remplaçant des chercheurs, mais comme un assistant capable de prendre en charge les étapes les plus chronophages du processus scientifique. L'accès restreint au lancement, avec des garde-fous techniques pour signaler les activités potentiellement dangereuses, reflète la prudence qu'impose ce domaine sensible, où une erreur de modèle pourrait avoir des conséquences directes sur des protocoles de laboratoire ou des décisions cliniques.

UEL'accès étant limité aux entreprises américaines qualifiées au lancement, l'impact immédiat sur les biotechs et laboratoires pharmaceutiques européens est indirect, mais ce type de modèle spécialisé pourrait redéfinir les standards de R&D dans un secteur encadré par la réglementation européenne sur les médicaments et les dispositifs médicaux.

LLMsActu
1 source
Mistral mise sur l'IA sur mesure pour concurrencer OpenAI et Anthropic dans l'entreprise
4TechCrunch AI 

Mistral mise sur l'IA sur mesure pour concurrencer OpenAI et Anthropic dans l'entreprise

Mistral lance Mistral Forge, une plateforme permettant aux entreprises d'entraîner des modèles d'IA personnalisés à partir de zéro sur leurs propres données. Cette approche se distingue de celle d'OpenAI et Anthropic, qui misent davantage sur le fine-tuning et les méthodes basées sur la récupération d'information. Mistral positionne ainsi cette offre comme une alternative plus flexible et souveraine pour le marché enterprise.

UEMistral, entreprise française, renforce la souveraineté numérique européenne en proposant aux entreprises une alternative locale pour entraîner des modèles IA sur leurs propres données.

LLMsOutil
1 source