
Des scientifiques artificiels
Les grandes entreprises d'intelligence artificielle ont longtemps brandi la promesse d'une science révolutionnée pour justifier leurs investissements massifs. Cette promesse prend aujourd'hui une forme concrète : en octobre 2025, OpenAI a lancé une équipe dédiée à l'IA pour la science et vient d'annoncer GPT-Rosalind, premier d'une série de modèles scientifiques spécialisés. Anthropic a simultanément dévoilé plusieurs fonctionnalités Claude orientées vers les sciences biologiques. Google DeepMind, pionnier dans ce domaine, avait déjà décroché le Nobel de chimie 2024 avec AlphaFold, le système de prédiction de structures protéiques développé par Demis Hassabis et John Jumper. En février 2026, Google publiait son propre outil de co-scientifique IA. Sous le capot, ces systèmes combinent généralement plusieurs agents spécialisés : l'outil de Google mobilise un agent superviseur, un agent de génération et un agent de classement pour produire hypothèses et plans de recherche à partir d'un objectif fourni par un chercheur humain. Des chercheurs de Stanford ont de leur côté créé un "laboratoire virtuel" multi-agents capable de concevoir de nouveaux fragments d'anticorps se liant au SARS-CoV-2.
L'enjeu dépasse la simple assistance : OpenAI a officiellement désigné la construction d'un chercheur autonome comme sa "North Star". En février, la société a connecté GPT-5 aux laboratoires biologiques automatisés de Ginkgo Bioworks, permettant au système de proposer des expériences et d'interpréter les résultats avec une intervention humaine minimale. Résultat : après un volume d'expériences massif, le système a mis au point un protocole réduisant de 40 % le coût de synthèse d'une protéine spécifique. Cette capacité à itérer à grande vitesse, sans les contraintes physiques ou cognitives d'une équipe humaine, représente un avantage compétitif considérable pour les laboratoires pharmaceutiques, biotechs et centres de recherche fondamentale.
Mais une étude publiée dans Nature apporte une nuance importante : si les scientifiques individuels tirent avantage de l'IA dans leur carrière, la science dans son ensemble pourrait en pâtir. En effet, les modèles d'IA excellent dans l'analyse de bases de données existantes et de littérature établie, ce qui pousse les chercheurs qui les utilisent à se concentrer sur des domaines déjà bien documentés, au détriment de territoires moins balisés mais potentiellement décisifs. Le risque est une homogénéisation progressive des sujets de recherche, laissant en jachère des problèmes complexes moins compatibles avec les approches algorithmiques. Pour que l'IA amplifie réellement la science plutôt que de l'uniformiser, la communauté scientifique devra coordonner activement ses efforts pour préserver la diversité et l'originalité de la recherche à l'ère des agents autonomes.
Google DeepMind, basé à Londres, est pionnier mondial de l'IA scientifique avec AlphaFold et son outil de co-scientifique, ce qui positionne l'Europe comme acteur clé dans la course à l'automatisation de la recherche scientifique.




