Aller au contenu principal
Préparer l'avenir pour atténuer les risques liés à l'IA en biologie
RechercheOpenAI Blog46sem

Préparer l'avenir pour atténuer les risques liés à l'IA en biologie

Résumé IASource uniqueImpact UE
Source originale ↗·

Préparant l'avenir des risques liés à l'IA en biologie, les avancées en IA peuvent révolutionner la biologie et la médecine, mais aussi poser des risques pour la biosécurité. Une équipe s'engage activement à évaluer les capacités et à mettre en place des mesures de prévention contre toute mauvaise utilisation.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Évaluer la capacité de l'IA à accélérer la recherche biologique
1OpenAI Blog 

Évaluer la capacité de l'IA à accélérer la recherche biologique

OpenAI dévoile un cadre d'évaluation pour mesurer l'impact de l'IA sur l'accélération de la recherche biologique en laboratoire. Utilisant GPT-5 pour optimiser un protocole de clonage moléculaire, l'étude examine les promesses et les risques de l'expérimentation assistée par IA.

UEL'adoption de l'évaluation d'OpenAI pour l'IA en recherche biologique pourrait favoriser des avancées rapides en France et en Europe, notamment pour des entreprises comme Genopole, tout en soulignant la nécessité de se conformer rigoureusement au futur AI Act et au RGPD.

RechercheOutil
1 source
Google utilise d'anciens reportages et l'IA pour prédire les crues soudaines
2TechCrunch AI 

Google utilise d'anciens reportages et l'IA pour prédire les crues soudaines

Google utilise d'anciens rapports journalistiques et un LLM pour convertir des données qualitatives en données quantitatives, afin de pallier le manque de données hydrologiques historiques. Cette approche permet d'améliorer les modèles de prédiction des crues soudaines, un phénomène météorologique particulièrement difficile à anticiper. Le projet illustre comment l'IA peut transformer des archives textuelles en données structurées exploitables pour la prévention des catastrophes naturelles.

RechercheActu
1 source
Paris sportifs : Ce qui risque de vous arriver en demandant conseil à l’IA
3Le Big Data 

Paris sportifs : Ce qui risque de vous arriver en demandant conseil à l’IA

Une start-up londonienne, General Reasoning, a publié une étude baptisée « KellyBench » qui met en lumière les limites des grandes intelligences artificielles face à un défi financier concret : les paris sportifs. Huit modèles issus de Google, OpenAI, Anthropic et xAI ont été soumis à une simulation de la saison 2023-2024 de la Premier League anglaise. Chaque système disposait de données historiques, de statistiques d'équipes et de joueurs, et devait élaborer des stratégies de mise capables de générer des profits tout en limitant les risques, sans accès à Internet et en s'adaptant aux informations fournies au fil des matchs. Les résultats sont sans appel : aucun des modèles testés n'a réussi à rester rentable sur la durée. Le meilleur performer, Claude Opus 4.6 d'Anthropic, affiche tout de même une perte moyenne de 11 %, avec une seule tentative frôlant l'équilibre. Grok 4.20 de xAI a fait faillite dès son premier essai, tandis que Gemini 3.1 Pro de Google a enregistré un gain ponctuel de 34 % avant de s'effondrer lors d'une autre tentative. Plusieurs systèmes ont accumulé des pertes importantes, et tous ont performé en dessous de participants humains placés dans les mêmes conditions simulées. Ces résultats éclairent une limite fondamentale des IA actuelles : leur efficacité chute dès qu'elles quittent les environnements stables et bien définis. Si ces systèmes excellent sur des tâches structurées comme la programmation, l'analyse de données ou les examens standardisés, ils peinent à gérer des dynamiques imprévisibles sur le long terme, là où les variables changent en permanence et où les décisions doivent intégrer du risque réel. Pour les investisseurs, les parieurs ou toute personne envisageant de déléguer des décisions financières à une IA, le message est clair : la robustesse affichée dans les benchmarks classiques ne se traduit pas en performance dans des contextes réels et mouvants. Ross Taylor, directeur général de General Reasoning et ancien chercheur chez Meta AI, souligne que l'engouement actuel pour l'automatisation tend à masquer cette réalité plus nuancée. Les benchmarks traditionnels, trop statiques, ne capturent pas la complexité du monde réel, ce qui crée une illusion de compétence universelle. Cette étude, encore non évaluée par des pairs, s'inscrit dans un débat plus large sur la façon dont on mesure les capacités des IA : les tests actuels favorisent les domaines où ces systèmes brillent, tout en occultant leurs lacunes sur des tâches dynamiques et à haute incertitude. La prochaine étape pour le secteur sera de concevoir des évaluations plus représentatives, capables de révéler non seulement ce que les IA savent faire, mais aussi ce qu'elles ne maîtrisent pas encore.

UECette étude avertit les entreprises et investisseurs européens contre la délégation de décisions financières à des IA, dont les performances réelles restent inférieures aux capacités humaines dans des contextes dynamiques et incertains.

RecherchePaper
1 source
Présentation de l'Éducation pour les Nations
4OpenAI Blog 

Présentation de l'Éducation pour les Nations

Initiative OpenAI: Edu for Countries aide les gouvernements à utiliser l'IA pour moderniser les systèmes éducatifs et préparer les futurs travailleurs. Fact-clés: - OpenAI lance Edu for Countries pour soutenir les gouvernements dans l'intégration de l'IA dans l'éducation. - Objectif: moderniser les systèmes éducatifs et former des travailleurs prêts pour l'avenir.

RechercheOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour