
Des manchots pour dompter l’IA ? Cette méthode casse le mystère derrière l’effet « boîte noire »
Les réseaux de neurones et les modèles d'apprentissage profond dominent aujourd'hui l'intelligence artificielle, mais leur fonctionnement interne reste largement opaque : on sait qu'ils produisent des résultats précis, sans pouvoir expliquer la logique qui les sous-tend. Face à ce défi, des chercheurs proposent la prétopologie, un outil mathématique capable de cartographier les relations entre données et de rendre visibles les structures cachées qui guident les décisions algorithmiques. Concrètement, cette approche permet de représenter les regroupements effectués par un modèle sous forme de graphes lisibles, comme l'illustre une expérience pédagogique utilisant des colonies de manchots pour visualiser des clusters d'apprentissage.
Cette opacité n'est pas qu'une curiosité académique : elle pose des problèmes concrets dans des secteurs à fort enjeu. En médecine, un algorithme qui recommande un traitement sans justification est difficile à valider cliniquement ; en justice, une décision algorithmique sans explication est contestable et potentiellement discriminatoire. Les régulateurs européens l'ont compris : l'AI Act, entré en vigueur en 2024, impose désormais des exigences d'explicabilité pour les systèmes à haut risque, faisant de la boîte noire un problème légal autant que technique.
L'explicabilité de l'IA est un champ de recherche actif depuis plusieurs années, avec des outils comme LIME ou SHAP déjà largement adoptés dans l'industrie. La prétopologie, issue des mathématiques françaises, s'en distingue par une approche structurale plutôt que statistique : elle ne cherche pas à approximer localement les décisions d'un modèle, mais à en révéler l'architecture globale. Portée par des équipes universitaires françaises, cette piste pourrait s'imposer comme une alternative sérieuse dans les domaines où la transparence algorithmique n'est plus optionnelle.
La prétopologie, issue des mathématiques françaises et portée par des équipes universitaires françaises, pourrait aider les organisations européennes à satisfaire les exigences d'explicabilité imposées par l'AI Act pour les systèmes IA à haut risque.




