Aller au contenu principal
L'IA d'un jeune professionnel détecte des troubles de santé mentale
RechercheIEEE Spectrum AI1h

L'IA d'un jeune professionnel détecte des troubles de santé mentale

1 source couvre ce sujet·Source originale ↗·

Abhishek Appaji, professeur associé en ingénierie de l'électronique médicale au B.M.S. College of Engineering de Bengaluru, en Inde, vient d'être désigné lauréat du prix IEEE Theodore W. Hissey Outstanding Young Professional Award 2026, qui sera remis ce mois-ci lors de la cérémonie IEEE Honors à New York. Membre senior de l'IEEE, ce chercheur de 36 ans a consacré sa carrière au développement d'outils diagnostiques alimentés par l'intelligence artificielle destinés aux communautés les moins bien desservies. Parmi ses réalisations déployées dans des zones reculées de l'Inde figurent une machine d'analyse rétinienne capable de détecter diverses pathologies, ainsi qu'un lit connecté surveillant en continu les constantes vitales des patients. Il est également co-fondateur de Glucotek, une startup basée à Brisbane, en Australie, née d'un bootcamp entrepreneurial au MIT en 2017, dont l'objectif initial était de mettre au point un dispositif non invasif de mesure de la glycémie pour gérer le diabète gestationnel.

L'impact de ses travaux dépasse largement le cadre académique. En ciblant délibérément les populations éloignées des grands centres hospitaliers, Appaji cherche à combler le fossé entre innovation technologique et accès aux soins. Ses outils permettent à des médecins généralistes ou à du personnel paramédical de réaliser des diagnostics qui nécessitaient auparavant des équipements coûteux ou des spécialistes absents de ces régions. Sa thèse de doctorat, soutenue à l'Université de Maastricht aux Pays-Bas et portant sur les méthodes computationnelles d'analyse des vaisseaux rétiniens, ouvre une piste diagnostique particulièrement prometteuse : les altérations microvasculaires visibles dans la rétine refléteraient les changements neurovasculaires associés à des troubles psychiatriques comme la schizophrénie ou le trouble bipolaire, offrant potentiellement un moyen de dépistage non invasif de ces conditions.

Le parcours d'Appaji illustre une tendance de fond dans la recherche en santé numérique : l'exploitation de l'IA et du deep learning pour transformer des signaux biologiques subtils en outils diagnostiques accessibles et précis. Formé en Inde avant de passer par le MIT et Maastricht, il incarne le profil du chercheur-entrepreneur capable de faire le pont entre laboratoire et marché. Son engagement bénévole au sein de l'IEEE Young Professionals Bangalore Section, où il a mis en place des programmes de mentorat et des ateliers technologiques, témoigne d'une vision plus large : former la prochaine génération d'ingénieurs à produire un impact concret. Alors que les systèmes de santé des pays à revenus intermédiaires cherchent à intégrer l'IA sans exploser leurs budgets, les approches développées par Appaji pourraient servir de modèle pour une médecine de précision véritablement inclusive.

À lire aussi

Moonlake : les modèles causaux du monde doivent être multimodaux, interactifs et efficaces – Chris Manning et Fan-yun Sun
1Latent Space 

Moonlake : les modèles causaux du monde doivent être multimodaux, interactifs et efficaces – Chris Manning et Fan-yun Sun

Moonlake AI, une startup cofondée par Chris Manning (professeur à Stanford et co-auteur de travaux fondateurs en NLP) et Fan-Yun Sun, propose une approche radicalement différente des modèles de monde actuels. Présentée notamment lors de la Game Developers Conference 2026, l'entreprise mise sur des modèles causaux, multimodaux et efficaces, capables de simuler des environnements interactifs avec de multiples joueurs simultanés, une durée de vie indéfinie et une physique cohérente. Moonlake vient de lancer une Creator Cup dotée de 30 000 dollars pour stimuler l'adoption de ses outils par la communauté de développeurs. L'approche repose sur le bootstrapping à partir de moteurs de jeu existants et l'entraînement d'agents personnalisés, permettant de simuler des environnements, prédire des résultats et planifier sur des horizons longs. Là où des systèmes comme Genie 3 de Google souffrent de limitations significatives — clipping de terrain, absence d'interactivité réelle, immersion plafonnée à 60 secondes — Moonlake s'attaque à ces défauts structurels par une philosophie différente : la structure et la causalité plutôt que la mise à l'échelle aveugle. Comme le soulignent Manning, Sun et Ian Goodfellow dans leur article "Towards Efficient World Models", les modèles état-de-l'art présentent encore des incohérences physiques flagrantes — objets solides flottant dans les airs ou se traversant mutuellement. Leur argument central : pour planifier une action, une vue en haute résolution pixel par pixel est rarement nécessaire. Des représentations partielles combinées à une compréhension sémantique suffisent dans la quasi-totalité des cas, ce qui rend les architectures actuelles surdimensionnées et inefficaces pour la plupart des tâches à valeur économique réelle. Ce projet s'inscrit dans une course intense autour des modèles de monde, où Nvidia, Waymo, Tesla et Google ont chacun publié leurs propres approches ces derniers mois. Yann LeCun a parallèlement levé 1 milliard de dollars pour AMI et publié LeWorldModel, témoignant de l'enjeu stratégique majeur que représente cette technologie pour l'IA incarnée et la robotique. Moonlake se distingue en choisissant les moteurs de jeu comme point de départ d'abstraction, jugeant qu'ils sont mieux adaptés que l'apprentissage pur pour extraire des relations causales fiables entre actions et observations. La présence de l'équipe au GDC 2026 et la diversité des mondes déjà construits par la communauté avec leurs outils suggèrent que cette approche suscite un intérêt concret bien au-delà du cercle académique.

RecherchePaper
1 source
Meta TRIBE v2 : la première IA qui simule les réactions du cerveau humain
2Le Big Data 

Meta TRIBE v2 : la première IA qui simule les réactions du cerveau humain

Meta a présenté le 26 mars 2026 TRIBE v2 (Trimodal Brain Encoder), un modèle d'intelligence artificielle open source capable de prédire l'activité cérébrale humaine en réponse à une image, un son ou un texte. Entraîné sur plus de 500 heures d'enregistrements IRM fonctionnelle issus de plus de 700 participants, le modèle simule l'activation de près de 70 000 voxels cérébraux — des unités tridimensionnelles qui traduisent les variations de flux sanguin dans le cerveau. Son architecture repose sur trois étages : des encodeurs spécialisés par modalité (V-JEPA pour la vision, Wav2Vec2-BERT pour l'audio, Llama 3.x pour le texte), un module Transformer qui aligne ces signaux dans le temps pour tenir compte du délai entre perception et activation cérébrale, puis une couche de projection qui produit une carte prédictive des activations. Les performances annoncées sont deux à trois fois supérieures aux approches antérieures, et le modèle fonctionne en zero-shot : il prédit l'activité d'un nouveau sujet sans recalibrage individuel préalable, ce qui est rare dans ce domaine. Cette capacité de généralisation change la donne pour la recherche en neurosciences cognitives. Jusqu'ici, tout travail d'exploration cérébrale exigeait un accès à un scanner IRM, une infrastructure lourde et coûteuse. TRIBE v2 ouvre la possibilité de simuler des réponses cérébrales à grande échelle, à partir de n'importe quel contenu numérique, sans contrainte matérielle. Pour les chercheurs en perception sensorielle, en troubles cognitifs ou en interfaces cerveau-machine, cela représente un accélérateur potentiel considérable. Dans l'industrie, le modèle pourrait être utilisé pour évaluer l'impact attentionnel d'un contenu publicitaire, d'une interface ou d'un environnement sonore — des applications qui posent déjà des questions éthiques sur l'usage de modèles prédictifs du comportement cérébral. TRIBE v2 s'inscrit dans une trajectoire entamée avec la première version du modèle, qui avait remporté l'Algonauts 2025 Brain Encoding Challenge, une compétition internationale de référence sur la prédiction de l'activité cérébrale. Meta franchit ici une étape qualitative en passant d'un modèle sujet-spécifique à un modèle généraliste, capable de capturer des régularités cérébrales communes à travers une population large et diversifiée. La décision de publier TRIBE v2 en open source reflète la stratégie globale de Meta AI en matière de recherche fondamentale : rendre les outils disponibles à la communauté scientifique pour accélérer l'adoption et positionner l'entreprise comme acteur central de l'IA cognitive. Reste à voir comment la communauté s'emparera de ces capacités, et quels garde-fous encadreront des usages potentiellement intrusifs de la modélisation cérébrale prédictive.

UELes chercheurs européens en neurosciences cognitives peuvent accéder librement à TRIBE v2 pour simuler des réponses cérébrales à grande échelle sans infrastructure IRM, ouvrant de nouvelles perspectives pour la recherche sur les troubles cognitifs et les interfaces cerveau-machine.

💬 Le zero-shot sur des prédictions d'activité cérébrale, c'est le truc qui m'impressionne ici, pas la com' de Meta. Jusqu'ici, tout modèle de ce genre demandait un recalibrage par sujet, une IRM, une infra complète — là, tu balances un contenu, le modèle te sort une carte d'activation sans scanner. La question c'est pas si la recherche en neurosciences va s'en emparer, c'est si les équipes pub' vont l'utiliser avant elles.

RecherchePaper
1 source
Optimisation de politique relative de groupe personnalisée pour l'alignement aux préférences hétérogènes
3Apple Machine Learning 

Optimisation de politique relative de groupe personnalisée pour l'alignement aux préférences hétérogènes

Des chercheurs ont proposé une nouvelle méthode d'alignement des grands modèles de langage (LLM) baptisée Personalized Group Relative Policy Optimization (P-GRPO), conçue pour adapter le comportement des modèles aux préférences individuelles plutôt qu'à un objectif global unique. Le travail s'attaque directement aux limites du GRPO standard, l'un des cadres d'apprentissage par renforcement les plus utilisés aujourd'hui, dont la normalisation par groupe suppose implicitement que tous les exemples d'entraînement sont interchangeables. Ce postulat pose un problème fondamental : en pratique, des utilisateurs différents ont des attentes radicalement différentes, et les méthodes actuelles comme le RLHF (Reinforcement Learning from Human Feedback) lissent ces divergences au profit d'une réponse moyenne. Le résultat est un modèle techniquement performant mais incapable de s'adapter à un médecin, un étudiant ou un développeur qui n'attendent pas du tout la même chose d'un assistant IA. P-GRPO cherche à corriger cela en traitant séparément les distributions de récompenses propres à chaque profil utilisateur. L'enjeu dépasse la simple personnalisation de surface. Alors que l'industrie s'oriente vers des assistants IA déployés dans des contextes très variés — santé, éducation, entreprise — la capacité à aligner finement un modèle sur des groupes hétérogènes devient un avantage compétitif majeur. Ce travail s'inscrit dans une tendance de fond : après avoir maximisé les capacités générales des LLM, les laboratoires de recherche cherchent maintenant à affiner leur adéquation aux besoins réels des utilisateurs finaux.

RecherchePaper
1 source
Améliorer la qualité et la robustesse des systèmes de synthèse vocale basés sur les LLM
4Amazon Science 

Améliorer la qualité et la robustesse des systèmes de synthèse vocale basés sur les LLM

Les chercheurs d'Amazon ont publié le 1er avril 2026 une série d'avancées techniques destinées à résoudre trois problèmes persistants dans les systèmes de synthèse vocale basés sur des grands modèles de langage (LLM) : la fuite d'accent en mode polyglotte, le manque d'expressivité, et les défaillances de fiabilité. Pour corriger la fuite d'accent — phénomène où la voix clonée d'un locuteur anglophone garde un accent étranger en passant au français ou à l'allemand — l'équipe a appliqué une technique d'adaptation à faible rang (LoRA) pour affiner leurs modèles sur des données fortement pondérées vers les langues cibles. Pour l'expressivité, ils ont eu recours au guidage sans classifieur (CFG), une méthode issue des modèles de diffusion, pour générer des échantillons audio de référence synthétiques plus expressifs, utilisés ensuite comme conditionnement à l'inférence. Les résultats, mesurés selon le protocole d'écoute MUSHRA, montrent une amélioration de 5 % à 20 % sur neuf paramètres régionaux couvrant l'anglais, le français, l'italien, l'allemand et l'espagnol, par rapport à la génération de modèles précédente. Ces améliorations ont des implications concrètes pour tous les acteurs qui déploient des assistants vocaux, des systèmes de navigation, ou des outils d'accessibilité à l'échelle internationale. La possibilité de cloner une voix enregistrée dans une seule langue et de la déployer nativement dans plusieurs autres — sans perte d'identité vocale ni accent résiduel — réduit drastiquement les coûts de production de contenu audio multilingue. Le troisième axe de travail, la fiabilité, s'attaque à un défaut structurel des LLM : leur génération autorégressive, token par token, sans modélisation explicite de la durée, provoque des répétitions hallucinées, des coupures inattendues et des prononciations incohérentes. Amazon indique travailler sur ce point, bien que les détails techniques associés n'aient pas encore été entièrement divulgués. La synthèse vocale neuronale a franchi un cap majeur ces deux dernières années avec l'émergence de systèmes capables de cloner une voix à partir de quelques secondes d'audio. Des acteurs comme ElevenLabs, OpenAI avec sa voix Vox, ou encore Microsoft ont largement popularisé cette technologie, mais la barrière multilingue reste un point faible commun. Amazon, via ses divisions Alexa et AWS Polly, a un intérêt commercial direct à résoudre ce problème à grande échelle pour ses marchés européens et latino-américains. L'approche LoRA pour le fine-tuning ciblé par locale permet de mutualiser un modèle de base tout en l'adaptant à faible coût — une architecture qui pourrait devenir standard dans le secteur. Les prochaines étapes probables incluent l'extension à des langues à tons comme le mandarin ou le japonais, où la fuite d'accent pose des défis encore plus complexes.

UELes améliorations du clonage vocal multilingue (français, allemand, italien, espagnol) réduisent directement les coûts de production audio pour les entreprises et services européens déployant des assistants vocaux ou outils d'accessibilité.

💬 La fuite d'accent, c'était le truc qu'on acceptait comme une fatalité dans le clonage vocal multilingue, et ça m'a toujours semblé être un problème évitable. Amazon montre que LoRA + un dataset bien pesé règle une bonne partie du problème, et les +5 à 20 % sur MUSHRA, tu peux pas ignorer ça. Le volet fiabilité reste flou (les hallucinations audio, c'est un vrai sujet en prod), mais sur la partie multilingue, ils livrent enfin du concret.

RecherchePaper
1 source