Aller au contenu principal
LLMsVentureBeat AI49min

Un nouveau site évalue les modèles d'IA de pointe sur l'échelle de QI humain : les résultats font déjà débat

Résumé IASource uniqueImpact UE
Source originale ↗·

Un site baptisé AI IQ (aiiq.org) propose depuis la semaine dernière de noter les modèles d'intelligence artificielle selon le même barème que le quotient intellectuel humain. Créé par Ryan Shea, ingénieur et investisseur providentiel cofondateur de la plateforme blockchain Stacks ainsi que de Voterbase, le projet attribue un score IQ estimé à plus de 50 des grands modèles de langage actuels, puis les place sur une courbe en cloche standard. La méthodologie repose sur 12 benchmarks répartis en quatre dimensions : raisonnement abstrait (ARC-AGI-1 et ARC-AGI-2), mathématique (FrontierMath, AIME, ProofBench), programmatique (Terminal-Bench 2.0, SWE-Bench Verified, SciCode) et académique (Humanity's Last Exam, CritPt, GPQA Diamond). L'IQ final est la moyenne arithmétique des quatre scores dimensionnels. Au classement de mi-mai 2026, GPT-5.5 d'OpenAI trône en tête avec un IQ estimé à 136, talonné par Opus 4.7 d'Anthropic (environ 132), GPT-5.4 (131), Gemini 3.1 Pro de Google (131) et Opus 4.6 (129), un peloton de tête anormalement serré.

L'initiative a immédiatement divisé. Du côté des partisans, des stratèges et technologues d'entreprise comme Brian Vellmure ou le commentateur Thibaut Mélen saluent sur X un outil qui rend lisible un marché impossible à comparer : là où les tableaux de benchmarks classiques noient l'utilisateur dans des colonnes de chiffres disparates, une seule valeur résume l'essentiel. Pour les décideurs qui doivent choisir un modèle sans être chercheurs en IA, c'est une boussole bienvenue. Mais les critiques ont été tout aussi rapides. Le compte AI Deeply, relayant l'inquiétude de nombreux chercheurs, résume le problème en une formule : « C'est du non-sens. L'IA est bien trop irrégulière. La carte n'est pas le territoire. » Le reproche central est que les capacités d'un modèle sont profondément asymétriques, excellent en code, médiocre en raisonnement spatial, brillant en langues latines, défaillant en logique formelle, et qu'un seul chiffre efface précisément cette information.

Le projet s'inscrit dans une quête plus large de lisibilité du marché des LLMs, qui s'est fragmenté à une vitesse vertigineuse depuis 2024. Les benchmarks traditionnels prolifèrent, souvent incomparables entre eux, parfois contaminés par des données d'entraînement, et régulièrement accusés de ne mesurer que ce que les modèles ont déjà appris à optimiser. AI IQ tente d'y répondre en compressant les plafonds des benchmarks jugés trop faciles ou trop susceptibles de saturation, et en pénalisant les modèles dont les données sont incomplètes plutôt qu'en leur bénéficiant du doute. La convergence spectaculaire au sommet, où quatre modèles de trois laboratoires différents se retrouvent dans un écart de cinq points, illustre la compétition féroce entre OpenAI, Anthropic et Google, et pose la vraie question : si les scores sont presque identiques, sur quoi les entreprises vont-elles désormais choisir leur modèle ?

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

DeepSeek réduit ses prix d'API et établit un nouveau plancher pour les grands modèles
1Pandaily 

DeepSeek réduit ses prix d'API et établit un nouveau plancher pour les grands modèles

DeepSeek a annoncé le 26 avril une réduction massive des tarifs de son API, établissant de nouveaux planchers mondiaux pour les grands modèles de langage. Sur l'ensemble de la gamme V4, les prix des requêtes en cache d'entrée ont été divisés par dix par rapport aux tarifs initiaux. Le modèle phare V4-Pro bénéficie en outre d'une promotion temporaire de 75 % valable jusqu'au 5 mai 2026, portant le coût du cache d'entrée à seulement 0,025 yuan par million de tokens (environ 0,0035 dollar), un niveau sans précédent dans l'industrie. Pour V4-Flash, le tarif passe de 0,2 yuan à 0,02 yuan par million de tokens (0,0028 dollar). Sur V4-Pro, les entrées non mises en cache tombent de 12 à 3 yuans (0,41 dollar) et les sorties de 24 à 6 yuans (0,83 dollar). Ces baisses surviennent deux jours après la mise en open source de DeepSeek-V4, disponible en versions Pro et Flash, avec un support de contextes allant jusqu'à un million de tokens. Ces tarifs redéfinissent ce qui est économiquement viable pour les développeurs et les entreprises qui intègrent des modèles de langage dans leurs produits. À moins de 0,004 dollar par million de tokens en cache, des usages autrefois coûteux deviennent accessibles : agents autonomes, traitement massif de documents, pipelines de code avancés. L'argument économique est renforcé par des performances solides : en interne chez DeepSeek, V4 est jugé supérieur à Claude Sonnet 4.5 sur les tâches de programmation, avec une qualité approchant celle de Claude Opus 4.6 en mode non-raisonné. Dans les benchmarks généraux, V4-Pro surpasse tous les modèles open source et ne cède qu'aux meilleurs modèles propriétaires comme Gemini Pro 3.1 ; en mathématiques, STEM et coding compétitif, il égale ou dépasse les leaders du marché. Ces baisses de prix reposent sur des avancées architecturales concrètes. V4-Pro n'active que 49 milliards de paramètres sur 33 000 milliards de tokens d'entraînement, mais son coût de calcul par token est réduit à 27 % de celui de son prédécesseur V3.2, et l'utilisation du cache KV chute de 90 %. Le nouveau mécanisme d'attention creuse développé en interne (DSA) compresse les dimensions des tokens pour offrir de hautes performances sur les longs contextes avec des besoins en mémoire réduits. Stratégiquement, la série V4 est entièrement compatible avec les supernœuds Huawei Ascend, marquant un ancrage renforcé dans l'infrastructure de calcul domestique chinoise. Goldman Sachs a récemment souligné l'importance stratégique de DeepSeek-V4, et la mise en production massive des supernœuds Ascend prévue d'ici fin 2026 laisse entrevoir de nouvelles baisses tarifaires. Dans un secteur où OpenAI, Google et Anthropic s'affrontent déjà sur les prix, cette annonce amplifie la pression sur l'ensemble de l'écosystème mondial de l'IA.

UELa réduction massive des prix de l'API DeepSeek V4 offre aux développeurs et entreprises européens un accès à des modèles de pointe à des coûts jusqu'à dix fois inférieurs, rendant économiquement viables des usages IA auparavant réservés aux grandes structures.

💬 0,004 dollar par million de tokens, c'est le prix où les agents continus et le traitement massif de docs deviennent des trucs normaux, pas des projets de grande entreprise. Et que V4 passe devant Sonnet sur le code, ça commence à faire mal pour les modèles US sur le segment développeurs. Reste à voir si ça tient à l'échelle, mais le rapport de force change.

LLMsOpinion
1 source
Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch
2Frandroid 

Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch

Une développeuse a réussi à faire tourner Gemma 4, le modèle d'intelligence artificielle open source de Google, directement sur une Nintendo Switch, sans connexion à un serveur distant. L'exploit repose sur la version la plus compacte du modèle, publiée par Google en avril 2025 dans le cadre de sa gamme Gemma 4, qui décline plusieurs tailles allant de 1 à 27 milliards de paramètres. C'est la variante 1B, soit un milliard de paramètres, qui a été portée sur la console de Nintendo, dont le matériel repose sur une puce NVIDIA Tegra X1 et 4 Go de RAM partagée. Cet accomplissement illustre la progression rapide de la miniaturisation des modèles de langage et leur capacité à s'exécuter sur du matériel grand public, bien loin des serveurs GPU qui équipent habituellement ce type de charge de travail. Pour les développeurs embarqués et les constructeurs d'appareils connectés, cela ouvre des perspectives concrètes : intégrer des capacités d'inférence locale dans des terminaux à faible consommation, sans dépendance au cloud et sans coût de bande passante. Google a lancé la famille Gemma comme alternative ouverte à ses modèles propriétaires Gemini, ciblant explicitement les usages sur appareil. La Switch, conçue en 2017, n'était évidemment pas pensée pour l'IA générative, ce qui rend la démonstration d'autant plus symbolique. Elle s'inscrit dans une tendance plus large de course à l'efficience, où des acteurs comme Meta avec Llama, Microsoft avec Phi ou Apple avec ses modèles on-device cherchent tous à repousser les limites du possible sur silicium contraint.

LLMsActu
1 source
Le nouveau modèle V4 de DeepSeek : trois raisons pour lesquelles il compte
3MIT Technology Review 

Le nouveau modèle V4 de DeepSeek : trois raisons pour lesquelles il compte

DeepSeek a publié vendredi une version préliminaire de V4, son nouveau modèle phare attendu depuis plusieurs mois. Disponible en open source, le modèle se décline en deux versions : V4-Pro, conçu pour le code et les tâches d'agents complexes, et V4-Flash, plus léger et optimisé pour la vitesse. Sur les principaux benchmarks, V4-Pro rivalise avec les meilleurs modèles fermés du marché, se situant au niveau de Claude Opus de chez Anthropic, de GPT-5 d'OpenAI et de Gemini de Google. Face aux autres modèles open source, notamment Qwen d'Alibaba ou GLM de Z.ai, V4 les surpasse en codage, mathématiques et disciplines scientifiques. L'entreprise rapporte qu'une enquête interne auprès de 85 développeurs expérimentés a montré que plus de 90 % d'entre eux classent V4-Pro parmi leurs premiers choix pour les tâches de programmation. DeepSeek a également optimisé le modèle pour des frameworks d'agents populaires comme Claude Code ou CodeBuddy. Ce qui distingue V4, c'est son rapport performance-prix particulièrement agressif. V4-Pro est facturé 1,74 dollar par million de tokens en entrée et 3,48 dollars en sortie, une fraction du tarif pratiqué par OpenAI ou Anthropic pour des modèles comparables. V4-Flash descend encore plus bas, à 0,14 dollar par million de tokens en entrée et 0,28 dollar en sortie, ce qui en fait l'un des modèles haut de gamme les moins chers du marché. Pour les développeurs et les entreprises, cela signifie un accès à des capacités d'IA frontier sans les coûts habituellement prohibitifs des API propriétaires. Les deux versions intègrent un mode de raisonnement pas à pas, et V4 introduit une nouvelle architecture qui améliore significativement la gestion de longs contextes, ouvrant la voie à des applications sur des documents ou des bases de code entières. Cette sortie intervient dans un contexte particulier pour DeepSeek. La firme de Hangzhou avait provoqué un séisme dans l'industrie en janvier 2025 avec R1, un modèle de raisonnement entraîné avec des ressources limitées qui avait mis en question la suprématie américaine en matière d'IA. Depuis, l'entreprise a traversé des mois difficiles, marqués par des départs de personnels clés, des retards dans ses lancements et une surveillance accrue des gouvernements américain et chinois. V4 constitue son retour sur la scène des modèles frontier, même si l'effet de surprise de R1 ne se reproduira probablement pas. L'enjeu est désormais de confirmer que DeepSeek peut tenir dans la durée face à des adversaires disposant de ressources computationnelles autrement plus importantes, et de s'imposer comme une alternative crédible et pérenne dans un écosystème open source en pleine effervescence.

UELes développeurs et entreprises européennes accèdent à des capacités frontier en open source à des tarifs très inférieurs aux API propriétaires, élargissant concrètement les options pour les startups et PME du continent.

LLMsOpinion
1 source
500 banquiers d'investissement ont évalué les résultats de l'IA : aucun n'est prêt pour les clients
4The Decoder 

500 banquiers d'investissement ont évalué les résultats de l'IA : aucun n'est prêt pour les clients

Un nouveau benchmark a soumis les modèles d'IA les plus puissants du marché, dont GPT-5.4 et Claude Opus 4.6, à des tâches quotidiennes d'analystes juniors en banque d'investissement. Le verdict de 500 professionnels du secteur est sans appel : aucun résultat produit par ces modèles n'a été jugé prêt à être transmis à un client. Les sorties étaient systématiquement trop imprécises, voire franchement incorrectes. Malgré tout, plus de la moitié des banquiers interrogés ont indiqué qu'ils exploiteraient ces productions comme base de travail. Ce constat illustre l'écart persistant entre les promesses marketing des grands modèles de langage et les exigences concrètes des métiers à hauts enjeux. En banque d'investissement, une erreur dans une note d'analyse ou un modèle financier peut engager la responsabilité juridique de l'établissement et nuire à des transactions portant sur des centaines de millions d'euros. L'IA peut donc accélérer certaines tâches de débroussaillage, mais elle ne remplace pas encore le jugement et la rigueur d'un analyste humain pour la livraison finale. Ce test s'inscrit dans une vague d'évaluations sectorielles cherchant à dépasser les benchmarks académiques génériques, souvent décorrélés des usages professionnels réels. La finance, comme le droit ou la médecine, soumet l'IA à des critères de précision et de fiabilité que les tableaux de classement habituels ne mesurent pas. Les éditeurs de modèles, OpenAI et Anthropic en tête, devront probablement affiner leurs offres pour les environnements réglementés si ils veulent s'imposer au-delà du rôle d'assistant de brouillon.

UELes grandes banques françaises et européennes, soumises aux exigences de conformité MiFID II et aux contrôles des régulateurs financiers, sont directement concernées par ces limitations qui conditionnent toute adoption de l'IA dans la production de documents transmissibles aux clients.

💬 Zéro résultat jugé prêt pour un client, mais plus de la moitié dit s'en servir quand même comme base de travail. C'est exactement ça, l'IA en finance : utile pour défricher, inutilisable pour livrer. Reste à voir si OpenAI et Anthropic vont vraiment affiner leurs modèles pour les environnements réglementés, ou si on va continuer à entendre parler de révolution pendant que les analystes corrigent les sorties à la main.

LLMsPaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour