Aller au contenu principal
Actualité : OpenAI ferme brutalement Sora, l'usine à slop la plus chère de l'histoire de l'IA
RechercheLes Numériques IA6sem

Actualité : OpenAI ferme brutalement Sora, l'usine à slop la plus chère de l'histoire de l'IA

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a annoncé le 24 mars 2026 la fermeture de Sora, son application autonome de génération vidéo par intelligence artificielle. L'annonce, publiée sur X, est volontairement succincte : aucune justification n'est avancée. L'entreprise s'engage uniquement à préciser prochainement le calendrier de fermeture et les modalités permettant aux utilisateurs de récupérer leurs créations.

Cette décision marque un tournant significatif pour OpenAI, qui avait fait de Sora l'une de ses vitrines technologiques les plus ambitieuses. Lancée avec une couverture médiatique exceptionnelle, l'application symbolisait la course à la génération vidéo par IA — un segment où la concurrence s'est rapidement intensifiée avec des acteurs comme Google, Runway ou Kling AI. La fermeture soulève des questions sur la viabilité économique de ces outils grand public et sur la stratégie produit d'OpenAI.

Le bilan de Sora reste négatif sur plusieurs fronts : malgré des démonstrations spectaculaires, l'outil a été largement critiqué pour la médiocrité des contenus générés par la majorité des utilisateurs — alimentant ce que les observateurs désignent comme du "slop", soit du contenu automatisé de faible valeur. Le coût opérationnel de la plateforme, considérable au regard de l'infrastructure GPU nécessaire, n'aurait pas été compensé par une adoption suffisante ou une monétisation efficace.

Cette fermeture illustre une tendance plus large dans l'industrie : les laboratoires d'IA rationalisent leur portefeuille produit face à des coûts d'infrastructure massifs, recentrant leurs ressources sur les services à forte valeur ajoutée et les API professionnelles plutôt que sur des applications grand public aux usages encore incertains.

Impact France/UE

La fermeture soudaine de Sora par OpenAI affecte potentiellement les utilisateurs et développeurs européens qui ont investi dans cet outil d'IA pour la création de vidéos.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Decoder 

OpenAI transforme la compression de modèle en chasse aux talents avec son défi « Parameter Golf » à 16 Mo

OpenAI lance le défi "Parameter Golf" : créer le meilleur modèle de langage possible en seulement 16 Mo. La compétition vise à repousser les limites de la compression de modèles, tout en servant de vivier pour recruter des talents parmi les chercheurs participants.

RechercheActu
1 source
2MIT Technology Review 

OpenAI mise tout sur la création d'un chercheur entièrement automatisé

OpenAI réoriente ses efforts de recherche vers un objectif ambitieux : construire un "chercheur IA" entièrement automatisé, capable de résoudre seul des problèmes complexes en mathématiques, sciences du vivant ou politique. Le chef scientifique Jakub Pachocki annonce un premier jalon pour septembre 2026 — un "intern IA" autonome — suivi d'un système multi-agents complet prévu pour 2028. Face à la concurrence d'Anthropic et Google DeepMind, OpenAI affirme disposer désormais de la plupart des briques nécessaires pour atteindre cet objectif.

RecherchePaper
1 source
Google : TurboQuant réduit la mémoire des modèles d'IA sans perte de qualité
3Ars Technica AI 

Google : TurboQuant réduit la mémoire des modèles d'IA sans perte de qualité

Google Research a dévoilé TurboQuant, un nouvel algorithme de compression conçu pour réduire l'empreinte mémoire des grands modèles de langage (LLM) tout en améliorant leur vitesse. Selon les premiers résultats publiés par Google, TurboQuant permet une réduction de la mémoire jusqu'à 6 fois et un gain de performance jusqu'à 8 fois dans certains tests, sans dégradation mesurable de la qualité des sorties. TurboQuant cible spécifiquement le cache clé-valeur, une sorte de "mémo numérique" que les LLM utilisent pour stocker des informations déjà calculées et éviter de les retraiter. Ce cache stocke des vecteurs haute dimension — des représentations mathématiques du sens des mots et des phrases — qui peuvent contenir des centaines, voire des milliers d'embeddings. Plus ces vecteurs sont complexes, plus ils occupent de mémoire, créant un goulot d'étranglement qui ralentit les modèles et alourdit leur déploiement. Jusqu'ici, les techniques de quantification classiques permettaient bien de compresser ces modèles en abaissant leur précision, mais au prix d'une baisse notable de la qualité des réponses. TurboQuant prétend résoudre ce compromis en maintenant la précision malgré la compression. La mémoire est l'une des ressources les plus contraignantes dans le déploiement des IA génératives, tant en centre de données que sur les appareils grand public. Une compression efficace sans perte de qualité représente un enjeu majeur pour rendre ces modèles plus accessibles et moins coûteux à faire tourner.

RecherchePaper
1 source
Les consommateurs sont-ils condamnés à payer plus cher pour l'électricité en raison des dépenses d'agrandissement des centres de données?
4Ars Technica AI 

Les consommateurs sont-ils condamnés à payer plus cher pour l'électricité en raison des dépenses d'agrandissement des centres de données?

Les consommateurs pourraient-ils être contraints de payer plus cher pour l'électricité en raison des développements des centres de données? Les grandes entreises technologiques, comme Amazon, Google, Meta, Microsoft, xAI, Oracle et OpenAI, s'engagent potentiellement à construire leurs propres centrales électriques pour les centres de données, conformément à une promesse soutenue par Donald Trump. Cependant, ces entreprises font face à des défis logistiques importants pour tenir cette promesse faite lors d'un événement au White House, assurant que "personne ne verra son prix augmenter" en raison de la demande énergétique des centres de données AI.

RechercheOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour