Aller au contenu principal
ByteDance lance Seed3D 2.0, un modèle de fondation 3D de nouvelle génération
CréationPandaily1h

ByteDance lance Seed3D 2.0, un modèle de fondation 3D de nouvelle génération

1 source couvre ce sujet·Source originale ↗·

ByteDance a officiellement lancé Seed3D 2.0, son nouveau modèle de fondation pour la génération 3D haute précision. Le rapport technique a été rendu public et l'API est désormais accessible via Volcano Engine, la plateforme cloud du groupe chinois. Selon ByteDance, Seed3D 2.0 atteint des performances de pointe dans deux domaines clés : la génération de géométrie 3D et le rendu de textures et matériaux. Pour valider ces résultats, l'entreprise a recruté 60 évaluateurs humains disposant d'une expérience en modélisation 3D, chargés d'effectuer des comparaisons en aveugle entre Seed3D 2.0 et six modèles concurrents. Le modèle a obtenu le taux de préférence le plus élevé en génération de géométrie, et dépasse 69 % de préférence dans les évaluations de contenus 3D texturés.

Ces résultats illustrent un bond qualitatif significatif dans la génération automatique de contenus 3D. La reconstruction de structures complexes est nettement améliorée, et les matériaux PBR (Physically Based Rendering) produits par le modèle sont jugés plus réalistes et plus stables visuellement. Pour les secteurs du jeu vidéo, de la réalité virtuelle et de la production de contenus numériques, un tel outil pourrait considérablement accélérer les pipelines de création d'assets 3D, réduisant le temps et les coûts associés à la modélisation manuelle.

ByteDance s'inscrit dans une course effrénée pour imposer ses modèles d'IA générative face aux géants américains. Le groupe, déjà connu pour TikTok et ses travaux sur les modèles de langage comme Doubao, étend désormais ses ambitions à la 3D générative, un marché encore peu consolidé. La disponibilité de l'API via Volcano Engine signale une volonté de monétiser rapidement cette technologie auprès des entreprises. Alors que des acteurs comme Stability AI, Meshy ou encore Luma AI cherchent à s'imposer dans ce créneau, l'entrée de ByteDance avec un modèle revendiquant l'état de l'art pourrait redistribuer les cartes dans un secteur en pleine ébullition.

Impact France/UE

L'API Seed3D 2.0 est distribuée via Volcano Engine, plateforme cloud de ByteDance peu déployée en Europe, ce qui freine l'adoption directe par les studios européens de jeux vidéo et de production 3D.

À lire aussi

Vidéos IA multilingues : Comment conquérir le monde avec un éditeur tout-en-un ? - avril 2026
1Le Big Data 

Vidéos IA multilingues : Comment conquérir le monde avec un éditeur tout-en-un ? - avril 2026

Synthesia, plateforme d'édition vidéo propulsée par l'intelligence artificielle, se positionne en 2026 comme l'un des outils de référence pour les entreprises cherchant à produire des contenus audiovisuels dans plus de 160 langues sans recourir à des studios de tournage ni à des équipes de traducteurs. La solution repose sur un pipeline intégré : l'utilisateur soumet un texte, la plateforme génère automatiquement une vidéo avec un avatar animé dont les lèvres sont synchronisées en temps réel avec la langue cible via une technologie dite de Lip-Sync. Le clonage vocal complète le dispositif en reproduisant les intonations et accents naturels propres à chaque langue, y compris les alphabets non latins comme le japonais ou l'arabe, gérés nativement par le moteur de traduction contextuelle. Selon l'éditeur, le coût de production serait divisé par dix par rapport aux méthodes traditionnelles. L'impact est tangible pour les équipes marketing et communication des entreprises à vocation internationale : là où il fallait mobiliser des studios, des comédiens de voix et des traducteurs pour chaque marché, un seul opérateur peut désormais décliner un même contenu dans des dizaines de variantes linguistiques en quelques minutes. Les sous-titres dynamiques, générés automatiquement et synchronisés avec le débit de parole, viennent renforcer l'accessibilité sur les réseaux sociaux où la vidéo se consomme souvent sans son. Pour les PME et les startups qui n'ont pas les budgets des grandes multinationales, ce type d'outil ouvre concrètement l'accès aux marchés asiatiques, africains ou latino-américains sans investissement logistique lourd. La montée en puissance de ces plateformes s'inscrit dans une dynamique plus large de démocratisation de la production vidéo par l'IA, accélérée depuis 2023 par les progrès des modèles de synthèse vocale et de génération d'avatars photoréalistes. Synthesia n'est pas seul sur ce segment : HeyGen, D-ID ou encore ElevenLabs pour la partie audio se disputent la même clientèle professionnelle. La concurrence pousse à l'amélioration rapide du réalisme, point historiquement faible de ces outils qui produisaient des rendus "robotiques" peu crédibles. La prochaine bataille se jouera sur la cohérence culturelle au-delà de la traduction, c'est-à-dire la capacité à adapter non seulement la langue mais aussi les références visuelles, le registre et les codes locaux, un défi que les moteurs actuels ne résolvent encore que partiellement.

UELes PME et startups européennes peuvent réduire significativement leurs coûts de production vidéo multilingue pour accéder aux marchés internationaux sans infrastructure lourde.

CréationOutil
1 source
ChatGPT Images 2.0 : Ils ont enfin corrigé CE défaut qui rendait tout le monde fou !
2Le Big Data 

ChatGPT Images 2.0 : Ils ont enfin corrigé CE défaut qui rendait tout le monde fou !

OpenAI a officiellement lancé ChatGPT Images 2.0 le 21 avril 2026, une refonte majeure de son générateur d'images propulsée par un nouveau modèle baptisé gpt-image-2. La mise à jour est immédiatement disponible pour les abonnés ChatGPT Plus, Pro et Business, avec un déploiement Enterprise annoncé prochainement. Le modèle est également accessible via l'API OpenAI, permettant aux développeurs de l'intégrer dans leurs propres services. Sur mobile, une mise à jour de l'application est requise pour profiter de l'ensemble des fonctionnalités. Parmi les changements les plus visibles : la génération de variations multiples en une seule requête, la prise en charge de formats allant du 3:1 au 1:3, et une capacité inédite à analyser des demandes complexes avant de générer quoi que ce soit, en s'appuyant parfois sur des recherches web pour affiner le résultat. La principale avancée concerne le rendu du texte dans les images, longtemps considéré comme le talon d'Achille de l'outil. Là où les versions précédentes déformaient systématiquement les mots et produisaient des caractères illisibles, gpt-image-2 peut désormais afficher des phrases entières, voire des paragraphes, de manière cohérente et intégrée visuellement. Cette capacité s'étend à plusieurs langues au-delà de l'anglais, ce qui élargit considérablement son utilité pour les créateurs de contenu à l'international. Pour les professionnels du marketing, de la communication ou du design qui avaient abandonné ChatGPT pour Midjourney ou Adobe Firefly sur ce point précis, cette correction représente un changement concret d'usage. Le modèle gagne également en fidélité d'exécution : il respecte mieux les consignes détaillées, reproduit avec plus de cohérence les styles demandés (photo réaliste, cinématique, pixel art, manga) et restitue les petits éléments qui échappaient souvent aux générations précédentes. Cette mise à jour s'inscrit dans une course à l'amélioration des générateurs d'images multimodaux où OpenAI accusait un certain retard face à des concurrents comme Midjourney v6 ou Stable Diffusion 3. Depuis l'intégration de DALL-E dans ChatGPT, le principal frein à l'adoption massive restait précisément la gestion du texte dans les visuels, un problème structurel lié à la manière dont les modèles de diffusion encodent les caractères. Le passage à gpt-image-2 semble marquer une rupture architecturale sur ce point. OpenAI continue néanmoins de signaler des limites : les mises en page complexes peuvent encore produire des résultats imparfaits, et le rendu multilingue n'est pas encore irréprochable. Les prochains mois diront si cette version consolide la position de ChatGPT comme outil généraliste de création visuelle ou si elle reste distancée par des solutions spécialisées.

UELes créateurs de contenu et professionnels du marketing en France et en Europe peuvent utiliser gpt-image-2 pour générer des visuels avec texte lisible en plusieurs langues via ChatGPT ou l'API OpenAI, élargissant concrètement son utilité pour la production francophone.

CréationOpinion
1 source
OpenAI lance GPT-Image-2
3Latent Space 

OpenAI lance GPT-Image-2

OpenAI a lancé GPT-Image-2 les 20 et 21 avril 2026, déployant simultanément le modèle sur ChatGPT, Codex et son API publique. La nouvelle version introduit deux variantes, l'une standard et l'une dotée d'un mode "thinking", ce dernier permettant au modèle de générer plusieurs candidats, de vérifier ses propres sorties et d'interroger le web lorsqu'il est couplé à un modèle de raisonnement. Les capacités mises en avant incluent le rendu de texte, la fidélité aux mises en page, l'édition d'images, le support multilingue et la génération d'artefacts visuels tels que diapositives, infographies, maquettes d'interface et QR codes. Sur les benchmarks Arena, GPT-Image-2 occupe la première place dans toutes les catégories de génération d'images : 1512 points en texte-vers-image, 1513 en édition mono-image, 1464 en édition multi-images, avec une avance de 242 points Elo sur le modèle suivant dans la catégorie texte-vers-image. Des outils tiers comme Figma, Canva, Adobe Firefly et fal ont déjà annoncé son intégration. Ce lancement représente davantage qu'une amélioration esthétique : GPT-Image-2 positionne la génération d'images comme une surface de travail professionnelle à part entière. Les réactions des développeurs convergent sur un point précis, le modèle est suffisamment fiable pour servir de référence visuelle dans des boucles de conception, de documentation technique et de prototypage d'interface. L'implication la plus structurante est que la génération d'images devient une porte d'entrée pour les agents de code : un développeur peut générer une maquette visuelle puis demander à Codex de l'implémenter directement, en utilisant l'image comme spécification. Ce flux de travail, jusqu'ici trop peu fiable pour être systématisé, devient crédible avec ce niveau de précision. Le lancement survient dans un contexte de recentrage stratégique chez OpenAI. Selon plusieurs sources, une période de concentration interne aurait précédé cette sortie, associée au départ ou à la réorganisation de l'équipe Sora, le projet de génération vidéo. Le fait que la génération d'images reste une priorité malgré ces turbulences est en soi significatif. En parallèle, d'autres acteurs avancent sur le terrain des agents : Hugging Face a présenté ml-intern, un agent open source automatisant l'ensemble de la boucle de recherche post-entraînement, avec des résultats publiés sur des benchmarks scientifiques comme GPQA, où les performances sont passées de 10% à 32% en moins de dix heures sur Qwen3-1.7B. Le même jour, Cursor aurait bouclé un accord à 60 milliards de dollars avec xAI. La semaine du 20 avril 2026 s'annonce comme l'une des plus denses de l'année en matière d'IA appliquée.

UEL'accès immédiat à l'API renforce la dépendance des entreprises et créatifs européens aux infrastructures américaines pour la génération d'images professionnelle.

CréationOpinion
1 source
Le générateur d'images d'OpenAI peut désormais interroger le web
4The Verge AI 

Le générateur d'images d'OpenAI peut désormais interroger le web

OpenAI a déployé ChatGPT Images 2.0, une nouvelle version de son générateur d'images propulsée par le modèle GPT Image 2. La mise à jour introduit des "capacités de raisonnement" inédites : le système peut désormais interroger le web en temps réel pour enrichir ses créations visuelles à partir d'une seule invite. Ces nouvelles fonctionnalités sont réservées aux abonnés ChatGPT Plus, Pro, Business et Enterprise. En mode raisonnement activé, le générateur peut produire plusieurs images cohérentes à partir d'un même prompt, tout en améliorant le suivi des instructions, la préservation des détails choisis par l'utilisateur et la génération de texte intégré aux images. L'intégration de la recherche web dans un générateur d'images marque un tournant significatif : cela permet au modèle d'incorporer des informations récentes et contextuelles directement dans la création visuelle, sans que l'utilisateur ait à fournir ces données manuellement. Pour les professionnels du marketing, du design ou du journalisme, cela ouvre la voie à des visuels plus précis et actualisés, générés avec moins d'effort. La capacité à produire du texte lisible dans les images reste par ailleurs l'un des défis historiques de l'IA générative, et toute amélioration dans ce domaine a une valeur pratique immédiate. Cette annonce s'inscrit dans une course acharnée entre OpenAI, Google (Imagen) et Midjourney pour dominer le marché des générateurs d'images IA. OpenAI avait déjà surpris le secteur en mars 2025 avec l'intégration native de la génération d'images dans ChatGPT via GPT-4o. L'ajout du raisonnement et de l'accès web à la couche image prolonge cette stratégie d'unification des capacités multimodales dans un seul produit grand public, renforçant la position de ChatGPT comme plateforme centrale de l'IA générative.

UELes abonnés ChatGPT Plus, Pro, Business et Enterprise en France et en Europe ont accès à ces nouvelles capacités de génération d'images enrichies par la recherche web en temps réel.