Aller au contenu principal
Le chatbot de DeepSeek tombe en panne pendant plus de 10 heures
InfrastructureThe Information AI6sem

Le chatbot de DeepSeek tombe en panne pendant plus de 10 heures

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Le chatbot de DeepSeek a subi une panne majeure de plus de dix heures dans la nuit de dimanche à lundi, rendant inaccessibles à la fois le site web et l'application mobile de la startup chinoise. Il s'agit de l'interruption de service la plus longue enregistrée depuis que le modèle phare de l'entreprise avait connu un succès viral début 2025. Le service a été rétabli lundi matin, sans que DeepSeek n'ait fourni d'explication publique sur les causes de l'incident.

Une panne de cette durée sur un service d'IA aussi fréquenté soulève des questions sérieuses sur la fiabilité de l'infrastructure de DeepSeek. Pour les millions d'utilisateurs qui dépendent du chatbot comme outil de travail quotidien, dix heures d'indisponibilité représentent une interruption significative. L'absence de communication officielle aggrave la situation : les entreprises et développeurs intégrant DeepSeek dans leurs flux de travail se retrouvent sans visibilité sur les risques opérationnels.

DeepSeek s'était imposé comme un concurrent inattendu face à OpenAI et Google début 2025, en proposant des performances comparables à des coûts bien inférieurs, ce qui avait provoqué un choc boursier aux États-Unis. Mais la montée en charge rapide d'un service qui n'avait pas été conçu pour une adoption mondiale de masse expose désormais ses faiblesses infrastructurelles. Cette panne survient alors que la fiabilité et la souveraineté des outils d'IA font l'objet d'un examen croissant, notamment en Europe où la provenance chinoise de DeepSeek alimente des débats sur la dépendance technologique.

Impact France/UE

La panne relance le débat en Europe sur la dépendance aux outils d'IA d'origine chinoise et les risques pour la souveraineté technologique.

💬 Le point de vue du dev

10 heures, aucune explication, aucun post-mortem. C'est ça qui me pose problème, pas la panne en elle-même (tout tombe, même OpenAI). Quand tu intègres un service dans ton workflow sans avoir aucune visibilité sur ce qui s'est passé, tu travailles à l'aveugle. Bon, c'est le signal pour tous ceux qui hésitaient encore sur la question souveraineté.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Deepseek v4 tournerait entièrement sur des puces Huawei, une avancée majeure pour l'indépendance de la Chine en IA
1The Decoder 

Deepseek v4 tournerait entièrement sur des puces Huawei, une avancée majeure pour l'indépendance de la Chine en IA

DeepSeek prépare le lancement de sa quatrième génération de modèle d'intelligence artificielle, attendue dans les prochaines semaines, et celui-ci tournera exclusivement sur des puces Huawei. Selon des sources citées par The Decoder, les grands groupes technologiques chinois auraient déjà passé des commandes portant sur des centaines de milliers d'unités de ces processeurs. Nvidia, le fabricant américain qui domine habituellement le marché de l'entraînement et de l'inférence IA, a été écarté des phases de test préliminaires. C'est un signal fort pour l'autonomie technologique chinoise en matière d'IA. Jusqu'ici, les puces Huawei Ascend étaient perçues comme inférieures aux GPU Nvidia H100 et H800, rendant leur adoption à grande échelle difficile pour des modèles de pointe. Si DeepSeek v4 tourne efficacement sur cette infrastructure domestique, cela validerait la montée en puissance de l'écosystème matériel chinois et réduirait concrètement la dépendance vis-à-vis des fabricants américains, une vulnérabilité stratégique majeure depuis les restrictions à l'export imposées par Washington. Ce développement s'inscrit dans un contexte de guerre technologique larvée entre les États-Unis et la Chine. Depuis 2022, les restrictions américaines sur l'exportation de semi-conducteurs avancés vers la Chine ont contraint Huawei et ses partenaires à accélérer massivement leurs efforts de R&D sur les puces Ascend. DeepSeek avait déjà surpris le monde en janvier 2025 avec des modèles très performants entraînés à moindre coût. Si v4 confirme la viabilité des puces Huawei à cette échelle, cela pourrait remodeler les équilibres du secteur mondial de l'IA.

UESi les puces Huawei Ascend s'avèrent compétitives pour l'IA de pointe, cela accélère la fragmentation du marché mondial des semi-conducteurs et renforce la pression sur l'Europe pour développer sa propre souveraineté en matière de hardware IA.

InfrastructureOpinion
1 source
ChatGPT et Claude en panne : que s’est-il réellement passé ?
2Le Big Data 

ChatGPT et Claude en panne : que s’est-il réellement passé ?

Le 20 avril 2026, en début d'après-midi, les deux assistants IA les plus utilisés au monde ont connu des perturbations simultanées. ChatGPT d'OpenAI et Claude d'Anthropic ont affiché des temps de réponse anormalement longs, voire des pannes complètes pour certains utilisateurs. Les premières alertes ont émergé autour de 16h, heure française, avec une hausse nette des signalements sur DownDetector. Les requêtes s'accumulaient sans réponse, les délais s'allongeaient, et les utilisateurs constataient rapidement que le problème ne se limitait pas à un seul service. Copilot de Microsoft et Gemini de Google ont également montré des signes de ralentissement au même moment, avec une latence inhabituelle bien que leurs services soient restés partiellement opérationnels. La panne a touché simultanément plusieurs acteurs majeurs, ce qui a immédiatement orienté les soupçons vers une cause commune en amont des applications elles-mêmes. Le principal suspect est Cloudflare, l'un des fournisseurs d'infrastructure réseau les plus critiques d'Internet. Ce service joue un rôle de relais et de filtre entre les utilisateurs et les serveurs des plateformes : il accélère le trafic, absorbe les attaques DDoS et gère la distribution des requêtes à l'échelle mondiale. Quand Cloudflare rencontre des difficultés, l'effet peut se propager en cascade sur des dizaines de services dépendants. La page de statut officielle de Cloudflare a effectivement signalé ce jour-là des dégradations sur plusieurs composants clés, notamment Analytics, Rules, Workers et Zero Trust. Ces modules sont au coeur du fonctionnement de nombreuses applications web modernes. Aucun lien officiel n'a toutefois été confirmé entre cet incident Cloudflare et les pannes de ChatGPT et Claude, mais la coïncidence temporelle et la nature simultanée des perturbations sur plusieurs plateformes indépendantes renforcent fortement cette hypothèse. Cet incident illustre une vulnérabilité structurelle de l'écosystème IA actuel : la concentration de l'infrastructure critique entre les mains d'un petit nombre de fournisseurs. OpenAI, Anthropic, Microsoft et Google ont beau opérer des produits concurrents, ils partagent souvent les mêmes couches d'infrastructure réseau, de CDN et de sécurité. Une défaillance à ce niveau peut donc paralyser simultanément des services qui semblent pourtant indépendants. À mesure que les outils d'IA s'intègrent dans les workflows professionnels quotidiens, rédaction, développement, analyse, leur indisponibilité, même temporaire, génère un impact économique et opérationnel réel. Cet épisode devrait relancer les discussions sur la résilience des infrastructures IA et la nécessité, pour les grands acteurs, de diversifier leurs dépendances techniques pour éviter qu'un seul point de défaillance ne mette à genoux l'ensemble du secteur.

UELes professionnels français utilisant ChatGPT ou Claude dans leurs workflows quotidiens ont subi une interruption de service, révélant la dépendance structurelle de l'écosystème IA européen envers quelques fournisseurs d'infrastructure réseau américains.

InfrastructureOpinion
1 source
Les 10 principales entreprises chinoises de conception de puces
3The Information AI 

Les 10 principales entreprises chinoises de conception de puces

Si Washington évoque systématiquement Huawei comme principale menace face à Nvidia dans le secteur des puces IA, la réalité du paysage technologique chinois est bien plus complexe. Le PDG de Nvidia, Jensen Huang, a lui-même cité à plusieurs reprises l'essor de Huawei lors de réunions privées avec des législateurs américains et dans des forums publics, faisant de l'entreprise le symbole raccourci des ambitions semiconducteurs de Pékin. Pourtant, la Chine compte aujourd'hui plus de dix entreprises qui conçoivent et commercialisent activement des puces d'intelligence artificielle. Ce chiffre illustre l'ampleur réelle d'un écosystème que les sanctions américaines n'ont pas réussi à étouffer. Ces acteurs vont d'institutions de recherche soutenues par l'État, fortes de décennies d'expertise, jusqu'à des startups fondées par des ingénieurs ayant travaillé chez Nvidia, AMD ou Intel avant de rentrer en Chine pour bâtir leurs propres alternatives. Pour l'industrie mondiale des semi-conducteurs, cette diversité signifie que bloquer un seul acteur, aussi puissant soit-il, ne suffit plus à contenir la montée en puissance technologique chinoise. Ce foisonnement s'inscrit dans une stratégie nationale de long terme visant l'autosuffisance en puces avancées, accélérée par les restrictions américaines à l'exportation imposées depuis 2022. Les États-Unis ont successivement placé sur liste noire Huawei, SMIC et d'autres entreprises, poussant Pékin à investir massivement dans une filière domestique. La question n'est plus de savoir si la Chine peut concevoir des puces IA compétitives, mais à quelle vitesse ce groupe d'une dizaine de champions nationaux parviendra à combler l'écart avec les leaders occidentaux.

UELe développement accéléré d'un écosystème chinois de puces IA autonome renforce les enjeux de souveraineté technologique européenne et pourrait redistribuer les équilibres mondiaux dans l'approvisionnement en semiconducteurs avancés.

💬 Huawei, c'est le nom qu'on cite parce que c'est simple, mais ça fait longtemps que c'est plus toute l'histoire. Plus de dix boîtes chinoises qui conçoivent des puces IA, dont plusieurs fondées par des ex-Nvidia ou ex-AMD rentrés au pays, c'est pas une anecdote. Les sanctions ont accéléré exactement ce qu'elles voulaient empêcher.

InfrastructureOpinion
1 source
Des tokens moins chers, des factures plus élevées : la nouvelle économie de l'infrastructure IA
4VentureBeat AI 

Des tokens moins chers, des factures plus élevées : la nouvelle économie de l'infrastructure IA

Le coût d'une inférence IA a chuté d'environ un facteur dix en deux ans, porté par des gains d'efficacité sur les modèles et la concurrence acharnée entre fournisseurs cloud. Pourtant, les factures d'infrastructure des entreprises ne baissent pas : elles augmentent. C'est le paradoxe que décrit Anindo Sengupta, vice-président produits chez Nutanix : si le coût par token diminue d'un ordre de grandeur, la consommation, elle, a bondi de plus de 100 fois sur la même période. Résultat, les équipes IT se retrouvent à gérer des volumes d'inférence que rien ne laissait prévoir il y a deux ans, et des budgets GPU qui s'envolent malgré des prix unitaires en chute libre. Ce que les économistes appellent le paradoxe de Jevons se matérialise ici très concrètement : une ressource moins chère incite à en consommer davantage, jusqu'à dépasser les économies réalisées. L'essor de l'IA agentique amplifie le phénomène. Chaque assistant IA déployé en entreprise, chaque workflow automatisé, chaque pipeline d'agents génère en continu des milliers de requêtes d'inférence courtes et imprévisibles, très éloignées des gros jobs de training planifiés à l'avance. Ces flux bombardent les GPU, saturent les interconnexions réseau et sollicitent des systèmes de stockage conçus pour des charges stables. Le coût par token et le taux d'utilisation GPU deviennent ainsi des métriques opérationnelles de premier plan, au même titre que la disponibilité ou le débit. Les optimiser reste complexe : les variables sont trop nombreuses pour être gérées intuitivement, modèles, localisation des workloads, structure des prompts. Cette rupture expose les limites structurelles des datacenters traditionnels, pensés pour des charges prévisibles et des cycles d'approvisionnement longs. L'infrastructure agentique exige une topologie GPU spécifique, des interconnexions haute vitesse, un stockage parallèle pour les caches KV et la mémoire des agents. Quand GPU, réseau et stockage sont gérés en silos distincts, les inefficacités s'accumulent : les assets GPU coûteux se retrouvent sous-utilisés pendant que le réseau ou le stockage constituent les goulets d'étranglement. Face à cette réalité, les grands acteurs de l'infrastructure, Nutanix en tête, poussent vers des plateformes full-stack intégrées et validées de bout en bout, capables d'optimiser simultanément le calcul, le réseau et le stockage pour les workloads IA en production. L'enjeu n'est plus simplement de déployer de l'IA, mais de la faire tourner à l'échelle sans que les coûts d'infrastructure ne neutralisent les gains de productivité.

UELes DSI européens déployant de l'IA agentique subissent le même effet Jevons : la baisse du coût par token est annulée par l'explosion des volumes d'inférence, rendant l'optimisation de l'infrastructure GPU une priorité budgétaire immédiate.

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour