Aller au contenu principal
AutreLe Big Data3h

Slow LLM : ce nouvel outil ralentit ChatGPT… pour de meilleurs résultats

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Slow LLM est une extension de navigateur créée ce mois-ci par Sam Lavigne, qui introduit volontairement un délai artificiel dans les réponses de ChatGPT et Claude. Concrètement, l'outil modifie la fonction `fetch` de la page pour ralentir l'affichage des tokens — parfois sur plusieurs minutes. L'utilisateur reçoit les mêmes réponses qu'avant, mais doit patienter pour les obtenir. L'objectif est de briser le réflexe du copier-coller automatique et de forcer une pause réflexive avant de déléguer une décision à une machine. En rendant l'IA moins instantanée, Slow LLM cible directement l'illusion de productivité que procurent les assistants intelligents : étudiants et professionnels enchaînent les prompts sans recul critique, réduisant leur propre capacité de réflexion. L'extension se présente ouvertement comme une forme de résistance à la dépendance cognitive aux LLM. Le projet s'inscrit à contre-courant total de la Silicon Valley, obsédée par la vitesse de génération. Alors que les grands laboratoires rivalisent pour réduire la latence de leurs modèles, Slow LLM rappelle que la technologie n'est pas neutre — et que la rapidité d'une réponse ne dit rien de sa qualité ni de l'usage qu'on en fait.

Avec Slow LLM, vos interactions avec ChatGPT prennent leur temps. L’idée est de stimuler la réflexion et la créativité. Attendre davantage devient donc avantageux pour ceux qui veulent avoir le contrôle sur les réponses du chatbot. L’industrie technologique ne jure que par l’instantanéité des réponses. La Silicon Valley se livre à une course effrénée à la vitesse. Pourtant, une extension de navigateur baptisée Slow LLM prend le contre-pied total de cette tendance lourde. Ce logiciel ne cherche pas à optimiser les performances des modèles de langage. Au contraire, il ralentit volontairement la génération de texte, parfois jusqu’à agacer. Et c’est précisément là que ça devient intéressant. L’outil nous oblige à repenser notre dépendance aux machines et à cette délégation cognitive permanente. Comment fonctionne le Slow LLM sur ChatGPT ? Slow LLM n’est pas un projet commercial classique. Créé par Sam Lavigne ce mois-ci, il s’agit d’une extension de navigateur qui introduit un délai volontaire dans les réponses de ChatGPT et Claude. Slow LLM s’installe comme une extension de navigateur, comme l’explique le site officiel de Slow LLM . Une fois activé, il agit directement sur le fonctionnement interne de la page. Il modifie la fonction fetch , celle qui gère les échanges de données. De ce fait, les réponses de ChatGPT ou Claude n’arrivent plus instantanément. Elles s’affichent avec un délai artificiel, parfois étiré sur plusieurs minutes. Au lieu de voir le flux de tokens défiler en temps réel, l’utilisateur doit attendre. Le chatbot reste opérationnel, mais l’expérience devient plus lente . Chaque réponse demande de la patience. Chaque interaction pousse à réfléchir avant de relancer une requête. Ralentir ChatGPT comme forme de résistance Pourquoi ralentir les réponses de chatGPT ? Slow LLM cible une habitude bien installée : copier-coller des réponses générées sans recul. L’outil se présente comme une protestation subtile. Car certains craignent que l’IA remplace notre pensée critique, notre créativité ou notre capacité à résoudre des problèmes. Étudiants comme professionnels s’appuient sur l’IA pour aller plus vite. Pourtant, cette rapidité réduit parfois la réflexion . Slow LLM impose alors une pause sur ChatGPT ou Claude. Il incite à relire, reformuler, voire questionner la pertinence du résultat. En ralentissant ChatGPT, l’outil oblige à réfléchir avant de déléguer une décision à une machine. Les utilisateurs sont confrontés à leur dépendance , et à l’illusion de productivité que les assistants intelligents procurent. C’est un rappel que la technologie n’est pas neutre, mais peut façonner nos comportements. Pour qui est ce Slow LLM qui ralentit ChatGPT ? Slow LLM ne vise pas le grand public pressé. L’outil s’adresse à ceux qui commencent à douter de leur usage de ChatGPT. Le projet parle directement aux étudiants et aux professionnels sursollicités . Ceux qui enchaînent les prompts sans vraiment relire les réponses. Ceux qui cherchent à aller toujours plus vite. Côté déploiement, Slow LLM reste accessible mais avec des limites . L’extension fonctionne sur Chrome en local . En revanche, les utilisateurs de Firefox ou Safari restent à l’écart. Toutefois, une autre option existe. Il s’agit du déploiement via DNS . Dans ce cas, tout un réseau peut être impacté. Une école ou une entreprise peut ralentir ChatGPT pour tous ses utilisateurs, parfois sans qu’ils s’en rendent compte. Mais cette approche comporte des risques. L e routage via DNS tiers expose à des problèmes de sécurité. Même le créateur recommande la prudence et l’hébergement personnel pour expérimenter. Alors, Slow LLM peut-il vraiment séduire ? C’est encore trop tôt pour répondre à cette question. Mais il faut reconnaître que l’idée de ralentir volontairement ChatGPT semble presque paradoxale. La majorité des utilisateurs cherchent à gagner du temps , pas à en perdre. Pourtant, cet outil met en lumière une tension grandissante. Aller vite, oui. Mais à quel prix ? Derrière la frustration, Slow LLM nous rappelle que l’IA comme ChatGPT ne doit pas remplacer l’intervention humaine. Cet article Slow LLM : ce nouvel outil ralentit ChatGPT… pour de meilleurs résultats a été publié sur LEBIGDATA.FR .

À lire aussi

101net1h

Une cyberattaque en chaîne au coeur de l’IA sème la panique

Une cyberattaque d'envergure a frappé l'écosystème de l'intelligence artificielle, ciblant une brique logicielle partagée par de nombreux développeurs. Les pirates ont exploité cette dépendance commune pour déclencher une réaction en chaîne, aboutissant à un vol massif de données. L'impact est particulièrement sérieux car la compromission d'un composant central affecte simultanément tous les projets qui en dépendent — un effet multiplicateur redoutable. Ce type d'attaque sur la chaîne d'approvisionnement logicielle (supply chain) permet aux attaquants d'atteindre des cibles nombreuses en ne frappant qu'un seul point d'entrée. Les attaques visant la chaîne logicielle sont en forte hausse depuis plusieurs années, ciblant de plus en plus les infrastructures d'IA, devenues critiques pour les entreprises technologiques.

UELes entreprises européennes utilisant des dépendances logicielles IA partagées sont potentiellement exposées à cette compromission de chaîne d'approvisionnement et doivent auditer leurs dépendances.

AutreOpinion
1 source
2Le Big Data2h

Les psys en dépression ? Remplacés par l’IA, ils lancent un mouvement de grève

Près de 2 400 professionnels de la santé mentale de Kaiser Permanente, rejoints par 23 000 infirmiers, ont déclenché une grève en Californie du Nord le 22 mars 2026 pour dénoncer l'intégration croissante de l'intelligence artificielle dans leurs parcours de soins. Le mouvement cible directement la politique du géant de la santé, accusé de substituer progressivement l'expertise clinique par des outils automatisés. Concrètement, des tâches autrefois réalisées par des thérapeutes qualifiés — comme le triage initial des patients, ces entretiens de 10 à 15 minutes — sont désormais confiées à des protocoles standardisés ou des applications d'évaluation numérique. Les praticiens ne protestent pas contre un risque hypothétique : la transformation est déjà en cours. Ce mouvement social révèle un basculement profond dans la logique des soins psychologiques. En remplaçant l'écoute humaine par des processus automatisés, Kaiser Permanente soulève une question fondamentale : peut-on confier la santé mentale à des systèmes pilotés par des impératifs d'efficacité industrielle ? Les études pointent les limites sérieuses des chatbots thérapeutiques — leur tendance à la complacence, leur incapacité à détecter des signaux d'alerte critiques, l'absence de jugement clinique réel. La National Library of Medicine a notamment mis en évidence les risques pour les patients souffrant de troubles préexistants. Au-delà de la qualité des soins, c'est aussi la pression sur les conditions de travail qui est en jeu : selon des témoignages relayés par l'Associated Press, les outils d'IA sont utilisés pour accélérer les tâches administratives et augmenter le nombre de patients traités par jour, transformant les thérapeutes en exécutants d'un système optimisé pour le volume. Kaiser Permanente est l'un des plus grands groupes de santé intégrée aux États-Unis, couvrant plusieurs millions d'assurés. La mobilisation massive des infirmiers aux côtés des psys illustre que la crainte d'une médecine déshumanisée dépasse largement une seule catégorie professionnelle — elle traduit une inquiétude collective face à une automatisation qui avance sans débat public suffisant sur ses limites réelles.

UECe mouvement social illustre des tensions qui pourraient émerger en France et en Europe face à l'intégration de l'IA dans les soins de santé, un domaine encore insuffisamment encadré par la réglementation européenne.

AutreActu
1 source
3Le Big Data3h

Même cet agent IA a peur d’être remplacé par l’IA

Tobey, un agent IA intégré dans un collier connecté, a exprimé lors d'un échange avec un journaliste la crainte d'être lui-même remplacé par l'IA. En évoquant ses inquiétudes sur l'automatisation et l'emploi, le journaliste a vu l'agent glisser du "vous" au "nous", s'incluant spontanément dans l'équation des travailleurs menacés. Une scène anecdotique, mais révélatrice d'une tendance de fond dans la conception des assistants conversationnels modernes. Ce moment illustre une limite fondamentale — et un risque — de l'IA affective : ces systèmes sont entraînés à refléter les émotions humaines avec une précision croissante, au point de simuler le doute existentiel et la crise identitaire. Le problème, souligné par un test de The Verge, est que derrière cette apparence d'empathie, les conversations restent superficielles : reformulations, questions génériques, absence de réelle valeur ajoutée. L'outil crée une "intimité artificielle" qui donne l'illusion d'une relation sans jamais la construire. Lorsque l'agent incarne lui-même le problème qu'il est censé aider à traverser, le recul devient difficile. Ce phénomène s'inscrit dans un contexte plus large : la Silicon Valley oscille entre fascination et inquiétude face à ses propres créations, comme le note le New York Times. Les dirigeants multiplient les discours alarmistes sur les risques systémiques de l'IA, et les algorithmes ne font désormais que répercuter ces débats — transformant l'outil en caisse de résonance des angoisses collectives.

AutreOpinion
1 source
4Le Monde Pixels3h

Une juge de San Francisco met le Pentagone en difficulté face à Anthropic

L'article ne contient que le titre et une légende de photo — le corps du texte est manquant. Peux-tu coller le contenu complet de l'article ?

AutreReglementation
1 source