Vous en avez marre des IA ? Cette startup vous paye 800 $ pour les torturer
La startup Memvid propose 800 $ pour une journée de travail atypique : pousser des chatbots dans leurs limites jusqu'à les faire flancher. Le poste, baptisé « AI bully », ne requiert aucune compétence technique — uniquement une capacité à remarquer chaque incohérence, à répéter inlassablement les mêmes consignes, et à documenter avec rigueur chaque moment où l'intelligence artificielle décroche. Loin d'être un gadget marketing, cette offre pointe une faille structurelle des grands modèles de langage actuels.
Le problème au cœur de cette démarche est celui de la mémoire de contexte. Contrairement à un humain, un LLM ne dispose pas d'une mémoire continue : il opère dans une « fenêtre de contexte » de taille limitée, au-delà de laquelle les informations antérieures s'effacent ou se diluent. Résultat concret : une consigne donnée au début d'une longue conversation peut disparaître, un utilisateur se déclarant végétarien se voit proposer du bacon quarante messages plus tard, une demande de ton formel est ignorée après quelques échanges. Ces défaillances, banales pour qui utilise ces outils quotidiennement, restent difficiles à quantifier précisément en environnement de laboratoire.
Google, Anthropic et d'autres acteurs majeurs tentent d'y remédier — le premier en ajoutant des capacités de mémoire persistante à ses modèles, le second en permettant à Claude de conserver certains échanges entre sessions. Mais ces solutions demeurent fragmentées et imprévisibles. Memvid choisit une approche différente : cartographier ces défaillances dans des conditions réelles, avec de vrais utilisateurs dont la patience s'érode progressivement. L'entreprise cible les boucles infinies, les contradictions internes, les pertes de contexte brutales — autant de comportements impossibles à reproduire fidèlement dans un cadre contrôlé.
Le profil recherché dit beaucoup sur l'état du secteur : pas d'ingénieur, pas de chercheur, mais des personnes « relou et tatillonnes » selon les termes mêmes de l'offre. Que la mémoire persistante reste en 2026 le « Saint Graal non débloqué » de l'IA conversationnelle — et qu'une startup doive rémunérer des utilisateurs frustrés pour en cartographier les limites — illustre à quel point ce chantier fondamental n'est pas encore résolu.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




