Microsoft classe Copilot comme simple outil de divertissement dans ses conditions d'utilisation
Microsoft a discrètement inclus dans les conditions d'utilisation de son assistant Copilot une mention surprenante : le service serait destiné à des « fins de divertissement uniquement ». Cette formulation, repérée dans les termes légaux de l'entreprise, contraste fortement avec le positionnement commercial de Copilot comme outil de productivité intégré à Windows, Microsoft 365 et Edge, utilisé par des millions de professionnels et d'entreprises au quotidien.
Cette clause soulève une question centrale sur la responsabilité des éditeurs d'IA : si un outil vendu comme assistant professionnel est officiellement qualifié de divertissement, Microsoft limite juridiquement sa responsabilité en cas d'erreur, de désinformation ou de préjudice causé par ses réponses. Ce n'est pas un cas isolé, d'autres grandes entreprises du secteur, dont OpenAI et Google, recourent à des formulations similaires dans leurs CGU pour se prémunir contre des recours légaux liés à des sorties incorrectes ou trompeuses.
Ce phénomène illustre la tension croissante entre le discours marketing des acteurs de l'IA générative, qui vante des assistants fiables et transformateurs, et les garde-fous juridiques qu'ils s'empressent d'inscrire en petits caractères. Alors que l'adoption professionnelle de ces outils s'accélère, la question de la responsabilité en cas d'erreur reste entière, et les régulateurs européens, notamment dans le cadre de l'AI Act, commencent à s'y attaquer frontalement.
L'AI Act européen contraint déjà les fournisseurs d'IA à définir le niveau de risque de leurs systèmes, ce qui pourrait forcer Microsoft à harmoniser ses CGU avec ses usages professionnels déclarés, sous peine de qualification réglementaire défavorable.

