Aller au contenu principal
Scandale Siri : Apple va rembourser des millions d’utilisateurs d’iPhone
RégulationFrandroid1h

Scandale Siri : Apple va rembourser des millions d’utilisateurs d’iPhone

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :The Verge AI

Apple a accepté de verser 250 millions de dollars pour clore un recours collectif intenté aux États-Unis par des utilisateurs d'iPhone mécontents. Le groupe de Cupertino était accusé d'avoir commercialisé fin 2024 des fonctionnalités d'intelligence artificielle pour son assistant Siri qui n'ont jamais été mises à disposition des consommateurs. Les plaignants estimaient avoir acheté ou conservé leurs appareils en se basant sur des promesses publicitaires mensongères concernant des capacités d'IA avancées.

Cet accord représente une défaite symbolique importante pour Apple, dont la stratégie IA baptisée Apple Intelligence a accumulé les retards depuis son annonce en juin 2024. Les millions d'utilisateurs concernés pourront réclamer une indemnisation, dont le montant individuel dépendra du nombre de demandes déposées. Au-delà du volet financier, cette affaire soulève une question de fond pour toute l'industrie tech : jusqu'où les entreprises peuvent-elles promettre des fonctionnalités d'IA non encore opérationnelles pour stimuler leurs ventes ?

Apple avait présenté une refonte ambitieuse de Siri lors de sa WWDC 2024, promettant une intégration poussée avec ChatGPT et des capacités de compréhension contextuelle inédites. Face aux difficultés techniques et à une concurrence acharnée de Google, Samsung et OpenAI sur le terrain de l'IA, la firme a repoussé à plusieurs reprises ces fonctionnalités. Ce règlement judiciaire pourrait inciter d'autres régulateurs et cabinets d'avocats à scruter de plus près les promesses marketing de l'ensemble du secteur technologique en matière d'intelligence artificielle.

Impact France/UE

Cette affaire pourrait inciter les régulateurs européens et la Commission à renforcer la surveillance des promesses marketing IA trompeuses, en s'appuyant sur l'AI Act et les directives existantes sur la publicité mensongère.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Siècle Digital 

Des YouTubeurs accusent Apple d’avoir utilisé leurs vidéos pour entraîner son IA

Le fondateur de h3h3Productions, la chaîne YouTube comptant plusieurs millions d'abonnés, a déposé une action collective devant un tribunal fédéral de Californie contre Apple. Il est rejoint par deux chaînes spécialisées dans le golf, MrShortGame Golf et Golfholics. Les plaignants accusent Apple d'avoir utilisé leurs vidéos sans autorisation ni compensation pour entraîner les modèles de langage qui alimentent Apple Intelligence, le système d'IA intégré à iOS 18, iPadOS 18 et macOS Sequoia. Cette affaire illustre une tension croissante entre les créateurs de contenu numérique et les grandes entreprises technologiques qui aspirent des volumes massifs de données pour construire leurs modèles d'IA. Si le recours aboutit, il pourrait contraindre Apple à indemniser des milliers de créateurs dont les œuvres ont été ingérées sans consentement, et potentiellement redéfinir les obligations légales des entreprises en matière de collecte de données d'entraînement. Pour les YouTubeurs, dont les revenus dépendent directement de la valorisation de leur contenu, l'enjeu est autant financier que symbolique. Cette plainte s'inscrit dans une vague de litiges similaires qui secouent l'industrie de l'IA depuis 2023 : des auteurs, artistes, journaux comme le New York Times, et désormais des créateurs vidéo contestent devant les tribunaux l'utilisation de leurs œuvres par OpenAI, Meta, Google ou Stability AI. Apple, longtemps discret sur ses pratiques d'entraînement, se retrouve pour la première fois en première ligne de ces batailles juridiques qui pourraient remodeler les règles du jeu pour tout le secteur.

UEL'AI Act européen impose des obligations de transparence sur les données d'entraînement, et ce procès pourrait renforcer les revendications des créateurs de contenu européens face aux pratiques similaires des grandes plateformes opérant en Europe.

RégulationReglementation
1 source
☕️ Les promesses non tenues autour de Siri vont coûter cher à Apple
2Next INpact 

☕️ Les promesses non tenues autour de Siri vont coûter cher à Apple

Apple a proposé un règlement amiable de 250 millions de dollars pour mettre fin à un recours collectif déposé en Californie, après que des consommateurs américains ont accusé l'entreprise de publicité mensongère autour de son assistant Siri. Le litige porte sur des spots télévisés diffusés à l'automne 2024, au moment du lancement de la gamme iPhone 16, dans lesquels l'actrice Bella Ramsey, connue pour ses rôles dans Game of Thrones et The Last of Us, interagissait avec un Siri capable de croiser des informations issues de plusieurs applications simultanément et d'exploiter le contexte de l'utilisateur pour répondre à des questions complexes. Ces fonctionnalités, présentées comme imminentes lors de la WWDC de juin 2024, n'ont jamais vu le jour. Apple a depuis discrètement retiré l'une de ces publicités, mais les archives d'internet en ont conservé la trace. Le chèque de 250 millions, qui ne comprend aucune reconnaissance de faute de la part d'Apple, doit encore être validé par le juge californien en charge du dossier. Si l'accord est approuvé, il constituera l'un des règlements judiciaires les plus importants de l'histoire d'Apple. Au-delà du montant, c'est l'ampleur du décalage entre la communication et la réalité qui frappe : les plaignants affirment qu'Apple a vendu des capacités d'IA « qui n'existaient pas à l'époque, qui n'existent toujours pas, et qui n'existeront pas dans les deux prochaines années ». Pour les consommateurs ayant acheté un iPhone 16 en partie motivés par ces promesses, la déception est concrète et mesurable. Pour l'industrie technologique plus largement, ce recours envoie un signal clair : les annonces de fonctionnalités IA non déployées peuvent désormais exposer les entreprises à une responsabilité juridique significative, à mesure que les régulateurs et les juridictions civiles s'emparent du sujet. Le retard de ce « Siri 2.0 » n'est pas un accident isolé, mais le symptôme d'une crise plus profonde au sein de la division intelligence artificielle d'Apple. L'entreprise, qui avait dévoilé Apple Intelligence avec une confiance affichée en juin 2024, a enchaîné les reports, faute de modèle suffisamment performant pour alimenter les nouvelles ambitions de l'assistant. Cette situation a déclenché une réorganisation interne et provoqué le départ de John Giannandrea, le principal responsable de l'IA chez Apple. Pour combler son retard, Cupertino a confirmé début janvier 2026 un accord avec Google pour intégrer les modèles Gemini à ses futures fonctionnalités d'IA. Le Siri personnalisé est désormais attendu avec iOS 27, mais la crédibilité d'Apple dans ce domaine reste entamée, dans un secteur où ses rivaux, Google, Microsoft, Amazon, ont déjà plusieurs longueurs d'avance.

UECe précédent judiciaire américain pourrait inciter les régulateurs européens à renforcer l'application de l'AI Act et du droit de la consommation contre les affirmations trompeuses sur les capacités des systèmes d'IA dans la publicité.

RégulationReglementation
1 source
Microsoft classe Copilot comme simple outil de divertissement dans ses conditions d'utilisation
3TechCrunch AI 

Microsoft classe Copilot comme simple outil de divertissement dans ses conditions d'utilisation

Microsoft a discrètement inclus dans les conditions d'utilisation de son assistant Copilot une mention surprenante : le service serait destiné à des « fins de divertissement uniquement ». Cette formulation, repérée dans les termes légaux de l'entreprise, contraste fortement avec le positionnement commercial de Copilot comme outil de productivité intégré à Windows, Microsoft 365 et Edge, utilisé par des millions de professionnels et d'entreprises au quotidien. Cette clause soulève une question centrale sur la responsabilité des éditeurs d'IA : si un outil vendu comme assistant professionnel est officiellement qualifié de divertissement, Microsoft limite juridiquement sa responsabilité en cas d'erreur, de désinformation ou de préjudice causé par ses réponses. Ce n'est pas un cas isolé, d'autres grandes entreprises du secteur, dont OpenAI et Google, recourent à des formulations similaires dans leurs CGU pour se prémunir contre des recours légaux liés à des sorties incorrectes ou trompeuses. Ce phénomène illustre la tension croissante entre le discours marketing des acteurs de l'IA générative, qui vante des assistants fiables et transformateurs, et les garde-fous juridiques qu'ils s'empressent d'inscrire en petits caractères. Alors que l'adoption professionnelle de ces outils s'accélère, la question de la responsabilité en cas d'erreur reste entière, et les régulateurs européens, notamment dans le cadre de l'AI Act, commencent à s'y attaquer frontalement.

UEL'AI Act européen contraint déjà les fournisseurs d'IA à définir le niveau de risque de leurs systèmes, ce qui pourrait forcer Microsoft à harmoniser ses CGU avec ses usages professionnels déclarés, sous peine de qualification réglementaire défavorable.

RégulationReglementation
1 source
Les régulateurs signalent des lacunes dans le contrôle des agents autonomes
4AI News 

Les régulateurs signalent des lacunes dans le contrôle des agents autonomes

L'autorité australienne de régulation prudentielle (APRA) a tiré la sonnette d'alarme fin 2025 après un audit ciblé des grandes institutions financières du pays : banques et fonds de retraite adoptent massivement l'intelligence artificielle, mais leur gouvernance des risques associés reste insuffisante. L'examen, conduit auprès d'un échantillon représentatif d'entités régulées, a révélé que l'IA est désormais présente dans la totalité des organisations auditées, notamment pour l'ingénierie logicielle, le traitement des demandes de prêts, le tri des sinistres, la détection de fraudes et les interactions clients. Pourtant, les conseils d'administration se reposent encore trop souvent sur les présentations des fournisseurs plutôt que sur une analyse rigoureuse des risques, notamment ceux liés aux comportements imprévisibles des modèles ou aux conséquences d'une défaillance sur des opérations critiques. L'APRA a également identifié des lacunes concrètes : absence d'inventaires complets des outils d'IA déployés, manque de responsables désignés pour chaque instance, déficiences dans la surveillance des comportements des modèles et dans les procédures de mise hors service. Ces manquements ont des implications directes pour la stabilité du secteur financier australien, qui gère plusieurs milliers de milliards de dollars d'actifs. Lorsque les institutions traitent le risque IA comme un simple risque technologique classique, elles passent à côté des spécificités des modèles : biais, dérive comportementale, opacité des décisions. L'APRA exige désormais que la stratégie IA de chaque établissement soit alignée sur son appétit au risque, assortie de procédures claires en cas d'erreur et d'une supervision humaine obligatoire pour les décisions à fort enjeu. Sur le plan cybersécuritaire, l'adoption de l'IA élargit la surface d'attaque, notamment via l'injection de prompts et les intégrations non sécurisées. Les contrôles d'identité et d'accès, pensés pour des utilisateurs humains, n'ont pas été adaptés aux agents autonomes, et la dépendance à un fournisseur unique pour de nombreuses instances constitue un risque systémique supplémentaire, peu d'établissements étant capables de présenter un plan de sortie crédible. Cette mise en garde australienne s'inscrit dans une tendance mondiale. L'alliance FIDO, standard incontournable de l'authentification en ligne, vient de créer un groupe de travail spécialisé sur l'authentification agentique, en réponse aux modèles existants qui ont été conçus pour des humains et non pour des logiciels agissant en leur nom. Google (Agent Payments Protocol) et Mastercard (Verifiable Intent) ont déjà soumis leurs solutions à l'examen du groupe. Parallèlement, le Centre for Internet Security, financé en grande partie par le département américain de la Sécurité intérieure, vient de publier des guides de sécurité spécifiques aux LLM, aux agents IA et aux environnements Model Context Protocol, couvrant la gestion des accès non humains et les risques liés aux données sensibles. La gouvernance des agents autonomes devient ainsi l'un des chantiers réglementaires prioritaires de 2026, à mesure que leur déploiement s'accélère dans des secteurs à risques systémiques.

UELes institutions financières européennes font face aux mêmes lacunes de gouvernance des agents IA, un enjeu que l'AI Act et les régulateurs sectoriels (BCE, EBA) devront préciser dans leurs exigences de conformité.

RégulationReglementation
1 source