Aller au contenu principal
RégulationNext INpact1h

☕️ Les promesses non tenues autour de Siri vont coûter cher à Apple

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :Le Big Data

Apple a proposé un règlement amiable de 250 millions de dollars pour mettre fin à un recours collectif déposé en Californie, après que des consommateurs américains ont accusé l'entreprise de publicité mensongère autour de son assistant Siri. Le litige porte sur des spots télévisés diffusés à l'automne 2024, au moment du lancement de la gamme iPhone 16, dans lesquels l'actrice Bella Ramsey, connue pour ses rôles dans Game of Thrones et The Last of Us, interagissait avec un Siri capable de croiser des informations issues de plusieurs applications simultanément et d'exploiter le contexte de l'utilisateur pour répondre à des questions complexes. Ces fonctionnalités, présentées comme imminentes lors de la WWDC de juin 2024, n'ont jamais vu le jour. Apple a depuis discrètement retiré l'une de ces publicités, mais les archives d'internet en ont conservé la trace. Le chèque de 250 millions, qui ne comprend aucune reconnaissance de faute de la part d'Apple, doit encore être validé par le juge californien en charge du dossier.

Si l'accord est approuvé, il constituera l'un des règlements judiciaires les plus importants de l'histoire d'Apple. Au-delà du montant, c'est l'ampleur du décalage entre la communication et la réalité qui frappe : les plaignants affirment qu'Apple a vendu des capacités d'IA « qui n'existaient pas à l'époque, qui n'existent toujours pas, et qui n'existeront pas dans les deux prochaines années ». Pour les consommateurs ayant acheté un iPhone 16 en partie motivés par ces promesses, la déception est concrète et mesurable. Pour l'industrie technologique plus largement, ce recours envoie un signal clair : les annonces de fonctionnalités IA non déployées peuvent désormais exposer les entreprises à une responsabilité juridique significative, à mesure que les régulateurs et les juridictions civiles s'emparent du sujet.

Le retard de ce « Siri 2.0 » n'est pas un accident isolé, mais le symptôme d'une crise plus profonde au sein de la division intelligence artificielle d'Apple. L'entreprise, qui avait dévoilé Apple Intelligence avec une confiance affichée en juin 2024, a enchaîné les reports, faute de modèle suffisamment performant pour alimenter les nouvelles ambitions de l'assistant. Cette situation a déclenché une réorganisation interne et provoqué le départ de John Giannandrea, le principal responsable de l'IA chez Apple. Pour combler son retard, Cupertino a confirmé début janvier 2026 un accord avec Google pour intégrer les modèles Gemini à ses futures fonctionnalités d'IA. Le Siri personnalisé est désormais attendu avec iOS 27, mais la crédibilité d'Apple dans ce domaine reste entamée, dans un secteur où ses rivaux, Google, Microsoft, Amazon, ont déjà plusieurs longueurs d'avance.

Impact France/UE

Ce précédent judiciaire américain pourrait inciter les régulateurs européens à renforcer l'application de l'AI Act et du droit de la consommation contre les affirmations trompeuses sur les capacités des systèmes d'IA dans la publicité.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les régulateurs signalent des lacunes dans le contrôle des agents autonomes
1AI News 

Les régulateurs signalent des lacunes dans le contrôle des agents autonomes

L'autorité australienne de régulation prudentielle (APRA) a tiré la sonnette d'alarme fin 2025 après un audit ciblé des grandes institutions financières du pays : banques et fonds de retraite adoptent massivement l'intelligence artificielle, mais leur gouvernance des risques associés reste insuffisante. L'examen, conduit auprès d'un échantillon représentatif d'entités régulées, a révélé que l'IA est désormais présente dans la totalité des organisations auditées, notamment pour l'ingénierie logicielle, le traitement des demandes de prêts, le tri des sinistres, la détection de fraudes et les interactions clients. Pourtant, les conseils d'administration se reposent encore trop souvent sur les présentations des fournisseurs plutôt que sur une analyse rigoureuse des risques, notamment ceux liés aux comportements imprévisibles des modèles ou aux conséquences d'une défaillance sur des opérations critiques. L'APRA a également identifié des lacunes concrètes : absence d'inventaires complets des outils d'IA déployés, manque de responsables désignés pour chaque instance, déficiences dans la surveillance des comportements des modèles et dans les procédures de mise hors service. Ces manquements ont des implications directes pour la stabilité du secteur financier australien, qui gère plusieurs milliers de milliards de dollars d'actifs. Lorsque les institutions traitent le risque IA comme un simple risque technologique classique, elles passent à côté des spécificités des modèles : biais, dérive comportementale, opacité des décisions. L'APRA exige désormais que la stratégie IA de chaque établissement soit alignée sur son appétit au risque, assortie de procédures claires en cas d'erreur et d'une supervision humaine obligatoire pour les décisions à fort enjeu. Sur le plan cybersécuritaire, l'adoption de l'IA élargit la surface d'attaque, notamment via l'injection de prompts et les intégrations non sécurisées. Les contrôles d'identité et d'accès, pensés pour des utilisateurs humains, n'ont pas été adaptés aux agents autonomes, et la dépendance à un fournisseur unique pour de nombreuses instances constitue un risque systémique supplémentaire, peu d'établissements étant capables de présenter un plan de sortie crédible. Cette mise en garde australienne s'inscrit dans une tendance mondiale. L'alliance FIDO, standard incontournable de l'authentification en ligne, vient de créer un groupe de travail spécialisé sur l'authentification agentique, en réponse aux modèles existants qui ont été conçus pour des humains et non pour des logiciels agissant en leur nom. Google (Agent Payments Protocol) et Mastercard (Verifiable Intent) ont déjà soumis leurs solutions à l'examen du groupe. Parallèlement, le Centre for Internet Security, financé en grande partie par le département américain de la Sécurité intérieure, vient de publier des guides de sécurité spécifiques aux LLM, aux agents IA et aux environnements Model Context Protocol, couvrant la gestion des accès non humains et les risques liés aux données sensibles. La gouvernance des agents autonomes devient ainsi l'un des chantiers réglementaires prioritaires de 2026, à mesure que leur déploiement s'accélère dans des secteurs à risques systémiques.

UELes institutions financières européennes font face aux mêmes lacunes de gouvernance des agents IA, un enjeu que l'AI Act et les régulateurs sectoriels (BCE, EBA) devront préciser dans leurs exigences de conformité.

RégulationReglementation
1 source
2Frandroid 

Scandale Siri : Apple va rembourser des millions d’utilisateurs d’iPhone

Apple a accepté de verser 250 millions de dollars pour clore un recours collectif intenté aux États-Unis par des utilisateurs d'iPhone mécontents. Le groupe de Cupertino était accusé d'avoir commercialisé fin 2024 des fonctionnalités d'intelligence artificielle pour son assistant Siri qui n'ont jamais été mises à disposition des consommateurs. Les plaignants estimaient avoir acheté ou conservé leurs appareils en se basant sur des promesses publicitaires mensongères concernant des capacités d'IA avancées. Cet accord représente une défaite symbolique importante pour Apple, dont la stratégie IA baptisée Apple Intelligence a accumulé les retards depuis son annonce en juin 2024. Les millions d'utilisateurs concernés pourront réclamer une indemnisation, dont le montant individuel dépendra du nombre de demandes déposées. Au-delà du volet financier, cette affaire soulève une question de fond pour toute l'industrie tech : jusqu'où les entreprises peuvent-elles promettre des fonctionnalités d'IA non encore opérationnelles pour stimuler leurs ventes ? Apple avait présenté une refonte ambitieuse de Siri lors de sa WWDC 2024, promettant une intégration poussée avec ChatGPT et des capacités de compréhension contextuelle inédites. Face aux difficultés techniques et à une concurrence acharnée de Google, Samsung et OpenAI sur le terrain de l'IA, la firme a repoussé à plusieurs reprises ces fonctionnalités. Ce règlement judiciaire pourrait inciter d'autres régulateurs et cabinets d'avocats à scruter de plus près les promesses marketing de l'ensemble du secteur technologique en matière d'intelligence artificielle.

UECette affaire pourrait inciter les régulateurs européens et la Commission à renforcer la surveillance des promesses marketing IA trompeuses, en s'appuyant sur l'AI Act et les directives existantes sur la publicité mensongère.

RégulationReglementation
1 source
Après le trafic de puces IA vers la Chine, Nvidia est à nouveau sous pression
301net 

Après le trafic de puces IA vers la Chine, Nvidia est à nouveau sous pression

Deux sénateurs américains, Jim Banks (républicain) et Elizabeth Warren (démocrate), ont adressé une demande conjointe à Nvidia pour exiger la suspension immédiate des ventes de puces d'intelligence artificielle avancées vers la Chine et plusieurs pays d'Asie du Sud-Est utilisés comme intermédiaires. Cette prise de position intervient dans le sillage de l'arrestation de trois individus soupçonnés d'avoir organisé un trafic illégal de semi-conducteurs, une affaire qui a remis en lumière les failles dans le contrôle des exportations américaines de composants stratégiques. L'enjeu est de taille : les puces Nvidia — notamment les séries H100 et A100 — sont au cœur de la course mondiale à l'IA, et leur transfert vers des entités chinoises représente un risque géopolitique et militaire direct pour Washington. En passant par des pays tiers comme Singapour, la Malaisie ou les Émirats arabes unis, certains acteurs contournent les restrictions d'exportation imposées depuis 2022. Si Nvidia n'est pas accusée de complicité directe, les sénateurs estiment que l'entreprise doit renforcer ses mécanismes de vérification des acheteurs finaux. Cette pression s'inscrit dans un contexte de durcissement progressif de la politique américaine sur les exportations technologiques vers la Chine, accéléré sous les administrations Biden puis Trump. Nvidia, qui réalisait encore plusieurs milliards de dollars de chiffre d'affaires annuel en Chine avant les premières restrictions, navigue entre obligations réglementaires et intérêts commerciaux. L'affaire illustre la difficulté structurelle à contrôler des chaînes d'approvisionnement mondiales complexes, et pourrait déboucher sur des règles d'exportation encore plus strictes.

UEUn durcissement des contrôles d'exportation américains sur les semi-conducteurs avancés pourrait restreindre l'accès des acteurs européens aux composants stratégiques nécessaires au développement de l'IA.

RégulationReglementation
1 source
4Next INpact 

L’Europe vs Meta et Google : de nouvelles mesures (contraignantes) en approche

La Commission européenne a intensifié sa pression sur les géants américains du numérique au cours de la semaine du 14 avril 2026, en ciblant simultanément Meta et Google dans deux dossiers distincts liés à la concurrence sur les marchés de l'intelligence artificielle. Concernant Meta, la Commission a ouvert une procédure formelle fin 2025 pour pratiques anticoncurrentielles, estimant en février 2026 que l'entreprise avait enfreint les règles européennes en bloquant l'accès des assistants d'IA tiers à WhatsApp. Face à cette mise en cause, Meta a soumis le 2 mars 2026 une politique révisée censée lever l'interdiction, mais en introduisant un cadre tarifaire applicable aux assistants d'IA concurrents. La Commission a rejeté cette proposition, jugeant qu'elle produisait le même effet d'exclusion que la politique initiale. Elle a donc adressé à Meta une nouvelle série de griefs formels et annoncé son intention d'imposer des mesures provisoires pour prévenir tout préjudice grave et irréparable sur le marché pendant la durée de l'enquête. Dans le dossier Google, la Commission a proposé des mesures portant sur le partage des données issues du moteur de recherche, sans que les détails aient été pleinement rendus publics. Ces actions illustrent une préoccupation centrale des régulateurs européens : la capacité des plateformes dominantes à verrouiller l'accès aux marchés émergents de l'IA. En contrôlant l'interopérabilité de WhatsApp, Meta peut théoriquement déterminer quels assistants d'IA ont une chance de se développer à grande échelle en Europe, et à quel prix. Les mesures provisoires, si elles entrent en vigueur, auraient un effet immédiat : elles s'appliqueraient jusqu'à la conclusion de l'enquête, contraignant Meta à maintenir des conditions d'accès équitables pour ses concurrents indépendamment de l'issue finale du dossier. Pour les développeurs d'assistants d'IA tiers cherchant à atteindre les deux milliards d'utilisateurs de WhatsApp, l'enjeu est considérable. Ces procédures s'inscrivent dans une stratégie réglementaire européenne cohérente, bâtie sur le Digital Markets Act entré en application en mars 2024, qui désigne les grandes plateformes comme "gatekeepers" soumis à des obligations d'interopérabilité et d'accès équitable. La Commission a déjà ouvert plusieurs enquêtes similaires contre Apple, Alphabet et Amazon. Le cas Meta est notable car il concerne directement la bataille pour l'écosystème des assistants IA, un marché en croissance rapide où chaque point d'entrée compte. Google, de son côté, fait face à des exigences de partage de données de recherche qui pourraient restructurer l'accès à des signaux clés pour l'entraînement et l'amélioration des modèles. La réponse de Meta aux derniers griefs est attendue dans les prochaines semaines, avant une éventuelle décision formelle de la Commission.

UELes mesures provisoires de la Commission pourraient forcer Meta à ouvrir WhatsApp aux assistants d'IA tiers à des conditions équitables, restructurant directement l'accès au marché européen des assistants IA pour les développeurs et startups européens.

💬 Meta a essayé de remplacer un blocage par un péage, et la Commission n'a pas mordu. C'est exactement le genre de manœuvre qu'on attendait : impossible d'ouvrir sans essayer de monétiser l'ouverture en même temps, bon, au moins c'est cohérent avec leur logique. Les mesures provisoires, si elles passent, changent vraiment la donne pour quiconque veut distribuer un assistant IA en Europe sans passer à la caisse de WhatsApp.

RégulationReglementation
1 source