Aller au contenu principal
« On passe de la peste au choléra » : l’IA française Simone AI dénonce les pratiques de WhatsApp (Meta)
Régulation01net6sem

« On passe de la peste au choléra » : l’IA française Simone AI dénonce les pratiques de WhatsApp (Meta)

Résumé IASource uniqueImpact UE
Source originale ↗·

Meta se retrouve au cœur d'une nouvelle controverse sur ses pratiques anticoncurrentielles, cette fois dans le domaine de l'intelligence artificielle. Jérémy André, fondateur du chatbot français Simone AI, dénonce publiquement les conditions imposées par le groupe américain pour accéder à WhatsApp — la plateforme de messagerie la plus utilisée au monde avec plus de 2 milliards d'utilisateurs actifs.

La situation illustre un paradoxe réglementaire : sous la pression de la Commission européenne, Meta avait été contrainte de rouvrir l'accès à WhatsApp aux chatbots tiers concurrents de Meta AI, après les avoir bannis mi-janvier. Une victoire apparente pour la concurrence, mais qui s'accompagne d'une contrepartie jugée rédhibitoire — des tarifs d'accès à l'API que Simone AI qualifie de prohibitifs. "On passe de la peste au choléra", résume Jérémy André, dont l'outil est entièrement dépendant de la plateforme.

L'enjeu dépasse le cas de Simone AI. Pour une startup française dont le modèle repose intégralement sur l'écosystème WhatsApp, des tarifs d'accès excessifs équivalent à une éviction économique sans interdiction formelle — une forme de barrière financière qui produit les mêmes effets qu'un bannissement direct. Meta se retrouve ainsi accusée de contourner l'esprit des injonctions européennes tout en respectant leur lettre.

Simone AI place désormais ses espoirs dans une intervention des autorités antitrust européennes, notamment dans le cadre du Digital Markets Act (DMA). Si la Commission a déjà contraint Meta à rouvrir techniquement son écosystème, la question des conditions tarifaires imposées aux concurrents pourrait constituer le prochain front d'un bras de fer qui dépasse largement les frontières françaises.

Impact France/UE

Une startup française dénonce des pratiques potentiellement anticoncurrentielles de Meta sur WhatsApp et appelle l'autorité antitrust européenne à intervenir, ce qui pourrait déboucher sur une enquête DMA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

WhatsApp : Meta réintègre ChatGPT et Copilot face à la pression de l’UE
1Numerama 

WhatsApp : Meta réintègre ChatGPT et Copilot face à la pression de l’UE

Meta a réintroduit ChatGPT et Copilot sur WhatsApp après avoir assoupli ses restrictions contre les chatbots concurrents, dans un effort pour répondre à la pression de la Commission européenne. Cependant, cette mesure reste limitée et ne concerne pas tous les modèles de chatbots.

UELa pression réglementaire de la Commission européenne (probablement via le DMA) a contraint Meta à ouvrir WhatsApp à des chatbots concurrents, renforçant le droit européen à l'interopérabilité sur les grandes plateformes.

RégulationActu
1 source
L’IA va-t-elle devoir prouver qu’elle ne copie pas ? La France veut changer les règles
2Siècle Digital 

L’IA va-t-elle devoir prouver qu’elle ne copie pas ? La France veut changer les règles

Des sénateurs français ont déposé une proposition de loi pour rééquilibrer le rapport de force entre ayants droit et entreprises technologiques sur la question de l'entraînement des modèles d'IA. Le texte viserait à imposer aux acteurs de l'IA de prouver qu'ils n'utilisent pas de contenus protégés sans autorisation, inversant ainsi la charge de la preuve. Ce débat juridique et politique s'inscrit dans un contexte européen plus large qui oppose créateurs et Big Tech depuis plusieurs mois.

UEUne proposition de loi sénatoriale française pourrait inverser la charge de la preuve sur l'utilisation de données protégées par les systèmes d'IA, impactant directement les acteurs IA opérant en France et potentiellement influençant la transposition de l'AI Act au niveau européen.

RégulationReglementation
1 source
L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple
3The Verge AI 

L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple

La startup californienne Kintsugi, fondée il y a sept ans, vient d'annoncer sa fermeture après avoir échoué à obtenir l'autorisation de la FDA pour son outil d'intelligence artificielle capable de détecter des signes de dépression et d'anxiété dans la voix humaine. Faute de clairance réglementaire obtenue dans les délais, l'entreprise a décidé de rendre la majeure partie de sa technologie disponible en open source. Certains composants pourraient trouver une seconde vie en dehors du secteur médical, notamment pour détecter les deepfakes audio. L'évaluation de la santé mentale repose encore aujourd'hui quasi exclusivement sur des questionnaires remplis par les patients et des entretiens cliniques, contrairement à la médecine physique qui s'appuie sur des analyses biologiques ou des imageries. L'approche de Kintsugi était radicalement différente : son logiciel n'analysait pas ce qu'une personne disait, mais la manière dont elle le disait, en cherchant dans les modulations vocales des marqueurs de troubles psychiques. Cette technologie représentait une promesse réelle de dépistage précoce et objectif, accessible sans infrastructure médicale lourde. Le parcours de Kintsugi illustre la difficulté structurelle d'introduire des outils d'IA dans le domaine médical aux États-Unis. La FDA soumet les dispositifs de diagnostic à des exigences strictes de validation clinique, un processus long et coûteux qui épuise souvent les ressources des startups avant qu'elles n'atteignent le marché. L'abandon de cette technologie au profit de l'open source pourrait néanmoins permettre à des chercheurs ou d'autres entreprises de poursuivre ces travaux, dans un contexte où la détection automatisée de la santé mentale reste un enjeu médical et technologique majeur.

UELe cas Kintsugi illustre les obstacles que rencontreront les startups européennes soumises à l'AI Act, qui classe les outils d'IA diagnostique médicale en risque élevé avec des exigences de validation clinique tout aussi contraignantes.

RégulationReglementation
1 source
Le Pentagone contre ANTHROPIC : quand l’État refuse que la Silicon Valley dicte les règles de l’IA militaire
4FrenchWeb 

Le Pentagone contre ANTHROPIC : quand l’État refuse que la Silicon Valley dicte les règles de l’IA militaire

Anthropic a engagé une procédure judiciaire contre le Département de la Défense américain (Pentagone), marquant une première historique : un laboratoire d'IA refusant les conditions imposées par une armée. Ce conflit illustre la tension croissante entre les entreprises de la Silicon Valley et l'État américain sur qui dicte les règles d'utilisation de l'IA dans le domaine militaire. L'IA est désormais considérée comme une infrastructure stratégique par les gouvernements, rendant ce bras de fer particulièrement significatif.

RégulationActu
1 source