Aller au contenu principal
Tencent présente un nouveau modèle plus performant, en partie grâce à Anthropic
RégulationThe Information AI1h

Tencent présente un nouveau modèle plus performant, en partie grâce à Anthropic

Résumé IASource uniqueImpact UE
Source originale ↗·

Le géant technologique chinois Tencent a récemment lancé son nouveau modèle d'intelligence artificielle, Hy3, qui a suscité des retours positifs de la part des développeurs. Mais selon deux sources ayant une connaissance directe des faits et des mémos internes consultés par The Information, une partie de ce succès repose sur une aide inattendue : des employés de Tencent auraient utilisé Claude, le modèle d'Anthropic, pour évaluer et affiner les performances de Hy3 lors de sa phase de développement.

Ce recours pose un problème de taille. Anthropic ne propose pas ses modèles ni ses services aux entreprises situées dans des pays considérés comme des adversaires des États-Unis par Washington, la Chine figurant explicitement sur cette liste. L'utilisation de Claude par Tencent soulève donc des questions directes sur le respect des conditions d'utilisation d'Anthropic et, plus largement, sur la capacité des restrictions américaines à contenir le transfert technologique vers des acteurs chinois.

Cette révélation s'inscrit dans un contexte de tensions croissantes entre les États-Unis et la Chine sur le contrôle des technologies d'intelligence artificielle. Les autorités américaines ont multiplié les restrictions à l'exportation de semi-conducteurs avancés et de logiciels stratégiques, précisément pour freiner la montée en puissance des modèles chinois. Si des entreprises comme Tencent parviennent malgré tout à accéder aux outils des laboratoires américains de premier plan, l'efficacité réelle de ces garde-fous se trouve sérieusement questionnée.

Impact France/UE

La capacité d'acteurs chinois à contourner les restrictions américaines sur les outils IA interroge l'efficacité des garde-fous réglementaires, un signal directement pertinent pour les régulateurs européens élaborant leur propre cadre de contrôle des exportations technologiques dans le contexte de l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic intensifie ses activités politiques avec un nouveau PAC
1TechCrunch AI 

Anthropic intensifie ses activités politiques avec un nouveau PAC

Anthropic, le laboratoire d'intelligence artificielle fondé par Dario et Daniela Amodei, a officiellement lancé un comité d'action politique (PAC) en vue des élections de mi-mandat aux États-Unis. Cette structure lui permet de financer directement des candidats politiques dont les positions s'alignent avec les priorités réglementaires de l'entreprise en matière d'IA. Cette décision marque une escalade significative dans l'implication politique du secteur de l'IA. En soutenant des candidats favorables à son agenda, Anthropic cherche à peser sur les futures lois encadrant le développement et le déploiement des modèles d'intelligence artificielle, un enjeu majeur alors que le Congrès américain débat activement de plusieurs propositions législatives sur le sujet. Ce mouvement s'inscrit dans une tendance plus large : OpenAI, Google et Microsoft ont tous intensifié leurs activités de lobbying ces dernières années, dépensant des dizaines de millions de dollars pour influencer la politique technologique américaine. Anthropic, qui a levé plusieurs milliards de dollars auprès d'Amazon et de Google, cherche désormais à s'imposer non seulement comme un acteur technique de premier plan, mais aussi comme une force politique capable de façonner le cadre réglementaire dans lequel évoluera l'IA générative.

RégulationReglementation
1 source
Anthropic ne fait pas confiance au Pentagone, ni à vous non plus
2The Verge AI 

Anthropic ne fait pas confiance au Pentagone, ni à vous non plus

Anthropic, le créateur de Claude, est engagé dans une bataille juridique contre le Pentagone, qui l'a désigné comme un risque pour la chaîne d'approvisionnement. Anthropic conteste cette décision en justice, invoquant une violation de ses droits constitutionnels (1er et 5e amendements) et une tentative de "détruire la valeur économique" de l'une des entreprises privées à la croissance la plus rapide au monde. L'affaire met en lumière la méfiance historique envers la surveillance gouvernementale américaine — illustrée par les révélations d'Edward Snowden sur la NSA — et relance un débat public sur l'utilisation de l'IA par l'État à des fins de surveillance.

RégulationActu
1 source
Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »
3The Decoder 

Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

Une juge fédérale de San Francisco a bloqué la tentative de l'administration Trump d'interdire les modèles d'intelligence artificielle d'Anthropic, dans une décision rendue au terme d'une procédure en référé. La magistrate Rita F. Lin a statué en faveur de la start-up californienne, estimant que les actions du gouvernement constituaient une « rétorsion illégale classique au premier amendement » en réponse aux critiques publiques formulées par Anthropic à l'égard de la politique technologique de Washington. La décision est particulièrement cinglante pour l'administration : la juge Lin a rejeté la notion qu'elle qualifie d'« orwellienne » selon laquelle une entreprise américaine pourrait être étiquetée « adversaire potentielle et saboteuse » au seul motif qu'elle exprime un désaccord avec le gouvernement. Cette qualification de risque sécuritaire, si elle avait été maintenue, aurait pu empêcher des agences fédérales et des contractants gouvernementaux d'utiliser les outils d'Anthropic, portant un coup sévère à ses activités commerciales et à sa réputation. L'affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de la Silicon Valley qui ont refusé de s'aligner sur ses positions. Anthropic, cofondée par d'anciens employés d'OpenAI dont Dario et Daniela Amodei, est l'une des entreprises d'IA les plus valorisées au monde, avec des investissements massifs d'Amazon et Google. Ce jugement constitue un précédent potentiellement important pour la liberté d'expression des entreprises technologiques face aux pressions politiques, à un moment où Washington cherche à exercer un contrôle accru sur le secteur de l'IA.

UELa décision préserve l'accès des entreprises et institutions européennes aux outils Anthropic, tout en posant un précédent sur les limites du pouvoir exécutif américain face aux acteurs de l'IA opérant en Europe.

RégulationReglementation
1 source
La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge
4Wired AI 

La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge

Un juge fédéral a remis en question les motivations du Département de la Défense américain, qui a classifié Anthropic — le développeur du modèle Claude — comme un risque pour la chaîne d'approvisionnement. Lors d'une audience mardi, le juge a qualifié cette démarche de tentative de "paralyser" l'entreprise. L'affaire soulève des interrogations sur l'utilisation des procédures de sécurité nationale à des fins potentiellement anticoncurrentielles.

UECette affaire illustre les risques d'instrumentalisation des procédures de sécurité nationale à des fins anticoncurrentielles aux États-Unis, un précédent qui pourrait influencer les débats européens sur la régulation des fournisseurs d'IA.

RégulationReglementation
1 source