Aller au contenu principal
DeepL : 83 % des grandes entreprises accusent du retard sur l'IA linguistique
OutilsAI News6sem

DeepL : 83 % des grandes entreprises accusent du retard sur l'IA linguistique

Résumé IASource uniqueImpact UE
Source originale ↗·

Selon un rapport publié le 10 mars 2026 par DeepL, intitulé « Borderless Business : Transforming Translation in the Age of AI », 83 % des grandes entreprises n'ont pas encore adopté les outils modernes d'intelligence artificielle pour leurs opérations multilingues. L'étude, menée auprès de dirigeants d'entreprise aux États-Unis, au Royaume-Uni, en France, en Allemagne et au Japon, révèle que 35 % des entreprises internationales traitent encore leurs traductions entièrement manuellement, et 33 % supplémentaires s'appuient sur une automatisation classique avec révision humaine systématique. Seulement 17 % ont déployé des outils de nouvelle génération — grands modèles de langage ou IA agentique — pour leurs flux de travail linguistiques. Parallèlement, le volume de contenu d'entreprise a bondi de 50 % depuis 2023, mais 68 % des sociétés fonctionnent toujours avec des processus conçus pour une autre époque. DeepL compte aujourd'hui plus de 200 000 clients professionnels dans 228 marchés, dont 2 000 qui déploient déjà des agents IA pour l'analyse de rapports, le ciblage commercial et la revue de documents juridiques.

Ce retard n'est pas anodin : la traduction et les opérations multilingues touchent des fonctions critiques de l'entreprise. D'après le rapport, l'expansion internationale constitue le premier moteur d'investissement dans l'IA linguistique (33 % des cas), devant les ventes et le marketing (26 %), le support client (23 %) et le juridico-financier (22 %). Une étude complémentaire de décembre 2025, conduite auprès de 5 000 cadres dirigeants, révèle que 54 % des dirigeants mondiaux estiment que la traduction vocale en temps réel sera indispensable en 2026, contre 32 % aujourd'hui — avec des écarts notables entre pays : 48 % au Royaume-Uni, 33 % en France, seulement 11 % au Japon. Pour Jarek Kutylowski, PDG et fondateur de DeepL : « L'IA est partout, mais l'efficacité ne l'est pas. La plupart des entreprises ont déployé l'IA sous une forme ou une autre, mais peu atteignent une vraie productivité à l'échelle, parce que les workflows centraux restent conçus autour des personnes, pas des systèmes. »

DeepL se distingue de ses concurrents généralistes sur un point stratégique : la souveraineté des données. Dans les secteurs réglementés — finance, santé, droit, administration publique — la conformité est devenue un critère de sélection de premier ordre. L'entreprise est certifiée ISO 27001, SOC 2 Type 2 et RGPD, et propose un chiffrement « Bring Your Own Key » permettant aux clients de révoquer l'accès à leurs données en quelques secondes, y compris pour DeepL lui-même. Cette garantie lui ouvre des portes que les grands fournisseurs de LLM peinent à franchir. En 2026, la société accélère sur l'IA agentique avec DeepL Agent, et son CTO Sebastian Enderlein résume l'ambition : « 2026 sera l'année où l'IA arrête d'expérimenter et commence à exécuter, à une échelle que nous n'avons pas encore vue. »

Impact France/UE

L'étude couvre explicitement la France et l'Allemagne, et la conformité RGPD mise en avant par DeepL répond à une exigence réglementaire européenne directe pour les entreprises traitant des données multilingues sensibles.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Pourquoi des entreprises comme Apple misent sur des agents IA aux capacités bridées
1AI News 

Pourquoi des entreprises comme Apple misent sur des agents IA aux capacités bridées

Apple, Qualcomm et d'autres acteurs majeurs de l'industrie technologique développent une nouvelle génération d'assistants IA capables d'agir de manière autonome au sein des applications, réserver des services, publier du contenu, naviguer dans des flux complexes. Lors d'une phase bêta privée, un de ces systèmes agentiques a ainsi parcouru l'intégralité d'un tunnel de paiement dans une application avant de s'arrêter net à l'écran de confirmation, attendant le feu vert de l'utilisateur. Ces agents ne sont pas conçus pour agir librement : ils intègrent des points de validation obligatoires, notamment pour toute action sensible liée aux paiements, aux modifications de compte ou aux publications. Les fournisseurs de services de paiement sont déjà en discussion pour intégrer leurs systèmes d'authentification sécurisée directement dans ces flux agentiques, bien que ces dispositifs soient encore en cours de développement. Ce modèle dit "human-in-the-loop", où l'agent prépare l'action mais laisse la décision finale à l'humain, répond à un enjeu concret : à mesure que l'IA gagne en capacité d'action, les risques d'erreur se transforment en risques financiers ou de fuite de données. Pour les utilisateurs grand public, une réservation mal déclenchée ou une transaction non souhaitée peut avoir des conséquences immédiates. Les entreprises tentent donc de limiter le périmètre d'action de ces agents : plutôt que de leur donner un accès total aux applications et aux données, elles définissent précisément quels services l'IA peut toucher, dans quelles conditions, et avec quels droits. Sur l'appareil, le traitement local des données vise également à éviter que des informations sensibles soient transmises vers des serveurs externes. Le débat sur la gouvernance des IA agentiques s'était jusqu'ici concentré sur les usages entreprise, cybersécurité, automatisation à grande échelle, conformité réglementaire. Le déploiement grand public introduit une dimension différente : des millions d'utilisateurs, souvent peu familiers des risques, interagissant avec des systèmes capables d'engager des dépenses ou de modifier des comptes en quelques secondes. Apple, dont les travaux de recherche ont exploré des mécanismes de pause avant toute action non explicitement demandée, semble vouloir établir un standard : des environnements contrôlés où l'autonomie de l'agent est réelle mais bornée. Dans le contexte du règlement européen sur l'IA, qui entre progressivement en application en 2026, cette architecture "agentique avec garde-fous" pourrait s'imposer comme la norme par défaut pour tout acteur souhaitant déployer ces technologies auprès du grand public.

UEL'architecture 'agentique avec garde-fous' pourrait s'imposer comme norme de conformité sous le règlement européen sur l'IA, qui entre progressivement en application en 2026, imposant des contraintes concrètes aux acteurs déployant des agents IA auprès du grand public en Europe.

OutilsOpinion
1 source
Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle
2VentureBeat AI 

Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle

La startup Kilo a annoncé le lancement de KiloClaw for Organizations et KiloClaw Chat, une suite d'outils destinée à encadrer l'usage des agents IA autonomes au sein des grandes entreprises. Cette annonce intervient un mois après la mise en disponibilité générale de son produit individuel OpenClaw, qui a déjà séduit plus de 25 000 utilisateurs actifs. Le benchmark propriétaire de Kilo, PinchBench, a quant à lui enregistré plus de 250 000 interactions et a été cité publiquement par Jensen Huang, PDG de Nvidia, lors de sa keynote à la conférence GTC 2026 à San Jose. Co-fondée par Scott Breitenother et Emilie Schario, la société propose un environnement de développement IA multi-modèles hébergé dans le cloud, conçu pour être portable et accessible. Le problème que KiloClaw for Organizations cherche à résoudre est celui du « shadow AI » — ou BYOAI (Bring Your Own AI) : des développeurs et travailleurs du savoir qui déploient des agents IA autonomes sur des infrastructures personnelles, hors du contrôle de leur employeur, pour gérer agendas, dépôts de code ou flux de travail professionnels. Des directeurs IA de sous-traitants gouvernementaux ont confié à Kilo avoir découvert leurs équipes faisant tourner des agents OpenClaw sur des serveurs VPS non répertoriés. « Nous ne voyons rien : pas de journaux d'audit, pas de gestion des identifiants, aucune idée de quelles données touchent quelle API », aurait déclaré l'un d'eux. Face à cette opacité, certaines organisations ont répondu par des interdictions totales des agents autonomes, faute de stratégie claire. Le nouveau produit permet à une entreprise d'acheter un package organisationnel et d'en distribuer l'accès à chaque membre de l'équipe, dans un environnement géré et auditable. Ce lancement s'inscrit dans une dynamique sectorielle plus large. Des acteurs majeurs comme Nvidia (NemoClaw), Cisco (DefenseClaw), Palo Alto Networks et CrowdStrike ont tous annoncé des déclinaisons entreprise d'OpenClaw, avec des mécanismes de gouvernance et de sécurité. Pourtant, selon Anand Kashyap, PDG de la société de sécurité des données Fortanix, l'adoption en entreprise reste faible : les organisations exigent un contrôle IT centralisé, un comportement prévisible et une conformité stricte des données — trois paramètres que les plateformes agentiques autonomes mettent à rude épreuve. Kashyap souligne que les solutions de périmètre traditionnelles ne réduisent pas la surface d'attaque fondamentale. À terme, le marché devrait converger vers des plateformes agentiques avec des agents pré-packagés, des contrôles centralisés et des accès aux données intégrés directement dans les LLM — des technologies comme le Confidential Computing étant appelées à jouer un rôle clé dans cette transition.

UELes entreprises européennes sont confrontées aux mêmes enjeux de shadow AI, aggravés par les obligations de traçabilité et de contrôle imposées par l'AI Act pour les systèmes d'IA à risque déployés en contexte professionnel.

OutilsOutil
1 source
3Le Big Data 

AIDA : l’IA de Starburst pour une entreprise réellement data-driven

Starburst a annoncé le lancement d'AIDA (AI Data Assistant), un assistant analytique conçu pour permettre aux entreprises d'interroger leurs données distribuées sans migration préalable ni compromis sur la sécurité. Développé par la société fondée par Justin Borgman, cet outil s'adresse aux organisations qui peinent à exploiter leur patrimoine informationnel fragmenté entre clouds multiples et serveurs locaux. Contrairement aux interfaces classiques qui se contentent de convertir une question en requête SQL, AIDA repose sur le cadre "ReAct" : l'assistant décompose chaque demande métier, analyse les métadonnées disponibles et valide ses propres étapes de raisonnement avant de formuler une réponse. Résultat : des analyses ancrées dans les données réelles plutôt que des approximations générées par des modèles de langage mal contextualisés. La solution s'adapte également au profil de l'interlocuteur, offrant une profondeur technique aux analystes et des indicateurs directement actionnables aux dirigeants. L'impact concret se mesure d'abord dans la performance opérationnelle et financière des entreprises. En connectant AIDA à des outils comme Slack ou Jira via le protocole ouvert MCP, les organisations automatisent des flux de travail critiques jusqu'ici trop rigides. Les premiers cas d'usage documentés portent sur la rétention client, grâce à une détection plus fine des signaux faibles d'insatisfaction, et sur la correction d'erreurs de facturation rendues visibles en croisant contrats et consommation réelle. Pour les directions techniques, la compatibilité avec les principaux moteurs d'IA du marché, OpenAI, Anthropic et AWS Bedrock, élimine le risque d'enfermement propriétaire et permet une maîtrise des coûts adaptée à chaque secteur. Des garde-fous configurables filtrent par ailleurs les sujets sensibles et protègent les données personnelles, levant ainsi les blocages de conformité qui freinent habituellement les projets d'innovation interne. Ce lancement s'inscrit dans une tendance de fond : les entreprises disposent de volumes de données considérables mais restent incapables d'en extraire de la valeur à cause de l'éclatement des infrastructures. Starburst, spécialisé dans les moteurs de requêtes distribuées basés sur Trino, élargit ici son positionnement vers la couche conversationnelle, un terrain de plus en plus disputé entre acteurs du data warehouse, éditeurs de business intelligence et grandes plateformes cloud. En affirmant, par la voix de Borgman, que "la valeur réside dans la donnée elle-même plutôt que dans le modèle", Starburst tente de se différencier des solutions d'IA générative généralistes en misant sur la fiabilité analytique. La prochaine étape sera de démontrer, à grande échelle et dans des environnements de production exigeants, que ce raisonnement augmenté tient ses promesses face aux géants déjà positionnés sur ce créneau.

OutilsOutil
1 source
IBM veut faire de l’IA le moteur de transformation des entreprises
4Le Big Data 

IBM veut faire de l’IA le moteur de transformation des entreprises

Lors de sa conférence annuelle Think 2026, IBM a présenté ce qu'il appelle un "AI operating model", un modèle opérationnel destiné à transformer en profondeur le fonctionnement des entreprises. La pièce maîtresse de cette annonce est une nouvelle version de Watson Orchestrate, qui évolue en plateforme de contrôle multi-agents capable de superviser simultanément plusieurs IA spécialisées, finance, support client, cybersécurité, RH, supply chain. Rob Thomas, vice-président senior des logiciels chez IBM, a insisté sur un point central : la qualité des données reste le prérequis absolu de toute stratégie IA crédible. IBM s'appuie également sur son rapprochement avec Confluent pour renforcer le streaming de données en temps réel via Kafka et Flink, afin que ses modèles ne travaillent plus jamais sur des informations obsolètes. L'enjeu pour IBM est de combler ce qu'il nomme l'"AI divide" : le fossé croissant entre les entreprises qui ont intégré l'IA dans leurs opérations quotidiennes et celles qui restent coincées au stade des expérimentations isolées. Des années de pilotes IA en silo, assistants internes, automatisation documentaire, agents conversationnels, ont atteint leurs limites. IBM veut désormais que ces briques se coordonnent en un système unique et cohérent, gouverné et auditable. Mark Tauschek, vice-président recherche chez Info-Tech Research Group, confirme que la prolifération des agents autonomes crée déjà des risques réels : politiques appliquées de façon incohérente, manque de traçabilité, gouvernance absente. IBM se positionne explicitement comme fournisseur de gouvernance IA plutôt que comme simple éditeur d'outils génératifs. Ce repositionnement intervient dans un contexte où les grands acteurs technologiques se livrent une bataille féroce pour capter les budgets IA des entreprises. Microsoft, Google, Salesforce et Oracle avancent tous leurs propres frameworks d'agents. IBM, dont l'histoire est profondément ancrée dans les infrastructures d'entreprise et la gestion des données sensibles, mise sur la confiance et la gouvernance comme avantages différenciants, un argument qui résonne particulièrement dans les secteurs régulés comme la banque, l'assurance ou la santé. La stratégie repose sur quatre piliers liés : données, agents IA, automatisation et infrastructure hybride. Si IBM parvient à convaincre que cette approche intégrée réduit les risques tout en accélérant la valeur opérationnelle, Think 2026 pourrait marquer un tournant dans sa capacité à reconquérir un rôle de premier plan dans l'ère de l'IA d'entreprise.

UEL'approche gouvernance d'IBM et son focus sur les secteurs régulés (banque, assurance, santé) résonnent directement avec les exigences de l'AI Act européen, dont les premières obligations d'audit et de traçabilité entrent en vigueur cette année.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour