Aller au contenu principal
CMA CGM recrute un(e) Change Leader AI
SociétéFrenchWeb3h

CMA CGM recrute un(e) Change Leader AI

1 source couvre ce sujet·Source originale ↗·

CMA CGM, le géant français du transport maritime et de la logistique, ouvre un poste de Change Leader AI destiné à piloter le déploiement de sa stratégie d'intelligence artificielle à l'échelle mondiale. Le groupe, dont le siège est à Marseille et qui emploie plus de 150 000 personnes dans le monde, cherche un profil capable de coordonner l'adoption de l'IA dans l'ensemble de ses métiers, des opérations portuaires à la gestion commerciale, en passant par la logistique terrestre.

Ce recrutement signale une évolution structurelle dans la manière dont les grands groupes industriels abordent la transformation IA : il ne s'agit plus seulement de lancer des projets pilotes, mais de gérer le changement humain et organisationnel que ces déploiements impliquent. Un Change Leader AI n'est pas un ingénieur data ni un chef de projet technique, c'est un profil hybride chargé de faire adhérer les équipes, de former les collaborateurs et de s'assurer que les outils IA s'intègrent réellement dans les pratiques quotidiennes.

CMA CGM s'inscrit dans une dynamique plus large observée chez les grands acteurs du shipping et de la logistique, un secteur sous pression pour réduire ses coûts opérationnels et améliorer sa résilience face aux disruptions de chaîne d'approvisionnement. Le groupe multiplie les partenariats technologiques depuis plusieurs années et ce poste suggère que la phase d'expérimentation touche à sa fin, laissant place à une industrialisation à grande échelle des usages IA dans l'entreprise.

Impact France/UE

CMA CGM, géant français du transport maritime basé à Marseille, industrialise son déploiement IA à grande échelle, impactant directement ses effectifs en France et en Europe.

À lire aussi

Adoption inégale, cadre flou, compétences attendues : l’impact de l’IA dans le commerce et le marketing
1Blog du Modérateur 

Adoption inégale, cadre flou, compétences attendues : l’impact de l’IA dans le commerce et le marketing

L'Apec, l'association pour l'emploi des cadres, a publié une étude sur l'intégration de l'intelligence artificielle dans les fonctions commerciales et marketing en France. Le rapport examine concrètement quels outils IA sont adoptés au quotidien par les cadres de ces secteurs, comment les entreprises organisent la montée en compétences de leurs équipes, et quelles aptitudes sont désormais attendues des professionnels. L'adoption reste inégale selon les entreprises et les profils, ce qui crée un écart croissant entre les cadres qui maîtrisent ces outils et ceux qui en sont encore absents. Pour les directions commerciales et marketing, l'IA transforme des tâches concrètes comme la génération de contenu, l'analyse de données clients ou la personnalisation des campagnes, avec des gains de productivité réels mais une mise en oeuvre encore mal encadrée dans beaucoup d'organisations. Ce flou autour du cadre d'utilisation reflète une réalité plus large : les entreprises françaises peinent à définir une politique claire sur l'IA au travail, entre crainte de dérive et pression concurrentielle. L'Apec, qui observe régulièrement le marché de l'emploi cadre, positionne cette étude dans un contexte où les recruteurs commencent à intégrer la maîtrise des outils IA dans les fiches de poste, faisant de cette compétence un critère différenciant sur le marché du travail.

UEL'étude de l'Apec met en évidence une fracture croissante entre cadres français maîtrisant l'IA et ceux qui en sont absents, avec des conséquences directes sur les critères de recrutement et la compétitivité des entreprises françaises.

💬 L'Apec qui sort une étude sur l'IA dans le commerce, c'est le signe que le sujet est vraiment entré dans les radars RH, et c'est pas rien. Le vrai problème que ça pointe, c'est pas l'adoption en soi, c'est l'écart qui se creuse entre ceux qui ont sauté le pas et ceux qui attendent que leur boîte leur dise quoi faire (spoiler : elle ne le dira jamais clairement). Ça va devenir un critère de recrutement avant même que la plupart des managers aient formalisé une politique interne.

SociétéOpinion
1 source
Avez-vous le cerveau "cuit par l'IA" ?
2Sciences et Avenir Tech 

Avez-vous le cerveau "cuit par l'IA" ?

Un phénomène de fatigue cognitive lié à l'usage intensif de l'intelligence artificielle commence à se répandre parmi les professionnels du secteur tech. Des développeurs, chefs de projet et travailleurs du savoir rapportent une forme de saturation mentale paradoxale : malgré les promesses de gain de productivité, l'utilisation intensive des outils IA génère un épuisement particulier, surnommé « cerveau cuit par l'IA ». Ce syndrome se manifeste par la surcharge liée à la supervision constante d'assistants IA — relire du code généré, corriger des hallucinations, rédiger des prompts précis et gérer de multiples agents en parallèle. Loin d'alléger la charge mentale, ces tâches créent une nouvelle forme de travail cognitif intensif, souvent invisible, qui s'ajoute aux responsabilités habituelles plutôt que de les remplacer. Ce phénomène illustre une tension centrale dans l'adoption de l'IA au travail : les outils promettent d'automatiser, mais déplacent en réalité l'effort vers des activités de contrôle, de validation et d'orchestration. À mesure que l'intégration des LLMs s'accélère dans les workflows professionnels, la question de la charge cognitive réelle des utilisateurs — et de ses effets sur la santé mentale — devient un enjeu sérieux pour les entreprises qui misent sur ces technologies.

UELes travailleurs du savoir européens intégrant massivement les outils IA dans leurs workflows sont directement concernés par ce risque de surcharge cognitive, un enjeu qui pourrait alimenter les débats sur le bien-être au travail à l'échelle de l'UE.

SociétéOpinion
1 source
Canon, Sony, Nikon… pourquoi ils refusent tous l’IA générative ?
3Le Big Data 

Canon, Sony, Nikon… pourquoi ils refusent tous l’IA générative ?

Canon, Sony, Nikon, Fujifilm, Panasonic, Sigma et OM System ont affiché, fin mars 2026, une position commune et quasi unanime : l'intelligence artificielle générative n'a pas sa place dans un appareil photo. Cette convergence de vue, relayée par une analyse de Zorz Studios publiée le 31 mars, est remarquable dans un secteur où la concurrence est féroce. Ces fabricants ne rejettent pas l'IA en bloc — Sony l'utilise depuis des années pour l'autofocus, la détection de sujets ou la réduction du bruit — mais ils tracent une ligne claire : une image créée de toutes pièces par un algorithme n'est plus une photographie. C'est une image générée. La distinction, pour eux, est fondamentale et non négociable. L'enjeu dépasse la sémantique. Si l'IA générative s'impose dans les boîtiers, il deviendra impossible de distinguer une photo authentique d'une image fabriquée — ce qui menace directement le photojournalisme, la preuve visuelle judiciaire et la crédibilité des contenus sur les réseaux sociaux. Sony, conscient de ce risque, s'implique déjà dans des initiatives de certification de contenu : des systèmes capables d'attester qu'une image a bien été capturée par un appareil physique, sans intervention générative. La capacité à certifier l'authenticité d'une photo pourrait rapidement devenir un avantage concurrentiel décisif, à mesure que la méfiance du public envers les images numériques s'installe durablement. Pour les marques traditionnelles, la fiabilité devient un argument produit à part entière. Il y a aussi une logique de marché derrière ce positionnement. Les fabricants d'appareils photo s'adressent à un public — amateurs exigeants et professionnels — qui valorise la maîtrise technique, l'intention derrière la prise de vue, et toute la chaîne créative de la capture au traitement RAW. Introduire une IA générative reviendrait à court-circuiter cette expérience et à rapprocher l'appareil photo du smartphone, terrain sur lequel des acteurs comme Apple ou Google disposent d'une avance considérable. Les marques comme Sigma ou OM System revendiquent explicitement cette dimension artisanale comme marqueur d'identité. Ce refus n'est pas pour autant définitif : les fabricants reconnaissent que des usages périphériques — retouche assistée en post-production, outils créatifs hors boîtier — pourraient évoluer. Mais dans l'appareil lui-même, la frontière entre capturer le réel et le fabriquer reste, pour l'instant, infranchissable.

UELa certification d'authenticité des images défendue par ces fabricants pourrait s'articuler avec les obligations de transparence du règlement européen sur l'IA (AI Act), notamment pour le photojournalisme et la preuve visuelle dans les procédures judiciaires européennes.

SociétéOpinion
1 source
L’IA de Bluesky fait déjà partie des comptes les plus détestés de la plateforme
4Numerama 

L’IA de Bluesky fait déjà partie des comptes les plus détestés de la plateforme

Bluesky, le réseau social décentralisé qui se positionne comme une alternative à X, a lancé Attie, un assistant IA censé aider les utilisateurs à personnaliser leurs flux de contenus. Présenté comme un outil optionnel et pratique, le compte a rapidement grimpé dans les classements des comptes les plus bloqués de la plateforme, suscitant une réaction hostile massive dès ses premiers jours d'existence. L'accueil glacial réservé à Attie illustre une tension croissante entre les plateformes qui intègrent des fonctionnalités IA et leurs communautés, souvent peu enthousiastes à l'idée d'être ciblées ou analysées par des algorithmes. Sur Bluesky en particulier, dont une grande partie des utilisateurs a migré depuis Twitter précisément pour fuir les pratiques intrusives des grandes plateformes, toute initiative perçue comme une surveillance ou une monétisation algorithmique est accueillie avec méfiance. Bluesky s'est construit sur des promesses de transparence et de contrôle utilisateur grâce à son protocole AT. L'introduction d'un assistant IA — même présenté comme bénin — vient heurter directement cet ADN. Cette déconvenue soulève une question fondamentale pour la plateforme : peut-on intégrer des outils IA sans trahir la confiance d'une communauté qui a choisi Bluesky précisément pour ses valeurs anti-algorithmiques ?

UELes utilisateurs européens de Bluesky, particulièrement sensibles aux questions de vie privée et de surveillance algorithmique, sont directement concernés par cette tension entre intégration IA et valeurs de la plateforme.

SociétéOpinion
1 source