Aller au contenu principal
IA : « Le contraste entre des patrimoines incommensurables et la menace de plans sociaux massifs est vertigineux »
ÉthiqueLe Monde Pixels6sem

IA : « Le contraste entre des patrimoines incommensurables et la menace de plans sociaux massifs est vertigineux »

Résumé IASource uniqueImpact UE
Source originale ↗·

Le contenu fourni ne contient que le titre et une note explicative — il n'y a pas de corps d'article à résumer.

Pour générer le résumé, merci de fournir le texte complet de l'article.

Impact France/UE

Le débat sur les destructions d'emplois liées à l'IA est particulièrement vif en France et en Europe, où les partenaires sociaux et le législateur (AI Act, directives sur l'information-consultation des salariés) sont directement confrontés à la question des reconversions massives.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Vous avez moins de 30 ans et votre carrière est menacée par l’IA ? Racontez-nous
1Le Monde Pixels 

Vous avez moins de 30 ans et votre carrière est menacée par l’IA ? Racontez-nous

L'article s'adresse aux jeunes actifs de moins de 30 ans qui redoutent que l'intelligence artificielle menace leur carrière ou leur emploi futur. Il invite ces individus, tant étudiants qu'employés, à partager leurs expériences et inquiétudes concernant ce défi technologique.

UEDassault, Dassault Systems, a mis en place des programmes pour préparer sa main-d'œuvre jeune à l'ère de l'IA, illustrant un effort concret pour atténuer les préoccupations de carrière des jeunes Européens face à l'automatisation et à l'intelligence artificielle.

ÉthiqueOpinion
1 source
2The Decoder 

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms

Des centaines d'avatars générés par intelligence artificielle inondent TikTok, Instagram et YouTube avec des messages de soutien à Donald Trump à l'approche des élections de mi-mandat américaines. Certains de ces comptes ont déjà accumulé plus de 35 000 abonnés et engrangé des millions de vues. Trump lui-même a partagé du contenu produit par IA, ce qui a contribué à amplifier leur portée. L'origine de cette vague reste floue : s'agit-il d'initiatives d'activistes individuels ou d'une campagne coordonnée, personne ne le sait encore avec certitude. Ce phénomène soulève des questions majeures sur l'intégrité de l'information politique en ligne. Des influenceurs virtuels, indiscernables de vraies personnes, peuvent diffuser des messages partisans à grande échelle, sans les contraintes légales ou éthiques qui s'appliquent aux acteurs humains. Pour les plateformes comme TikTok et Meta, la détection et la modération de ce type de contenu représentent un défi technique et politique considérable, d'autant que les algorithmes de recommandation amplifient naturellement les contenus engageants, quelle que soit leur origine. L'utilisation de l'IA à des fins de propagande politique n'est pas nouvelle, mais la facilité avec laquelle ces avatars peuvent être créés et déployés massivement marque un tournant. Après les controverses autour des ingérences étrangères lors des élections de 2016 et 2020, les autorités américaines et les plateformes ont renforcé leurs politiques, sans pour autant anticiper ce scénario. La question de la transparence sur l'origine artificielle du contenu politique devient désormais centrale pour les régulateurs et les législateurs aux États-Unis comme en Europe.

UELa prolifération d'avatars politiques générés par IA interpelle directement les régulateurs européens, le Digital Services Act et l'AI Act imposant des obligations de transparence et de marquage des contenus synthétiques que les plateformes peinent encore à appliquer.

💬 On savait que ça allait arriver, mais la vitesse, là, ça surprend quand même. Des centaines de comptes coordonnés, des millions de vues en quelques semaines, c'est plus de l'expérimentation isolée, c'est une chaîne de production. Le DSA impose le marquage des contenus synthétiques, sur le papier c'est exactement pour ça qu'il existe, mais modérer à cette échelle sur TikTok sans faux positifs massifs, personne ne l'a encore réussi.

ÉthiqueOpinion
1 source
Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense
3MIT Technology Review 

Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense

Le Pentagone prépare des environnements sécurisés pour permettre à des entreprises comme OpenAI et xAI d'Elon Musk d'entraîner leurs modèles d'IA sur des données classifiées militaires, une première qui va au-delà de l'usage actuel (les modèles comme Claude d'Anthropic répondent déjà à des questions en contexte classifié, notamment pour l'analyse de cibles en Iran). L'entraînement se ferait dans des centres de données accrédités, où des employés habilités des entreprises d'IA pourraient accéder aux données dans de rares cas, tandis que le DoD resterait propriétaire des données. Selon Aalok Mehta du CSIS, le principal risque est que des informations classifiées intégrées dans les modèles pourraient être réexposées à n'importe quel utilisateur.

UELes débats américains sur l'entraînement de l'IA sur des données militaires classifiées pourraient accélérer les réflexions européennes sur l'encadrement de l'IA de défense dans le cadre du AI Act.

ÉthiqueActu
1 source
4Les Numériques IA 

Actualité : “Un sociopathe prêt à tout” : les proches de Sam Altman brisent le silence dans une enquête accablante contre le patron de ChatGPT

Une enquête journalistique accablante vient d'éclairer sous un jour nouveau la personnalité de Sam Altman, PDG d'OpenAI, l'entreprise derrière ChatGPT. Selon des proches et anciens collaborateurs qui ont brisé le silence, Altman aurait construit sa position dominante dans l'industrie de l'IA en instrumentalisant une rhétorique apocalyptique : convaincre chercheurs, investisseurs et gouvernements que l'intelligence artificielle pourrait anéantir l'humanité, et qu'il était l'homme indispensable pour en prendre les rênes. Certains de ses proches le décrivent comme "un sociopathe prêt à tout" pour maintenir son emprise sur une organisation qu'il a transformée en l'une des plus influentes au monde. Ces révélations interviennent à un moment où OpenAI est valorisée autour de 300 milliards de dollars et négocie en permanence avec des gouvernements sur la régulation de l'IA. Si le portrait dressé par l'enquête est exact, cela soulève des questions fondamentales sur la crédibilité d'Altman comme figure de proue du mouvement dit "d'IA sûre", un positionnement qui lui a permis d'attirer les meilleurs scientifiques du monde et des milliards de dollars de financements, notamment de Microsoft. OpenAI a été fondée en 2015 comme association à but non lucratif dédiée au développement sécurisé de l'IA, avant qu'Altman ne la transforme progressivement en entreprise commerciale de premier plan. En novembre 2023, le conseil d'administration l'avait brièvement licencié, déclenchant une crise interne majeure, avant que la pression des employés et des investisseurs ne le rétablisse dans ses fonctions. Cette enquête relance le débat sur la gouvernance d'OpenAI et la concentration du pouvoir entre les mains d'un seul homme à la tête d'une technologie aux enjeux civilisationnels.

UELes négociations d'OpenAI avec les gouvernements européens sur la régulation de l'IA pourraient être fragilisées si la crédibilité d'Altman comme garant de l'IA responsable est publiquement remise en question.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour