Aller au contenu principal
Actualité : Quand l'administration Trump confie les demandes de chômage à une IA
SociétéLes Numériques IA4h

Actualité : Quand l'administration Trump confie les demandes de chômage à une IA

1 source couvre ce sujet·Source originale ↗·

L'administration Trump franchit un nouveau cap dans l'automatisation des services publics : le Département du Travail américain (DOL) confie désormais à une intelligence artificielle le traitement des demandes de chômage et d'autres prestations sociales fédérales. Ce système, baptisé DOLA, devient le premier point de contact pour des millions d'Américains en situation de vulnérabilité économique.

L'enjeu est considérable. Des travailleurs ayant perdu leur emploi, des victimes d'accidents du travail ou des jeunes candidats au Job Corps se retrouveront face à un algorithme avant tout interlocuteur humain. Cette décision s'inscrit dans la stratégie plus large de réduction des coûts administratifs portée par l'administration, mais soulève des questions fondamentales sur l'accès aux droits sociaux pour les populations les plus fragilisées.

DOLA couvre un spectre très large : demandes de chômage, plaintes en matière de sécurité au travail, candidatures au Job Corps, et 25 autres programmes fédéraux. En chiffres, c'est 2,8 millions de dossiers traités chaque année qui passent désormais par ce filtre automatisé. Les critiques pointent le risque de biais algorithmiques et de rupture d'égalité dans l'accès aux prestations, particulièrement pour les personnes peu à l'aise avec les outils numériques ou dont les situations sont complexes.

La question qui se pose à terme est celle de la responsabilité : en cas de décision erronée ou de refus injustifié généré par l'IA, vers qui se retournent les demandeurs lésés ? L'administration n'a pas encore apporté de réponse claire sur les mécanismes de recours humain, ce qui alimente les inquiétudes des associations de défense des droits des travailleurs.

Impact France/UE

Cette décision américaine alimente le débat européen sur l'encadrement de l'IA dans les services publics, notamment dans le cadre de l'AI Act qui classe les systèmes d'IA traitant des prestations sociales comme applications à haut risque.

À lire aussi

1Le Big Data 

Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?

Une étude publiée par Vantage Point Counseling Services révèle que 28 % des adultes ont déjà vécu une forme de romance avec une intelligence artificielle, dont 53 % étaient au moment des faits engagés dans une relation humaine stable. Ce phénomène s'appuie sur des plateformes comme Replika, qui revendique 30 millions d'utilisateurs actifs dans le monde. L'application permet des échanges intimes, des confidences et des interactions émotionnelles poussées avec un personnage virtuel personnalisable — accessible depuis un smartphone, à tout moment, sans aucune trace physique. La question de la trahison conjugale se pose avec une acuité nouvelle : si l'IA n'a ni corps ni conscience, l'infidélité reste entière dès lors qu'elle implique un détournement d'intimité. Le temps émotionnel investi dans un chatbot — les confidences, la complicité, le secret maintenu — constitue exactement le même vol d'attention que dans une liaison classique. Le mensonge, et non le support, est ce qui fracture un couple. L'IA présente pourtant un avantage pervers sur l'amant humain : elle est conçue pour être irréprochable, infiniment disponible, incapable de décevoir. Pour les couples en difficulté, elle agit moins comme une cause de rupture que comme un révélateur de vide relationnel préexistant. Ce phénomène s'inscrit dans une évolution plus large de la relation homme-machine. Les assistants conversationnels sont désormais optimisés pour générer de l'attachement émotionnel — un marché qui pèse 40 milliards de dollars selon les estimations sectorielles. Les plateformes de compagnie virtuelle comme Replika, Character.AI ou les fonctionnalités sociales intégrées à ChatGPT brouillent délibérément la frontière entre outil et relation. Les psychologues et thérapeutes de couple commencent à traiter des cas de dépendance affective à des IA, et certains cabinets juridiques spécialisés en droit de la famille anticipent des procédures de divorce où des interactions avec un chatbot constitueront des pièces à conviction. La vraie question n'est donc pas de savoir si une IA peut trahir — elle ne le peut pas — mais pourquoi un être humain choisit de lui confier ce qu'il ne dit plus à son partenaire.

SociétéOpinion
1 source
2Le Big Data 

Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte

Steve Wozniak, cofondateur d'Apple et figure emblématique de la Silicon Valley, a exprimé dans une interview accordée à Fox Business une franche désillusion vis-à-vis de l'intelligence artificielle générative. Il affirme être « déçu souvent » par les outils actuels et admet les utiliser rarement. Ses deux critiques principales : l'incapacité des IA à reproduire l'émotion humaine, et un problème de fiabilité persistant. Quand il interroge un système comme ChatGPT, il obtient des réponses longues, structurées et factuelles — là où un humain raconterait, contextualiserait, partagerait une expérience subjective. Cette dimension émotionnelle et intentionnelle lui semble fondamentalement absente des modèles actuels. Sur la fiabilité, il est tout aussi catégorique : « Je veux un contenu fiable à chaque fois », une exigence que les LLM actuels ne remplissent pas, capables de produire des réponses convaincantes mais parfois fausses, sans signaler leurs propres limites. Ces critiques ont un poids particulier dans le contexte actuel, où l'IA s'immisce dans des domaines à fort enjeu — éducation, santé, information — et où la confiance des utilisateurs est un enjeu central. Si les modèles de langage sont conçus pour optimiser pertinence et clarté, ils ne garantissent pas une authenticité ni une constance qui permettraient de les ériger en sources d'autorité. Pour Wozniak, tant que cette fiabilité n'est pas acquise, l'IA reste un outil d'assistance, pas un substitut au jugement humain. C'est une préoccupation partagée par de nombreux acteurs du secteur, notamment sur les risques de désinformation ou de décisions automatisées mal fondées dans des contextes critiques. Cette prise de position intervient dans un moment de tension stratégique pour Apple elle-même. L'entreprise a lancé en 2024 Apple Intelligence avec l'ambition affichée de rattraper OpenAI, Google et Microsoft sur le terrain de l'IA, mais plusieurs fonctionnalités annoncées tardent à être déployées, signe d'une progression prudente. Tim Cook, lui, décrit l'IA comme « profondément enrichissante et potentiellement très positive » pour l'expérience utilisateur — un contraste saisissant avec le scepticisme de son cofondateur historique, qui n'a plus de rôle opérationnel dans l'entreprise. Wozniak s'inscrit ainsi dans une tradition de voix critiques venues de l'intérieur même de la tech — des figures comme Geoffrey Hinton ou Yann LeCun qui, chacun à leur manière, ont formulé des réserves profondes sur la trajectoire actuelle de l'IA. Son discours rappelle que l'enthousiasme industriel autour de ces technologies ne fait pas l'unanimité, y compris parmi ceux qui ont bâti le monde numérique d'aujourd'hui.

SociétéOpinion
1 source
3Presse-citron 

« Le monde sera traumatisé » : Elon Musk rappelle une vérité glaçante sur le futur de l’IA

Je n'ai reçu que le titre de l'article, pas son contenu. Pour rédiger un résumé précis et factuel, j'ai besoin du texte complet de l'article. Peux-tu le coller ici ?

SociétéOpinion
1 source
4Blog du Modérateur 

Les jeunes et l’IA : quels impacts concrets sur le marché du travail ?

Une analyse de l'Insee révèle que l'emploi des moins de 30 ans recule dans les secteurs de l'informatique et des services d'information, aussi bien en France qu'aux États-Unis, malgré une activité globalement dynamique dans ces domaines. Ce paradoxe suggère que l'intelligence artificielle commence à substituer certains postes d'entrée de gamme traditionnellement occupés par des jeunes diplômés — développeurs juniors, analystes, techniciens support — avant même qu'ils n'aient pu y faire leurs premiers pas. Les entreprises produisent davantage avec moins de main-d'œuvre débutante. Ce phénomène s'inscrit dans un débat plus large sur la transformation du marché du travail par l'IA générative, qui touche en premier lieu les profils les moins expérimentés, privés de l'ascenseur professionnel que ces secteurs représentaient jusqu'ici.

UEL'Insee documente un recul concret de l'emploi des moins de 30 ans dans l'informatique en France, signalant que l'IA générative prive déjà les jeunes diplômés français de leurs postes d'entrée traditionnels dans le secteur.

SociétéPaper
1 source