Aller au contenu principal
Le philosophe David Chalmers : les méthodes actuelles d'interprétabilité de l'IA passent à côté de l'essentiel
ÉthiqueThe Decoder8sem

Le philosophe David Chalmers : les méthodes actuelles d'interprétabilité de l'IA passent à côté de l'essentiel

Résumé IASource uniqueImpact UE
Source originale ↗·

Le philosophe David J. Chalmers propose une nouvelle approche pour interpréter les systèmes d'IA : l'«interprétabilité propositionnelle», qui consiste à analyser l'IA à travers ses attitudes envers des propositions, comme on le fait pour les humains. Cette méthode s'appuie sur des théories philosophiques de la compréhension humaine et vise à dépasser les limites des méthodes mécanistes actuelles. Selon Chalmers, ces dernières passent à côté de l'essentiel.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les hackers passent à l’IA : la cybersécurité entre dans une nouvelle course
1FrenchWeb 

Les hackers passent à l’IA : la cybersécurité entre dans une nouvelle course

Les hackers adoptent désormais l'IA pour accélérer et sophistiquer leurs attaques, remettant en cause le modèle traditionnel de cybersécurité basé sur la détection rapide des intrusions. Les entreprises, qui ont investi massivement dans des outils de surveillance et des centres d'opérations de sécurité (SOC), font face à une nouvelle course aux armements technologiques. La cybersécurité entre dans une ère où la vitesse de réaction humaine ne suffit plus face à des menaces augmentées par l'intelligence artificielle.

UELes acteurs européens de la cybersécurité comme Thales, Orange Cyberdefense et Airbus CyberSecurity sont contraints de repenser en urgence leurs offres SOC face à des attaques dopées à l'IA qui dépassent la capacité de réaction humaine.

ÉthiqueActu
1 source
Anthropic dresse un classement des métiers les plus menacés par l’IA
2Blog du Modérateur 

Anthropic dresse un classement des métiers les plus menacés par l’IA

Anthropic a publié un classement des métiers les plus menacés par l'IA, basé sur ses propres données d'utilisation et une méthodologie originale. Les conclusions se veulent nuancées et tempèrent les scénarios les plus alarmistes sur les destructions d'emplois. La société souligne toutefois que la situation pourrait évoluer à l'avenir.

UECette analyse alimente les débats sur l'adaptation du marché du travail en France et en Europe, où des institutions comme Pôle emploi et des partenaires sociaux cherchent à anticiper les reconversions professionnelles face à l'automatisation.

ÉthiqueActu
1 source
3Les Numériques IA 

Actualité : “Un sociopathe prêt à tout” : les proches de Sam Altman brisent le silence dans une enquête accablante contre le patron de ChatGPT

Une enquête journalistique accablante vient d'éclairer sous un jour nouveau la personnalité de Sam Altman, PDG d'OpenAI, l'entreprise derrière ChatGPT. Selon des proches et anciens collaborateurs qui ont brisé le silence, Altman aurait construit sa position dominante dans l'industrie de l'IA en instrumentalisant une rhétorique apocalyptique : convaincre chercheurs, investisseurs et gouvernements que l'intelligence artificielle pourrait anéantir l'humanité, et qu'il était l'homme indispensable pour en prendre les rênes. Certains de ses proches le décrivent comme "un sociopathe prêt à tout" pour maintenir son emprise sur une organisation qu'il a transformée en l'une des plus influentes au monde. Ces révélations interviennent à un moment où OpenAI est valorisée autour de 300 milliards de dollars et négocie en permanence avec des gouvernements sur la régulation de l'IA. Si le portrait dressé par l'enquête est exact, cela soulève des questions fondamentales sur la crédibilité d'Altman comme figure de proue du mouvement dit "d'IA sûre", un positionnement qui lui a permis d'attirer les meilleurs scientifiques du monde et des milliards de dollars de financements, notamment de Microsoft. OpenAI a été fondée en 2015 comme association à but non lucratif dédiée au développement sécurisé de l'IA, avant qu'Altman ne la transforme progressivement en entreprise commerciale de premier plan. En novembre 2023, le conseil d'administration l'avait brièvement licencié, déclenchant une crise interne majeure, avant que la pression des employés et des investisseurs ne le rétablisse dans ses fonctions. Cette enquête relance le débat sur la gouvernance d'OpenAI et la concentration du pouvoir entre les mains d'un seul homme à la tête d'une technologie aux enjeux civilisationnels.

UELes négociations d'OpenAI avec les gouvernements européens sur la régulation de l'IA pourraient être fragilisées si la crédibilité d'Altman comme garant de l'IA responsable est publiquement remise en question.

ÉthiqueActu
1 source
Face à Google, Qwant expérimente une IA qui paie les éditeurs de presse
4Siècle Digital 

Face à Google, Qwant expérimente une IA qui paie les éditeurs de presse

Qwant, le moteur de recherche français, lance une expérimentation visant à rémunérer les éditeurs de presse dont les contenus sont utilisés par son IA. Cette initiative intervient dans un contexte où les outils d'IA comme Google et ChatGPT soulèvent des questions sur la juste compensation des créateurs de contenu.

UEQwant, moteur de recherche français, ouvre la voie à un modèle de rémunération équitable des éditeurs de presse européens pour l'utilisation de leurs contenus par l'IA, une avancée concrète dans le débat sur les droits voisins en France et dans l'UE.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour