Aller au contenu principal
Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte
SociétéLe Big Data6sem

Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte

Résumé IASource uniqueImpact UE
Source originale ↗·

Steve Wozniak, cofondateur d'Apple, prend publiquement ses distances avec l'intelligence artificielle. Dans une interview accordée à Fox Business, il affirme sans détour : « Je ne suis pas fan de l'IA » et confie être « souvent déçu » par les outils actuels. Une position tranchée, à rebours de l'enthousiasme qui domine la Silicon Valley.

Pour Wozniak, le défaut fondamental des systèmes actuels est leur incapacité à reproduire la dimension émotionnelle de l'intelligence humaine. Là où un interlocuteur humain contextualise, raconte et partage une expérience subjective, les IA génèrent des réponses longues, structurées et factuelles — mais creuses. Il formule une critique directe des grands modèles de langage : ils « simulent le langage sans réellement ressentir ce qu'ils produisent ». Or, selon lui, comprendre une réponse, c'est aussi percevoir l'intention et l'émotion qui la sous-tendent.

À ce problème philosophique s'ajoute une limite très concrète : la fiabilité. Après avoir testé plusieurs outils, le cofondateur d'Apple dit ne pas obtenir systématiquement des réponses correctes. « Je veux un contenu fiable à chaque fois », insiste-t-il. Cette exigence met en lumière le décalage entre les promesses commerciales de l'IA et la réalité des hallucinations et approximations que produisent encore les modèles actuels, sans toujours signaler leurs propres limites. Une inquiétude partagée par plusieurs acteurs du secteur, notamment sur les usages critiques comme l'éducation, la santé ou l'information.

La prise de position de Wozniak intervient dans un contexte stratégiquement chargé pour Apple : l'entreprise a lancé Apple Intelligence en 2024 pour rattraper son retard sur OpenAI, Google et Microsoft, avec plusieurs fonctionnalités encore en attente de déploiement. Le contraste avec Tim Cook est saisissant — le PDG décrit l'IA comme « profondément enrichissante et potentiellement très positive ». Si Wozniak n'est plus impliqué opérationnellement dans l'entreprise qu'il a cofondée, sa voix reste un contrepoint symbolique difficile à ignorer.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Pourquoi les avis sur l'IA sont si partagés
1MIT Technology Review 

Pourquoi les avis sur l'IA sont si partagés

Le rapport annuel AI Index de l'université Stanford, publié cette semaine, dresse un état des lieux contrasté de l'intelligence artificielle mondiale. Parmi ses chiffres marquants : les États-Unis hébergent 5 427 centres de données, soit plus de dix fois autant que n'importe quel autre pays. Le rapport souligne également une vulnérabilité structurelle majeure de toute l'industrie : une seule entreprise, TSMC, fabrique la quasi-totalité des puces IA de pointe, rendant la chaîne d'approvisionnement mondiale dépendante d'une unique fonderie à Taïwan. Sur le plan des performances, les contrastes sont tout aussi frappants : le modèle phare de Google DeepMind, Gemini Deep Think, a décroché une médaille d'or aux Olympiades internationales de mathématiques, mais est incapable de lire une horloge analogique dans la moitié des cas. Ce rapport met en lumière une fracture profonde entre experts et grand public dans la perception de l'IA. Selon ses auteurs, 73 % des chercheurs américains en IA estiment que la technologie aura un impact positif sur l'emploi, contre seulement 23 % du grand public, soit un écart de 50 points de pourcentage. Un fossé similaire apparaît sur les questions économiques et médicales. Cette divergence s'explique en partie par des expériences radicalement différentes : les experts utilisent l'IA principalement pour des tâches techniques comme le code ou les mathématiques, domaines où les modèles sont objectivement devenus excellents, car les résultats sont vérifiables et les améliorations plus faciles à mesurer. Le grand public, lui, expérimente davantage des usages ouverts, où les modèles font encore régulièrement des erreurs grossières. Ce phénomène a été théorisé sous le nom de "frontière en dents de scie" : les grands modèles de langage excellent dans certains domaines précis tout en restant médiocres dans d'autres, sans cohérence apparente. Le chercheur influent Andrej Karpathy a lui-même noté sur X un fossé croissant de compréhension des capacités réelles de l'IA entre les utilisateurs avancés, prêts à payer jusqu'à 200 dollars par mois pour les meilleures versions, et le reste du public. Quelqu'un utilisant Claude Code aujourd'hui accède en réalité à une technologie fondamentalement différente de celle que quelqu'un a expérimentée gratuitement il y a six mois pour planifier un événement. L'IA progresse si vite que l'expérience utilisateur se fragmentes selon les niveaux d'accès, de maîtrise et de cas d'usage, rendant tout consensus sur "ce qu'est vraiment l'IA" aujourd'hui presque impossible à atteindre.

UELa dépendance mondiale à TSMC pour les puces IA de pointe fragilise la souveraineté technologique européenne au cœur du Chips Act, tandis que le fossé de perception experts/grand public interroge directement les fondements et la communication autour de l'AI Act.

SociétéPaper
1 source
L’IA va voler votre job, Musk veut vous donner un salaire (et pas un petit)
2Le Big Data 

L’IA va voler votre job, Musk veut vous donner un salaire (et pas un petit)

Le 17 avril 2026, Elon Musk a publié sur le réseau X un message qui a immédiatement enflammé les débats économiques : selon lui, la meilleure réponse au chômage de masse causé par l'intelligence artificielle serait un « Universal High Income » (UHI), soit un Revenu Universel Élevé versé sous forme de chèques par le gouvernement fédéral américain. Ce n'est plus le simple filet de sécurité qu'il évoquait dès 2018 sous le nom d'UBI, mais une promesse d'aisance généralisée. Son argument central : l'IA et la robotique vont produire des biens et services en quantité tellement excédentaire par rapport à la masse monétaire injectée que l'inflation serait mécaniquement neutralisée, rendant un revenu confortable pour tous non seulement possible, mais nécessaire. Cette déclaration intervient alors que les robots humanoïdes et les modèles d'IA générative s'apprêtent à automatiser une part inédite du travail physique et intellectuel en ce début d'année 2026. L'impact potentiel d'une telle proposition est considérable, mais sa faisabilité économique est sévèrement contestée. Si Musk a raison, des dizaines de millions de travailleurs déplacés par l'automatisation bénéficieraient d'un revenu suffisant pour maintenir un niveau de vie correct, évitant une crise sociale d'ampleur historique. Mais la majorité des économistes jugent son calcul mathématiquement intenable : injecter massivement de l'argent public sans créer d'inflation suppose que la productivité des machines suive une courbe de déflation technologique sans précédent et soutenue, ce qui reste une hypothèse non démontrée. Le financement d'un tel programme représenterait des milliers de milliards de dollars annuels pour les seuls États-Unis, sans source de revenus fiscaux clairement identifiée dans un monde où les grandes entreprises tech optimisent déjà leur fiscalité. Cette sortie de Musk s'inscrit dans une trajectoire qui dure depuis plusieurs années, mais marque une rupture de ton. En 2018, il parlait de filet de sécurité ; pendant la pandémie, il saluait les chèques de 1 400 dollars comme un « UBI lite ». Aujourd'hui, il parle d'abondance et de post-rareté, une vision qui n'est plus défensive mais utopique. Derrière l'annonce se profile aussi une question philosophique que peu d'économistes osent quantifier : si le travail disparaît, comment des sociétés entières trouveront-elles sens, identité et cohésion sociale ? Le risque d'une dépendance généralisée à l'État, que certains appellent déjà le « techno-féodalisme », est réel. Musk lui-même, à la tête de Tesla, SpaceX et xAI, est l'un des principaux acteurs de cette automatisation qu'il propose maintenant de compenser financièrement, ce qui ne manque pas d'alimenter les questions sur les conflits d'intérêts et la sincérité du projet.

SociétéOpinion
1 source
Chaos total sur YouTube : des vidéos IA absurdes passent entre les mailles du filet
3Le Big Data 

Chaos total sur YouTube : des vidéos IA absurdes passent entre les mailles du filet

YouTube fait face à une prolifération massive de contenus générés automatiquement par intelligence artificielle, au point que la plateforme peine à maintenir un semblant de contrôle éditorial. Des milliers de vidéos produites sans intervention humaine sont publiées chaque jour, contournant les systèmes de modération mis en place par Google. Parmi les cas les plus frappants signalés par des utilisateurs sur Bluesky, certaines vidéos présentent une voix masculine synthétique répétant un mot unique en boucle pendant de longues minutes, parfois sous couvert de contenu éducatif ou de bandes-annonces fictives. Ces productions, souvent incohérentes, longues et jamais relues par un humain, inondent la plateforme malgré les efforts répétés de YouTube pour intensifier sa lutte contre les contenus automatisés. L'impact est concret et touche plusieurs catégories d'acteurs. Les créateurs légitimes voient leur visibilité écrasée par un flot de contenus parasites optimisés pour le référencement algorithmique : titres accrocheurs, miniatures trompeuses, récits entièrement inventés conçus pour maximiser les clics. Les utilisateurs, souvent piégés par le système d'autoplay, enchaînent ces vidéos sans toujours identifier leur nature artificielle. Plus grave, certains de ces contenus ne se limitent pas à l'absurde : ils véhiculent des affirmations fausses ou des théories complotistes qui circulent librement, sans filtre efficace. La désinformation à grande échelle devient ainsi une conséquence directe de cette incapacité à endiguer le phénomène. Ce problème s'inscrit dans une dynamique plus large liée à la démocratisation des outils de génération vidéo par IA, qui permettent désormais à n'importe qui de produire des contenus en masse à coût quasi nul. YouTube a bien tenté de réagir en renforçant ses politiques et ses systèmes de détection, mais chaque vague de suppressions est immédiatement suivie d'une nouvelle vague de publications, dans ce que certains décrivent comme un jeu de tape-taupe numérique sans fin. Les chaînes les plus agressives exploitent méthodiquement les failles de l'algorithme pour maintenir leur présence. La question qui se pose désormais est de savoir si YouTube peut adapter ses outils de modération à la même vitesse que progressent les capacités génératives, ou si la plateforme est structurellement condamnée à subir ce déferlement tant que la création automatisée de contenus reste aussi accessible et rentable.

UELes créateurs francophones voient leur visibilité écrasée par des contenus parasites IA, tandis que les utilisateurs français sont exposés à des flux de désinformation automatisée sans modération efficace de la plateforme.

SociétéOpinion
1 source
76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse
4Siècle Digital 

76% des Américains ne font pas confiance à l’IA, malgré un usage en forte hausse

Selon une nouvelle enquête publiée en 2026, 76 % des Américains déclarent ne pas faire confiance à l'intelligence artificielle, alors même que son usage progresse significativement : seulement 27 % affirment ne jamais l'avoir utilisée, contre 33 % en avril 2025. Les utilisateurs y ont recours principalement pour effectuer des recherches, rédiger des contenus, analyser des données ou gagner en productivité dans leur travail quotidien. La méfiance, elle, ne faiblit pas — elle s'aggrave d'une année à l'autre. Ce paradoxe révèle une fracture profonde entre adoption pratique et confiance institutionnelle. Des millions d'Américains intègrent l'IA dans leur quotidien professionnel tout en restant sceptiques quant à sa fiabilité, sa transparence ou les intentions des entreprises qui la développent. Pour l'industrie, ce signal est préoccupant : une adoption massive sans confiance limite la monétisation, expose les acteurs à des régulations plus strictes et fragilise l'acceptabilité sociale des usages les plus sensibles — santé, justice, finance. Ce déficit de confiance s'inscrit dans un contexte plus large de questionnements sur les biais algorithmiques, la désinformation générée par l'IA et l'opacité des grands modèles de langage. Les géants du secteur — OpenAI, Google, Meta, Anthropic — multiplient les initiatives de transparence et de sécurité, mais peinent à convaincre le grand public. À mesure que l'IA s'intègre dans des décisions à fort enjeu, la question de la confiance deviendra un levier concurrentiel déterminant, autant qu'un enjeu démocratique.

UECe déficit de confiance envers l'IA observé aux États-Unis reflète une tendance similaire en Europe, où l'Eurobaromètre signale régulièrement des réserves comparables, renforçant la pression sur les régulateurs européens pour exiger plus de transparence algorithmique dans le cadre de l'AI Act.

SociétéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour