Aller au contenu principal
OpenAI prêt à tuer l’iPhone ? Son mystérieux smartphone 100 % IA intrigue déjà
OutilsLe Big Data2h

OpenAI prêt à tuer l’iPhone ? Son mystérieux smartphone 100 % IA intrigue déjà

1 source couvre ce sujet·Source originale ↗·

OpenAI travaille sur un smartphone radicalement différent de tout ce qui existe actuellement. Selon l'analyste Ming-Chi Kuo, dont la fiabilité sur les feuilles de route technologiques est reconnue, la firme développe un appareil qui abandonnerait complètement le modèle des applications classiques. La production de masse est visée pour 2028, avec un possible premier aperçu dès cette année. Pour construire cet appareil, OpenAI s'appuierait sur une alliance industrielle structurée : Qualcomm et MediaTek pour les puces, Luxshare pour la fabrication à grande échelle. L'architecture serait hybride, combinant traitement local et cloud, permettant à l'IA d'analyser en permanence le contexte de l'utilisateur, position, habitudes, préférences, pour anticiper ses besoins avant même qu'il formule une demande. À la place des grilles d'icônes, un agent intelligent prendrait en charge les tâches : réservations, messages, organisation de journée, tout cela de façon quasi invisible pour l'utilisateur.

L'enjeu dépasse largement le lancement d'un produit. Contrôler à la fois le matériel et le logiciel permettrait à OpenAI d'offrir une expérience cohérente et profonde que ne peut pas égaler une simple application tournant sur l'iPhone ou Android. C'est précisément le type d'intégration verticale qu'Apple a maîtrisé pendant vingt ans. Pour renforcer sa crédibilité sur ce terrain, OpenAI s'est associé à Jony Ive, l'ancien directeur du design d'Apple qui a conçu l'iPhone aux côtés de Steve Jobs, un signal fort adressé aux consommateurs habitués à des standards élevés. Si le projet aboutit, ce n'est pas seulement un téléphone qui change, c'est le paradigme dominant du smartphone depuis 2007 qui est remis en question : celui où l'utilisateur ouvre des applications, plutôt que celui où un agent agit pour lui.

OpenAI entre cependant sur un marché dominé par deux géants aux ressources considérables. Apple peut s'appuyer sur plus d'un milliard d'iPhone actifs et un écosystème particulièrement verrouillé. Google, de son côté, intègre activement ses propres agents IA dans Android et avance vite. La concurrence des modèles eux-mêmes s'intensifie aussi : Anthropic avec Claude et Google avec Gemini accélèrent leurs déploiements. Ce projet s'inscrit dans une logique plus large de course au contrôle de l'interface numérique, celui qui possède le point d'entrée quotidien de l'utilisateur contrôle l'écosystème entier. Le calendrier flou et les défis industriels laissent planer une incertitude réelle sur l'exécution, mais la direction est claire : OpenAI ne veut plus seulement fournir le cerveau des appareils des autres.

À lire aussi

Apple Intelligence : le guide complet pour utiliser l’IA sur son iPhone ou Mac
1Le Big Data 

Apple Intelligence : le guide complet pour utiliser l’IA sur son iPhone ou Mac

Au printemps 2026, Apple Intelligence s'est imposée comme une composante centrale des iPhone et Mac, bien loin du gadget expérimental de ses débuts en 2024. Selon les chiffres de mars 2026, plus de 80 % des utilisateurs d'appareils compatibles recourent quotidiennement aux outils de résumé ou de retouche intégrés au système. Cette adoption massive concerne notamment les possesseurs d'iPhone 17 et de MacBook Pro M5, qui bénéficient du fruit de trois ans de recherche sur les modèles de langage à petite échelle (SLM). Siri 2.0, rebaptisé agent d'action, peut désormais exécuter des commandes complexes directement dans les applications : analyser une photo reçue sur WhatsApp, en extraire les informations d'un événement et les inscrire automatiquement dans Calendrier et Plans, sans intervention manuelle. Les Writing Tools, disponibles sur Mac et iPhone, permettent de reformuler, restructurer et affiner des textes à partir de brouillons, transformant un message maladroit en communication professionnelle en quelques secondes. Le Priority Hub d'iOS 19 réorganise les notifications selon leur urgence réelle, remontant par exemple une alerte d'annulation de vol même en mode « Ne pas déranger ». L'impact de ces évolutions dépasse le simple confort d'usage : elles redéfinissent le rapport des utilisateurs à leurs appareils. La promesse d'une IA qui respecte la vie privée, les traitements étant effectués localement sur l'appareil via les puces Apple Silicon, lève un frein majeur à l'adoption que les solutions concurrentes basées sur le cloud n'avaient pas su dissiper. Pour les professionnels, les créatifs et les particuliers, le gain de temps est concret : rédaction assistée, retouche photo instantanée avec l'outil Clean Up, génération d'illustrations depuis des esquisses sur iPad grâce à Image Wand, ou encore création d'emojis personnalisés (Genmoji) en deux secondes depuis iMessage. Le Semantic Intelligence Framework, qui permet à Siri d'adapter son ton et son débit au contexte, rend l'interaction suffisamment fluide pour que l'assistant s'intègre au rythme de vie sans friction perceptible. Cette montée en puissance s'inscrit dans une stratégie de long terme qu'Apple a construite en réponse à la pression exercée par OpenAI, Google et Microsoft sur le marché de l'IA grand public. Là où ces acteurs misaient sur des modèles massifs hébergés dans le cloud, Apple a choisi une voie différente : des modèles compacts optimisés pour tourner directement sur ses puces, couplés à une architecture système qui donne à l'IA un accès profond aux données personnelles sans les exporter. Le résultat, après deux ans de rodage parfois chaotique, est un écosystème cohérent où l'IA n'est plus une application à lancer, mais une couche invisible qui amplifie chaque geste. Les prochaines versions d'iOS et de macOS devraient étendre ces capacités aux applications tierces via des API publiques, ce qui pourrait transformer Apple Intelligence en plateforme ouverte autant qu'en avantage concurrentiel propriétaire.

UEL'approche de traitement local via les puces Apple Silicon est particulièrement favorable en Europe, où le RGPD freine l'adoption des IA cloud, offrant aux utilisateurs français et européens une alternative sans transfert de données personnelles vers des serveurs tiers.

OutilsOutil
1 source
Tencent mise sur OpenClaw pour rattraper son retard dans la course à l'IA en Chine
2The Information AI 

Tencent mise sur OpenClaw pour rattraper son retard dans la course à l'IA en Chine

Tencent a lancé ce mois-ci pas moins de huit applications et services basés sur OpenClaw, le framework open source de création d'agents IA devenu viral en janvier 2026. Parmi eux, QClaw — imaginé par Shuyu Zhang, un chef de produit récemment embauché — permet d'installer un agent IA en un clic et de le piloter directement depuis WeChat, l'application de messagerie dominante en Chine. Dimanche dernier, Tencent a également lancé Weixin ClawBot, un outil qui intègre OpenClaw nativement dans Weixin, le nom chinois de WeChat. Cette offensive illustre l'urgence ressentie au sein du géant technologique de Shenzhen : après des années perçu comme un suiveur dans la course à l'IA en Chine, Tencent tente de rattraper son retard en s'appuyant sur l'engouement mondial pour OpenClaw. L'intégration dans WeChat est stratégique — avec plus d'un milliard d'utilisateurs actifs, la plateforme offre une rampe de distribution sans équivalent pour déployer des agents IA à grande échelle auprès du grand public chinois. OpenClaw a déclenché une vague d'adoption frénétique dans l'industrie technologique mondiale depuis son émergence en janvier, et la Chine ne fait pas exception. Tencent affronte sur ce terrain des rivaux comme Alibaba, ByteDance et Baidu, tous engagés dans une course effrénée aux agents IA. La capacité de Tencent à tirer parti de l'écosystème WeChat pourrait lui donner un avantage décisif, mais la vitesse de déploiement et la qualité des agents restent des variables critiques dans une compétition qui s'intensifie semaine après semaine.

OutilsOutil
1 source
OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus
3VentureBeat AI 

OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus

OpenAI a lancé un nouveau palier d'abonnement à 100 dollars par mois pour ChatGPT, baptisé ChatGPT Pro, ciblant explicitement les développeurs et les "vibe coders", ces utilisateurs qui construisent des logiciels en langage naturel avec l'aide de l'IA. Cette offre se positionne entre le plan Plus à 20 dollars et le plan Pro existant à 200 dollars, et son argument principal est simple : elle offre cinq fois plus d'utilisation de Codex, l'environnement de développement assisté par IA d'OpenAI, par rapport au plan Plus. Sam Altman, PDG et co-fondateur d'OpenAI, a annoncé le lancement sur X en évoquant une "très forte demande". Concrètement, le plan à 100 dollars permet par exemple d'envoyer entre 300 et 1 500 messages locaux avec le modèle GPT-5.3-Codex toutes les cinq heures, contre 45 à 225 pour le plan Plus, et d'effectuer entre 50 et 400 tâches cloud sur la même fenêtre, contre 10 à 60. Les revues de code passent également de 10 à 25 pull requests par semaine à 100 à 250. Le plan à 200 dollars offre quant à lui le double du plan à 100 dollars, soit dix fois les limites du Plus. Ce lancement signale une montée en puissance d'OpenAI sur le segment du développement logiciel assisté, un marché devenu stratégique. En introduisant un palier intermédiaire, l'entreprise cherche à capter les développeurs qui trouvaient le plan Plus trop limité sans vouloir payer 200 dollars. La décision est toutefois ambiguë : OpenAI a simultanément annoncé un "rééquilibrage" de l'utilisation de Codex pour les abonnés Plus, réduisant les sessions longues au profit de sessions plus courtes et distribuées dans la semaine, ce qui revient de facto à restreindre les usages intensifs des utilisateurs à 20 dollars, les incitant à passer à la formule supérieure. Le contexte concurrentiel explique en grande partie cette accélération. Anthropic, principal rival d'OpenAI, a récemment révélé un chiffre d'affaires annualisé dépassant 30 milliards de dollars, devançant les 24 à 25 milliards estimés d'OpenAI. Cette croissance est portée en grande partie par l'adoption massive de Claude Code et Claude Cowork, des outils de développement assisté par IA qui gagnent rapidement du terrain auprès des équipes techniques. OpenAI, qui a largement contribué à populariser l'IA générative, se retrouve ainsi à devoir défendre son leadership sur un segment qu'il a pourtant contribué à inventer. La guerre des abonnements pour coder avec l'IA ne fait que commencer, avec des acteurs comme Google, GitHub Copilot et Cursor également dans la course.

UELes développeurs européens disposent d'un nouveau palier intermédiaire à 100$/mois pour accéder à Codex avec des limites 5x supérieures au plan Plus, une option concrètement utilisable par les équipes techniques en France et en Europe.

OutilsOutil
1 source
AutoAgent : la bibliothèque open source qui permet à une IA d'optimiser son propre système d'agents
4MarkTechPost 

AutoAgent : la bibliothèque open source qui permet à une IA d'optimiser son propre système d'agents

Kevin Gu, ingénieur chez thirdlayer.inc, a publié AutoAgent, une bibliothèque open source qui automatise l'optimisation des agents IA. En l'espace de 24 heures d'exécution autonome, le système a atteint la première place sur SpreadsheetBench avec un score de 96,5 %, et la meilleure performance GPT-5 sur TerminalBench avec 55,1 %. Le projet est disponible sur GitHub avec une architecture délibérément minimaliste : un fichier agent.py qui contient l'intégralité du harness sous test, un fichier program.md que l'humain édite pour donner la directive, et un journal d'expériences results.tsv maintenu automatiquement par le méta-agent pour tracer l'historique de chaque run. Le principe est simple mais radical : là où un ingénieur IA passe des journées à ajuster manuellement les prompts système, les définitions d'outils et la logique d'orchestration de son agent, AutoAgent confie cette boucle d'itération à un second agent, le méta-agent, qui lit la directive, inspecte agent.py, exécute le benchmark, analyse les échecs, réécrit les parties pertinentes et recommence. L'humain ne touche jamais agent.py directement. Ce ratchet loop, proposer une modification, mesurer le score, conserver si meilleur, rejeter sinon, est directement inspiré du projet autoresearch d'Andrej Karpathy, qui applique la même logique à l'entraînement de modèles ML. AutoAgent transpose ce mécanisme au niveau du harness : le prompt système, les outils disponibles, le routage entre sous-agents et la stratégie d'orchestration. Concrètement, toute équipe qui développe des agents complexes pourrait déléguer la phase d'optimisation la plus fastidieuse à un processus nocturne entièrement automatisé, réduisant drastiquement le temps humain consacré au réglage fin. Cette publication s'inscrit dans une tendance plus large d'automatisation de l'ingénierie IA elle-même, souvent désignée sous le terme "méta-apprentissage" ou "self-improvement". Depuis que les LLMs ont démontré leur capacité à écrire et modifier du code de manière fiable, plusieurs laboratoires et chercheurs indépendants explorent des architectures où un modèle supervise l'amélioration d'un autre, ou de lui-même. AutoAgent se distingue par sa portée pratique immédiate : il ne requiert pas d'infrastructure exotique, s'appuie sur le format Harbor pour exprimer les benchmarks, et peut être adapté à n'importe quel domaine via les dossiers tasks/ et .agent/. Les résultats sur TerminalBench et SpreadsheetBench, deux benchmarks reconnus dans la communauté, donnent une crédibilité concrète à l'approche. La question ouverte reste celle du contrôle : lorsqu'un méta-agent réécrit librement la logique d'orchestration d'un système en production, les garanties de sécurité et de prévisibilité du comportement final deviennent un enjeu non trivial que la bibliothèque n'adresse pas encore explicitement.

💬 C'est exactement la boucle que tout dev d'agents rêve d'automatiser, et là quelqu'un l'a fait en un seul fichier. Le score sur SpreadsheetBench est bluffant, bon, reste à voir ce que ça donne sur des tâches moins balisées qu'un benchmark. La vraie question, c'est quand le méta-agent commence à réécrire l'orchestration en prod sans que tu comprennes pourquoi ça marche.

OutilsOutil
1 source