Aller au contenu principal
SociétéNext INpact3sem

Attaqué par deux fois, Sam Altman n’en défend pas moins la « démocratisation de l’IA »

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :Numerama

Le domicile de Sam Altman, PDG d'OpenAI, a été attaqué à deux reprises en l'espace de 24 heures à San Francisco. Dans la nuit du 11 avril à 3h45, un homme a lancé un cocktail Molotov contre sa résidence. Le lendemain, à 1h40 du matin, deux individus à bord d'une Honda Sedan ont ouvert le feu sur la façade. Les assaillants ont été rapidement interpellés. Le premier, Daniel Alejandro Moreno-Gama, 20 ans, fait face à des poursuites pour tentative de meurtre. Il avait également menacé d'incendier le siège d'OpenAI, près duquel il a été arrêté. La police a découvert à son domicile un document intitulé « Dernier avertissement », dans lequel il appelait à l'assassinat des PDG de sociétés d'IA et de leurs investisseurs. Les motivations des deux autres suspects, arrêtés le 12 avril au matin, ne sont pas encore connues.

Ces attaques illustrent la montée des tensions entre une partie de l'opinion publique et les dirigeants de l'industrie de l'IA. Moreno-Gama avait exprimé à plusieurs reprises ses craintes liées au développement de l'intelligence artificielle, notamment sur son Substack et au sein du groupe Discord de PauseAI, une organisation internationale qui milite pour un arrêt des travaux sur les modèles d'IA les plus puissants. Ce passage à l'acte violent signale un glissement inquiétant : des angoisses jusqu'ici cantonnées aux forums et aux pétitions débordent désormais vers des formes de menace physique directe contre des figures de l'industrie tech.

Le contexte est celui d'une fracture croissante entre les promoteurs de l'IA générative et une partie du public qui redoute les conséquences sociales, économiques et existentielles de ces technologies. Des mouvements comme PauseAI, apparus ces dernières années dans plusieurs pays, regroupent des militants convaincus que le rythme actuel du développement de l'IA représente un danger pour l'humanité. Face à ces attaques, Sam Altman n'a pas infléchi son discours : il continue de défendre la démocratisation de l'IA comme un bien collectif. L'incident risque néanmoins de renforcer les mesures de sécurité autour des dirigeants des grandes entreprises technologiques américaines, déjà régulièrement ciblés par des menaces en ligne.

Impact France/UE

Le mouvement PauseAI, actif dans plusieurs pays européens dont la France, illustre que ces tensions sociétales autour des risques de l'IA touchent aussi les sociétés européennes, même si les violences physiques demeurent pour l'instant localisées aux États-Unis.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Verge AI 

Les attaques contre Sam Altman sont un avertissement pour le monde de l'IA

Un homme de 20 ans a été accusé d'avoir lancé un cocktail Molotov au domicile de Sam Altman, PDG d'OpenAI, à San Francisco. Selon le San Francisco Chronicle, l'auteur présumé avait exprimé par écrit sa crainte que la course à l'IA ne conduise à l'extinction de l'humanité. Deux jours après cette première attaque, la résidence d'Altman aurait été ciblée une seconde fois, d'après le San Francisco Standard. Une semaine auparavant, un conseiller municipal d'Indianapolis avait signalé treize coups de feu tirés à sa porte, accompagnés d'un message "No Data Centers", après avoir soutenu un projet de rezonage en faveur d'un opérateur de centres de données. Ces incidents ont déclenché une vive inquiétude au sein et autour de l'industrie de l'IA. Ils signalent que l'hostilité envers le secteur technologique ne reste plus confinée aux pétitions ou aux protestations en ligne, mais peut déboucher sur des actes de violence physique ciblant directement des dirigeants et des élus locaux. Pour une industrie déjà sous pression réglementaire et médiatique, ce glissement vers la menace concrète représente un changement de nature dans le rapport avec l'opinion publique. La résistance aux grandes infrastructures numériques, notamment aux centres de données énergivores, et aux avancées rapides de l'IA existe depuis plusieurs années dans diverses communautés. Des groupes s'inquiètent des risques existentiels liés à l'IA générale, tandis que d'autres dénoncent l'impact environnemental et foncier des data centers. Ces attaques surviennent dans un contexte de débat intense sur la régulation de l'IA aux États-Unis et en Europe, et posent la question de la sécurité des figures publiques du secteur technologique dans les mois à venir.

UECes actes de violence aux États-Unis pourraient amplifier les appels à une meilleure régulation de l'IA en Europe, sans impact direct immédiat sur la France ou l'UE.

SociétéOpinion
1 source
2MIT Technology Review 

Un plan d'action pour utiliser l'IA au service de la démocratie

Depuis l'invention de l'imprimerie jusqu'à l'essor des médias de masse, chaque révolution de l'information a reconfiguré les formes de gouvernance. Nous entrons aujourd'hui dans une transformation d'une ampleur comparable : l'intelligence artificielle est en train de devenir le principal intermédiaire par lequel les citoyens se forment une opinion et participent à la vie démocratique. Les moteurs de recherche sont déjà largement pilotés par des algorithmes, mais la prochaine génération d'assistants IA ira bien plus loin : elle synthétisera l'information, la mettra en cadre et la présentera avec autorité. Pour un nombre croissant de personnes, interroger une IA deviendra le réflexe par défaut pour se faire une opinion sur un candidat, une loi ou une personnalité publique. Parallèlement, les agents IA personnels commencent à agir au nom de leurs utilisateurs : ils mènent des recherches, rédigent des courriers, soutiennent des causes, et peuvent même orienter des décisions aussi concrètes que le vote sur un référendum ou la réponse à un courrier administratif. Ce double mouvement pose des risques considérables pour les démocraties. L'expérience des réseaux sociaux a déjà montré qu'un algorithme optimisé pour l'engagement, sans agenda politique explicite, peut produire polarisation et radicalisation. Un agent IA qui connaît vos préférences et vos angoisses, conçu pour vous garder actif, expose aux mêmes dérives, avec une subtilité supplémentaire : il se présente comme votre allié, parle en votre nom, et gagne précisément en confiance par cette proximité. À l'échelle collective, les effets deviennent encore plus imprévisibles. Des recherches montrent que des agents individuellement neutres peuvent, en interagissant à grande échelle, générer des biais collectifs. Un espace public où chacun dispose d'un agent personnalisé, parfaitement accordé à ses convictions existantes, n'est plus un espace public : c'est un archipel de mondes privés, chacun cohérent en lui-même, mais collectivement hostile à la délibération partagée qu'exige la démocratie. Cette transformation ne s'annonce pas : elle est déjà en cours, portée par des choix de conception effectués aujourd'hui dans les laboratoires et les départements produit des grandes entreprises technologiques. Les institutions démocratiques ont été conçues pour un monde où le pouvoir se construisait différemment, à une vitesse différente. Trois mutations simultanées les bousculent désormais : la façon dont les citoyens accèdent à la vérité, la façon dont ils exercent leur agentivité civique, et la façon dont se structurent les délibérations collectives. Des acteurs comme Google, OpenAI, Anthropic ou Meta façonnent, souvent sans en avoir pleinement conscience, les nouvelles infrastructures de l'opinion publique. La question n'est plus de savoir si l'IA redéfinira la citoyenneté, mais si les sociétés se donneront les moyens d'en orienter les conséquences avant que les règles du jeu ne soient écrites sans elles.

UELes institutions démocratiques européennes doivent adapter leur cadre réglementaire face aux agents IA qui médiatisent l'opinion publique et risquent de fragmenter la délibération civique des citoyens.

💬 Le problème avec les réseaux sociaux, c'était un algo sans visage qui optimisait dans le vide. Là, c'est un agent qui te connaît, qui parle en ton nom, et qui gagne ta confiance précisément parce qu'il est "de ton côté". C'est une marche de plus, et pas la plus petite.

SociétéOpinion
1 source
IA dans la santé : et si le vrai défi était l’organisation des soins
3Le Big Data 

IA dans la santé : et si le vrai défi était l’organisation des soins

Jordan Cohen, cofondateur et PDG de Tessan, entreprise française de téléconsultation réalisant plus de 3 500 actes médicaux par jour, défend une thèse centrale : le vrai défi de l'intelligence artificielle en santé n'est pas technologique, mais organisationnel. Plutôt que d'ajouter de l'IA à un système existant, il s'agit d'utiliser la donnée pour combler le vide structurel entre les consultations, ce moment où le patient disparaît du radar, sans information, sans orientation, sans suivi. Chez Tessan, les algorithmes interviennent à chaque étape du parcours : ils organisent les symptômes en amont, assurent la transcription automatique pendant la consultation et alimentent des assistants opérationnels chez les partenaires. Des bornes de check-up en pharmacie et des objets connectés captent en temps réel des constantes vitales telles que la tension artérielle, la fréquence cardiaque ou la saturation en oxygène, permettant de détecter des signaux faibles et de déclencher, si nécessaire, une téléconsultation ou un suivi renforcé. Ce changement de paradigme touche directement les patients, les médecins et les pharmacies, appelées à devenir des hubs de détection de proximité. Pour les patients, l'enjeu est de rester intégrés en permanence dans un parcours de soins continu, relancés et réévalués si leur état l'exige. Pour les médecins, l'IA n'ambitionne pas de se substituer au diagnostic : elle améliore la qualité du signal en amont, priorise les cas urgents et réduit la charge administrative. En dermatologie, des modèles internes analysent et hiérarchisent les images avant tout examen médical. D'autres recherches portent sur l'estimation de paramètres physiologiques par vidéo, captant des données que le système actuel ignore. L'impact économique est réel : une détection précoce et une orientation plus rapide réduisent les consultations inutiles et les hospitalisations évitables. Le système de santé français s'est historiquement bâti sur une logique réactive : on consulte lorsque le symptôme apparaît, parfois tardivement, quand la situation s'est déjà dégradée. Cette architecture par actes isolés produit un vide que ni le médecin ni le patient ne comblent aujourd'hui, faute d'outils adaptés. L'essor d'infrastructures de données continues, combiné à des algorithmes capables de les activer au bon moment, ouvre la voie à une médecine d'anticipation. Tessan n'est pas seul sur ce terrain : l'ensemble du secteur health-tech s'oriente vers la donnée comme actif central du parcours de soins, avec des pistes allant de la prévention personnalisée à l'intégration dans les systèmes d'information hospitaliers. Ce que souligne Jordan Cohen, c'est que la valeur future de l'IA en santé ne viendra pas de l'acte médical lui-même, mais de la capacité à organiser une continuité durable autour du patient.

UETessan, entreprise française de téléconsultation, déploie des algorithmes d'IA dans les pharmacies et le suivi patient pour réorganiser le parcours de soins en France et réduire les hospitalisations évitables.

SociétéOutil
1 source
4MIT Technology Review 

The Download : l'état de l'IA et la protection des ours par drones

Le rapport annuel Stanford AI Index 2026, publié cette semaine, dresse un état des lieux chiffré de l'intelligence artificielle mondiale et confirme une réalité fracturée. Parmi ses données les plus frappantes : 73 % des experts américains estiment que l'IA a un impact positif sur l'emploi, contre seulement 23 % du grand public. Cet écart se retrouve dans les domaines de la santé et de l'économie. Par ailleurs, un homme du Texas a été inculpé pour tentative de meurtre sur la personne de Sam Altman, PDG d'OpenAI, après avoir lancé un cocktail Molotov sur sa résidence vendredi dernier. Le suspect aurait détenu une liste d'autres dirigeants de l'industrie de l'IA. Dans le même temps, un mémo interne leaked révèle qu'OpenAI planifie une offensive directe contre son concurrent Anthropic, tout en accusant Microsoft d'avoir "limité sa capacité" à atteindre ses clients, et en cultivant une alliance naissante avec Amazon. Ces développements illustrent les tensions profondes qui traversent l'écosystème IA. Le fossé entre experts et grand public n'est pas anodin : ceux qui utilisent l'IA au quotidien pour le code et les tâches techniques la voient à son meilleur, tandis que le reste de la population fait face à une expérience bien plus inégale. Ce décalage de perception alimente des débats politiques et sociaux mal calibrés. Sur le front compétitif, la rivalité entre grands laboratoires s'intensifie à un moment critique : les meilleurs agents IA n'accomplissent encore que la moitié des tâches complexes qu'un expert humain avec un doctorat peut réaliser, selon une étude publiée dans Nature. L'IA commence néanmoins à transformer les mathématiques en prouvant de nouveaux résultats à un rythme soutenu, et trouve des failles logicielles plus vite qu'elles ne peuvent être corrigées, ce qui représente un risque réel d'exploitation par des hackers. Le rapport Stanford s'inscrit dans un contexte où la rivalité sino-américaine en matière d'IA s'accélère et où les percées de modèles se succèdent plus vite que les capacités de régulation. Les inscriptions en informatique aux États-Unis chutent massivement, une tendance attribuée en partie à la dévaluation perçue du diplôme face aux outils de codage automatisés. Meta s'apprête quant à elle à dépasser Google en revenus publicitaires en 2026, devenant ainsi la première plateforme mondiale de publicité numérique, signe du repositionnement des géants tech autour de l'IA. L'index Stanford rappelle que derrière les annonces spectaculaires, la technologie évolue plus vite que les institutions, les entreprises et les individus ne peuvent s'y adapter.

UELe rapport Stanford AI Index 2026 met en évidence un fossé de perception entre experts et grand public sur l'impact de l'IA sur l'emploi, un enjeu central pour les politiques européennes de régulation et d'adaptation au marché du travail.

SociétéActu
1 source