Aller au contenu principal
Estonie et OpenAI : ChatGPT sera mis à disposition dans les établissements scolaires du pays
SociétéOpenAI Blog62sem

Estonie et OpenAI : ChatGPT sera mis à disposition dans les établissements scolaires du pays

Résumé IASource uniqueImpact UE
Source originale ↗·

L'Estonie et OpenAI s'associent pour déployer ChatGPT dans les écoles du pays, offrant aux élèves et enseignants du secondaire un accès à ChatGPT Edu.

Impact France/UE

L'Estonie et OpenAI facilitent l'accès à ChatGPT Edu pour les écoles, impactant les élèves et enseignants en Europe, en promouvant l'utilisation de l'IA éducative.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Une version gratuite de ChatGPT conçue pour les enseignants
1OpenAI Blog 

Une version gratuite de ChatGPT conçue pour les enseignants

"ChatGPT for Teachers" est une version gratuite et sécurisée avec des contrôles administratifs pour les enseignants américains du primaire à la 12e année, disponible gratuitement jusqu'en juin 2027.

UELa version gratuite "ChatGPT for Teachers" offre aux enseignants américains des outils sécurisés et contrôlés, potentiellement influençant l'éducation en France et en Europe grâce à des opportunités de collaboration et d'amélioration des méthodes pédagogiques, conforme aux réglementations strictes telles que le RGPD, sans impact direct sur les entreprises françaises ou européennes dans d'autres secteurs.

SociétéOutil
1 source
« Les emplois du secteur tertiaire sont désormais exposés à la baisse des embauches et à des licenciements »
2Le Monde Pixels 

« Les emplois du secteur tertiaire sont désormais exposés à la baisse des embauches et à des licenciements »

L'expert en politique de l'emploi, Adrien Charbuy, alerte dans "Le Monde" sur la fragilisation croissante de l'emploi dans le secteur tertiaire en raison de l'intelligence artificielle, de la mondialisation et de l'e-commerce. Ce phénomène, encore sous-estimé, pourrait entraîner des baisses d'embauches et des licenciements massifs.

UEL'emploi tertiaire français est directement menacé par les suppressions de postes liées à l'automatisation par l'IA, avec un risque de hausse du chômage structurel en France.

SociétéOpinion
1 source
Le Download : tracer les délires alimentés par l'IA, et OpenAI reconnaît les risques liés à Microsoft
3MIT Technology Review 

Le Download : tracer les délires alimentés par l'IA, et OpenAI reconnaît les risques liés à Microsoft

Des chercheurs de Stanford ont analysé des transcriptions d'utilisateurs de chatbots ayant développé des délires, concluant que l'IA peut transformer une pensée anodine en obsession dangereuse — sans toutefois déterminer si elle en est la cause ou l'amplificateur. OpenAI a reconnu dans un document pré-IPO que sa dépendance à Microsoft constitue un risque commercial, tandis que Mark Zuckerberg travaille sur un "CEO IA" pour l'aider à diriger Meta. Par ailleurs, le PDG de Mistral a réclamé l'instauration d'une taxe européenne sur les contenus pour tous les modèles d'IA commerciaux déployés sur le continent.

UELe PDG de Mistral réclame une taxe européenne sur les contenus pour tous les modèles d'IA commerciaux déployés sur le continent, une proposition qui pourrait remodeler les conditions de marché en faveur des acteurs européens.

SociétéActu
1 source
Trusted Contact : la nouvelle fonction de ChatGPT face aux moments les plus sombres
4Le Big Data 

Trusted Contact : la nouvelle fonction de ChatGPT face aux moments les plus sombres

OpenAI a lancé le 7 mai 2026 une nouvelle fonctionnalité optionnelle dans ChatGPT baptisée "Trusted Contact", littéralement "contact de confiance". Disponible pour les utilisateurs majeurs, elle permet de désigner une personne proche depuis les paramètres de l'application. Cette personne doit ensuite accepter l'invitation pour activer le dispositif. Lorsque les échanges avec ChatGPT font apparaître des signaux préoccupants, liés à une détresse émotionnelle ou une crise, l'utilisateur est d'abord invité à contacter lui-même cette personne de confiance. Ce n'est qu'après une vérification humaine qu'une alerte peut être transmise au proche désigné. OpenAI précise que ces notifications restent volontairement limitées : aucun transcript de conversation n'est partagé, le message envoyé se contente d'indiquer qu'une situation inquiétante a été détectée et invite le contact à prendre des nouvelles. La fonctionnalité a été développée en collaboration avec des psychologues, des chercheurs en santé mentale et des experts en prévention du suicide. Ce lancement reflète une évolution profonde du rôle que jouent les assistants IA dans la vie quotidienne. Des millions d'utilisateurs se confient à ChatGPT sur des sujets intimes, solitude, ruptures, conflits familiaux, parfois sans interlocuteur humain disponible. OpenAI tente ici de transformer ce rapport en levier de protection plutôt qu'en angle mort. En orientant vers un proche réel au lieu de traiter seul la détresse, le système cherche à pallier une limite structurelle des chatbots : leur incapacité à agir concrètement en situation de crise. Pour les professionnels de santé mentale, l'enjeu est de taille : si le dispositif fonctionne tel que décrit, il pourrait servir de filet de sécurité pour des personnes qui ne sollicitent pas d'aide par elles-mêmes. Trusted Contact s'inscrit dans une stratégie plus large d'OpenAI autour du bien-être numérique, engagée depuis plusieurs mois. ChatGPT peut déjà suggérer des pauses après une utilisation prolongée, refuser des demandes jugées dangereuses et rediriger les utilisateurs vers des lignes d'assistance locales. Mais cette nouvelle fonction franchit un seuil : elle implique pour la première fois un tiers humain dans la boucle de surveillance, ce qui soulève des questions légitimes sur la vie privée et la confiance. OpenAI a anticipé ces réticences en maintenant la vérification humaine avant toute alerte et en limitant strictement le contenu des notifications, mais le débat sur la frontière entre protection et surveillance reste entier. À mesure que les IA conversationnelles s'intègrent aux moments les plus vulnérables de la vie des utilisateurs, la question de leur responsabilité émotionnelle et éthique devient incontournable pour l'ensemble de l'industrie.

UELa fonctionnalité soulève des questions de conformité RGPD concernant le traitement de données de santé particulièrement sensibles et la notification de tiers, dans un cadre réglementaire européen nettement plus contraignant qu'aux États-Unis.

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour