Aller au contenu principal
Notre approche des litiges liés à la santé mentale
ÉthiqueOpenAI Blog23sem

Notre approche des litiges liés à la santé mentale

Résumé IASource uniqueImpact UE
Source originale ↗·

Nous partageons notre approche pour gérer les litiges liés à la santé mentale avec soin, transparence et respect, tout en renforçant la sécurité et le soutien dans ChatGPT. Cette démarche vise à protéger les utilisateurs tout en améliorant l'expérience globale de l'outil.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Mise à jour sur notre travail lié à la santé mentale
1OpenAI Blog 

Mise à jour sur notre travail lié à la santé mentale

OpenAI partage des mises à jour sur ses initiatives en matière de sécurité mentale, notamment des contrôles parentaux, des contacts de confiance, un détecteur de détresse amélioré, ainsi que des développements juridiques récents. Ces mesures visent à renforcer la protection des utilisateurs, en particulier les mineurs, face aux risques liés à l'utilisation des modèles d'intelligence artificielle.

UECes mesures de protection des mineurs et de détection de détresse mises en place par OpenAI pourraient anticiper les exigences de l'AI Act européen, qui impose des garanties renforcées pour les systèmes d'IA à risque élevé interagissant avec des populations vulnérables.

RégulationActu
1 source
Mise à jour de notre spécification de modèle avec des protections pour les adolescents
2OpenAI Blog 

Mise à jour de notre spécification de modèle avec des protections pour les adolescents

OpenAI met à jour ses spécifications du modèle avec de nouveaux principes destinés aux moins de 18 ans, visant à garantir un accompagnement sûr et adapté à l'âge, fondé sur la science du développement. Cette mise à jour renforce les mesures de protection, précise le comportement attendu du modèle dans les situations à risque élevé et s'appuie sur les efforts plus larges d'OpenAI pour améliorer la sécurité des adolescents sur ChatGPT.

ÉthiqueActu
1 source
Renforcer notre écosystème de sécurité grâce à des tests externes
3OpenAI Blog 

Renforcer notre écosystème de sécurité grâce à des tests externes

OpenAI collabore avec des experts indépendants pour évaluer les systèmes d'IA de pointe, renforçant ainsi la sécurité, validant les mesures de protection et améliorant la transparence dans l'analyse des capacités et des risques des modèles. Cette approche externe permet d'assurer une évaluation rigoureuse et objective des systèmes d'IA.

ÉthiqueActu
1 source
Le mouvement de bien-être animal de la Bay Area cherche à recruter l'IA
4MIT Technology Review 

Le mouvement de bien-être animal de la Bay Area cherche à recruter l'IA

En février à San Francisco, des défenseurs du bien-être animal et des chercheurs en IA se sont réunis lors d'un sommet organisé par Sentient Futures, fondé par Constance Li, pour explorer comment l'IA pourrait transformer la protection animale. Les participants, convaincus que l'AGI est imminente, estiment qu'il est crucial de former les systèmes d'IA à valoriser la vie animale, car ces systèmes pourraient bientôt prendre la majorité des décisions importantes. Ce mouvement, étroitement lié à l'altruisme efficace, mise sur des solutions à grande échelle comme la viande cultivée en laboratoire plutôt que sur des actions locales.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour