Aller au contenu principal
Développer la maîtrise de l'IA à grande échelle avec ChatGPT Enterprise
RechercheOpenAI Blog21sem

Développer la maîtrise de l'IA à grande échelle avec ChatGPT Enterprise

Résumé IASource uniqueImpact UE
Source originale ↗·

Commonwealth Bank of Australia collabore avec OpenAI pour déployer ChatGPT Enterprise auprès de 50 000 employés, visant à développer une compréhension de l'IA à grande échelle pour améliorer le service client et la réponse aux fraudes.

Impact France/UE

Aucun impact direct — L'accord entre la Commonwealth Bank of Australia et OpenAI concerne uniquement les 50 000 employés australiens et n'a pas d'implications immédiates pour des entreprises françaises ou européennes spécifiques, ni pour le secteur européen de l'IA, sans référence à des collaborations ou des déploiements similaires dans l'UE.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les propriétés de mise à l'échelle des métriques aval dans l'entraînement des grands modèles de langage
1Apple Machine Learning 

Les propriétés de mise à l'échelle des métriques aval dans l'entraînement des grands modèles de langage

Une équipe de chercheurs vient de publier un article remettant en question une idée bien établie dans le domaine des grands modèles de langage (LLM) : la difficulté à prédire les performances réelles des modèles à partir de leur budget d'entraînement. Jusqu'ici, les lois d'échelle (scaling laws) se concentraient principalement sur des métriques intermédiaires comme la perte lors du pré-entraînement (pretraining loss), considérées comme des proxies fiables mais éloignées des usages concrets. Les chercheurs proposent un cadre direct pour modéliser comment les performances sur des benchmarks évoluent en fonction du budget de calcul alloué à l'entraînement. Le résultat central est qu'en maintenant un ratio fixe entre le nombre de tokens et le nombre de paramètres, une simple loi de puissance (power law) suffit à décrire avec précision l'évolution de la précision logarithmique sur plusieurs tâches de référence populaires. Plus significatif encore, cette approche directe extrapole mieux que la procédure en deux étapes proposée précédemment dans la littérature, ce qui ouvre la voie à des prédictions de performances plus fiables avant même d'entraîner un modèle de grande taille. Ce travail s'inscrit dans un effort plus large de l'industrie pour optimiser les coûts d'entraînement, qui atteignent des dizaines à centaines de millions de dollars pour les modèles frontier. Pouvoir anticiper directement les performances sur des tâches concrètes — plutôt que sur des métriques abstraites — permettrait aux laboratoires comme OpenAI, Google DeepMind ou Anthropic de mieux planifier leurs investissements en calcul et d'identifier plus tôt les architectures prometteuses.

RecherchePaper
1 source
Les LLM peuvent révéler l'identité de utilisateurs pseudonymes à grande échelle avec une précision surprenante
2Ars Technica AI 

Les LLM peuvent révéler l'identité de utilisateurs pseudonymes à grande échelle avec une précision surprenante

Les modèles de grande langue (LLMs) peuvent désormais démasquer les utilisateurs pseudonymes à grande échelle avec une précision surprenante, selon une étude récente. Les chercheurs ont démontré que des algorithmes peuvent associer des individus à des comptes ou des publications sur plusieurs plateformes sociales, atteignant un taux de réussite de 68% et une précision de 90%. Cette avancée menace la pseudonymité, un moyen de protection de la vie privée utilisé par de nombreuses personnes pour participer à des discussions publiques sensibles tout en minimisant la possibilité d'être identifiées, mais qui expose maintenant ces utilisateurs à des risques comme le doxxing, le harcèlement et la création de profils marketing détaillés.

UECette capacité à désanonymiser les utilisateurs à grande échelle constitue une menace directe pour les droits des citoyens européens protégés par le RGPD, notamment le droit à la vie privée et à la pseudonymité en ligne, et pourrait contraindre les autorités de protection des données comme la CNIL à encadrer l'utilisation de tels modèles.

RecherchePaper
1 source
3The Decoder 

OpenAI transforme la compression de modèle en chasse aux talents avec son défi « Parameter Golf » à 16 Mo

OpenAI lance le défi "Parameter Golf" : créer le meilleur modèle de langage possible en seulement 16 Mo. La compétition vise à repousser les limites de la compression de modèles, tout en servant de vivier pour recruter des talents parmi les chercheurs participants.

RechercheActu
1 source
Présentation de la recherche d'achat dans ChatGPT
4OpenAI Blog 

Présentation de la recherche d'achat dans ChatGPT

ChatGPT intègre désormais une fonction de recherche shopping permettant d'explorer, comparer et découvrir des produits grâce à des guides d'achat personnalisés. Cette fonction simplifie les prises de décision en offrant des recommandations adaptées aux besoins des utilisateurs.

UEL'intégration d'une fonction shopping dans ChatGPT représente une menace concurrentielle pour les acteurs européens du e-commerce et du comparateur de prix, qui risquent de perdre du trafic au profit d'OpenAI.

RechercheOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour