7 novembre 2024

Krusell France

Ta dose d'actu digital !

Nvidia lance Nemotron-4 340B pour améliorer l’entraînement des modèles de langage

Nvidia Unveils Open Model That Creates LLM Training Data
Rate this post

Avec le développement des préoccupations selon lesquelles les grands modèles de langage (LLM) manquent de données d’entraînement de haute qualité, Nvidia a lancé Nemotron-4 340B, une famille de modèles open conçus pour générer des données synthétiques pour l’entraînement des LLM dans diverses industries.

Génération de données synthétiques pour les LLM

Les LLM sont des modèles d’intelligence artificielle (IA) qui peuvent comprendre et générer un texte semblable à celui des humains, basé sur de vastes quantités de données d’entraînement. La rareté des données d’entraînement de haute qualité est devenue un défi majeur pour les organisations cherchant à exploiter la puissance des LLM. Nemotron-4 340B vise à résoudre ce problème en fournissant aux développeurs un moyen gratuit et évolutif de générer des données synthétiques en utilisant des modèles de base, d’instruction et de récompense, travaillant ensemble pour créer un pipeline qui imite les caractéristiques des données du monde réel.

Intégration optimisée avec les outils de Nvidia

Nvidia a déclaré avoir optimisé les modèles Nemotron-4 340B pour s’intégrer à ses outils open source, NeMo et TensorRT-LLM, facilitant l’entraînement et le déploiement efficaces des modèles. NeMo est une boîte à outils pour la construction et l’entraînement de réseaux neuronaux, tandis que TensorRT-LLM est un moteur d’exécution pour l’optimisation et le déploiement de LLM. Les développeurs peuvent accéder aux modèles via Hugging Face, une plateforme populaire pour le partage de modèles d’IA, et pourront bientôt les utiliser via un microservice convivial sur le site web de Nvidia.

Options de personnalisation et de réglage fin

Les chercheurs ont également la possibilité de personnaliser le modèle de base Nemotron-4 340B en utilisant leurs propres données et l’ensemble de données HelpSteer2 fourni, ce qui leur permet de créer des modèles d’instruction ou de récompense adaptés à leurs besoins spécifiques. Le modèle de base, entraîné sur 9 billions de jetons, peut être affiné en utilisant le cadre NeMo pour s’adapter à divers cas d’utilisation et domaines. L’affinage fait référence au processus d’ajustement des paramètres d’un modèle pré-entraîné en utilisant un ensemble de données plus petit spécifique à une tâche ou un domaine particulier, permettant au modèle de mieux performer sur cette tâche.

Source : www.pymnts.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications