Nvidia lance Nemotron-4 340B pour améliorer l’entraînement des modèles de langage
Avec le développement des préoccupations selon lesquelles les grands modèles de langage (LLM) manquent de données d’entraînement de haute qualité, Nvidia a lancé Nemotron-4 340B, une famille de modèles open conçus pour générer des données synthétiques pour l’entraînement des LLM dans diverses industries.
Génération de données synthétiques pour les LLM
Les LLM sont des modèles d’intelligence artificielle (IA) qui peuvent comprendre et générer un texte semblable à celui des humains, basé sur de vastes quantités de données d’entraînement. La rareté des données d’entraînement de haute qualité est devenue un défi majeur pour les organisations cherchant à exploiter la puissance des LLM. Nemotron-4 340B vise à résoudre ce problème en fournissant aux développeurs un moyen gratuit et évolutif de générer des données synthétiques en utilisant des modèles de base, d’instruction et de récompense, travaillant ensemble pour créer un pipeline qui imite les caractéristiques des données du monde réel.
Intégration optimisée avec les outils de Nvidia
Nvidia a déclaré avoir optimisé les modèles Nemotron-4 340B pour s’intégrer à ses outils open source, NeMo et TensorRT-LLM, facilitant l’entraînement et le déploiement efficaces des modèles. NeMo est une boîte à outils pour la construction et l’entraînement de réseaux neuronaux, tandis que TensorRT-LLM est un moteur d’exécution pour l’optimisation et le déploiement de LLM. Les développeurs peuvent accéder aux modèles via Hugging Face, une plateforme populaire pour le partage de modèles d’IA, et pourront bientôt les utiliser via un microservice convivial sur le site web de Nvidia.
Options de personnalisation et de réglage fin
Les chercheurs ont également la possibilité de personnaliser le modèle de base Nemotron-4 340B en utilisant leurs propres données et l’ensemble de données HelpSteer2 fourni, ce qui leur permet de créer des modèles d’instruction ou de récompense adaptés à leurs besoins spécifiques. Le modèle de base, entraîné sur 9 billions de jetons, peut être affiné en utilisant le cadre NeMo pour s’adapter à divers cas d’utilisation et domaines. L’affinage fait référence au processus d’ajustement des paramètres d’un modèle pré-entraîné en utilisant un ensemble de données plus petit spécifique à une tâche ou un domaine particulier, permettant au modèle de mieux performer sur cette tâche.
Source : www.pymnts.com