Les modèles de raisonnement Llama Nemotron de Nvidia révolutionnent l’IA

Les nouveaux modèles de raisonnement de Nvidia améliorent les performances des entreprises
Nvidia a récemment annoncé une transition majeure vers le raisonnement qui a considérablement amélioré les performances de ses modèles Llama Nemotron jusqu’à 20% par rapport au modèle de base. La vitesse d’inférence a également été optimisée jusqu’à 5 fois par rapport aux autres modèles de raisonnement ouverts de premier plan, a-t-elle affirmé. Ces améliorations des performances d’inférence rendent la famille de modèles capable de gérer des tâches de raisonnement plus complexes, ce qui réduit à son tour les coûts opérationnels pour les entreprises.”
Les tailles variées des microservices Nvidia NIM facilitent le déploiement des modèles Llama Nemotron
La famille de modèles Llama Nemotron est disponible en tant que microservices Nvidia NIM de taille Nano, Super et Ultra, qui permettent aux organisations de déployer les modèles à l’échelle qui convient à leurs besoins. Les microservices Nano sont optimisés pour le déploiement sur des PC et des appareils edge. Les microservices Super sont conçus pour un débit élevé sur un seul GPU. Les microservices Ultra sont destinés aux serveurs multi-GPU et aux applications à l’échelle des centres de données.
Les partenaires étendent le raisonnement à l’écosystème Llama
Les partenaires de Nvidia se lancent également dans l’action. Microsoft élargit son catalogue de modèles Azure AI Foundry avec les modèles de raisonnement Llama Nemotron et les microservices NIM pour améliorer des services tels que le service Azure AI Agent pour Microsoft 365. SAP les utilise pour ses solutions SAP Business AI et son copilote Joule. Il utilise également les microservices NeMo pour améliorer la précision de l’achèvement du code des modèles de langage de programmation SAP ABAP. ServiceNow a déclaré que les modèles Llama Nemotron fourniront à ses agents IA des performances et une précision accrues.”
Source : www.cio.com