16 octobre 2024

Krusell France

Ta dose d'actu digital !

Découvrez la nouvelle génération de l’IA grâce à Azure OpenAI

How to Evaluate & Upgrade Model Versions in the Azure OpenAI Service
Rate this post

Upgradez vos déploiements Azure AI vers les dernières versions des modèles IA générative avec facilité grâce à notre suite d’outils d’évaluation Azure AI.

Notification des futurs retraits de modèles

En tant que client Azure OpenAI, vous avez accès aux modèles d’intelligence artificielle les plus avancés développés par OpenAI. Ces modèles évoluent constamment, vous permettant de bénéficier des dernières innovations et améliorations, comme une vitesse accrue, des systèmes de sécurité améliorés et des coûts réduits. Cependant, cela signifie également que les anciennes versions de modèles seront éventuellement obsolètes et retirées.

Notification des clients

Nous informons les clients des retraits à venir bien à l’avance, à partir du lancement du modèle :

  • Date de retrait “pas avant” programmée au lancement du modèle (généralement six mois à un an).
  • Avis aux clients avec des déploiements actifs au moins 60 jours avant le retrait du modèle pour les modèles disponibles en général.
  • Pour les versions de modèles de prévisualisation, pour lesquelles il est déconseillé de les utiliser dans des applications de production, nous offrons au moins 30 jours de préavis.

Vous pouvez en apprendre plus sur notre processus, qui est notifié, et sur les détails des dépréciations et des retraits de modèles à venir ici : Azure OpenAI Service model retirements – Azure OpenAI | Microsoft Learn.

Évaluation des modèles avec Azure AI Studio

Azure AI Studio Evaluations vous permet d’évaluer les dernières versions de modèles dans le service Azure OpenAI. Les évaluations offrent à la fois une expérience orientée code et conviviale pour comparer les réponses aux incitations entre différentes versions de modèles et observer les différences en termes de qualité, d’exactitude et de cohérence. Vous pouvez également utiliser les évaluations pour tester vos incitations et applications avec les nouvelles versions de modèles à tout moment de votre cycle LLMOps, en apportant les ajustements et optimisations nécessaires.

Le package SDK Azure’s Prompt Flow Evaluations est un outil puissant et flexible pour évaluer les réponses de votre application d’IA générative. Nous vous guiderons à travers les étapes pour l’utiliser afin d’évaluer votre propre ensemble d’incitations par rapport aux réponses de différents modèles de base. Ces modèles peuvent être déployés via Azure ou en tant que modèles externes déployés via des endpoints MaaS (Model as a Service).

Commencez les évaluations

Premièrement, installez les packages nécessaires :

pip install promptflow-evals
pip install promptflow-azure

Ensuite, fournissez les détails de votre projet Azure AI afin que les traces, les journaux et les résultats d’évaluation soient envoyés dans votre projet pour être consultés sur la page Azure AI Studio Evaluations :

azure_ai_project = { 
    "subscription_id": "00000000000", 
    "resource_group_name": "000resourcegroup", 
    "project_name": "000000000" 
}

En fonction des modèles que vous souhaitez évaluer vos incitations, fournissez les endpoints que vous souhaitez utiliser. Dans notre exemple, une variable ‘env_var’ est créée dans le code pour maintenir les endpoints des modèles ciblés et leurs clés d’authentification :

Source : techcommunity.microsoft.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications