Nouvelles Features IA : O1 Assistant API et Vision capabilities attendues
Ne manquez pas le Little Dev Day confirmé. Rejoignez le AMA avec l’équipe API juste après la sortie !
Préparez-vous pour l’événement AMA
Si vous ne pouvez pas y assister, vous pouvez poser vos questions à l’avance. Le AMA commencera approximativement le 17 décembre 2024 à 18h30, juste après le live stream de Shipmas. Vous pouvez également suivre @OpenAIDevs sur Twitter pour savoir quand l’événement commencera.
We’re looking forward to your questions, helpful answers, and an all-around great time!
See you there!
Grandes nouvelles concernant le Shipmas
Avec l’intégration de capacités de vision pour O1 (qui sera probablement incluse dans l’API à l’avenir), comment devrions-nous envisager son utilisation pour les cas d’utilisation nécessitant généralement un apprentissage en contexte ? Est-il efficace de fournir au modèle une prompt multi-shot avec chaque exemple ayant les ∼5 images qui seront rencontrées dans le monde réel, ou est-il recommandé d’adopter une stratégie différente ?
Questions sur l’API des Assistants
Y aura-t-il des mises à jour pour l’API des Assistants, en particulier les mises à jour de la Recherche de Fichiers (métadonnées, analyse d’images, etc.) ? Les citations avec des références textuelles exactes manquent toujours. Merci et joyeux Shipmas !
Les modèles d’incorporation puissants
Allons-nous obtenir à nouveau des modèles d’incorporation puissants ? Les incorporations multimodales sont-elles à l’horizon ? Convaincrons-nous l’équipe de sécurité que l’anticipation des réponses du modèle n’est pas la fin de l’humanité ? Obtiendrons-nous un modèle de complétion plus puissant ?
Personnalisation du développeur pour l’outil de recherche de fichiers des Assistants
Pourquoi les résultats du vector store n’obtiennent-ils pas les noms de fichiers pour les fragments (comme ChatGPT), seulement des IDs ? L’utilisateur ou l’organisation pourrait simplement discuter de la source de téléchargement du fichier.
Source : community.openai.com