Google déploie un modèle d’incrustation de texte révolutionnaire : Gemini Embedding

Google déploie un nouveau modèle d’encodage de texte : le Gemini Embedding
Google lance un nouveau modèle d’encodage de texte, le Gemini Embedding (text-embedding-large-exp-03-07), qui exploite son framework d’IA Gemini pour améliorer les capacités de recherche, de récupération et de classification. Le modèle, actuellement à l’essai, surpasse son prédécesseur text-embedding-004 en matière de performance et de classement, se démarquant notamment sur le classement multilingue Massive Text Embedding Benchmark (MTEB).
Points clés :
Prise en charge d’une longueur d’entrée de 8K jetons et d’une sortie dimensionnelle de 3K, permettant des morceaux de texte plus importants et des encodages plus riches.
Maintenant disponible dans plus de 100 langues, doublant la couverture précédente.
Disponible via l’API Gemini avec une capacité limitée, une version complète étant prévue ultérieurement.
Un modèle d’encodage plus performant
Les encodages de texte sont utilisés dans les applications d’IA pour représenter des mots, des phrases et des phrases sous forme de vecteurs numériques, permettant aux modèles de comprendre et de comparer efficacement les données textuelles. Les modèles d’encodage alimentent la recherche sémantique, les moteurs de recommandation, la génération améliorée par la récupération (RAG) et les tâches de classification en permettant aux systèmes d’IA de trouver des concepts connexes plutôt que de s’appuyer sur des correspondances de mots clés exactes.
Google affirme que le Gemini Embedding offre :
Un score moyen de 68,32 sur le classement multilingue MTEB, surclassant les concurrents de 5,81 points.
Des limites d’entrée élargies – prenant en charge 8 000 jetons, plus que doublant la capacité précédente, permettant des encodages de texte et de code plus importants.
Des sorties à dimensions plus élevées, passant de modèles précédents à 3 000 dimensions, donnant des représentations textuelles plus riches.
L’apprentissage de représentation Matryoshka (MRL), une technique permettant aux utilisateurs de tronquer les encodages pour s’adapter aux contraintes de stockage tout en maintenant la précision.
Accent sur le support multilingue
Le Gemini Embedding est conçu pour une applicabilité étendue, traitant des domaines tels que la finance, la science, le juridique et la recherche en entreprise sans nécessiter d’ajustement spécifique à la tâche. Il prend également en charge plus de 100 langues, doublant la portée précédente des modèles d’encodage de texte de Google. Cela le place au même niveau que les offres multilingues d’OpenAI et offre aux développeurs plus de flexibilité pour des applications mondiales.
Une version expérimentale avec des mises à jour à venir
Alors que le Gemini Embedding est disponible dès aujourd’hui via l’API Gemini, Google a clairement indiqué que le modèle est dans une phase expérimentale, ce qui signifie qu’il est disponible avec une capacité limitée et pourrait subir des modifications avant sa sortie complète. Les développeurs peuvent commencer à l’intégrer dès maintenant, mais Google prévoit de le peaufiner et de l’optimiser avant de le rendre généralement disponible dans les mois à venir.
La démarche de Google souligne l’importance croissante des modèles d’encodage dans les flux de travail d’IA, où la réduction de la latence, l’amélioration de l’efficacité et l’extension de la couverture linguistique sont des priorités clés pour les développeurs. Avec de solides performances initiales, le Gemini Embedding pourrait constituer une avancée significative pour rendre les systèmes de récupération et de classification alimentés par l’IA encore plus efficaces.
Source : www.maginative.com