Google lance de nouvelles versions de son modèle d’IA phare Gemini 2.0

Aperçu des dernières avancées en IA de Google
Google lance une série de nouveaux modèles d’IA
Google a lancé une série d’activités en IA suite aux récentes annonces de l’IA chinoise. La société Alphabet a dévoilé une version expérimentale d’un nouveau modèle phare d’IA, Gemini 2.0 Pro. Son modèle de codage de premier plan et de questions complexes est désormais disponible dans Google AI Studio, Vertex AI et l’application Gemini Advanced. La société a également rendu son modèle polyvalent “workhorse”, Gemini 2.0 Flash, disponible en version générale via l’API de Gemini dans AI Studio et Vertex. Ceci fait suite à l’annonce de la semaine dernière selon laquelle Gemini 2.0 Flash alimente l’application Gemini pour ordinateur de bureau et mobile.
Des modèles plus accessibles à venir
Le modèle “le plus économique à ce jour” de Google, Gemini 2.0 Flash-Lite, est passé en version de prévisualisation publique et disponible pour des tests dans Google AI Studio et Vertex AI. Enfin, le modèle expérimental Gemini 2.0 Flash Thinking arrive pour les utilisateurs de l’application Gemini sur ordinateur, Android et iOS.
Google mise sur la multimodalité et l’accessibilité
“Tous ces modèles proposeront une entrée multimodale avec une sortie textuelle lors de leur lancement, avec plus de modalités prêtes pour une disponibilité générale dans les mois à venir”, a déclaré Google dans un article de blog, renvoyant les parties intéressées au blog Google for Developers pour des informations sur les prix.
TechCrunch rapporte que “Google lance ces modèles d’IA alors que le monde de la technologie reste fixé sur les modèles d’IA de raisonnement moins chers proposés par la startup chinoise DeepSeek”, qui propose une technologie accessible et open source via l’API de la société à un prix attractif.
Des perspectives prometteuses pour l’avenir de la recherche
Lors de l’appel aux résultats du 4e trimestre d’Alphabet, le PDG de Google et d’Alphabet, Sundar Pichai, a prédit que “2025 sera l’une des plus grandes années pour l’innovation en matière de recherche”, car “les progrès de Gemini 2.0 en multimodalité et en utilisation d’outils natifs nous permettent de construire de nouveaux agents d’IA qui nous rapprochent de notre vision d’un assistant universel.”
Avec cette nouvelle série d’annonces, Google met en avant ses forces multimodales, souligne VentureBeat, notant que ni DeepSeek-R1 ni le nouveau OpenAI o3-mini “ne peuvent accepter d’entrées multimodales – c’est-à-dire des images et des téléchargements de fichiers ou des pièces jointes.”
R1 repose sur une technologie de plus de 60 ans, la reconnaissance optique de caractères (OCR) qui extrait du texte sans “comprendre ou analyser les autres caractéristiques contenues”, souligne VentureBeat, ajoutant que tous deux sont des modèles de raisonnement par opposition aux “GPTs comme la série Gemini 2.0 Pro.”
Le modèle de raisonnement Gemini 2.0 Flash Thinking de Google “peut être connecté à Google Maps, YouTube et Google Search, permettant une toute nouvelle gamme de recherches et d’interactions alimentées par l’IA qui ne peuvent tout simplement pas être égalées” par DeepSeek et OpenAI qui n’ont pas de telles activités auxiliaires.
Source : www.etcentric.org