Google Cloud Next 2025: Nouveaux Développements Remarquables

Google Cloud Next 2025 : Les grandes annonces
Lors du Google Cloud Next 2025, le PDG de Alphabet a évoqué le nouveau modèle de l’arsenal d’IA de l’hyperscaler : Gemini 2.5 Flash, un modèle de raisonnement à faible latence. Aucune période de sortie spécifique n’a été révélée, mais le PDG a déclaré qu’il représente une évolution de son modèle workhorse populaire. Google Cloud a également donné une mise à jour sur Veo 2, un modèle de génération vidéo développé par Google DeepMind, révélant qu’il est désormais “prêt pour la production” dans l’API Gemini. Le modèle peut suivre à la fois des instructions simples et complexes, ainsi que simuler la physique du monde réel dans des vidéos de haute qualité couvrant un large éventail de styles visuels. Les premiers adoptants incluent Wolf Games, qui utilise Veo 2 pour construire des “expériences cinématographiques” pour sa plateforme de jeu d’histoires interactives personnalisées.
Le nouveau matériel de l’Hyperordinateur : Ironwood
L’Hyperordinateur d’IA de Google Cloud est le cheval de bataille derrière presque chaque charge de travail d’IA sur sa plateforme cloud. Le système de supercalculateur intégré propose désormais la dernière itération de sa ligne de matériel personnalisé, les Unités de Traitement Tensoriel (TPUs). Ironwood, la 7ème génération de TPU, offre 5x plus de capacité de calcul maximale et 6x plus de capacité mémoire à bande passante élevée (HBM) par rapport à la génération précédente, Trillium.
Les nouvelles TPUs d’Ironwood se déclinent en deux configurations : 256 puces ou 9 216 puces, chacune disponible sous la forme d’une seule échelle, avec un pod plus grand offrant un impressionnant 42.5 exaFLOPS de calcul. Le matériel Hyperordinateur est conçu pour être 2x plus économe en énergie par rapport à Trillium tout en offrant plus de valeur par watt. Les développeurs peuvent désormais accéder à Ironwood grâce à la pile optimisée de Google Cloud à travers PyTorch et JAX.
Mises à jour sur les réseaux : Cloud WAN, réductions des coûts des services Gen AI
Le réseautage lors du Next 2025 était centré sur la mise à l’échelle pour l’IA et l’amélioration des performances inter-cloud. Un nouveau Cloud Interconnect de 400G et Cross-Cloud Interconnect, à venir plus tard cette année, promet 4x la bande passante pour un transfert plus rapide des données et un entraînement multi-cloud des modèles. Google Cloud a également introduit le support des clusters IA jusqu’à 30 000 GPU dans une configuration non bloquante, désormais disponible en prévisualisation, visant à surperformer l’apprentissage et le traitement des technologies d’IA. Les coûts de service de l’IA générative ont été réduits jusqu’à 30 %, avec des améliorations de débit jusqu’à 40 %, grâce à des innovations telles que la passerelle GKE Inference. Google a également lancé Cloud WAN, un réseau d’entreprise entièrement géré qui ouvre son infrastructure réseau mondiale pour le réseautage étendu. Conçu pour simplifier et sécuriser les architectures WAN d’entreprise, il offre jusqu’à 40 % de performances plus rapides par rapport à Internet. Au bord, Google a annoncé une programmabilité et des performances améliorées, avec les extensions de services maintenant disponibles pour Cloud Load Balancing. Le support de Cloud CDN est en route, permettant aux développeurs de personnaliser le comportement des applications sur le bord en utilisant des normes ouvertes comme WebAssembly.
Mises à jour sur la sécurité : Sécurité unifiée Google, agents Gemini
L’infrastructure des entreprises devient de plus en plus complexe, élargissant la surface d’attaque et surchargeant les équipes de sécurité cloisonnées. La réponse de Google ? Google Unified Security (GUS), qui est désormais disponible en général. GUS est conçu pour unifier le renseignement sur les menaces, les opérations de sécurité, la sécurité cloud et la navigation sécurisée dans une seule plateforme alimentée par l’IA, intégrant l’expertise de la filiale Mandiant de l’entreprise pour offrir une protection plus évolutive et efficace. La nouvelle solution de sécurité crée un tissu de données de sécurité consultable sur toute la surface d’attaque, offrant une visibilité, une détection et une réponse en temps réel sur les réseaux, les terminaux, le cloud et les applications. Les signaux de sécurité sont ensuite automatiquement enrichis avec l’intelligence des menaces de Google, et chaque flux de travail est rationalisé grâce à ses modèles phares d’IA Gemini. Google a également introduit des agents de sécurité alimentés par Gemini. Parmi les nouveaux outils d’IA agentic figure un agent de tri d’alerte dans les opérations de sécurité de Google, qui examine automatiquement les alertes, compile des preuves et émet des verdicts. Un nouvel agent d’analyse de logiciels malveillants dans Threat Intelligence de Google évalue le code potentiellement malveillant, exécute des scripts de déobfuscation et rend des verdicts avec une explicabilité complète. Les deux sont en prévisualisation au second trimestre.
Partenariats : Collaboration avec Nvidia, Juniper, SAP & autres
Il ne serait pas un Google Cloud Next sans une série de partenariats conclus ou étendus, et cette année ne fait pas exception. L’hyperscaler a étendu son partenariat avec Lumen pour améliorer les solutions cloud et réseau. La collaboration se concentrera sur l’intégration de Cloud WAN avec les services de Lumen, fournissant un accès fibre direct aux régions de Google Cloud et offrant des connexions sécurisées et totalement isolées avec Google Distributed Cloud. Google Cloud s’est également associé à Nvidia pour apporter sa famille de modèles d’IA Gemini aux systèmes Blackwell du fabricant de puces. L’initiative permet aux modèles Gemini d’être disponibles sur site, permettant aux clients de sécuriser des informations sensibles, telles que les dossiers des patients, les transactions financières et les informations gouvernementales classifiées.
Source : www.capacitymedia.com