Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Google vise ouvertement le réseau de centres de données ultra-gros « Vergo » axé sur l’« IA proxy »… Renforcer la capacité de gestion de la latence et des pannes
Google a annoncé un réseau de centres de données ultra-grands modèles et une infrastructure cloud interopérable pour l’ère de l’‘Intelligence Artificielle Agentique (Agentic AI)’. Alors que l’environnement où l’IA appelle des outils externes en millisecondes devient de plus en plus courant, la compétition pour une infrastructure réduisant la latence et traitant de manière stable des calculs à grande échelle s’intensifie.
Le 24, Google a publié son tout nouveau système de réseau d’infrastructure IA, ‘Virgo Network’. Ce système vise à améliorer la vitesse de communication globale entre les clusters d’accélérateurs, ainsi qu’entre la mémoire, le calcul et les ressources de stockage à l’intérieur même des centres de données.
L’élément central est une structure de réseau ‘aplatie’. Cette méthode réduit le nombre de niveaux traversés lors du transfert de données pour diminuer les goulets d’étranglement. Selon Google, le réseau Virgo peut connecter jusqu’à 134 000 puces, y compris la 8e génération de processeurs TPU 8t utilisés pour la formation. Sa bande passante bidirectionnelle peut atteindre 47 péta-bits par seconde (Pbps). La société indique qu’elle a augmenté la bande passante par accélérateur de plus de 4 fois par rapport à la génération précédente.
Ce qui est notable dans cette annonce, c’est qu’au-delà de la simple compétition de vitesse, une importance totale est donnée à la ‘résilience’. Dans des clusters IA de très grande taille, les pannes, la latence et la baisse de vitesse de certains appareils sont presque inévitables. Google affirme qu’ils ont combiné une fonction de ‘visibilité’ pour observer finement l’état global du réseau avec un logiciel de contournement/récupération automatique. Elle inclut également l’utilisation d’un plan d’échange indépendant pour garantir que, même en cas de latence ou de panne réseau, le débit global ne fluctue pas brutalement.
Google décrit le Virgo Network comme n’étant pas une simple extension des centres de données existants, mais comme un produit d’infrastructure indépendant, conçu selon le principe de ‘traiter tout le campus comme un supercalculateur’. La société prône la surveillance de l’état du système en moins d’un milliseconde pour optimiser la gestion des congestions et des buffers en temps réel, tant au niveau matériel que logiciel. Cela est particulièrement crucial dans des environnements où l’‘Agentic AI’ doit simultanément gérer l’appel d’outils, le raisonnement et la récupération d’informations pour la génération augmentée (RAG).
Lancement simultané d’une couche de connectivité et de sécurité transcendant les frontières du cloud
En plus du réseau de centres de données, Google a également lancé une couche de connectivité cloud et de sécurité pour les charges de travail d’‘Agentic AI’. La société résume cette mise à jour en quatre piliers : ‘Calcul Élastique’, ‘Connectivité Cloud Sécurisée’, ‘Couche de Données Unifiée’ et ‘Souveraineté Numérique’.
Premièrement, ‘Calcul Élastique’ est une architecture conçue pour gérer plus efficacement la variabilité des demandes des agents IA. Google explique qu’en améliorant l’accessibilité des CPU, ils permettent une réponse plus rapide et plus économique à ces demandes. En particulier, ils proposent des ressources CPU optimisées pour des tâches telles que le raisonnement, l’orchestration d’agents et la récupération augmentée, pour compléter la insuffisance des GPU.
Pour cela, Google a appliqué des CPU C4N et M4N sur des machines virtuelles (VM) basées sur Google Compute Engine et Google Kubernetes Service. Google indique que ce système peut traiter jusqu’à 95 millions de paquets par seconde, soit jusqu’à 40 % plus vite que les principaux fournisseurs de cloud à grande échelle.
Dans le domaine de la connectivité cloud sécurisée, la ‘Passerelle d’Agent’ occupe une position centrale. Ce contrôleur surveille l’accès des agents IA et contrôle fondamentalement les protocoles comme le protocole de contexte de modèle (MCP) et le protocole entre agents (A2A). Il est précisé que cette passerelle garantit, dans un environnement multi-cloud, la visibilité et la protection des flux de données en transit entre différents réseaux.
‘L’IA vers le lieu où se trouvent les données’ plutôt que ‘déplacer les données’
La couche de données unifiée se concentre sur la capacité de l’IA à comprendre et exploiter directement les données dispersées dans plusieurs dépôts d’entreprise. Google indique que la ‘Stockage Intelligent’ injecte des métadonnées dans les objets de données, transformant ainsi les ‘données statiques’ traditionnelles en actifs de connaissance lisibles par l’IA.
Une fois cette architecture en place, elle permet d’appliquer des recherches sémantiques sur divers formats d’informations comme les tableurs, documents, PDF, images, et d’automatiser l’annotation et l’extraction d’insights. Cette approche vise à réduire la phénomène d’‘îlots’ où les données sont confinées dans des dépôts spécifiques, facilitant ainsi la recherche rapide d’informations par l’agent IA.
Un ‘Répertoire de Connaissances’ publié en graphique relie les connaissances internes de l’entreprise, aidant l’agent IA à mieux comprendre les processus métier et le contexte. Google insiste sur le fait qu’avec cette méthode, il n’est pas nécessaire de déplacer les données pour optimiser l’apprentissage et la réponse de l’IA. En d’autres termes, il ne s’agit pas de transférer les données vers un emplacement central, mais de faire fonctionner le modèle IA dans l’environnement ‘privé’ où résident les données.
Ce lancement indique que la compétition dans l’IA se déplace rapidement du seul domaine de la performance des modèles vers l’infrastructure réseau, sécurité et gestion des données qui les supportent. En particulier, avec l’introduction officielle de l’‘Agentic AI’ dans les entreprises, la faible latence, la haute résilience et la gestion multi-cloud pourraient devenir des différenciateurs clés. Cette initiative de Google est perçue comme un signal que la concurrence entre grandes entreprises technologiques pour dominer l’infrastructure IA s’intensifie.