## NVIDIA Rubin plateforme officielle : coût de l'inférence réduit de 10 fois, GPU réduit de 4 fois, livraison prévue pour la seconde moitié de 2026
NVIDIA a officiellement annoncé lors du CES 2025 la prochaine génération de ses puces AI, la plateforme Rubin, poursuivant ainsi sa tradition d'itérations annuelles. Selon une annonce en direct du CEO Jensen Huang, les six principaux chips de Rubin sont revenus de l'usine de fabrication et ont passé avec succès des tests clés, confirmant leur déploiement prévu. Cela signifie que NVIDIA maintient sa position de leader technologique dans le domaine des accélérateurs AI, tout en répondant aux préoccupations de Wall Street concernant la pression concurrentielle et la pérennité de ses investissements en AI.
### Performance en forte hausse, coûts significativement réduits
En ce qui concerne le prix de Rubin, bien que NVIDIA n'ait pas encore publié de chiffres précis, son rapport coût-efficacité s'est considérablement amélioré. Par rapport à la plateforme Blackwell précédente, Rubin offre une amélioration de 3,5 fois des performances d'entraînement et 5 fois pour l'inférence. Plus impressionnant encore, Rubin peut réduire le coût de génération de tokens lors de l'inférence de 10 fois — ce qui représente une réduction majeure des coûts opérationnels pour les entreprises dépendant de modèles de grande taille.
De plus, Rubin réduit le nombre de GPU nécessaires pour entraîner un modèle expert hybride(MoE) de 4 fois. Cela signifie que les entreprises peuvent atteindre leurs objectifs de performance avec moins de matériel, améliorant directement le retour sur investissement des achats.
### Six piliers d'innovation technologique
La plateforme Rubin intègre cinq technologies révolutionnaires. Parmi elles, le tout nouveau CPU Vera utilise 88 cœurs Olympus personnalisés, basé sur l'architecture Armv9.2, avec des performances par cœur deux fois supérieures à celles des solutions concurrentes. Ce CPU est spécialement optimisé pour l'inférence d'agents AI et constitue actuellement le processeur le plus efficace en termes d'énergie dans les usines AI à grande échelle.
Du côté GPU, la troisième génération de moteur Transformer offre une capacité de calcul de 50 pétaflops NVFP4. La bande passante d’un seul GPU atteint 3,6 TB/s, tandis que la configuration complète Vera Rubin NVL72 atteint 260 TB/s — une capacité de bande passante suffisante pour l'entraînement et l'inférence de modèles à grande échelle.
La plateforme intègre également un moteur de calcul confidentiel de troisième génération et un moteur RAS( de deuxième génération pour la fiabilité, la disponibilité et la maintenabilité), couvrant l'ensemble du stack CPU, GPU et NVLink, avec des fonctionnalités de surveillance en temps réel, de tolérance aux fautes et de maintenance proactive. Le rack modulaire permet un montage et une maintenance 18 fois plus rapides que Blackwell.
### Nouveaux choix pour les fournisseurs de cloud et les laboratoires AI
NVIDIA a annoncé que plusieurs entreprises, y compris les principaux fournisseurs d'infrastructures cloud, déploieront leurs premières instances Rubin dans la seconde moitié de 2026. Ces fournisseurs et intégrateurs cloud proposeront aux clients des services de location de puissance de calcul Rubin.
Dans le camp du développement de modèles AI, des laboratoires renommés tels qu’OpenAI, Anthropic, Meta, Mistral AI et xAI ont indiqué qu’ils utiliseront la plateforme Rubin pour entraîner des modèles de nouvelle génération plus grands et plus performants. Le PDG d’OpenAI, Sam Altman, a déclaré que l’augmentation de la capacité de calcul stimule directement l’évolution des agents intelligents, et que l’avantage de performance de Rubin continuera à faire avancer ce processus. Dario Amodei, PDG d’Anthropic, a souligné que la capacité renforcée de Rubin améliore significativement la qualité de l’inférence et la fiabilité des modèles. Mark Zuckerberg, PDG de Meta, a quant à lui insisté sur le fait que l’efficacité accrue de Rubin est essentielle pour déployer des modèles AI de pointe à l’échelle mondiale pour des milliards d’utilisateurs.
### Couverture complète de la chaîne industrielle
Les fabricants de matériel serveur tels que Cisco, Dell, HPE, Lenovo et Supermicro ont déjà planifié des gammes de serveurs Rubin. Cela montre que Rubin n’est pas seulement une innovation GPU, mais qu’il s’agit d’un levier pour la modernisation de toute l’écosystème d’infrastructure AI.
NVIDIA a choisi cette année de dévoiler les détails de Rubin plus tôt que d’habitude, illustrant sa stratégie pour maintenir la dépendance industrielle et l’intérêt du marché. Habituellement, l’entreprise présente ses produits en profondeur lors du GTC de Californie au printemps, mais cette divulgation anticipée lors du CES reflète la montée en puissance de la compétition dans le marché de l’AI.
### Perspectives à long terme
Bien que le secteur des investissements reste sceptique quant à la croissance continue de NVIDIA et à la pérennité des dépenses en AI, NVIDIA maintient ses prévisions de croissance à long terme et prévoit que la taille du marché mondial de l’AI atteindra plusieurs milliers de milliards de dollars. Le lancement de la plateforme Rubin marque la poursuite de la domination de NVIDIA dans l’itération des puces AI, tout en redéfinissant la compétitivité de Rubin cena en termes de rapport coût-efficacité, influençant ainsi les décisions d’investissement des entreprises dans l’infrastructure AI.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
## NVIDIA Rubin plateforme officielle : coût de l'inférence réduit de 10 fois, GPU réduit de 4 fois, livraison prévue pour la seconde moitié de 2026
NVIDIA a officiellement annoncé lors du CES 2025 la prochaine génération de ses puces AI, la plateforme Rubin, poursuivant ainsi sa tradition d'itérations annuelles. Selon une annonce en direct du CEO Jensen Huang, les six principaux chips de Rubin sont revenus de l'usine de fabrication et ont passé avec succès des tests clés, confirmant leur déploiement prévu. Cela signifie que NVIDIA maintient sa position de leader technologique dans le domaine des accélérateurs AI, tout en répondant aux préoccupations de Wall Street concernant la pression concurrentielle et la pérennité de ses investissements en AI.
### Performance en forte hausse, coûts significativement réduits
En ce qui concerne le prix de Rubin, bien que NVIDIA n'ait pas encore publié de chiffres précis, son rapport coût-efficacité s'est considérablement amélioré. Par rapport à la plateforme Blackwell précédente, Rubin offre une amélioration de 3,5 fois des performances d'entraînement et 5 fois pour l'inférence. Plus impressionnant encore, Rubin peut réduire le coût de génération de tokens lors de l'inférence de 10 fois — ce qui représente une réduction majeure des coûts opérationnels pour les entreprises dépendant de modèles de grande taille.
De plus, Rubin réduit le nombre de GPU nécessaires pour entraîner un modèle expert hybride(MoE) de 4 fois. Cela signifie que les entreprises peuvent atteindre leurs objectifs de performance avec moins de matériel, améliorant directement le retour sur investissement des achats.
### Six piliers d'innovation technologique
La plateforme Rubin intègre cinq technologies révolutionnaires. Parmi elles, le tout nouveau CPU Vera utilise 88 cœurs Olympus personnalisés, basé sur l'architecture Armv9.2, avec des performances par cœur deux fois supérieures à celles des solutions concurrentes. Ce CPU est spécialement optimisé pour l'inférence d'agents AI et constitue actuellement le processeur le plus efficace en termes d'énergie dans les usines AI à grande échelle.
Du côté GPU, la troisième génération de moteur Transformer offre une capacité de calcul de 50 pétaflops NVFP4. La bande passante d’un seul GPU atteint 3,6 TB/s, tandis que la configuration complète Vera Rubin NVL72 atteint 260 TB/s — une capacité de bande passante suffisante pour l'entraînement et l'inférence de modèles à grande échelle.
La plateforme intègre également un moteur de calcul confidentiel de troisième génération et un moteur RAS( de deuxième génération pour la fiabilité, la disponibilité et la maintenabilité), couvrant l'ensemble du stack CPU, GPU et NVLink, avec des fonctionnalités de surveillance en temps réel, de tolérance aux fautes et de maintenance proactive. Le rack modulaire permet un montage et une maintenance 18 fois plus rapides que Blackwell.
### Nouveaux choix pour les fournisseurs de cloud et les laboratoires AI
NVIDIA a annoncé que plusieurs entreprises, y compris les principaux fournisseurs d'infrastructures cloud, déploieront leurs premières instances Rubin dans la seconde moitié de 2026. Ces fournisseurs et intégrateurs cloud proposeront aux clients des services de location de puissance de calcul Rubin.
Dans le camp du développement de modèles AI, des laboratoires renommés tels qu’OpenAI, Anthropic, Meta, Mistral AI et xAI ont indiqué qu’ils utiliseront la plateforme Rubin pour entraîner des modèles de nouvelle génération plus grands et plus performants. Le PDG d’OpenAI, Sam Altman, a déclaré que l’augmentation de la capacité de calcul stimule directement l’évolution des agents intelligents, et que l’avantage de performance de Rubin continuera à faire avancer ce processus. Dario Amodei, PDG d’Anthropic, a souligné que la capacité renforcée de Rubin améliore significativement la qualité de l’inférence et la fiabilité des modèles. Mark Zuckerberg, PDG de Meta, a quant à lui insisté sur le fait que l’efficacité accrue de Rubin est essentielle pour déployer des modèles AI de pointe à l’échelle mondiale pour des milliards d’utilisateurs.
### Couverture complète de la chaîne industrielle
Les fabricants de matériel serveur tels que Cisco, Dell, HPE, Lenovo et Supermicro ont déjà planifié des gammes de serveurs Rubin. Cela montre que Rubin n’est pas seulement une innovation GPU, mais qu’il s’agit d’un levier pour la modernisation de toute l’écosystème d’infrastructure AI.
NVIDIA a choisi cette année de dévoiler les détails de Rubin plus tôt que d’habitude, illustrant sa stratégie pour maintenir la dépendance industrielle et l’intérêt du marché. Habituellement, l’entreprise présente ses produits en profondeur lors du GTC de Californie au printemps, mais cette divulgation anticipée lors du CES reflète la montée en puissance de la compétition dans le marché de l’AI.
### Perspectives à long terme
Bien que le secteur des investissements reste sceptique quant à la croissance continue de NVIDIA et à la pérennité des dépenses en AI, NVIDIA maintient ses prévisions de croissance à long terme et prévoit que la taille du marché mondial de l’AI atteindra plusieurs milliers de milliards de dollars. Le lancement de la plateforme Rubin marque la poursuite de la domination de NVIDIA dans l’itération des puces AI, tout en redéfinissant la compétitivité de Rubin cena en termes de rapport coût-efficacité, influençant ainsi les décisions d’investissement des entreprises dans l’infrastructure AI.