VMware et Nvidia s’associent pour intégrer des conteneurs IA avec vSphere, des résultats prometteurs aussi “ rapides que le cloud public ”

  • FrançaisFrançais


  • VMworld VMware affirme qu’il intègre le GPU Cloud (NGC) de Nvidia dans sa plate-forme vSphere et VMware Cloud Foundation pour répondre à la demande croissante de côtelettes d’IA dans l’entreprise.

    L’intégration NGC est la deuxième partie de ce qui ressemble à un lien significatif entre Nvidia et VMware. Virtzilla a dévoilé hier le projet Monterey, qui utilise le Nvidia Bluefield-2 DPU (Data Processing Unit) pour les SmartNIC programmables et les contrôleurs de stockage, déchargeant l’hyperviseur ESXi du processeur du serveur vers le SmartNIC.

    Une autre implication est qu’avec ESXi s’exécutant sur un SmartNIC, l’infrastructure de gestion VMware peut gérer des serveurs bare-metal ainsi que des machines virtuelles. «Le découplage des fonctions de mise en réseau, de stockage et de sécurité du serveur principal permet à ces fonctions d’être corrigées et mises à niveau indépendamment du serveur», a déclaré la société.

    La pièce AI est séparée et centrée sur Nvidia NGC. Il s’agit d’un catalogue de frameworks, de conteneurs, de graphiques Helm (qui définissent les applications Kubernetes) et de modèles pour des solutions d’intelligence artificielle exécutées sur des GPU Nvidia. Un autre élément est Nvidia Clara, un cadre d’application destiné à l’IA dans les soins de santé, y compris l’imagerie médicale, la génomique et la programmation de solutions basées sur des capteurs pour les hôpitaux intelligents.

    Les composants NGC fonctionnent partout où il y a un GPU Nvidia approprié, bien qu’il existe également un système de certification matérielle appelé “NGC-Ready” pour donner l’assurance que tout fonctionnera correctement. Les produits NGC sont également disponibles sur le marché pour divers fournisseurs de cloud, notamment AWS, Google Cloud Platform, Microsoft Azure, Oracle et Alibaba. Nvidia ne facture pas NGC car il gagne son argent en vendant les GPU nécessaires pour exécuter le logiciel. NGC s’intégrera également à Tanzu, la plate-forme d’application VMware.

    VMware et Nvidia parient que l’utilisation de l’IA continuera de croître. Les exemples incluent la personnalisation des annonces, la classification des images, la détection des fraudes, les chatbots d’assistance, la détection des anomalies dans la fabrication, l’assistance au diagnostic médical, l’optimisation de la chaîne d’approvisionnement, la prévision des pannes, la prévision de la demande et une automatisation accrue dans presque tous les secteurs.

    Le PDG de Nvidia Jensen Huang et le patron de VMware Pat Gelsinger chez VMworld

    Le PDG de Nvidia Jensen Huang et le patron de VMware Pat Gelsinger chez VMworld

    S’il est déjà facile d’exécuter des applications NGC, où se situe VMware? C’est une question clé et il s’agit pour Virtzilla de se tailler un nouvel espace alors que les entreprises migrent des systèmes vSphere sur site vers des conteneurs et / ou vers le cloud public, et apportent une expérience plus proche du cloud aux données sur site. centres.

    Les GPU virtualisés peuvent avoir une surcharge de 4% par rapport aux GPU natifs, selon une présentation à VMworld, et présentent les mêmes avantages que la virtualisation des processeurs, permettant une flexibilité et une utilisation plus élevée. Les GPU virtuels peuvent être partagés entre les VM, en particulier avec les GPU Nvidia A100, qui ont une prise en charge multi-instance spécifique, et les GPU virtuels peuvent être planifiés, par exemple, pour que les charges de travail gourmandes en GPU aient lieu la nuit et la CAO interactive (conception assistée par ordinateur) pendant la journée. Bien que la virtualisation des GPU Nvidia sur vSphere ne soit pas une nouveauté, l’intégration avec NGC simplifiera l’utilisation de ces modèles et frameworks précuits dans cet environnement.

    Cela dit, il y a un élément de rattrapage ici, car VMware s’efforce de rivaliser avec ce qui est déjà disponible dans le cloud public, en termes de capacité à exécuter et à mettre à l’échelle des applications d’IA. Nvidia promet, via le partenariat, “une plate-forme qui fournit des résultats d’IA rapidement comme le cloud public”, comme si le principal avantage était pour ceux qui pour une raison quelconque (peut-être la conformité) préfèrent garder les charges de travail sur site. Un «partenariat pluriannuel» est promis et il existe un programme d’accès anticipé pour les impatients. ®

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *