Nvidia intègre la prise en charge des conteneurs dans la suite AI Enterprise

  • FrançaisFrançais



  • Nvidia a déployé la dernière version de sa suite AI Enterprise pour les charges de travail accélérées par GPU, ajoutant l’intégration de vSphere de VMware avec Tanzu pour permettre aux organisations d’exécuter des charges de travail dans des conteneurs et à l’intérieur de machines virtuelles.

    Disponible dès maintenant, Nvidia AI Enterprise 1.1 est une version mise à jour de la suite que GPUzilla a livrée l’année dernière en collaboration avec VMware. Il s’agit essentiellement d’un ensemble d’outils et de cadres d’IA de niveau entreprise certifiés et pris en charge par Nvidia pour aider les organisations à développer et à exploiter une gamme d’applications d’IA.

    C’est tant que ces organisations utilisent VMware, bien sûr, qu’un grand nombre d’entreprises utilisent encore pour gérer les machines virtuelles dans leur environnement, mais beaucoup ne le font pas non plus.

    Cependant, comme l’a noté Gary Chen, directeur de recherche pour le calcul défini par logiciel chez IDC, le déploiement de charges de travail d’IA est une tâche complexe nécessitant une orchestration sur de nombreuses couches d’infrastructure. Tout ce qui peut faciliter cette tâche est susceptible de plaire aux services informatiques aux ressources limitées.

    « Les solutions d’IA complètes et clés en main peuvent grandement simplifier le déploiement et rendre l’IA plus accessible au sein de l’entreprise », a déclaré Chen.

    La principale fonctionnalité de la nouvelle version est la prise en charge de la production pour l’exécution sur VMware vSphere avec Tanzu, qui, selon Nvidia, était l’une des fonctionnalités les plus demandées par les utilisateurs. Grâce à cela, les développeurs peuvent exécuter des charges de travail d’IA sur des conteneurs et des machines virtuelles dans leurs environnements vSphere. Comme les professionnels de VMware le savent, vSphere avec Tanzu est effectivement la prochaine génération de vSphere, avec une prise en charge native de Kubernetes et des conteneurs sur les clusters vSphere.

    Nvidia prévoit également d’ajouter la même capacité à son programme Nvidia LaunchPad, qui offre aux entreprises clientes un accès à un environnement où elles peuvent tester et prototyper gratuitement des charges de travail d’IA. Les environnements sont hébergés dans neuf centres de données Equinix à travers le monde et montrent comment développer et gérer des charges de travail d’IA courantes à l’aide de Nvidia AI Enterprise.

    Cette dernière version est également validée pour les opérations avec la plate-forme Enterprise MLOps de Domino Data Lab, conçue pour simplifier l’automatisation et la gestion des charges de travail de la science des données et de l’IA dans un environnement d’entreprise.

    La combinaison des deux devrait permettre aux équipes de science des données de déployer plus facilement des projets tels que la formation d’un modèle de reconnaissance d’image, la réalisation d’analyses textuelles avec Nvidia RAPIDS ou le déploiement d’un chatbot intelligent avec Triton Inference Server, selon Domino Data Lab.

    Pour les organisations qui envisagent d’utiliser la suite AI Enterprise, Nvidia a également ajouté les premiers systèmes certifiés de Cisco et Hitachi Vantara à la liste du matériel pris en charge. Ceux-ci rejoignent les systèmes certifiés des suspects habituels, notamment Dell, HPE, Lenovo et Supermicro.

    Le serveur rack Cisco UCS C240 ​​M6 avec les GPU A100 Tensor Core est un serveur 2U à double socket, tandis que celui d’Hitachi est le serveur avancé DS220 G2, également avec les GPU A100 Tensor Core.

    Nvidia AI Enterprise comprend divers outils d’IA et de science des données, notamment TensorFlow, PyTorch, les bibliothèques de logiciels RAPIDS et TensorRT de Nvidia, et son serveur d’inférence Triton.

    Pendant ce temps, le directeur financier de Nvidia a récemment déclaré aux participants virtuels de la conférence annuelle sur la croissance de Needham que la société en était encore aux premiers stades de la pénétration du marché des serveurs avec ses GPU pour accélérer l’IA et d’autres applications, et a déclaré qu’il y avait de nombreuses opportunités de croissance à l’avenir. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.