Microsoft étoffe le cloud Azure avec plus d’apprentissage automatique

  • Français


  • Microsoft s’est assuré d’inclure Azure dans le AI-fest qui était la conférence des développeurs Build 2023 cette semaine.

    Alors que les entreprises envisagent d’expérimenter ou de déployer l’IA générative, elles pourraient bien se tourner vers les clouds publics et une infrastructure de calcul et de stockage évolutive similaire pour exécuter des éléments tels que des modèles en grand langage (LLM).

    Microsoft, armé de ChatGPT, GPT-4 et d’autres systèmes OpenAI, a depuis des mois poussé des capacités d’IA dans tous les coins et recoins de son empire. Azure n’est pas différent – ​​le service OpenAI en est un exemple – et après sa conférence Build, le cloud public de Redmond a maintenant encore plus d’offres revendiquées.

    En tête de liste se trouve un partenariat élargi avec Nvidia, qui se précipite lui-même pour s’imposer comme le fournisseur de technologie d’IA indispensable, des accélérateurs GPU aux logiciels. Rien que cette semaine, le fabricant de puces a dévoilé une multitude de partenariats, comme avec Dell à Dell Technologies World et des fabricants de superordinateurs à ISC23.

    Intégrer des ressources Nvidia dans Azure

    Plus précisément, Microsoft intègre la suite de logiciels, d’outils de développement, de cadres et de modèles préformés AI Enterprise de Nvidia dans Azure Machine Learning, créant ce que Tina Manghnani, chef de produit pour la plate-forme cloud d’apprentissage automatique, a appelé “le premier prêt pour l’entreprise, sécurisé, fin une plate-forme cloud de bout en bout permettant aux développeurs de créer, déployer et gérer des applications d’IA, y compris des modèles de langage volumineux personnalisés.”

    Le même jour, Microsoft a rendu les registres Azure Machine Learning – une plate-forme pour héberger et partager des blocs de construction d’apprentissage automatique tels que des conteneurs, des modèles et des données et un outil pour intégrer AI Enterprise dans Azure – généralement disponibles. AI Enterprise dans Azure Machine Learning est également disponible en version préliminaire technique limitée.

    “Cela signifie que pour les clients qui ont des engagements et des relations existants avec Azure, ils peuvent utiliser ces relations – ils peuvent utiliser les contrats cloud qu’ils ont déjà – pour obtenir Nvidia AI Enterprise et l’utiliser soit dans Azure ML pour obtenir cela expérience transparente de niveau entreprise ou séparément sur les instances de leur choix », a déclaré Manuvir Das, vice-président de l’informatique d’entreprise chez Nvidia, aux journalistes quelques jours avant l’ouverture de Build.

    Isoler les réseaux pour protéger les données de l’IA

    Les entreprises exécutant des opérations d’IA dans le cloud veulent s’assurer que leurs données ne sont pas exposées à d’autres entreprises, l’isolation du réseau étant un outil clé. Microsoft propose des fonctionnalités telles que l’espace de travail de liaison privée et la protection contre l’exfiltration de données, mais aucune option IP publique pour les ressources de calcul des entreprises formant des modèles d’IA. Lors de Build, le fournisseur a annoncé l’isolation réseau gérée dans Azure Machine Learning pour choisir le mode d’isolation qui correspond le mieux aux politiques de sécurité d’une entreprise.

    Ne manquez pas notre couverture Build 2023

    Sans surprise, les outils open source arrivent de plus en plus dans l’espace de l’IA. L’année dernière, Microsoft s’est associé à Hugging Face pour apporter des points de terminaison Azure Machine Learning alimentés par la technologie open source de la société. Chez Build, les deux organisations ont élargi leur relation.

    Hugging Face propose déjà un ensemble d’outils et d’API organisés ainsi qu’un énorme hub de modèles ML à télécharger et à utiliser. Désormais, une collection de milliers de ces modèles apparaîtra dans le catalogue Azure Machine Learning de Redmond afin que les clients puissent y accéder et les déployer sur des terminaux gérés dans le cloud de Microsoft.

    Plus d’options de modèles de fondation

    Redmond met également à disposition des modèles de base dans Azure Machine Learning en préversion publique. Les modèles de base sont des modèles pré-entraînés puissants et hautement performants que les organisations peuvent personnaliser avec leurs propres données à leurs propres fins et déployer selon leurs besoins.

    Les modèles de base deviennent très importants, car ils peuvent aider les organisations à créer des applications alimentées par ML non triviales, adaptées à leurs besoins spécifiques, sans avoir à dépenser des centaines de millions de dollars pour former les modèles à partir de zéro ou décharger le traitement et les données sensibles des clients vers le nuage.

    Nvidia a publié un framework NeMo qui peut être utile dans ce domaine, et ce mois-ci s’est associé à ServiceNow et – cette semaine – Dell dans Project Helix dans ce sens.

    “Comme nous avons travaillé avec des entreprises sur l’IA générative au cours des derniers mois, ce que nous avons appris, c’est qu’il existe un grand nombre d’entreprises qui aimeraient tirer parti de la puissance de l’IA générative, mais le font dans leurs propres centres de données. ou faites-le en dehors du cloud public », a déclaré Das de Nvidia.

    Des ressources telles que les modèles open source et de base promettent de réduire la complexité et les coûts pour permettre à davantage d’organisations d’accéder à l’IA générative. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *