Grâce à un nouveau chapitre du partenariat entre VMware et Nvidia, connu sous le nom de Project Monterey, les entreprises peuvent désormais exécuter des applications gourmandes en bases de données telles que l'IA et les charges de travail d'apprentissage automatique sur les vGPU Nvidia – et utiliser VMware vSphere pour les gérer.
Les charges de travail d'IA, d'apprentissage en profondeur (DL) et d'apprentissage automatique (ML) ont traditionnellement été limitées au processeur, mais Nvidia Virtual Compute Server (vCS) permet aux administrateurs informatiques de déplacer ces charges de travail vers des GPU ou des GPU virtuels (vGPU) et de les gérer ces charges de travail via vSphere. Cette stratégie vise à améliorer l'utilisation du GPU, à renforcer la sécurité et à simplifier l'administration.
"AI, DL [and] Le ML … sont toutes des charges de travail très intensives en calcul et nécessitent une quantité importante de calcul ", a déclaré Raj Rao, directeur principal de la gestion des produits chez Nvidia lors d'une session intitulée" Meilleures pratiques pour exécuter des flux de travail de ML et de calcul avec Nvidia vGPU sur vSphere.Il a ajouté: «Un matériel général ne peut pas se contenter de répondre à ces exigences. "
Avec Project Monterey, VMware vise à faciliter le développement et la diffusion de l'apprentissage automatique dans les environnements vSphere. Il cherche actuellement à accélérer le calcul pour ces environnements en utilisant uniquement vCS et vGPU.
Les GPU Nvidia ont des cœurs de tenseur, qui peuvent activer les grandes opérations matricielles requises par AI. Les GPU ont également des cœurs de calcul avancés pour des charges de travail multitâches plus générales. Ces GPU sont généralement disponibles sur tous les serveurs OEM courants; Les organisations peuvent les distribuer localement ou dans le cloud. La virtualisation GPU extrait les fonctionnalités, les performances et la fiabilité des GPU matériels.
«Cela fait partie d'une tendance générale vers les accélérateurs matériels de virtualisation», a déclaré Paul Delory, directeur de recherche chez Gartner, une société de recherche et de conseil basée à Stamford, Conn. "Nous intégrons de plus en plus des fonctionnalités spéciales dans du matériel dédié spécialement conçu pour une tâche."
Gérer les vGPU avec vSphere
Grâce à la nouvelle capacité de gérer les vGPU via vSphere, les administrateurs peuvent activer différentes charges de travail, telles que l'exécution de machines virtuelles Windows et Linux sur le même hôte. Les clients VMware utilisent de plus en plus des vGPU de pointe, et le GPU 5G présente un nouveau cas d'utilisation pour les vGPU gérés par vSphere.
Les administrateurs peuvent également utiliser des vGPU dans vSphere pour accélérer la charge de travail graphique; coder et décoder les charges de travail VMware Horizon; exécuter des volumes d'apprentissage automatique, d'apprentissage en profondeur et de calcul haute performance; et développer des applications de réalité augmentée ou de réalité virtuelle.
Les vGPU gérés par VSphere fournissent également de l'efficacité aux processus tels que vMotion pour les machines virtuelles activées par vGPU. Les administrateurs peuvent gérer les GPU et les vGPU avec vSphere, puis les charges de travail vMotion à l'aide de ces GPU et vGPU de manière plus rationalisée.
«La formation à l'apprentissage automatique ou au calcul haute performance peut prendre des jours», a déclaré Uday Kurkure, ingénieur en ressources humaines chez VMware. "Si vous deviez effectuer la maintenance du serveur, vous auriez à arrêter les travaux et à mettre le serveur hors service … reprendre votre serveur et recommencer le travail. Mais … au lieu d'arrêter vos travaux et d'arrêter votre serveur, vous pouvez être v Le transfert de ces travaux vers un autre hôte… fait gagner des jours de travail. "
Pour configurer un vGPU Nvidia sur vSphere, installez un GPU Nvidia sur un hôte. Installez Nvidia vGPU Manager sur l'hyperviseur, qui s'exécute au-dessus de l'hôte, pour virtualiser le GPU sous-jacent. Les administrateurs peuvent ensuite exécuter plusieurs machines virtuelles – avec différents systèmes d'exploitation, tels que Windows ou Linux – qui accèdent au même GPU virtualisé. Ces hôtes peuvent ensuite exécuter des charges de travail de calcul haute performance ou d'apprentissage automatique avec rapidité et efficacité.
Apprentissage automatique dans vSphere et environnements virtuels
L'utilisation des vGPU peut permettre une formation d'apprentissage automatique plus efficace pour ceux qui ont accès à cette technologie. Les administrateurs peuvent entraîner leurs applications d'apprentissage automatique tout en exécutant d'autres charges de travail dans le centre de données et réduire considérablement le temps nécessaire pour former les applications d'apprentissage automatique. Par exemple, un modèle de travail de modélisation de langage complexe pour les prédictions de mots peut prendre jusqu'à 56 heures pour s'entraîner avec un seul processeur, mais ne prend que huit heures avec un vGPU, selon Kurkure. Un vGPU a également une surcharge de 4% en temps de formation par rapport à un GPU natif. Cependant, l'apprentissage automatique peut rester indisponible et à l'horizon pour la plupart des organisations.
«L'avantage du projet Monterey pour les charges de travail IA ou ML est de leur donner accès aux GPU», a déclaré Delory. "[But] pour le moment, vous devez soit installer des GPU sur tous vos hôtes – ce qui est cher – soit dédier du matériel aux charges de travail AI ou ML – ce qui est compliqué et coûteux. "
Commentaires
Laisser un commentaire