Serveur minecraft

Le réseau Microsoft Azure s'accélère, grâce à du matériel personnalisé – Resoudre les problemes d’un serveur MineCraft

Le 7 avril 2020 - 8 minutes de lecture

La mise en réseau des machines virtuelles dans Microsoft Azure va devenir beaucoup plus rapide grâce à un nouveau matériel que Microsoft a déployé dans sa flotte de centres de données.

La société a annoncé lundi qu'elle avait déployé des centaines de milliers de FPGA (Field-Programmable Gate Arrays) sur des serveurs dans 15 pays et cinq continents différents. Les puces ont été mises à profit dans une variété de services Microsoft propriétaires, et elles commencent maintenant à accélérer la mise en réseau sur la plateforme cloud Azure de l'entreprise.

En plus d'améliorer les vitesses de mise en réseau, les FPGA (qui reposent sur des cartes personnalisées conçues par Microsoft connectées à des serveurs Azure) peuvent également être utilisés pour améliorer la vitesse des tâches d'apprentissage automatique et d'autres fonctionnalités clés du cloud. Microsoft n'a pas précisé exactement le contenu des cartes, à part révéler qu'elles contiennent un FPGA, des puces RAM statiques et des processeurs de signaux numériques renforcés.

Le déploiement par Microsoft du matériel programmable est important car l'augmentation auparavant fiable des vitesses du processeur continue de ralentir. Les FPGA peuvent fournir une augmentation de vitesse supplémentaire de la puissance de traitement pour les tâches particulières sur lesquelles ils ont été configurés, réduisant ainsi le temps nécessaire pour effectuer des tâches telles que gérer le flux du trafic réseau ou traduire du texte.

Avec Microsoft qui cherche à extraire chaque once de puissance du matériel informatique et de l'empreinte qu'il doit déjà concurrencer avec les autres acteurs du marché du cloud, ce matériel pourrait donner à l'entreprise un avantage.

Accelerated Networking, une nouvelle fonctionnalité disponible en version bêta lundi, est un exemple des fonctionnalités qu'un déploiement FPGA permet. Entre deux machines virtuelles qui ont toutes deux activé, il donnera aux utilisateurs des vitesses aussi élevées que 25 Gbps et une latence entre 25 et 50 microsecondes, sans frais supplémentaires.

L'annonce de mise en réseau accélérée survient une semaine seulement après qu'Oracle a dévoilé son offre d'infrastructure en tant que service de deuxième génération à OpenWorld, qui propose également un réseau défini par logiciel hors serveur pour améliorer les performances.

Le directeur technique d'Azure Mark Russinovich a déclaré que l'utilisation des FPGA était la clé pour aider Azure à tirer parti du matériel de mise en réseau qu'il mettait dans ses centres de données. Bien que le matériel puisse prendre en charge des vitesses de 40 Gbit / s, déplacer tout ce trafic réseau avec les différentes règles de réseau définies par logiciel qui y sont attachées a nécessité une énorme quantité de puissance CPU.

"Ce n'est tout simplement pas économiquement viable", a-t-il déclaré dans une interview. «Pourquoi retirer ces processeurs de ce que nous pouvons vendre aux clients sur des machines virtuelles, alors que nous pourrions potentiellement les décharger dans FPGA? Ils pourraient servir à cette fin ainsi qu'à des fins futures, et nous familiariser avec les FPGA dans notre centre de données C'est devenu une victoire assez claire pour nous. "

Le projet est une idée originale de Doug Burger, ingénieur distingué du groupe Nouvelles expériences et technologies (NExT) de Microsoft Research. Burger a commencé le projet FPGA, nommé Catapult, en 2010. L'équipe a commencé à travailler avec Bing, puis s'est étendue à Azure. Ce travail a conduit à la deuxième conception actuelle de la configuration matérielle FPGA de Microsoft.

Une carte FPGA est affectée à chaque nouveau serveur Azure et est connectée à sa carte d'interface réseau (NIC), au bus PCIe et au commutateur réseau haut de gamme. Cela signifie qu'il est possible pour chaque FPGA de parler avec d'autres, et Microsoft peut exploiter de nombreux FPGA dans ses centres de données pour de gros travaux, avec une faible latence. C'est particulièrement important pour les applications massives d'apprentissage automatique.

"Si nous voulons allouer 1 000 FPGA à un seul [deep neural net] nous pouvons ", a déclaré Burger." Nous obtenons ce genre d'échelle. "

Cette échelle peut fournir des quantités massives de puissance de calcul. Si Microsoft utilisait l'intégralité du déploiement FPGA d'Azure pour traduire Wikipédia en anglais, cela ne prendrait qu'un dixième de seconde, a déclaré Burger sur scène à Ignite.

Microsoft n'est pas la seule entreprise à se tourner vers le silicium personnalisé pour ce type de travail. Google a dévoilé plus tôt cette année une unité de traitement des tenseurs censée accélérer certaines tâches d'apprentissage automatique dans son cloud. Le TPU est un circuit intégré à application spécifique ou ASIC – une puce spécialement conçue.

Google a utilisé des ASIC au lieu des FPGA en raison de sa vitesse et de son efficacité. Alors, pourquoi Microsoft a-t-il choisi les FPGA?

L'industrie évolue beaucoup trop rapidement pour qu'il soit convaincu qu'un ASIC particulier fera ce qui doit être fait au fil du temps, a déclaré Burger. Bien que l'utilisation uniquement du matériel reprogrammable dans un FPGA ne soit pas excellente pour les performances, les puces SRAM et DSP renforcées sur la carte FPGA peuvent accélérer certaines applications, réduisant l'écart de performances.

"Je ne suis pas à l'aise de verrouiller la voie de contrôle pendant trois ans et de dire" je sais quoi faire maintenant "", a déclaré Burger.

À l'heure actuelle, la mise en réseau accélérée n'est disponible que pour les instances DS15v2 dans les régions du centre-ouest des États-Unis et d'Europe occidentale d'Azure. Il n'est compatible qu'avec Windows Server 2012 R2 et Windows Server 2016 Technical Preview 5, bien que Microsoft envisage de le faire fonctionner bientôt avec les instances Linux.

À l'avenir, le service de mise en réseau accélérée sera étendu aux autres types de machines virtuelles et systèmes d'exploitation Azure. Cela passera d'une amélioration de l'opt-in à un avantage gratuit de désactivation qui augmentera les vitesses de mise en réseau disponibles par défaut.

Tourné vers l'avenir, Microsoft a déclaré que les FPGA seraient utilisés dans des applications d'apprentissage automatique. Burger a déclaré que la société avait mis en place un code pour que ses services cognitifs s'exécutent en mode accéléré FPGA, donc ceux-ci pourraient être les prochains.

"Cela va être un voyage pour la façon dont nous exposons cette capacité aux clients", a déclaré Russinovich. "Je pense que la première chose dont nous parlons est de [deep learning] où nous formons les modèles, puis laissons les clients les exécuter sur des processeurs ou des GPU dans notre centre de données. À l'avenir, ils seront en mesure d'exécuter la notation sur les FPGA et, éventuellement, de former eux-mêmes des modèles s'ils le souhaitent sur les FPGA. Mais nous sommes loin. "

Pour Burger, l'une des plus grandes questions sera de savoir quelle est la bonne combinaison de FPGA et de CPU dans un centre de données Azure. Même si Microsoft a déjà des centaines de milliers de FPGA déjà déployés, ils ne sont pas suffisants pour répondre aux besoins de l'entreprise alors que de plus en plus d'équipes commencent à les utiliser.

"Les CPU sont importants et continueront de l'être pour tous les logiciels et tous ces produits et services que nous avons", a-t-il déclaré. "Mais je pense que pour les applications, la grande percée à grande échelle va venir des technologies sans CPU."

Le sixième paragraphe de cette histoire a été corrigé pour refléter des temps de latence précis.

Remarque: Lorsque vous achetez quelque chose après avoir cliqué sur des liens dans nos articles, nous pouvons gagner une petite commission. Lisez notre politique de liens d'affiliation pour plus de détails.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.