Serveur d'impression

IBM lance le serveur d'alimentation IC922 pour l'inférence de l'IA et la gestion des données – Serveur d’impression

Par Titanfall , le 5 mars 2020 - 9 minutes de lecture

IBM a lancé aujourd'hui un serveur d'inférence basé sur Power9 – l'IC922 – qui comprend jusqu'à six GPU Nvidia T4, une connectivité PCIe Gen 4 et OpenCAPI, et peut accueillir jusqu'à 24 disques SFF dans un format 2U. Associé à l'AC922 d'IBM, qui utilise les GPU Nvidia V100, IBM affirme qu'il propose désormais une solution complète pour les charges de travail d'IA, comprenant la gestion des données, la formation et l'inférence. IBM indique également que le nouveau IC922 est proposé à parité ou mieux que les offres comparables basées sur x86.

L’utilisation des GPU T4 exploite les cœurs Turing Tensor pour leurs capacités variées de précision mixte (FP32, FP16, INT8, INT4) les mieux adaptées à l’inférence et le coût inférieur de T4. Dans l'ensemble, cela aide IBM à attaquer ce que les analystes disent être le segment de marché de l'IA à la croissance la plus rapide et susceptible de devenir le plus important en volume. En revanche, l'AC922 exploite les GPU Nvidia V100, qui sont mieux adaptés aux charges de travail de formation HPC et AI traditionnelles et plus coûteux. L'AC922 est construit de manière célèbre en utilisant la même architecture que le supercalculateur Summit, actuellement le supercalculateur le plus rapide au monde selon la liste Top500 (novembre 2019).

«L'IC922 se concentre sur les données, les inférences et le cloud», a déclaré Dylan Boday, directeur IBM des systèmes de gestion, cognitifs et évolutifs, lors d'un pré-briefing avec HPCwire. «Nous pourrons piloter jusqu'à 24 disques compacts, et dans un avenir pas trop éloigné, 24 disques NVMe. Lorsque vous combinez 24 disques NVMe et PCIe Gen 4 à votre réseau, vous avez une histoire très puissante d'un point de vue équilibré.

«Au niveau du rack, vous obtenez des débits très élevés. C'est intéressant pour l'IA car de nombreuses personnes commencent à regarder les déploiements de stockage et leur hiérarchie de niveaux. Vous avez besoin d'un accès «chaud» ou à faible latence à certaines capacités de stockage. Deuxièmement, le lancement avec jusqu'à six GPU Nvidia T4 donne aux clients la flexibilité [and] dans un avenir très proche, nous allons passer à huit [T4s], ce qui vous donnera une densité GPU 33% supérieure à celle des serveurs HP ou Dell dans un serveur 2U. »

IBM affirme également qu'il est en mesure de tirer parti de son avantage de threads par cœur à la fois de manière générale et pour les performances des conteneurs.

Le nouveau système sera disponible le 7 février. IBM indique qu'il "étudie actuellement l'extension de IC922 dans le cloud public IBM". L'annonce officielle de l'IC922 a été publiée dans un blog (Complétez votre puzzle AI avec inférence) aujourd'hui par Grace Liu, responsable de l'offre principale, Infrastructure Linux.

IBM a promis une nouvelle poussée de produits dans l'IA et l'IC922 n'est probablement que le premier. "Notre marché Linux est un marché qui est [delivering] un portefeuille pour l'ère de l'IA », a déclaré Boday. De nombreux projets d'IA échouent, affirme-t-il, et l'une des raisons est la difficulté de passer d'un environnement de formation contrôlé à un environnement d'acquisition et d'inférence de données plus chaotique où les exigences et les compétences de calcul sont différentes. L'IC922, a-t-il dit, est optimisé pour l'inférence et la gestion des données et facilitera la transition. Sa conception modulaire permet aux organisations d'adapter l'infrastructure pour répondre aux besoins, sur site ou dans un environnement de cloud privé.

Le logiciel, bien sûr, est une autre clé. Au SC19, IBM a fait la promotion de son expertise logicielle bayésienne en tant que catalyseur d'IA. Parallèlement à l'annonce de l'IC922, Boday a déclaré: "Nous allons introduire un logiciel d'inférence [it] vous permet essentiellement d'opérationnaliser votre inférence. » Peu de détails ont été discutés lors du briefing et en réponse à une question envoyée par e-mail à propos de ces plans, IBM a répondu: «IBM pense que tout comme la formation nécessite un logiciel spécialisé, l'inférence de l'IA aussi. Notre famille de produits Watson Machine Learning Accelerator continue d'évoluer pour tirer parti des dernières capacités d'IBM Power Systems for AI, et nous nous attendons à ce que cela continue pour l'inférence. »

Cela ressemble à un message à l'écoute. Ci-dessous sont les puces de la ligne supérieure de l'annonce officielle:

Bien que la priorité immédiate d'IC922 soit sur l'utilisation des T4, IBM a noté des plans pour prendre en charge d'autres types d'accélérateurs.

"Je ne vais pas discuter de tous les détails", a déclaré Boday. "Il y a quelques déclarations de direction autour des FPGA de Xilinx et d'autres capacités ASIC, car ces périphériques se déplacent vers PCIe Gen 4. C'est une sorte de boîte à l'épreuve du temps, s'ils veulent commencer à tirer parti d'un FPGA comme inférence, ou même un appareil d'entraînement. Il existe des centaines de capacités d'accélération différentes qui arrivent assez rapidement sur le marché. Ce système devrait pouvoir les capturer. À mesure que les demandes des clients augmentent, nous sommes en mesure de répondre de manière agile pour les ajouter à notre serveur et fournir la meilleure solution pour ces types de capacités d'accélération. »

Contrairement à l'AC922, qui offre NVLink pour la communication CPU-GPU, le LC922 utilise PCIe 4. "Dans AC922, nous avons NVLink – c'est à cause du facteur de forme et des capacités intégrées dans le Nvidia Volta. Il y a moins de demande sur le débit global de ces types de [training systems]», A déclaré Boday. IBM a choisi de tirer parti des avantages de densité PCIe pour l'IC922 et de fournir la capacité OpenCAPI pour les futurs périphériques. Au cours des derniers mois, il y a eu pas mal de discussions autour d'OpenCAPI et de la nouvelle norme CXL dirigée par Intel, avec des spéculations sur la compatibilité entre les deux.

Boday a déclaré: «CXL n'est pas une technologie commercialement viable à ce stade. Ce que je dirais, c'est que CXL est définitivement sur notre radar. Nous avons un siège au conseil d'administration au sein de la Fondation CXL. Alors que cela gagne de plus en plus de traction, nous allons avoir une voix d'influence importante là-bas. Je dirais que IBM [started activities] pour la cohérence dans l'accélération il y a plusieurs années avec CAPI et OpenCAPI. S'adressant à cette boîte, en particulier, elle aura des capacités OpenCAPI. Il s'agit en fait du premier boîtier doté de capacités OpenCAPI disponibles dans le commerce, et ce que nous verrons, c'est la capacité des développeurs à commencer à tirer parti d'une interface cohérente, à haut débit et à faible latence pour toutes sortes de nouveaux appareils. »

IBM rapporte qu'il aura bientôt une carte de développeur. «L'une des premières choses que nous allons faire est d'activer le marché avec une carte basée sur FPGA Bittware. Il sera également disponible dans un proche avenir. Cela permet aux développeurs de profiter de la faible latence / haut débit, puis nous aurons même une carte pour eux de commencer à explorer cela dans un avenir très proche. "

La manière dont la nouvelle offre s'intègre dans la stratégie plus large de mise sur le marché de l'IA articulée par l'exécutif d'IBM Dave Turek au SC19 n'est pas entièrement claire. Il a suggéré une stratégie dans laquelle IBM fournirait des systèmes d'IA plus petits capables de tirer parti de l'infrastructure existante d'un client pour améliorer les performances du système et des applications. (Pour plus voir HPCwire article, SC19: IBM modifie son plan de jeu HPC-AI).

Liu a écrit dans son blog: «Pour montrer comment l'IC922 s'intègre dans le puzzle de l'IA, le programme de modernisation du calcul haute performance (HPCMP) du ministère de la Défense a récemment démontré comment les IC922 et AC922 pouvaient être combinés en une plate-forme informatique modulaire, créant un IBM POWER9 à base de supercalculateur dans un conteneur d'expédition. Cette capacité de calcul modulaire, initialement installée au sein du USD Combat Capabilities Development Command du Army Research Laboratory DoD Supercomputing Resource Center, permettra au DoD de redéfinir le terme «  avantage '' pour inclure le déploiement d'une capacité de superinformatique IA n'importe où dans le monde, y compris sur le champ de bataille. . "

Dans un sens, cette utilisation de périphérie pourrait englober des déploiements similaires à ce que Turek a suggéré dans lequel IBM apporte un cluster d'IA – aussi petit qu'un seul nœud, a déclaré Turek – pour améliorer les performances de l'infrastructure déjà en place. Il a également laissé entendre qu'IBM offrirait des systèmes d'IA spécialisés autour de fonctions spécifiques telles que la sécurité et la gestion des systèmes. C'est peut-être la prochaine étape, avec les combinaisons AC922-IC922 proposées pour «suralimenter» l'infrastructure existante.

Lien vers le blog IBM: https://www.ibm.com/blogs/systems/complete-your-ai-puzzle-with-inference/

Click to rate this post!
[Total: 0 Average: 0]

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.