Serveur d'impression

Quel matériel informatique convient le mieux à la simulation? > ENGINEERING.com – Serveur d’impression

Le 22 mars 2020 - 25 minutes de lecture

<! –

->

ANSYS a sponsorisé ce post.

La question du type d'ordinateur que vous devriez obtenir pour la simulation était une réponse simple: vous avez le matériel le plus rapide que vous puissiez vous permettre. Vous avez demandé à votre manager de vous procurer un vrai poste de travail, pas un PC comme les autres employés de bureau. Vous aviez beaucoup de chiffres à analyser, et plus vous pouviez les analyser rapidement, plus vous pouviez faire de simulations. C'était simple. Alors que les PC passaient la plupart du temps à attendre les commandes des employés de bureau, vous attendiez toujours votre ordinateur. Votre gestionnaire peut se vanter / se plaindre d'une feuille de calcul si complexe qu'il faut une minute pour résoudre les centaines de formules qui s'y trouvent, mais vous savez que vous devez résoudre des millions d'équations simultanées et cela va prendre des jours ou des semaines.

Bien sûr, nous comprenons qu'il y a des limites fiscales. Nous ne pouvons pas tous avoir des superordinateurs. Mais nous pouvons obtenir des postes de travail haut de gamme. Ils coûtent environ dix mille dollars et n'importe laquelle des trois grandes sociétés informatiques – Dell, HP et Lenovo – sera heureuse de configurer une station de travail. Les prix commencent un peu plus de 500 $ (Dell) pour une machine qui peut résoudre les problèmes de manuels, mais pour le monde réel, vous en aurez besoin de plus.

La station de travail ultime basée sur Intel / Windows peut être la BOXX APEXX D4, configurée spécialement pour la simulation et chargée avec 10 cœurs de processeur. Celui-ci commence à 8290 $, mais si vous vous déchaînez avec la configuration, cela vous coûtera plus de 50000 $.

Entrez dans les grandes ligues

Configuration ANSYS HPC

HPC est une étape logique à partir d'un poste de travail pour les groupes d'ingénierie qui font de la simulation. (Photo gracieuseté d'ANSYS)

Si cela s'avérait insuffisant en termes de vitesse, ou si votre patron dit que vous ne dépensez pas assez (nous pouvons rêver), le prochain niveau de vitesse matérielle vient avec le calcul haute performance, ou HPC. Non seulement tous les composants informatiques, tels que le processeur, le processeur graphique, la mémoire et le stockage, sont-ils devenus une force industrielle, mais ils sont plus nombreux. HPC nécessite des connexions à haute vitesse, des connexions parallèles et un système d'exploitation spécial (généralement Linux) pour tout lier ensemble.

Passer du poste de travail au HPC est un grand saut à tous égards: performance, taille, coût et confort. Votre ordinateur aura déménagé sous votre bureau sur un rack. Vous n'aurez pas l'environnement Windows dans lequel vous étiez à l'aise. L'ordinateur lui-même est si grand qu'il devra se déplacer dans une autre pièce et être pris en charge par une autre personne, quelqu'un de plus familier avec son langage (Linux) et ses soins.

Bénéfice de performance

La séparation entre le fait de ne pas avoir d'ordinateur sous votre bureau sera bientôt compensée par la puissance du HPC.

La capacité HPC est mesurée en nombre de cœurs. Alors qu'une station de travail robuste peut avoir 8 cœurs de processeur et qu'un serveur peut en héberger beaucoup plus, une armoire de cluster HPC unique peut héberger quelques milliers de cœurs.

Une unité HPC ressemblera à des serveurs – presque toujours montés en rack, et avec le rack parfois enfermé dans une armoire. Un rack ou une armoire unique est appelé cluster HPC. Parce que vous pouvez connecter des clusters les uns aux autres, HPC est évolutif à l'infini.

Attendez-vous à payer entre 50 000 $ pour un cluster bas de gamme (une appliance de cluster HPC) et 10 millions $ pour un centre de données HPC, une grande salle avec rack après rack de matériel HPC. La construction de la pièce, qui a besoin de sa propre alimentation et de son propre refroidissement, serait un coût supplémentaire.

À l'extrême haut de gamme se trouvent les superordinateurs. Le nom le plus sacré des superordinateurs, Cray, est toujours là, mais a été acheté par Hewlett Packard Enterprise, ou HPE. D'autres superordinateurs sont proposés par IBM (Watson), ainsi que Google, Fujitsu et quelques autres. Mais nous limiterons notre discussion aux postes de travail et HPC pour cet article.

Louer HPC

Vous pouvez payer autant pour un poste de travail que pour un bon camion d'occasion. Mais votre Dodge Ram avec cabine équipage complète, lit complet et roues arrière doubles que vous avez achetées pour que vous puissiez transporter votre salon à la maison ou votre bateau jusqu'au quai, se trouve dans votre entrée la plupart du temps.

Acheter gros pour une utilisation ponctuelle ou occasionnelle ne convient pas aux membres de la famille ou aux comptables de l'entreprise, les deux ayant des besoins concurrents en matière de dépenses en capital. À moins que le super poste de travail ne soit utilisé tout le temps, il peut être préférable d'en louer un pour votre besoin unique. Gardez également à l'esprit que tout le matériel doit être entretenu, le logiciel mis à jour, les sauvegardes effectuées et le matériel vieillissant remplacé – toute la main-d'œuvre associée aux dépenses en capital.

Vous serez ravis de découvrir que les ordinateurs les plus rapides sont disponibles à la location. Plusieurs sociétés ont rendu les ressources HPC disponibles sur demande et ne facturent que le temps dont vous avez besoin. Au lieu d'énormes dépenses en immobilisations déchirantes, le HPC peut devenir une dépense opérationnelle mensuelle.

Les appareils HPC peuvent être loués. Pour ce que HPE a à offrir, voir Kit de démarrage HPC pour les environnements ANSYS et pour les autres partenaires ANSYS pour les appliances HPC louables, cliquez ici.

Des noyaux

Au début des PC, vous pouviez dire les performances d'un ordinateur simplement par la vitesse d'horloge de son processeur. En 2001, IBM a créé le premier processeur multicœur et rendu cela plus compliqué. Désormais, il existe plusieurs processeurs, appelés cœurs, sur un seul multiprocesseur. La vitesse d'horloge d'un cœur peut être inférieure à celle d'un processeur à cœur unique, mais la combinaison de cœurs fait plus que compenser.

Alors que des milliers de cœurs sont théoriquement possibles sur un processeur, une enquête récente de l'ANSYS a révélé que le poste de travail moyen pour la simulation a deux processeurs avec 12 cœurs au total.

«Si vous achetez un poste de travail pour la simulation, il devrait avoir au moins 16 cœurs, c'est-à-dire deux processeurs à 8 cœurs», explique Wim Slagter, directeur, HPC & Cloud Alliances chez ANSYS.

Le calculateur ANSYS ROI déterminera combien de temps avant que le nouveau poste de travail rapide ne se paie. (Photo gracieuseté d'ANSYS.)

Le calculateur ANSYS ROI déterminera combien de temps avant que le nouveau poste de travail rapide ne se paie. (Photo gracieuseté d'ANSYS.)

CPU et GPU

Les premiers ordinateurs avaient un seul processeur, ou unité centrale de traitement – essentiellement le cerveau de l'ordinateur, tout le reste servant à d'autres fins telles que la mémoire, le stockage, l'alimentation, les connexions, le moniteur, le clavier et plus encore.

Un processeur à virgule flottante est arrivé un peu plus tard pour aider aux calculs. En 1992, le terme GPU a été utilisé pour la première fois par Sony pour ce qui était à l'intérieur de sa Play Station et le GPU, ou unité de traitement graphique, est né. En 1999, le fabricant de puces NVIDIA a lancé l'idée d'un GPU programmable qui pourrait être appelé pour aider à toutes sortes de calculs, pas seulement ceux pour les jeux, et créer le GPU à usage général.

Avant le GPU, les jeux étaient aussi plats que Pac-Man. Après l'introduction du GPU, nous avons vu Myst, avec des graphismes à couper le souffle jusqu'à Grand Theft Auto—Avec une violence époustouflante, mais en 3D.

Peu de joueurs disposaient d'une allocation suffisante pour acheter des cartes de jeu à prix élevé avec des GPU, donc rendre les GPU disponibles pour les graphismes professionnels était une mine d'or pour NVIDIA. Désormais, les architectes peuvent éblouir leurs clients avec des gratte-ciels magnifiquement rendus et brillants et des maisons de rêve. Plus récemment, les GPU sont utiles pour l'apprentissage en profondeur, qui peut utiliser l'architecture massivement parallèle des GPU. Bien que la CAO interactive n'ait jamais vraiment profité des GPU, des programmes de simulation peuvent être écrits pour tirer parti des GPU, les calculs se faisant simultanément, plutôt que séquentiellement.

Mais comme NVIDIA est devenu une centrale électrique, les fabricants de CPU – notamment Intel – ont commencé à défendre leurs processeurs. C'est devenu un combat, lorsque chaque type de processeur bénéficie réellement de l'autre.

Un GPU ne peut exister sans CPU; un CPU peut réduire sa charge de travail avec un GPU. Une station de travail d'ingénierie peut avoir à la fois des processeurs rapides à plusieurs cœurs d'Intel ou AMD, en plus des GPU, de NVIDIA ou AMD.

Si votre ordinateur ne dispose pas de GPU, le moyen le plus rapide d'augmenter les performances consiste à ajouter une carte graphique avec des GPU. Recherchez une carte GPU avec au moins 5 Go de mémoire.

Tous les GPU ne sont pas créés égaux. Pour le logiciel ANSYS, certains modèles NVIDIA sont privilégiés pour leur capacité à gérer des calculs en double précision.

L'effet de l'ajout de GPU à une station de travail augmente considérablement les performances pour un modèle CFD de 10 millions de cellules, dans ce test de NVIDIA (Photo gracieuseté de NVIDIA.)

L'effet de l'ajout de GPU à une station de travail augmente considérablement les performances pour un modèle CFD de 10 millions de cellules, dans ce test de NVIDIA (Photo gracieuseté de NVIDIA.)

Un CPU fait bien plus qu'un GPU, donc l'architecture d'un GPU est relativement simple. Un GPU est construit presque entièrement de tuyaux à travers lesquels les calculs s'écoulent, ce qui conduit à la description d'un GPU en tant que pipeline graphique.

PC ou station de travail, quelle est la différence?

Vous pensez peut-être: "Quelle est la différence?" en voyant l'énorme disparité entre les ordinateurs coûtant bien moins de mille dollars et les postes de travail qui commencent bien au-delà. Comment choisissez-vous?

Le prix des ordinateurs de base bon marché séduira certainement les petits budgets. Ou vous regardez peut-être un ordinateur portable élégant et svelte comme le Microsoft Surface Pro ou un MacBook. Mais à moins que vous ne résolviez des problèmes de simulation triviaux, le PC ou le Mac ne le fera tout simplement pas. (Si vous faites de la simulation sur le cloud, c'est possible. Plus d'informations à ce sujet ci-dessous.)

La simulation nécessite un poste de travail. Il se cachera sous votre bureau, des lumières brillantes comme un chien fou qui déchireront n'importe quelle simulation que vous lui donnerez, crachant des résultats en un rien de temps – des simulations qui auraient étouffé un PC.

Un poste de travail diffère d'un PC principalement par les différences observées dans chacun des principaux composants: un processeur plus rapide, plus de mémoire et plus de stockage. Examinons chaque classe de pièces plus en détail.

Processeurs et mémoire

Profiter de la dernière famille de processeurs est vital pour les utilisateurs de simulation privés de CPU. Pourtant, dans une enquête récente, ANSYS a découvert qu'un utilisateur sur six se fraye un chemin avec des postes de travail de plus de trois ans.

Un processeur de type station de travail a généralement une vitesse d'horloge plus rapide et plus de cœurs que son homologue PC. Ce qui peut ne pas être connu, c'est le nombre d'erreurs qu'un PC fera.

Si vous pensez que les ordinateurs ne font pas d’erreurs, vous n’êtes pas seul. L'histoire des ordinateurs qui font des erreurs est presque aussi ancienne que les ordinateurs eux-mêmes. Le «bug» de la terminologie informatique vient d'un papillon brûlé qui a provoqué un court-circuit entre deux relais dans l'ordinateur Harvard Mark II en 1947.

Une autre menace vient des rayons cosmiques qui pénètrent dans l'atmosphère et sont connus pour renverser des bits dans la mémoire de l'ordinateur. Si vous connaissez des ordinateurs, comme Intel, vous suggérez un code de correction d'erreur (ECC) dans la mémoire de votre ordinateur.

Un ordinateur utilise la mémoire pour effectuer des calculs; si cette mémoire échoue, le calcul est erroné. Les probabilités d'une erreur de mémoire sont faibles pour un seul calcul, et cela peut être acceptable pour une erreur de calcul qui vide un pixel sur votre écran et peut ne pas se produire dans cent ans sur une feuille de calcul. Cependant, si le code du système d'exploitation est compilé de manière incorrecte, cela pourrait être ce qui n'arrête pas de planter un ordinateur.

Est-ce que ça ressemble à Chicken Little qui dit que le ciel tombe? Ne sommes-nous pas protégés de la plupart des rayons cosmiques par notre atmosphère?

Ceux qui ont des raisons de s'inquiéter remarquent les rayons cosmiques. La NASA, dont les projets sont entravés par les rayons cosmiques – et dont les problèmes du télescope spatial Hubble peuvent avoir été causés par les rayons cosmiques – utilise la mémoire ECC. Il en va de même pour les constructeurs d'avionique dont le travail opère dans la haute atmosphère.

Si vous supposez les pires conditions, l'effet des rayons cosmiques peut se produire sous une forme ou une autre, probablement non détectée – un problème ici et là, ou un autre redémarrage de Windows tous les trois jours, selon un calcul de Berke Durak. Durak a un doctorat en informatique théorique, et son calcul est cité par Intel car la mémoire ECC corrige 99,988% des erreurs de mémoire.

Disques

Les problèmes de simulation résolvent des matrices trop volumineuses pour tenir dans la RAM, elles sont donc résolues en parties qui sont constamment échangées dans et hors du stockage – un processus connu sous le nom de solution dans et hors cœur.

Le stockage était traditionnellement le domaine d'un disque dur en rotation. Cependant, même un disque dur à 7200 tr / min est pâle par rapport au disque dur à semi-conducteurs (SSD) moderne, qui n'a pas de pièces mobiles et fonctionne donc théoriquement avec presque le même temps de réaction à la vitesse de la lumière que la RAM elle-même. Cela rend la connexion entre le SSD, la RAM et les cœurs GPU et CPU critique et également la source de goulots d'étranglement.

Les SSD ont généralement les mêmes facteurs de forme que les disques durs qu'ils ont remplacés, de sorte que les postes de travail pourraient facilement être mis à niveau. Les disques SSD reposent sur des connexions SATA, ce qui ne peut qu’empêcher un goulot d’étranglement car les calculs sont plus rapides que les 600 Mo / s maximum autorisés par les spécifications SATA III.

Se connecter directement à la carte mère en utilisant une connexion PCIe est mieux. Un SSD avec une connexion PCIe ressemble à une carte graphique et occupe un emplacement dans une station de travail. Bien sûr, ce n'est pas une option dans un poste de travail mobile, qui n'a pas de fentes. Une connexion PCIe peut avoir un débit pouvant atteindre 4 000 Mo / s, soit plus de 6 fois celui de SATA III.

Ne ressemblant pas du tout à un disque dur, un SSD au format M.2 ressemble plus à une carte mémoire. Montré ici installé sur un poste de travail, il convient parfaitement aux ordinateurs portables et aux postes de travail mobiles, en raison de sa taille réduite. (Photo gracieuseté de GroovyPost.com.)

Ne ressemblant pas du tout à un disque dur, un SSD au format M.2 ressemble plus à une carte mémoire. Montré ici installé sur un poste de travail, il convient parfaitement aux ordinateurs portables et aux postes de travail mobiles, en raison de sa taille réduite. (Photo gracieuseté de GroovyPost.com.)

La meilleure solution semble être des SSD qui ressemblent davantage à un module RAM avec un facteur de forme M.2 et qui se connectent à l'aide d'une interface NVMe. Contrairement aux interfaces précédentes qui étaient conçues pour les disques mécaniques avec une seule file d'attente de traitement, NVMe est vraiment moderne avec des milliers de files d'attente de traitement. Le débit peut être stupéfiant de 32 Go / s – plus de 50 fois celui de SATA III et 8 fois celui d'un PCIe.

Un SSD M.2 de 1 To peut être ajouté à une station de travail Lenovo P330 pour 435 $ au moment d'écrire ces lignes.

Cependant, les SSD de grande capacité communs aux postes de travail sont encore plus petits que leurs homologues de disque dur.

Calcul haute performance

Avec les demandes de matériel informatique dans un environnement centré sur la simulation, le groupe d'analystes effectuant régulièrement des simulations se retrouvera invariablement intéressé par le calcul haute performance. À la découverte de HPC, il n'y a pas de retour en arrière. Après avoir attendu des jours et des semaines pour une simulation, les résultats qui reviennent en quelques minutes ou heures seront impossibles à lâcher. Cependant, il y a une pensée qui donne à réfléchir: le HPC va coûter cher. Le patron qui hésite à acheter un poste de travail de 5 000 $ tous les cinq ans n'est pas sur le point d'acheter une machine HPC. Qui sait combien cela coûterait?

HPC d'entrée de gamme

Un groupe d'ingénierie de quatre ou cinq analystes à temps plein ou l'équivalent qui mérite la mise à niveau vers HPC devrait s'armer d'une idée du coût avant d'approcher la direction. La bonne nouvelle est que ces dernières années, le prix du HPC a suivi le prix de l'informatique ordinaire et a baissé à un rythme similaire. Une nouvelle mini version de HPC appelée «appliance» de cluster HPC est entrée en scène.

L'appliance de grappe HPC n'est pas plus grande qu'un serveur conventionnel monté en rack – de la taille de deux boîtes à pizza empilées – et peut être une transition abordable pour le consultant ou le cabinet de conseil. L'avantage d'une appliance de cluster est que toutes les pièces nécessaires sont incluses dans la boîte. Une configuration HPC totale comprend des «nœuds de calcul» et un «nœud principal» comme interconnexions physiques à grande vitesse entre les deux, et le logiciel de gestion, qui est généralement basé sur UNIX. Un nœud de connexion est inclus dans le nœud principal.

Un tel appareil HPC est proposé à la location par HPE.

Si vous ne souhaitez pas installer et gérer l'appliance HPC vous-même, une société appelée TotalCAE vous propose de la connecter, de la brancher, de la mettre en service et de la faire fonctionner pour vous.

Bien que plusieurs sociétés soient disposées à vous vendre leur version d'une appliance HPC, nous avons constaté que peu étaient disposées à partager ouvertement leurs prix. C'était toujours «dépend de la configuration particulière» et «veuillez contacter le service commercial». Nous comprenons qu'un appareil HPC n'est pas comme acheter un réfrigérateur chez Home Depot, mais avoir à parler à un humain pour les prix est tout sauf moderne.

Appliance HPC d'entrée de gamme, l'Essential by TotaLinux ressemble à une station de travail Windows standard et se vend environ 11 000 USD, sans les logiciels. (Photo gracieuseté de TotaLinux.)

Appliance HPC d'entrée de gamme, l'Essential by TotaLinux ressemble à une station de travail Windows standard et se vend environ 11 000 USD, sans logiciel. (Photo gracieuseté de TotaLinux.)

Un fournisseur qui a livré les prix était le TotaLinux en France, avec des appliances HPC à partir de 9 990 € (environ 11 000 USD) sans les logiciels pour leur 32-core Essential à 96-core Ultimate pour 44 990 € (plus de 49 600 $ USD).

Soyez averti que bien que ses créateurs puissent vouloir faire passer à un appareil HPC un son plug-and-play, une affaire de bricolage, ce sera tout sauf pour un ingénieur habitué à une station de travail Windows. HPC nécessite une installation professionnelle et impliquera une configuration, une modification et une formation considérables. Si vous avez un petit groupe d'ingénieurs en train de faire de la simulation, vous pouvez compter sur au moins l'un d'entre eux pour apprendre LINUX et être improductif pendant une semaine ou deux pendant la période de configuration.

Une configuration HPC d'entrée de gamme avec 560 nœuds pour 150 000 $ de ACT Systems. (Image reproduite avec l'aimable autorisation de ACT Systems.)

Une configuration HPC d'entrée de gamme avec 560 nœuds pour 150 000 $ de ACT Systems. (Image reproduite avec l'aimable autorisation de ACT Systems.)

Pour cette raison, obtenir une appliance HPC sur un compte comprenant l'installation, la maintenance et la formation initiale sera une bonne idée.

Pour ceux qui ont dix ingénieurs ou plus qui effectuent des simulations à temps plein, le niveau supérieur d'une appliance HPC – une installation HPC de niveau intermédiaire – peut avoir du sens. Advanced Clustering Technologies, basée à Kansas City, Missouri, est une entreprise qui souhaite rendre publique la tarification d'une configuration HPC de niveau intermédiaire. Leur système, couvert dans l'article précédent sur HPC, est reproduit ici.

ACT propose ses systèmes dans des packages soignés de 100 000 $, 150 000 $, 250 000 $ et 500 000 $. Contrairement à l'appliance HPC d'entrée de gamme, les nœuds de tête et de calcul individuels sont des unités distinctes et occupent plusieurs positions de rack.

En supposant que 150 000 $ est une configuration HPC montée en rack d'entrée de gamme, ACT fournirait:

  • 14 «lames» de serveur, chacune avec 2 processeurs Intel Xeon Gold 6230, chacun avec 20 cœurs, pour un total de 560 cœurs
  • Mémoire, stockage et matériel supplémentaire
  • Logiciel réseau HPC

L'installation nécessitera un professionnel, car le système de 150 000 $ est un géant de 1 000 lb qui utilise 10 kW de puissance, nécessite trois circuits de 220 V, 30 A et génère 36 000 BTU de chaleur.

L'essor du nœud informatique à faible coût

Une approche que les grandes entreprises utilisent pour minimiser les ressources inutilisées et coûteuses consiste à utiliser l'informatique centralisée avec des ordinateurs décentralisés et à faible coût sur les bureaux des ingénieurs. Ce n'est guère un nouveau concept. Il renvoie à la configuration moniteur / mainframe qui a d'abord apporté l'informatique aux ingénieurs – un concept bouleversé par l'avènement de l'ordinateur personnel, mais qui est maintenant prêt à faire son retour.

À son extrême moderne, un Chromebook sera la saisie et la visualisation des données des ingénieurs, avec tout le traitement effectué ailleurs: sur site, hors site ou hors site.

Faire un bureau virtuel sur votre nœud local, alors que tous les logiciels sur votre bureau vivent ailleurs, s'appelle la virtualisation du bureau. Il a été créé et promu par des sociétés telles que NVIDIA, Dell, VMware, Citrix et autres. L'idée est que les racks de serveurs sont connectés à des nœuds informatiques à faible coût connectés via Internet.

«La visualisation à distance et l'infrastructure de bureau virtuel (VDI) deviennent un sujet une fois que les utilisateurs finaux veulent tirer parti des ressources de calcul centralisées, partagées et distantes», explique Slagter. «Puisque nous voulons offrir aux utilisateurs les performances les plus élevées et les options les plus fiables, nous certifie officiellement et prend en charge une gamme d'outils d'affichage à distance et de configurations VDI. "

Les «clients légers» ou «clients zéro» Wyse de Dell n'existent que pour envoyer des frappes et des mouvements de souris vers le véritable ordinateur et recevoir des pixels en retour. Ils ressemblent plus à des stations d'accueil qu'à des ordinateurs; c'est essentiellement ce qu'ils sont, avec un moniteur, une souris et un clavier connectés pour que tout fonctionne. Un client léger commence à un peu moins de 400 $, mais lorsque vous additionnez tous les composants, ce n'est guère une réponse convaincante à un PC.

Cloud computing

Certaines de nos plus grandes entreprises technologiques, telles que Google, Amazon et Microsoft, ont besoin d'ordinateurs à l'échelle mondiale. Cela a conduit à la naissance du cloud computing, une révolution de l'informatique qui fait désormais partie de la vie quotidienne du premier monde.

Bien que le terme «cloud computing» ait été inventé par Compaq en 1996, c'est Amazon qui a réalisé que ses ressources informatiques excédentaires pourraient être mises à la disposition d'autres personnes. En 2002, Amazon Web Services (AWS) est né. L'idée qu'un libraire devenu service d'achat à part entière louerait avec succès ses ressources informatiques excédentaires et finirait par transformer l'utilisation des ordinateurs était tout aussi surprenante pour Amazon que pour le reste de l'industrie informatique. En 2015, AWS rapportait à Amazon près de 8 milliards de dollars par an.

Être pris en charge par un service d'achat a dû être embarrassant pour les géants de la technologie existants, alors ils se sont précipités pour rejoindre ce que les consommateurs et les entreprises ont prouvé qu'ils voulaient. Alors que le marché est dominé par Amazon, Microsoft est passé à la deuxième place et Google – qui peut avoir plus d'ordinateurs que quiconque sur Terre – est à la troisième place. De l'autre côté du globe, Ali Baba en Chine propose également des services cloud.

Obtenez un pro

Bien que le concept de partage d'une grande collection d'ordinateurs soit basique, l'ingénieur type se détournera probablement des fournisseurs de cloud public s'il doit développer lui-même son environnement de simulation sur son infrastructure cloud. La mise en place d'un environnement de simulation d'entreprise avec HPC, la planification des tâches, les postes de travail graphiques et le stockage dans le cloud public peut facilement prendre plusieurs mois, car cela dépasse leur expertise ou leur formation.

Une couche intermédiaire de services a vu le jour pour rendre le cloud plus accessible au public, ce qui inclut les éditeurs de logiciels qui interagissent avec les fournisseurs de services cloud.

«La description de travail de l'ingénieur définit la productivité comme la détermination des problèmes de conception des produits, et non des problèmes de configuration du cloud», explique Slagter. «C'est pourquoi nous avons développé ANSYS Cloud.»

Optez pour la vitesse

Pour la plupart de nos lecteurs – tels que ceux qui consultent ou dans de petites sociétés de conseil ou des groupes de simulation, et ceux qui se heurtent aux plafonds imposés par les postes de travail personnels, à qui l'informatique haute performance est tentante mais inabordable – la première étape logique serait se prévaloir de HPC spécifiques à la simulation selon les besoins, par le biais d'une entreprise comme ANSYS.

Si vous utilisez déjà les solutions ANSYS, vous pouvez accéder au cloud ANSYS sans quitter l'application ANSYS dans laquelle vous vous trouvez. Outre l'utilisation à la carte, la licence élastique ANSYS peut désormais également utiliser la location sur site ou les licences perpétuelles du client.

«Actuellement, ANSYS Cloud prend en charge les produits Mechanical, Fluent et Electronics Desktop, mais au premier trimestre de 2020, nous étendrons la prise en charge à CFX et LS-Dyna», explique Slagter.

La simulation est très exigeante en matériel; pour cette raison, les ordinateurs les plus rapides sont les meilleurs. Pour certains ingénieurs, la simulation peut être mieux effectuée sur un poste de travail haut de gamme. Les circonstances peuvent dicter un serveur plus puissant ou une appliance HPC, ou même une configuration HPC complète avec un rack ou plusieurs racks, selon la quantité de simulation qui doit être effectuée.

Pour un nombre croissant d'ingénieurs, ainsi que pour les petites firmes d'ingénierie dédiées à l'analyse, celles qui se sentent contraintes par leurs postes de travail personnels, ou pour les organisations allergiques à d'importantes dépenses d'investissement, le cloud HPC apparaîtra comme l'étape parfaite. Lorsque vous ajoutez les avantages de contracter un service HPC, comme avoir toujours accès au matériel le plus récent et le plus rapide, et ne pas avoir à détourner de précieuses ressources d'ingénierie vers des fonctions informatiques telles que la maintenance des systèmes matériels et logiciels, cela peut être une évidence. Ils n'auront pas à s'inquiéter de manquer de capacité, car les centres HPC cloud peuvent évoluer selon les besoins. Nous n'avons jamais entendu parler d'une simulation qui manque de place sur un centre HPC cloud.

Plus important encore, vous pouvez avoir un débit ultra-rapide, vos résultats revenant en quelques minutes au lieu de la nuit ou des jours plus tard – et vous pouvez commencer en aussi peu de temps qu'il faut pour ouvrir un compte.

Pour en savoir plus sur HPC, visitez ANSYS.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.