Vous ne pouvez pas simplement jeter vos applications et vos données d'entreprise dans le nuage et espérer le meilleur. Tu dois optimiser ces systèmes, ces réseaux • The Register – Bien choisir son serveur d impression
Sponsorisé Vous avez donc lancé de nombreuses applications dans le nuage et vous avez hâte de passer de joyeuses années de fonctionnement à faible coût et sans souci, où vous pouvez fournir une quantité considérable de puissance de calcul sur simple pression d'un commutateur. Toutes nos félicitations. Mais vous ne pensiez pas vraiment que ce serait si facile, non?
Le secret occulte de l'informatique en nuage réside dans le fait qu'une taille unique ne convient pas à tous, mais que cela dépend des applications et des compromis que vous êtes prêt à faire. Les rêves d'accès rapide et sans heurts ne se concrétiseront pas si cette réalité n'est pas comprise et comprise. Vous ne voulez pas déployer des applications lentes et encombrantes qui laissent les utilisateurs furieux. Don't qu'allez vous faire à propos de cela?
Un sondage mené l'an dernier par SIOS Technology et ActualTech Media Research auprès de 390 professionnels de l'informatique a révélé que 98% des déploiements dans le nuage rencontraient un problème de performances chaque année. Près de la moitié (45%) d'entre eux ont trouvé le hamster tomber du volant une fois par semaine et 18% ont signalé des problèmes quotidiennement.
Pourquoi les applications en nuage continuent-elles à offrir des niveaux de performances médiocres? Le problème réside dans les personnes «utilisant l'application ou la base de données», selon 64% des clients du cloud irrités. La solution la plus simple, vraisemblablement, est de ne pas utiliser l’application ou la base de données, bien que ce soit un peu contre-productif, nous devrions donc trouver d’autres options.
Vous pouvez optimiser votre logiciel hébergé sur le cloud pour résoudre certains problèmes. L'administrateur de base de données doit bricoler les tailles de cache et de compartiment, ainsi que les paramètres d'E / S, pour voir combien de temps supplémentaire ils peuvent extraire du système, tout en augmentant les ressources de la base de données, telles que la capacité de stockage, afin qu'elle ne soit pas saturée. . Vous devez également vous assurer que vous avez la bonne application ou base de données pour le travail. Soulever et transférer du code hérité dans un environnement cloud peut nuire aux performances de la nouvelle infrastructure et peut donc nécessiter une retouche.
Après tout cela, vous devrez peut-être examiner l'infrastructure matérielle sous-jacente elle-même. Avez-vous le bon matériel – ou même la bonne architecture cloud – pour le travail?
Faire correspondre la charge de travail au processeur ne devrait pas être trop compliqué, car les constructeurs construisent des CPU de serveur avec le multi-threading et la virtualisation à l’esprit. Intel® optimise même aujourd'hui ses puces Xeon® Scalable pour les algorithmes d'apprentissage automatique, éliminant ainsi le besoin de GPU pour certaines charges de travail de l'IA, telles que l'inférence.
Espace de rangement
Vous pouvez optimiser d'autres éléments de votre infrastructure cloud, notamment le stockage. L’analyse de la charge de travail a un impact important sur votre choix de stockage, que vous utilisiez une architecture de cloud public, hybride ou privé. L'archivage et la reprise après sinistre conviennent parfaitement aux environnements de cloud public, car l'accent est mis sur l'indépendance du lieu et la réplication fiable plutôt que sur la latence.
Si vous utilisez des disques en rotation pour des charges de travail transactionnelles ou analytiques à haut débit, vous pouvez augmenter les performances avec un stockage à l’état solide judicieusement placé. Les disques SSD Flash NAND doivent prendre en charge l'interface NVMe PCIe, optimisant ainsi leurs capacités IOP. Toutes les architectures SSD ne sont pas égales. Les cellules multicouches (stockant plusieurs bits par cellule flash) disparaissent rapidement, cédant la première place aux architectures de cellules à trois niveaux (TLC), qui deviennent de plus en plus courantes sur les marchés des entreprises. Elles stockent trois bits par cellule NAND et, bien qu’elles offrent des débits de données inférieurs à ceux des SLC, elles sont meilleur marché et plus denses, ce qui les aide à pénétrer plus rapidement sur le marché des disques durs. Cependant, Intel® a développé QLC, une cellule à quatre niveaux, qui ajoute un bit supplémentaire, augmentant la densité d'un autre tiers.
Il est important de placer votre stockage le plus près possible de l'application, en particulier s'il est suffisamment sensible au temps de latence pour vous permettre de passer à un support SSD: vous devez localiser votre capacité SSD à proximité des charges de travail que vous exécutez. Si cela se trouve dans le cloud public, les contrats de paiement à la carte vous aident à éviter l’investissement initial. Cependant, assurez-vous de lire les petits caractères. Les fournisseurs de services peuvent limiter vos IOP mensuels.
Super souvenir
Ces rehausseurs de performances peuvent offrir des avantages concrets, mais pour des performances encore meilleures dans le cloud, vous aurez peut-être besoin de composants encore plus rapides. Le traitement des données en mémoire est une réponse ici.
La DRAM conventionnelle vous rapproche du processeur, réduisant ainsi le temps de latence. Cependant, il est coûteux, de faible capacité et volatile, ce qui entraîne une latence accrue si vous devez y recharger des données.
Plutôt que de rejeter la mémoire en tant que ressource volatile petite, coûteuse et volatile, envisagez la mémoire de stockage persistante, qui associe capacité et faible temps de latence. Il offre des vitesses plus proches de la mémoire DRAM, avec la non-volatilité des disques SSD.
La mémoire persistante nécessite une nouvelle architecture. Parallèlement à Micron, Intel® a développé 3D XPoint ™, une architecture de mémoire plus rapide que la mémoire flash NAND utilisée dans les disques SSD et offrant une mémoire persistante, contrairement à la DRAM. Donc, il comble le fossé entre les deux.
Intel® a constaté que le remplacement de la capacité des disques SSD classiques par une combinaison de disques SSD et Optane ™ augmentait le nombre d'opérations d'E / S par seconde (IOP) d'un facteur 1,9, tout en réduisant le temps de latence d'environ un tiers. Le logiciel d’accélération de la mémoire cache a permis d’accroître les performances magiques des applications de stockage.
Ces systèmes de mémoire persistante ont leur place dans des zones exigeant une infrastructure intensive en mémoire et en E / S, telle que la simulation, la formation en intelligence artificielle, le trading financier et le traitement de paquets réseau. De nombreuses autres applications peuvent également en bénéficier, mais vous devez analyser votre charge de travail pour déterminer la bonne combinaison de mémoire persistante et de disques SSD.
La technologie Intel® Optane ™ a trouvé sa place tant dans les environnements sur site que dans le cloud public. Par exemple, Google a annoncé un partenariat avec Intel® et SAP pour offrir des machines virtuelles avec une mémoire persistante Optane ™ DC pour les charges de travail SAP en juin 2018. Quelques mois plus tard, il proposait d'inclure des machines virtuelles avec une mémoire totale de 7 To avec Optane ™. .
Performance cloud hybride
Cependant, toutes les charges de travail ne sont pas adaptées au cloud public. Le volume de données, les exigences de portabilité des données, la sécurité et la conformité, ainsi que le coût total de possession (TCO) jouent tous un rôle dans ces discussions, tout comme la proximité de ressources héritées qui ont des exigences rigoureuses en matière de latence et qui ne quitteront jamais le centre de données.
Il est également plus difficile de mesurer les performances et d’effectuer une analyse des causes profondes dans le cloud, car vous n’avez pas le plein contrôle de cet environnement. Cela peut être dû au fait que divers problèmes de connexion ou de configuration sont opaques, en particulier dans un environnement de plate-forme en tant que service où vous n’avez pas autant de visibilité que dans un scénario infrastructure en tant que service.
Les applications gourmandes en E / S, ou celles avec des charges de travail spécialisées personnalisées nécessitant beaucoup de réglage, conviennent généralement mieux à un environnement de cloud local où vous avez plus de contrôle sur le matériel. Toutefois, cela ne signifie pas que vous devez échanger la flexibilité d’une infrastructure cloud pour un contrôle plus étroit des performances.
Les systèmes hyper-convergés offrent la possibilité de créer une combinaison étroitement intégrée de ressources réseau, de stockage et informatiques virtualisées dans vos propres locaux. À leurs débuts, les entreprises les utilisaient principalement comme solutions discrètes pour des projets spécifiques. Ils approchent toutefois d’un point de rupture en évoluant vers des options plus classiques que vous pouvez utiliser de manière plus systématique dans votre environnement informatique. La société de conseil sur le marché Storage Switzerland souligne les améliorations apportées au logiciel sous-jacent qui gère les ressources de stockage, de mise en réseau et de calcul dans les nœuds hyperconvergés. Il mentionne également l’attraction croissante qu’ils gagnent avec les éditeurs d’applications de premier plan, qui certifient que leurs logiciels sont compatibles avec ces environnements.
Nous constatons que les fournisseurs de matériel et de logiciels travaillent plus étroitement ensemble sur les certifications d'infrastructure hyper-convergée (HCI). Par exemple, VMware certifie désormais que son produit de stockage défini par logiciel vSAN est compatible avec les boîtiers Intel® HCI. En attendant, vous pouvez également acheter des boîtiers HCI évolutifs Intel® Xeon® exécutant Azure Stack de Microsoft et se connectant à l'infrastructure et aux services de nuage d'arrière-plan du géant Windows.
Les environnements de cloud hybrides mettent en évidence un autre composant à prendre en compte dans les performances du cloud: la mise en réseau. Le réseau est plus important que jamais dans un environnement cloud, car il joue un rôle important dans les problèmes de latence. Ces préoccupations poussent les entreprises à occuper des espaces de colocation dans des installations directement connectées, et donc géographiquement proches, à de grands hubs de cloud. Par exemple, la société de logiciels et de services géospatiales ESRI a pris place dans un centre de stockage situé à proximité de Seattle afin d’obtenir une connexion directe à faible latence avec son fournisseur de services de cloud computing à très grande échelle.
Vous pouvez utiliser une combinaison de techniques sous la bannière de l'optimisation WAN pour améliorer les performances dans une configuration de cloud hybride. La mise en cache des données permet de conserver les informations nécessaires au composant sur site de votre solution de cloud hybride, évitant ainsi à la fois la perte de performances et le coût potentiel de la retransmission par un fournisseur de services de cloud public. La déduplication et la compression peuvent réduire, et donc accélérer, le trafic entre votre cloud et les sites sur site.
Très peu de choses sont vraiment garanties dans le cloud. Les fournisseurs de services indiquent clairement que vous êtes responsable de nombreuses mesures de sécurité dans un environnement de cloud public. De même, les performances dépendent souvent de vous, à moins que vous n'utilisiez une solution de logiciel en tant que service en boucle entièrement fermée dans laquelle vous n'avez aucune contribution dans la configuration sous-jacente. Si vous considérez le cloud comme une ressource stratégique qui prend en charge les applications de votre entreprise, il est utile de prendre le temps de décider de l'emplacement des charges de travail hautes performances et de la manière dont vous pouvez choisir les combinaisons matérielles et logicielles adaptées à vos besoins de performances. avoir besoin.
Sponsorisé par Intel®
Sponsorisé:
MCubed – La conférence ML, AI et Analytics de The Register.
Commentaires
Laisser un commentaire