La divergence des blocs et des fichiers de convergence – Les meilleures astuces pour son serveur
Le monde des infrastructures hyperconvergées (HCI) et convergées est devenu une source de confusion totale avec les destructeurs de marché qui entraînent une croissance hyperactive et incontrôlée de la terminologie marketing.
Par exemple: IHM, IHM désagrégée, IHM distribuée, infrastructure composite, infrastructure composite / désagrégée, infrastructure convergée, convergence ouverte, HCI hybride, HCI 2.0, infrastructure hybride convergée et infrastructure cloud hybride.
Voyons si nous pouvons donner un sens à tout. Mais d’abord une brève discussion sur la vie avant la convergence des infrastructures.
Nous pouvons voir une progression, en commençant par les ordinateurs centraux et en passant par les mini-ordinateurs, l’achat de composants (décomposés), l’infrastructure convergée (IC), l’infrastructure hyperconvergée (HCI), le HCl désagrégé (dHCI) en systèmes composites.
Sommaire
C’est le mainframe qui a commencé
Dans les années 50, IBM a créé des systèmes mainframe, constitués de processeurs étroitement intégrés et d'une mémoire (devenue serveurs), de connecteurs réseau, de périphériques de stockage et de logiciels système. Celles-ci étaient complexes et coûteuses.
Des ingénieurs expérimentés comme Ken Olsen chez Digital Equipment et d’autres sociétés sont venus travailler dans les années 1960 et ont créé des mini-ordinateurs. Ces versions plus petites et beaucoup moins chères des ordinateurs centraux utilisaient une technologie plus récente en matière de semi-conducteur, Ethernet, une bande, puis un stockage sur disque et un logiciel système.
IBM a lancé son premier ordinateur personnel le 12 août 1981, après avoir été pionnier dans les années 1970 avec Altair, Apple, Commodore et Tandy. Les ordinateurs utilisaient des technologies de semi-conducteurs, des stations de conseil et des connexions réseau plus récentes, ainsi que des logiciels tiers tels que CPM et DOS.
Au fil du temps, la technologie a évolué pour devenir des postes de travail et des serveurs. Ces serveurs utilisaient Windows ou Unix et déplaçaient des mini-ordinateurs. Le marché des serveurs a fortement progressé et a poussé les ordinateurs centraux dans un créneau.
L’architecture à trois niveaux est apparue à partir du milieu des années 90, avec des types de présentation, d’application et de données. L’achat de systèmes par la société s’est compliqué, avec un rack rempli de serveurs, de logiciels système, de baies de stockage et d’équipements réseau achetés séparément. Le client ou, plus vraisemblablement, une société de service a dû installer et intégrer ce kit ou ces blocs de composants étroitement connectés.
Les clients qui achetaient directement chez des fournisseurs ne bénéficiaient pas de contrats de support avec chaque fournisseur et aucune gorge ne devrait être étouffée lorsque les choses tournaient mal.
Infrastructure convergée
Cisco est entré sur le marché des serveurs en 2009 et collabore avec EMC pour développer des blocs virtuels, des garde-corps de serveurs pré-configurés et intégrés, des logiciels système, des réseaux et des composants de stockage externe (SAN). Cela s'appelait une approche d'infrastructure convergée.
EMC a produit des blocs virtuels, appelés vBlocks, via sa division VCE. Celles-ci étaient plus faciles à acheter que les systèmes informatiques traditionnels et à installer, utiliser, gérer et faire fonctionner avec VCE en tant que filiale.
NetApp ne souhaitait pas commencer à construire ce logiciel, mais a rejoint Cisco à la fin de 2010. Ensemble, ils ont développé l'architecture de référence FlexPod CI, permettant à leurs partenaires respectifs de construire et de vendre des systèmes CI.
Systèmes CI multipliés par des configurations spécifiques à l'application. D'autres fournisseurs ont bientôt développé des architectures de référence, telles qu'IBM avec VersaStack et Pure Storage avec FlashStack, toutes deux en 2014.
Tous ces systèmes CI sont des conceptions au niveau du rack qui viennent dans un rack standard de 42 pouces.
Infrastructure hyper-convergée
En 2010, un nouvel ensemble de fournisseurs, tels que Nutanix, SimpliVity et Springpath, ont compris que des systèmes similaires pouvaient être construits à partir de blocs informatiques plus petits en combinant un serveur, un logiciel de système de virtualisation, directement liés au stockage dans une seule boîte ou boîte en rack 2U ou 4U, sans groupe de stockage partagé externe.
La puissance du système peut être augmentée en ajoutant plusieurs de ces boîtes ou nœuds préconfigurés et faciles à installer, et en regroupant dans un SAN virtuel l'espace de stockage directement associé à chaque serveur.
Pour les distinguer des systèmes CI, on les a appelés systèmes d’infrastructure hyperconvergée (HCI).
EMC est entré en vigueur en 2016 avec VxRAIL, à l'aide du logiciel VMware vSAN. Il est devenu le fournisseur dominant après l’acquisition de Dell cette année-là, suivi de Nutanix, qui occupe toujours la deuxième place. Le package de poursuite – ou peut-être aussi – inclut Cisco-Springpath, Maxta, Pivot3 et Scale Computing.
IHM hybride ou désagrégé
Une caractéristique de HCI est que les systèmes sont mis à l'échelle en ajoutant des boîtes prédéfinies combinant calcul, stockage et connectivité réseau. Vous ajoutez une autre boîte s'il y a trop peu de calcul ou trop peu de mémoire. Cela signifie que les charges de travail gourmandes en ressources informatiques peuvent obtenir trop de stockage et que les charges de travail exigeantes en main-d'œuvre peuvent nécessiter trop de calculs. Cela gaspille des ressources et des threads de stockage inutilisé ou calcule une ressource dans le système HK. Il ne peut être utilisé nulle part ailleurs.
En réponse au problème de ressources sévère, des solutions pour le calcul et le stockage de la mise à l'échelle séparés dans un environnement HCl ont été développées vers 2015-2016. En fait, le réseau de stockage virtuel virtuel HCI a été redécouvert en tant que réseau de stockage physique, en utilisant des nœuds distincts optimisés en termes de calcul et de stockage, ou en accédant à l'accès d'urgence HCI à une ressource de stockage distincte.
Datrium était un mouvement de premier plan de cette solution au problème de ressources bloquées par HCI. Fondée en 2012, la société a mis le produit sur le marché en 2016. Elle a affirmé que l'hyperconversion avait été surconvertie et que le système contenait une conception à convergence ouverte.
Près de HCI
Rapide jusqu'en juin 2017, NetApp a présenté son produit HCI, appelé NetApp HCI. Les serveurs d'urgence HCI ont accès à une baie 100% Flash SolidFire et le système peut faire évoluer les calculs et le stockage indépendamment, selon NetApp.
Et maintenant, en 2019, HPE a lancé Nimble dHCI, qui associe des serveurs ProLiant à des baies de stockage Nimble. "D" dans dHCI signifie désagrégé.
Logiquement, ces systèmes HCI de deuxième génération, appelés HCI désagrégés ou distribués, sont moins convergents que les systèmes HCI, mais plus convergents que les systèmes CI. Ils sont plus compliqués à commander, à acheter et à configurer que les systèmes HCI du gène 1, mais les fabricants prétendent qu’ils offrent une expérience de type 1 semblable à celle du HCI. Une expression plus précise de ces produits peut être "proche de HCI".
Enrico Signoretti, consultant GigaOm, a déclaré que HCI était l’apparence d’un système de l’extérieur pour les utilisateurs. Dans un tweet du 2 juillet 2019, il écrivait: "HCI concerne la simplification de l'infrastructure, une boîte qui vous donne la totalité de la pile. Nous pouvons discuter de ce qui est dans la boîte, mais avant tout, vous la verrez intégrée de l'extérieur."
Il a développé cette idée dans un tweet de suivi: "Après tout, qu'est-ce que HCI? SW + processus d'installation / de distribution simplifié + gestion intégrée. De nombreuses solutions CI et HCI ne disposent pas de la bonne intégration pour gérer l'infrar, c'est le véritable problème IMO "Sommes-nous vraiment inquiets de la configuration physique de HW? Et pourquoi?"
C’est peut-être le cas, mais il est préférable d’éviter les termes de catégorie de produit informatique susceptibles de créer de la confusion et d’être trompeurs.
HCI désagrégé
Dire qu'un système hyperconvergé désagrégé est un système hyperconvergé est un oxymoron.
Le problème est, il n'y a pas de définition définitive de HCI. La confusion prévaut. Par exemple, dans un blog récent, NetApp a déclaré: "L'un des défis de la mise au point d'un produit innovant tel que NetApp HCI est qu'il diffère des définitions de marché existantes".
Le blogueur de NetApp, Dean Steadman, spécialiste des produits HCI, a déclaré qu'une nouvelle catégorie venait de débarquer. "À cette fin, IDC a annoncé une nouvelle sous-catégorie" désagrégée "du marché des IHM dans son dernier suivi mondial trimestriel des systèmes convergés. IDC élargit la définition de HCI afin d'inclure une catégorie de produits désagrégée permettant aux clients de faire évoluer leurs systèmes de manière non linéaire. , contrairement aux systèmes traditionnels qui nécessitent des nœuds pour exécuter un hyperviseur. "
Steadman a écrit: "NetApp HCI est une infrastructure de cloud hybride", ce qui signifie que les conteneurs qui y sont exécutés peuvent être déplacés vers un cloud public et que les données qui y sont stockées peuvent être déplacées vers et depuis le cloud public.
En tant que terme, "dHCI" est utile – dans une certaine mesure. Il sépare les systèmes moins hyperconvergés – Datrium, DataCore, HPE dHCI et NetApp Elements HCI – des systèmes HCI classiques – Dell EMC VxRail, Cisco HyperFlex, HPE SimpliVity, Maxta, Nutanix, Pivot3 et Scale Computing.
Où allons-nous d'ici?
Les systèmes CI, HCI et dHCI sont statiques. Les programmes peuvent utiliser leurs ressources physiques, mais les systèmes ne peuvent pas être partagés et reconfigurés de manière dynamique pour mieux s'adapter à des charges de travail spécifiques.
Ceci est riche en systèmes composites, initiés par HPE avec Synergy en 2015, où un ensemble de processeurs, mémoire, accélérateurs matériels, logiciels système, mémoire de classe de stockage, stockage et réseau sont rassemblés dans des groupes de ressources.
Lorsque la charge de travail d'une application est planifiée pour s'exécuter dans un centre de données, les ressources dont elle a besoin sont sélectionnées et composées dans un système dynamique qui correspond au besoin de la charge de travail particulière. Il n'y a pas de gaspillage de stockage, de calcul ou de bande passante réseau.
Les ressources résiduelles des pools peuvent être utilisées pour composer dynamiquement des systèmes virtuels pour d'autres charges de travail. Une fois la charge de travail terminée, les ressources physiques sont renvoyées dans leurs pools pour être réutilisées dans les systèmes virtuels nouvellement créés.
L'idée est que si vous avez un nombre suffisamment important de ressources variables, vous devez optimiser vos ressources avec le moins de capacité gaspillée dans un type de ressource.
Des fournisseurs tels que HPE, Dell EMC (MX700), DriveScale, Kaminario, Liqid et Western Digital développent tous les systèmes composites.
Composition de pulvérisation Inger
Blocs et fichiers Je pense que les systèmes CI, HCI, DHCI et composites existeront pendant quelques années. Au fil du temps, les systèmes composites entreront dans la catégorie CI et les systèmes CI deviendront composites. Les systèmes HCI et dHCI peuvent également obtenir un implant composite. Après tout, ce n'est qu'un autre moyen de virtualiser les systèmes.
Imaginez un fournisseur pointant vers un produit HCI complexe défini par logiciel. Cela semble être une proposition logique, et HPE a probablement commencé sur cette voie en faisant de SimpliVity HCI un élément composite de son système Synergy Composite.
Préparez-vous pour un nouvel acronyme blizzard. CCI – Composable CI, HCCI – Systèmes convergés hyper-composables ou infrastructures composables convergentes hybrides, même les systèmes ultra générés hybrides ultra-commercialisés – HUMBUGS.
Commentaires
Laisser un commentaire