Serveur d'impression

Veritas Cluster Server – Wikipedia – Serveur d’impression

Le 3 mai 2019 - 7 minutes de lecture

Veritas Cluster Server (renommée en tant que Veritas Infoscale Availability[1] et aussi connu sous le nom VCS et également vendu emballé dans le SFHA produit) est un logiciel de cluster haute disponibilité pour systèmes informatiques Unix, Linux et Microsoft Windows, créé par Veritas Technologies. Il fournit des fonctionnalités de cluster d'applications aux systèmes exécutant d'autres applications, notamment des bases de données, le partage de fichiers en réseau et des sites Web de commerce électronique.

La description[[[[modifier]

Les clusters à haute disponibilité (HAC) améliorent l'application disponibilité en les échouant ou en les basculant dans un groupe de systèmes, par opposition aux clusters hautes performances, qui améliorent l'application performance en les exécutant sur plusieurs systèmes simultanément.

La plupart des implémentations de Veritas Cluster Server tentent de créer une disponibilité dans un cluster, en éliminant les points de défaillance uniques en utilisant des composants redondants tels que plusieurs cartes réseau, des réseaux de stockage en plus de l'utilisation de VCS.

Des produits similaires incluent Fujitsu PRIMECLUSTER, IBM PowerHA System Mirror, HP Serviceguard, IBM Tivoli System Automation pour Multiplatforms (SA MP), Linux-HA, OpenSAF, Microsoft Cluster Server (MSCS), NEC ExpressCluster, Suite Red Hat Cluster, SteelEye LifeKeeper et Sun. Grappe. VCS est l’un des rares produits du secteur à offrir une haute disponibilité et une reprise sur sinistre sur tous les principaux systèmes d’exploitation, tout en prenant en charge plus de 40 technologies majeures d’application / de réplication prêtes à l'emploi.

VCS est principalement un logiciel de clustering au niveau utilisateur; la plupart de ses processus sont des processus système normaux sur les systèmes sur lesquels il opère et ne disposent d'aucun accès spécial au système d'exploitation ou aux fonctions du noyau des systèmes hôtes. Cependant, la technologie d'interconnexion (pulsation) utilisée avec VCS est un protocole propriétaire basé sur Ethernet de couche 2 qui est exécuté dans l'espace du noyau à l'aide de modules de noyau.[2] Le protocole d'appartenance à un groupe qui s'exécute au-dessus du protocole de pulsation d'interconnexion est également implémenté dans le noyau.[2] En cas de scission du cerveau, le module 'escrime' fait le travail d'arbitrage et de protection des données. La clôture est également implémentée en tant que module du noyau.

L'architecture de base de VCS comprend le transport à faible latence (LLT), le service d'abonnement global et le protocole de diffusion atomique (GAB), le démon de haute disponibilité (HAD) et les agents de cluster.

LLT se situe au bas de l'architecture et sert de canal entre GAB et le réseau sous-jacent. Il reçoit des informations de GAB et les transmet aux nœuds participants souhaités. Tandis que le module LLT sur un nœud interagit avec tous les autres nœuds du cluster, la communication est toujours 1: 1 entre les nœuds individuels. Ainsi, si certaines informations doivent être transmises sur tous les nœuds de cluster en supposant un cluster à 6 nœuds, 6 paquets différents sont envoyés sur des interconnexions de machine individuelles.

GAB détermine les machines qui font partie du cluster et le nombre minimum de nœuds devant être présents et fonctionnant pour former le cluster (ce nombre minimal est appelé numéro de départ). GAB agit comme une couche abstraite sur laquelle d'autres services de cluster peuvent être connectés. Chacun de ces services de cluster doit être enregistré auprès de GAB. Un nom de port unique prédéterminé (un alphabet unique) lui est attribué. GAB a à la fois un composant client et un composant serveur. Le composant client est utilisé pour envoyer des informations à l'aide de la couche GAB et s'enregistre avec le composant serveur en tant que port "a". HAD s'enregistre avec GAB en tant que port "h". La partie serveur de GAB interagit avec les modules GAB sur les autres nœuds de la grappe pour conserver les informations d'appartenance relatives aux différents ports. Les informations sur les membres indiquent si tous les modules de la grappe correspondant aux ports (par exemple, GAB (port "a"), HAD (port "h"), etc.) sur différents nœuds de grappe sont en bon état et peuvent communiquer entre eux de la manière prévue. .

La couche HAD est l'endroit où la haute disponibilité réelle pour les applications est fournie. C’est à cet endroit que les applications se connectent réellement au cadre de haute disponibilité. HAD s'est inscrit avec GAB sur le port "h". Le module HAD exécuté sur un nœud communique avec les modules HAD exécutés sur d'autres nœuds de cluster afin de garantir que tous les nœuds de cluster disposent des mêmes informations en ce qui concerne la configuration et l'état du cluster.

Pour que les applications puissent être connectées à High Availability Framework, un logiciel d’agent de cluster est nécessaire. Les logiciels d'agent de cluster peuvent être génériques ou spécifiques à chaque type d'application. Par exemple, pour qu'Oracle utilise la structure HA (haute disponibilité) dans VCS, un logiciel agent est nécessaire. VCS à la base est un logiciel de cluster générique et peut ne pas savoir comment différentes applications démarrent, s'arrêtent, surveillent, nettoient, etc. Ces informations doivent être codées dans le logiciel Agent. Le logiciel agent peut être considéré comme un traducteur entre l’application et le cadre de haute disponibilité. Par exemple, si HAD doit arrêter Oracle Database, par défaut, il ne saura pas comment l'arrêter. Toutefois, si l'agent de base de données Oracle s'exécute, il demandera à l'agent Oracle d'arrêter la base de données et, par définition, il émettra commandes spécifiques à la version et à la configuration de la base de données et surveillent l’état de l’arrêt.

Fichiers importants contenant les informations de configuration du cluster:

LLT: / etc / llttab, / etc / llthosts

GAB: / etc / gabtab

HAD (VCS): /etc/VRTSvcs/conf/config/main.cf, /etc/VRTSvcs/conf/config/types.cf, / etc / VRTSvcs / conf / sysname

Veritas Cluster Server pour Windows est disponible en tant que produit autonome. Il est également vendu avec Storage Foundation en tant que Storage Foundation HA pour Windows; Veritas Cluster Server pour AIX, HP-UX, Linux et Solaris est fourni en tant que produit autonome.

Le produit Veritas Cluster Server inclut VCS Management Console, un logiciel de gestion multi-cluster qui automatise la récupération après sinistre dans les centres de données.

Relâchez l'historique[[[[modifier]

  • Veritas Cluster Server 4 (fin de la prise en charge le 31 juillet 2011)
  • Veritas Cluster Server 5.0 (fin de la prise en charge le 31 août 2014)
  • Veritas Cluster Serv 5.1 (fin de la prise en charge le 30 novembre 2016)
  • Veritas Cluster Server 6.0, publié le 16 août 2012; Il y a 6 ans (2012-08-16)
  • Veritas Infoscale Availability 7.0 (anciennement Veritas Cluster Server)

Voir également[[[[modifier]

Références[[[[modifier]

  • Pfister, Greg. À la recherche de grappes. Prentice Hall. ISBN 0-13-899709-8.
  • Marcus, Evan; Hal Stern. Plans de haute disponibilité1: Conception de systèmes distribués résilients. John Wiley & Sons. ISBN 0-471-35601-8.

Liens externes[[[[modifier]


Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.