Serveur d'impression

Fin d'une époque, début d'une autre – Serveur d’impression

Par Titanfall , le 2 mai 2019 - 5 minutes de lecture

Ce qui constitue un système d'exploitation change avec le travail effectué par un système et l'architecture qui définit comment ce travail est effectué. Tous les systèmes d'exploitation tendent à se développer à partir de leurs fonctionnalités principales initiales, intégrant de plus en plus de fonctions. Et puis, de temps en temps, il y a une rupture, un changement de technologie qui marque un changement fondamental dans la manière dont l'informatique est réalisée.

Il est juste de dire que Windows Server 2016, qui a fait ses débuts officiels à la conférence Ignite de Microsoft cette semaine et qui commencera à être commercialisé le 1er octobre, est au cœur d'un changement profond où un système d'exploitation commencera à ressembler davantage à un logiciel distribué. substrat construit par des hyperscalaires et moins comme l’ordinateur central IBM, un système DEC VAX ou un système Unix du passé.

En un sens, il existe réellement deux plates-formes système Windows de Microsoft au moment où Windows Server 2016 arrive sur le marché.

L’important pour Microsoft actuel entreprise est le serveur Windows qui ressemble et ressemble plus ou moins à Windows Server 2012, son prédécesseur, et qui prend en charge les systèmes de fichiers, les environnements d'exécution et les protocoles familiers que les applications Windows actuelles doivent exécuter. Bien entendu, il existe toujours des possibilités d'optimiser le fonctionnement de Windows Server sur les nouveaux processeurs et les périphériques d'E / S, et ils revêtent une grande importance pour les clients. C’est ce serveur Windows qui laissera la base installée de dizaines de millions de clients qui exploitent des plates-formes Windows dans les paniers de données et les datacenters du monde, et nous nous attendons à ce qu’ils passent progressivement de Windows Server 2008 et 2012 à 2016 dans les années à venir. (Les magasins Windows Server 2003 restants qui fonctionnent sur des systèmes d'exploitation qui ont perdu la prise en charge en juillet 2015 ne passeront probablement pas complètement à Windows Server 2016, mais nous verrons.)

L’autre serveur Windows et celui qui est important pour Microsoft futur, est celui dont son propre nuage public Azure (nous avons eu un aperçu exclusif à l'intérieur de leurs centres de données cloud) meurt d'envie de le mettre la main sur et qui est également infusé avec les technologies d'Azure, y compris ses systèmes de fichiers, ses réseau défini par logiciel et une variante simplifiée du noyau Windows Server principal appelée Nano Server.

Le long chemin qui va du serveur de fichiers au centre de données et au cloud

Le mois dernier, avant le lancement de Windows Server 2016, Microsoft célébrait deux décennies de Windows en tant que système d'exploitation pour serveurs. Mais les origines remontent beaucoup plus loin que cela, pour ceux d'entre nous qui avons regardé cette métamorphose de MS-DOS à partir du logiciel système sur le PC IBM en un environnement de fenêtres qui rivalisait avec les stations de travail Apple et Unix. Nous allons simplifier à l'extrême certains et ignorer les manipulations de Microsoft avec Unix (souvenez-vous de Xenix?) Et OS / 2 (souvenez-vous de LAN Manager?) Et disons simplement que Microsoft a toujours voulu pénétrer dans le centre de données en sautant du bureau au placard puis en s'étirant dans le maison en verre – et le faire avec Windows.

En novembre 1989, alors que Microsoft et IBM étaient toujours de fervents partenaires dans l’espace serveur émergent, les deux parties se sont engagées à rendre le système d’exploitation OS / 2 32 bits fonctionnant sur des processeurs Intel X86 – les prédécesseurs des Xeon avant qu'Intel ne dispose réellement de serveur. puces spécifiques – la plate-forme de serveur privilégiée pour les «applications graphiques», quelle que soit cette qualification. À cette époque, un serveur costaud avait une seule puce 80386 ou 80486, 4 Mo de mémoire principale et un lecteur de disque de 60 Mo proposé dans un facteur de forme énorme de 5,25 pouces. C’était une décennie avant que Google commence à créer ses propres serveurs en rack à partir de pièces de base. Trois ans plus tard, en octobre 1992, Windows a véritablement démarré sur des systèmes dotés de Windows pour Workgroups 3.1, et le bal a vraiment démarré pour Windows sur le serveur un an plus tard, lorsque la version bien meilleure de Windows pour Workgroups 3.11 est sortie.

Bien entendu, Windows NT, abréviation de «New Technology», a été créé en juillet 1993 avec la version Windows NT 3.1 et un nouveau noyau 32 bits chevauchant cette variante de serveur de fichiers bas de gamme de Windows 16 bits. et destiné à fonctionner sur les processeurs DEC Alpha, SGI MIPS, IBM PowerPC et Intel Itanium, ainsi que sur la famille de puces X86. C’est Windows NT qui a mis Microsoft sur la voie du siège du centre de données créé par DEC VAX et d’autres minis propriétaires à partir de la fin des années 1970 et des fournisseurs Unix à partir du milieu des années 1980. Lorsque Dave Cutler, l'inventeur du système d'exploitation VMS, a été transféré à Microsoft en 1988, avant même l'annonce de l'OS / 2 par IBM et Microsoft, l'écriture était sans aucun doute périlleuse. Cutler, qui est Senior Technical Fellow chez Microsoft depuis plus de 10 ans, a contribué à la création du noyau Windows NT, a travaillé sur diverses versions de Windows Server, puis à l'équipe de la plateforme Azure, et crée maintenant une infrastructure virtuelle pour le jeu en ligne Xbox Live. Plate-forme.

historique du serveur Windows "width =" 550 "height =" 176 "srcset =" https://3s81si1s5ygj3mzby34dq6qf-wpengine.netdna-ssl.com/wp-content/uploads/2016/09/windows-server-history.jpg 1095w, https://3s81si1s5ygj3mzby34dq6qf-wpengine.netdna-ssl.com/wp-content/uploads/2016/09/windows-server-history-768x245.jpg 768w "tailles" = "(max-width: 550px) 100vw, 550px "/></p>
<p>Ce qui nous amène à notre point. Windows Server 2016 ne représente pas, comme le suggère le message marketing de Microsoft, 20 ans de ses aspirations pour les systèmes plutôt que pour les ordinateurs personnels. Il reste au moins dix ans d’histoire avant la sortie de Windows NT 4.0, et Microsoft trace actuellement la ligne de départ de son exécution vers le centre de données.</p>
<p>Nous admettrons qu'avec Windows NT Server 4.0, Microsoft était une plate-forme parfaitement crédible pour les PME et pouvait prendre Unix et la nouvelle plate-forme Linux en tant que plate-forme serveur et Web, ainsi que les tâches de service d'impression et de fichiers traditionnelles telles que Windows pour Workgroups et Windows. Les versions 3.1, 3.5 et 3.51 de NT faisaient exactement comme le mot “serveur” commençait à être utilisé couramment et remplaçaient le mot “système” dans le jargon du centre de données. Voici à quoi ressemble réellement l'histoire de Windows en tant que serveur:</p>
<p><img decoding=

Et si vous souhaitez entrer dans les détails, vous devez afficher toutes les variations et permutations de la plate-forme Windows Server au sein de chaque version et version. La plate-forme Windows Server – et lorsque nous en parlons, nous introduisons nécessairement des services de courrier électronique, de base de données, Web et d'applications, car ils constituent des facteurs clés de la pile – est beaucoup plus complexe et le devient de plus en plus avec le temps.

Jeffrey Snover, responsable technique et architecte en chef pour Windows Server et Azure Stack, a été informé La prochaine plateforme au siège de Microsoft avant le lancement de Windows Server 2016. Snover nous a guidés à travers les phases importantes du développement de la plate-forme Windows, à commencer par la commercialisation en masse rendue possible par Windows NT 4.0 Server.

Cette itération de Windows Server était moins chère que les Unix de l’époque qui fonctionnaient sur des machines RISC puissantes et coûteuses, et elle avait le mérite de fonctionner également sur du matériel X86 moins cher (mais un peu moins capable). Le matériel X86 prendrait de l'ampleur et Windows Server avec lui, finissant par vaincre les stations de travail Unix du marché et anéantissant le volume d'activité qui permettait à Sun Microsystems, Hewlett-Packard, IBM et Silicon Graphics de prendre en charge leurs activités de serveurs Unix respectifs. (De la même manière, la fabrication en volume de puces Core pour PC aide Intel à investir dans les puces de serveurs Xeon et Xeon Phi et à en tirer profit.) À ce stade, les systèmes Unix sont en déclin et IBM construit actuellement un parc OpenPower destiné à son architecture Power. la mer vers Linux Land, qui est dominé par les boîtes Xeon, tout comme le territoire beaucoup plus vaste (mesuré à la fois par les revenus des serveurs et les expéditions) du vaste continent de Windows Land.

En 2000, alors que le boom des réseaux Internet commençait à s'effondrer et que Linux remplaçait Unix, Microsoft approfondissait ses activités et Windows Server 2000 faisait un bond en avant fondamental avec l'architecture Intel Xeon. Les trois principaux développements ont été l’authentification Active Directory, qui pilote aujourd’hui une grande partie des activités Windows Server et Azure dans le cloud, la mise en cluster «Wolfpack» d’instances Windows pour le basculement et le partage de la charge de travail (qui a fait ses débuts sur Windows NT 4.0 Server mais a considérablement mûri avec Windows 2000 Serveur) et la prise en charge de la mise en cluster de mémoire partagée NUMA (non-uniform memory access) au sein d’un même système. La mise en cluster de Wolfpack et la prise en charge de NUMA ont fait de Windows Server une alternative crédible à Unix sur les grands systèmes de fer et a véritablement ouvert la porte à la messagerie de grande taille et aux serveurs de base de données pour la plateforme Windows.

La prise en charge initiale de NUMA permettait de prendre en charge jusqu'à 32 processeurs logiques et jusqu'à 128 Go de mémoire par le noyau Windows s'exécutant sur des serveurs Intel Itanium; il a ensuite été doublé pour atteindre 64 sockets dans un système à mémoire partagée. Sous Windows Server 2003, 64 processeurs logiques étaient standard dans Datacenter Edition (avec la mise à l’échelle Standard Edition et Enterprise Edition sur moins de sockets), et une variante spéciale autorisait une seule instance de Windows pour s'étendre sur 128 processeurs logiques avec deux partitions. (C'était avant la virtualisation du serveur Hyper-V, voyez-vous.) La façon dont Microsoft a implémenté NUMA dans Windows Server 2003 et Windows Server 2008, comptait les threads comme des processeurs logiques, de sorte que vous ne pouviez étendre sur 64 sockets que si vous aviez 64 -circuits Xeon avec HyperThreading désactivé. Avec Windows Server 2012, la prise en charge de NUMA a été étendue à 320 processeurs logiques. Avec Windows Server 2016, la mise à l'échelle NUMA est étendue à 512 processeurs logiques et, ce qui est peut-être plus important, la mémoire hôte maximale est étendue à 24 To, soit un facteur 6 fois supérieur à la limite supérieure avec Windows Server 2012.

Il est également important que l'hyperviseur de virtualisation de serveur Hyper-V sous-jacent intégré à Windows Server puisse prendre en charge des instances de machine virtuelle plus grandes. Avec Hyper-V 2016, l'hyperviseur prend en charge jusqu'à 240 processeurs logiques (un facteur multiplié par 3,7 par rapport à Hyper-V 2012) et la mémoire maximale par machine virtuelle est étendue à 12 To, soit un facteur multiplié par 12.

serveur-windows-2016-hyper-v-scale

Comme vous pouvez le constater, Hyper-V devance l’hyperviseur ESXi 6.0 de VMware en termes d’échelle, ce qui est significatif car la très grande majorité des charges de travail virtualisées par la pile de VMware reposent sur diverses versions de Windows Server. Microsoft réduit depuis quelque temps les comptes VMware et maintient la pression à la hausse. Cela dit, la plupart des applications n'ont pas besoin de la totalité de la mémoire et des calculs disponibles dans les hyperviseurs Hyper-V, ESXi, KVM ou Xen pour X86 Iron. Ce n'est plus un goulot d'étranglement pour la plupart des clients, tout comme la mise à l'échelle NUMA pour les systèmes d'exploitation et les bases de données ne l'a pas été depuis peut-être les générations Windows Server 2008. Pour être sûr, Microsoft doit suivre le nombre croissant de cœurs et l'empreinte de mémoire physique des machines Xeon E5 et Xeon E7, tout comme la communauté Linux doit le faire. Vous ne pouvez pas laisser des cœurs et des puces en mémoire.

Réduire est aussi important que Augmenter

Avec l'avènement du cloud public Azure et le backcasting de certaines technologies, telles que le stockage partagé et la mise en réseau définie par logiciel, sur la plate-forme Windows Server et le développement d'autres technologies visant spécifiquement Azure, telles que la variante minimaliste de Windows Server Nano Server. pour prendre en charge les applications créées à partir de fragments de code conteneurisés, appelés microservices, Windows dans le centre de données subit un autre changement de métaphore et une évolution technique.

Le point intéressant est que Windows Server gagne de nouvelles approches, mais n'élimine pas les anciennes, et c'est l'un de ses points forts. De manière très générale, et nous réalisons qu’il existe toujours des exceptions et des problèmes, les applications client / serveur et Web écrites pour les générations précédentes de Windows continueront de fonctionner. Le nouveau monde de Nano Server et des conteneurs est une option de déploiement et non une exigence. Le fait est que Microsoft comprend que le monde de l'entreprise souhaite passer à l'hybridation, ce qui signifie deux choses différentes. Hybride signifie d’une part, l’exécution de certaines applications en interne et d’autres dans le nuage, et, d’autre part, l’exécution de certaines applications en mode Windows Server hérité et d’autres applications plus récentes, en mode Nano Server et en mode conteneur.

C'est par nécessité, comme cela a toujours été le cas avec le traitement de données.

Les entreprises ont passé des années à construire des centres de données virtualisés qui ne ressemblent pas vraiment à des nuages ​​publics, selon Snover, et il a raison. Cela inclut les clients utilisant la plate-forme Microsoft, où la future pile Azure (qui devait être annoncée en octobre et qui a été repoussée) est basée sur Windows Server, mais il s’agit bien d’un animal très différent.

«Certaines personnes pensent qu’elles construisent les mauvaises choses, et cela me rappelle un vieil adage: Lorsque vous découvrez que vous êtes sur la mauvaise route, retournez-vous, quels que soient vos progrès. Beaucoup de gens ont l'impression d'avoir fait cela, ils ont le sentiment d'être sur la mauvaise voie. Nous entendons beaucoup parler de ceux qui font OpenStack. Cela fait déjà quelques années qu'ils ont un groupe d'experts en infrastructure et en logiciels open source, puis ils se demandent comment cela les aide à vendre plus de voitures ou de billets d'avion, en quoi cela déplace-t-il réellement l'entreprise? vers l'avant?"

windows-server-nano

Dans de nombreux cas, le développement d’applications continues sur des conteneurs et l’utilisation d’un système d’exploitation minimaliste est la raison pour laquelle Microsoft ajoute les conteneurs Windows Server, les conteneurs Hyper-V et la distribution Nano Server du système d’exploitation Windows Server avec la version 2016. version. Nous allons explorer ces technologies, qui ne sont pas encore déployées, même sur le cloud public Azure de Microsoft, mais une vue d'ensemble ici est appropriée. Nano Server consomme moins de mémoire et de stockage, sa surface d’attaque pour les logiciels malveillants est beaucoup plus réduite et il est également plus facile de mettre à jour et de rester sécurisé. Celles-ci sont conçues pour un avenir qui ne ressemble pas au passé et d'autres technologies, telles que le stockage hyperconvergé direct d'espaces de stockage et la pile SDN Azure sont ajoutées à Windows Server 2016 pour le rendre compatible avec d'autres types d'applications Windows Server et Azure.

Mais au final, à moins que les clients ne s’emballent, l’avenir ressemblera de plus en plus à Azure, comme l’incarnait l’approche Azure Stack pour la création d’un véritable nuage, et moins à la manière de Windows Server que la plupart des entreprises connaissent depuis longtemps. . Maintenant que ces technologies arrivent sur le marché, le moment est venu de creuser et d'analyser, ce que vous savez La prochaine plateforme aime faire.

Click to rate this post!
[Total: 0 Average: 0]

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.