Serveur d'impression

AWS met tout en œuvre sur les processeurs Graviton2 basés sur les bras avec les instances EC2 de 6e génération – Serveur d’impression

Le 24 janvier 2020 - 24 minutes de lecture

<div _ngcontent-c17 = "" innerhtml = "

Vous pouvez aussi me lire 5 annonces ici.

Les cinq meilleures annonces AWS Re: Invent 2019 qui ont un impact sur votre entreprise aujourd'hui

Forbes Patrick Moorhead

Je travaille dans les processeurs depuis près de 30 ans en tant qu'OEM de systèmes, fournisseur de moteurs de recherche, fabricant de puces et maintenant PDG de la société d'analyse et de recherche Moor Insights & amp; Stratégie. Je dis à tous ceux qui écouteront que les semi-conducteurs sont chauds, et cela ne prend pas beaucoup de conviction de nos jours. Il vous suffit de vous tourner vers le club Apple, Amazon, Google et Microsoft pour un billion de dollars (ou presque) pour voir comment ces entreprises exploitent le silicium personnalisé pour améliorer leurs avantages concurrentiels.

Dans ce que je crois être la plus grande nouveauté sur les puces de centre de données cette année, a été annoncée aujourd'hui à AWS reInvent à Las Vegas. En avant-première aujourd'hui, AWS a annoncé ses nouvelles instances EC2 de 6e génération, dirigées par son Graviton2 basé sur les bras. J'avais analysé de nombreux processeurs de centre de données basés sur Arm, mais c'est différent. AWS a annoncé que ses instances M6g offrent près de «40% de performances supérieures à 20% de coûts inférieurs, ce qui équivaut à une amélioration des prix / performances de 40%» que les siennes. Instances M5. Maintenant, soulevez votre menton du sol.

AWS en tête de la diversité du silicium

Je crois qu'AWS mène actuellement la charge avec la diversité de son silicium de centre de données personnalisé, qui comprend Graviton de première génération dont nous avons parlé ici, Inferentia, dont nous avons parlé ici et tout son silicium personnalisé dans Nitro qui accélère les fonctions de gestion, de stockage, de mise en réseau et de sécurité. & nbsp; Le silicium personnalisé AWS est ajouté au silicium du processeur marchand d'Advanced Micro Devices, Intel, NVIDIA et Xilinx pour ce que je considère comme la plate-forme de calcul la plus large du cloud. & nbsp; Alors, plongons-nous dans Graviton2.

Spécifications Graviton2

Graviton2 est un SOC de 7 nm conçu sur mesure avec 64 cœurs Neoverse N1 à 64 bras (64 Ko de cache L1 / 1 Mo L2 chacun), prenant en charge la double SIMD et la prise en charge d'instructions spéciales pour le traitement int8 et fp16. Il s'agit de la première instance déployée commercialement à ma connaissance. C'est une bête à 30B transistors, qui est plus similaire en taille à EPYC d'AMD que tout autre processeur de centre de données. Les cœurs N1 sont connectés par une architecture maillée avec environ 2 To / s de bande passante, 32 Mo de cache L3 et 64 voies de PCIe gen 4. & nbsp; Les serveurs Graviton 2 prennent en charge 8 canaux DDR4-3200 de mémoire toujours cryptée via AES-256 avec un touche éphémère et jusqu'à 1Tbit / sec d'accélération de la mémoire de compression. & nbsp; Mes amis, il s’agit en fait d’un «gros noyau» avec des fonctionnalités très spéciales comme le fp16 natif pour l’inférence ML et la mémoire toujours cryptée. Appelez-moi impressionné.

Performances Graviton2

C’est une chose d’avoir une architecture de puce impressionnante, mais c’est une autre de fournir les performances nécessaires au datacenter. Il y a plus à réussir dans le centre de données, mais je donne à AWS le bénéfice du doute sur la fiabilité et la disponibilité étant donné que les services AWS sont…. fiable et disponible. Ce qui diffère dans les déclarations de performances d'AWS, c'est qu'il s'agit des performances d'AWS mesurées dans le centre de données AWS, exécutant le logiciel AWS par rapport aux instances M5 actuelles d'AWS dans le centre de données AWS.

Comparé à Graviton de première génération, AWS affirme que Graviton2 offre «7 fois plus de performances avec 4 fois les cœurs de calcul et 5 fois plus de mémoire». Il offre également un réseau de 25 Gbit / s et une bande passante EBS de 18 Gbit / s. Mais qu'en est-il par rapport à ses instances M5 alimentées par Intel Xeon Platinum 8000 series (basé sur Skylake et Cascade Lake SP) opérant tous les core-turbo à une fréquence soutenue de 3,1 GHz

Voici combien AWS dit que son instance M6g surpasse M5:

  • & gt; 40% de meilleures performances entières sur le taux SPECint2017 (estimation)
  • & gt; 20% de performances en virgule flottante supérieures au taux SPECfp2017 (estimation)
  • & gt; performances Java 40% supérieures sur SPECjvm2008 (estimation)
  • & gt; 20% de meilleures performances de service Web sur NGINX
  • & gt; 40% de meilleures performances sur Memcached avec une latence plus faible et un débit plus élevé
  • & gt; performances d'encodage multimédia 20% supérieures pour les vidéos 1080p en H.264 non compressées
  • Inférence BERT ML 25% supérieure
  • & gt; 50% de meilleures performances EDA sur l'outil Cadence Xcelium EDA

Ce sont de sérieux chiffres époustouflants partagés par AWS et rappelez-vous, ils n'ont pas été effectués dans un laboratoire vierge mais dans un centre de données AWS. N'oubliez pas non plus qu'AWS prévoit de facturer M6g 20% ​​de moins que M5. Je suis impatient de voir les clients comparer leurs applications sur M6g et comparer ces résultats aux benchmarks AWS ci-dessus. Je suis également intéressé par la façon dont Graviton2 se compare au 2Dakota du Nord Les instances du processeur Gen AMD EPYC (alias «Rome»), car AWS ne les a pas encore déployées. & nbsp;

Alors, que peut-il fonctionner aujourd'hui?

Donc, si je suis un client AWS, que puis-je exécuter sur les instances M6g basées sur Arm? AWS a déclaré que les clients pouvaient exécuter les éléments suivants:

  • OS / Environnement: Amazon Linux 2; Ubuntu 16.04 / 18.04 / 18.10; RHEL 7,6 / 8,0; SUSE Linux Enterprise Server pour Arm 15; Fedora Rawhide / Atomic; Debian 9.8; Docker Desktop Community et Docker Enterprise Engine (en version bêta) avec «plus à venir bientôt»
  • Conteneurs: Amazon ECS et Amazon EKS (en avant-première) et AWS dit que «la majorité (& gt; 70% à ce jour) des images officielles Docker hébergées dans Docker Hub prennent déjà en charge les systèmes Arm 64 bits avec x86».
  • Outils: AWS Marketplace, Systems Manager, CloudWatch, CodeBuild, CodeCommit, Cloud9, CodePipeline, Inspector, Batch, CDK, CodeDeploy, CodeStar, CLI, X-Ray et Amazon Corretto (distribution OpenJDK).
  • Services AWS: Amazon ElastiCache, EMR, Elastic Load Balancing

Ce que vous voyez ici est un début impressionnant pour les applications natives du cloud, mais comme vous vous en doutez, découvrez les environnements d'entreprise «lift and shift» comme SAP ou Oracle. VMware a déjà ESXi exécuté sur des instances basées sur Graviton. Cela ne veut pas dire qu’Oracle n’a pas annoncé la prise en charge d’Arm, car ils l’ont fait, mais n’ont pas (encore) pris en charge AWS EC2 M6g. Quant à SAP? Pas un coup d'œil.

Dans AWS mots, "Si vous utilisez un logiciel open-source, tout ce sur quoi vous comptez fonctionne très probablement sur les systèmes Arm aujourd'hui." De manière générale, si votre application est actuellement écrite pour X86 dans un langage compilé comme C # ou VB, les clients devront recompiler leur application pour fonctionner sur M6g. Si l'application est dans un langage interprété comme Python et JS, la recompilation n'est pas requise. Vous pouvez trouver des témoignages de clients et de partenaires intéressants sur l'AWS A1 page Web.

Futures instances planifiées pour 2020

Aujourd'hui, M6g est disponible en aperçu, mais AWS ne s'arrête pas là. Il a annoncé que les EC2 6 suivantse des instances de génération arriveront en 2020:

  • & nbsp;R6g: ces instances sont conçues pour les grands ensembles de données en mémoire avec stockage EBS (magasin de blocs élastiques)
  • C6g: ces instances sont conçues pour les charges de travail gourmandes en calcul avec stockage EBS
  • M6gd: ces instances sont M6 avec stockage NVMe local par instance
  • R6gd: ces instances sont conçues pour les grands ensembles de données en mémoire et incluent le stockage NVMe
  • C6gd: ces instances sont conçues pour des charges de travail intensives en calcul et incluent NVMe

Emballer

Je m'attendais à une mise à niveau de suivi des instances A1 annoncée lors de l'AWS re: Invent de l'année dernière, peut-être un «A2», mais rien de tel que la société a annoncé avec l'AWS Graviton2. AWS est très sérieux avec cette nouvelle puce, et je ne dis pas cela à la légère. Tout d'abord, c'est un nouveau 6e génération d'instances EC2 de génération qui commence par Graviton2, pas ce que j'ai vu comme un "nettoyeur de tuyaux" avec des instances A1 annoncées l'année dernière. & nbsp; AWS ne dérange pas quand il s'agit de nouvelles générations d'instances, et il ne déconne pas avec M6g car il comparait littéralement tête à tête avec les instances M5 actuelles.

Voici autre chose que je trouve impressionnant. Arm a publié l'IP N1 en février de cette année et AWS lance une pièce entièrement conçue et fabriquée sur la base de cette IP environ 10 mois plus tard. & Nbsp; Ce n'est pas ce que l'on attend d'un cycle de conception, de développement et de fabrication du silicium. & Nbsp; Littéralement inconnu. & Nbsp; Même en supposant qu'AWS ait obtenu l'IP tôt, ce que je suis sûr qu'ils ont fait, il s'agit d'un cycle de vie de développement de silicium aussi agile qu'on peut l'imaginer.

Vous vous demandez peut-être comment AWS pourrait faire quelque chose d'aussi important. Ce n'est pas le premier rodéo de l'équipe. Cette équipe a commencé sous le nom d'Annapurna Labs, acquise par Amazon au début de 2015. Avant son acquisition, AWS a travaillé en étroite collaboration avec Annapurna Labs sur Nitro, la sauce secrète d'AWS pour le déchargement, l'accélération et la virtualisation du calcul, du stockage et du réseau. Chaque puce Annapurna incluait des cœurs d'accélération ASIC et Arm, et je crois que des dizaines de millions de ces puces alimentent Nitro aujourd'hui.

L'autre chose à considérer est que la puce AWS Graviton2 a été conçue pour fonctionner à l'intérieur de sa propre architecture de centre de données AWS, et non des millions de variantes de centres de données d'entreprise. Il n'a pas non plus besoin d'être rétrocompatible avec 30 ans de logiciel, ce qui réduit considérablement le temps de test et le développement. Il est également important de comprendre qu'AWS a concédé sous licence le noyau N1 de base à Arm, qui comprend des milliards de R & amp; D de bras et qui sera exploité par de nombreux fabricants et limitant davantage le temps et les efforts de test. Ceci est différent des autres jeux de centre de données Arm qui ont développé leurs propres cœurs. Ce n'était pas de la naïveté; c'est qu'Arm ne concevait pas et ne concédait pas de licences pour les «gros cœurs».

Je crois que le degré de réussite d'AWS Graviton2 sera déterminé par le degré de conversion des performances et des coûts déclarés par ses clients ci-dessus en charges de travail réelles des clients. AWS a du travail à faire pour intégrer Graviton2 à tous ses outils et services. Cela dépendra également du prix / des performances des 2 AMDDakota du Nord La génération EPYC est disponible aujourd'hui auprès d'autres fournisseurs de cloud et le rapport prix / performances / watt du prochain silicium Xeon 10 nm d'Intel devrait arriver en 2H / 2020. Je me demande quel sera l’impact sur les autres acteurs du cloud. Est-ce que cela les poussera à approfondir avec Arm et AMD? Le temps nous le dira. Tenez également compte du fait que, jusqu'à présent, la plupart des discussions ont porté sur l'IaaS. Mais maintenant, considérez que tous les PaaS et SaaS d'AWS se situent au-dessus de cet IaaS qui pourrait avoir des performances 40% supérieures à un coût 20% inférieur.

Quel que soit le résultat, nous avons désormais encore plus de concurrence sur le marché des processeurs de centre de données. Comme je l'ai dit, le silicium est chaud.

Remarque: ce blog a été rédigé avec du contenu de Moor Insights & amp; Analyste en calcul de stratégie Matt Kimball.

Divulgation: Moor Insights & amp; La stratégie, comme toutes les sociétés de recherche et d'analystes, fournit ou a fourni des recherches, des analyses, des conseils ou des conseils rémunérés à de nombreuses entreprises de haute technologie de l'industrie, y compris Amazon.com, Advanced Micro Devices, Apstra, ARM Holdings, Aruba Networks, AWS , Stratégies A-10, Bitfusion, Cisco Systems, Dell, DellEMC, Dell Technologies, Diablo Technologies, Digital Optics, Dreamchain, Echelon, Ericsson, Foxconn, Frame, Fujitsu, Gen Z Consortium, Glue Networks, GlobalFoundries, Google, HPInc ., Hewlett Packard Enterprise, HuaweiTechnologies, IBM, Intel, Interdigital, Jabil Circuit, Konica Minolta, Lattice Semiconductor, Lenovo, Linux Foundation, MACOM (Applied Micro), MapBox, Marvell, Mavenir, Mesosphere, Microsoft, National Instruments, NetApp, NOKIA, Nortek, NVIDIA, ON Semiconductor, ONUG, OpenStack Foundation, Panasas, Peraso, Pixelworks, Plume Design, Portworx, Pure Storage, Qualcomm, Rackspace, Rambus, Rayvolt E-Bikes, Red Hat, Samsung Electronics, Silver Peak, S ONY, Springpath, Sprint, Stratus Technologies, Symantec, Synaptics, Syniverse, TensTorrent, Tobii Technology, Twitter, Unity Technologies, Verizon Communications, Vidyo, Wave Computing, Wellsmith, Xilinx, Zebra, qui peuvent être cités dans cet article.

">

Vous pouvez aussi me lire 5 annonces ici.

Les cinq meilleures annonces AWS Re: Invent 2019 qui ont un impact sur votre entreprise aujourd'hui

Forbes Patrick Moorhead

Je travaille dans les processeurs depuis près de 30 ans en tant qu'OEM de systèmes, fournisseur de moteurs de recherche, fabricant de puces et maintenant PDG de la société d'analyse et de recherche Moor Insights & Strategy. Je dis à tous ceux qui écouteront que les semi-conducteurs sont chauds, et cela ne prend pas beaucoup de conviction de nos jours. Il vous suffit de vous tourner vers le club Apple, Amazon, Google et Microsoft pour un billion de dollars (ou presque) pour voir comment ces entreprises exploitent le silicium personnalisé pour améliorer leurs avantages concurrentiels.

Dans ce que je crois être la plus grande nouveauté sur les puces de centre de données cette année, a été annoncée aujourd'hui à AWS reInvent à Las Vegas. En avant-première aujourd'hui, AWS a annoncé ses nouvelles instances EC2 de 6e génération, dirigées par son Graviton2 basé sur les bras. J'avais analysé de nombreux processeurs de centre de données basés sur Arm, mais c'est différent. AWS a annoncé que ses instances M6g offrent près de «40% de performances supérieures à 20% de coûts inférieurs, ce qui équivaut à une amélioration de 40% du rapport prix / performances» que ses propres instances M5. Maintenant, soulevez votre menton du sol.

AWS en tête de la diversité du silicium

Je pense qu'AWS mène actuellement la charge avec la diversité de son silicium de centre de données personnalisé, qui comprend Graviton de première génération dont nous avons parlé ici, Inferentia, dont nous avons parlé ici et tout son silicium personnalisé dans Nitro qui accélère la gestion, le stockage, la mise en réseau et fonctions de sécurité. Le silicium personnalisé d'AWS est ajouté au silicium du processeur marchand d'Advanced Micro Devices, Intel, NVIDIA et Xilinx pour ce que je considère comme la plate-forme de calcul la plus large du cloud. Plongeons-nous donc dans Graviton2.

Spécifications Graviton2

Graviton2 est un SOC de 7 nm conçu sur mesure avec 64 cœurs Neoverse N1 à 64 bras (64 Ko de cache L1 / 1 Mo L2 chacun), prenant en charge la double SIMD et la prise en charge d'instructions spéciales pour le traitement int8 et fp16. Il s'agit de la première instance déployée commercialement à ma connaissance. C'est une bête à 30B transistors, qui est plus similaire en taille à EPYC d'AMD que tout autre processeur de centre de données. Les cœurs N1 sont connectés par une architecture maillée avec environ 2 To / s de bande passante, 32 Mo de cache L3 et 64 voies de PCIe gen 4. Les serveurs Graviton 2 prennent en charge 8 canaux DDR4-3200 de mémoire toujours cryptée via AES-256 avec une clé éphémère et jusqu'à 1 Tbit / s d'accélération de la mémoire de compression. Chers amis, il s'agit vraiment d'un «gros noyau» avec des fonctionnalités très spéciales comme fp16 natif pour l'inférence ML et la mémoire toujours cryptée. Appelez-moi impressionné.

Performances Graviton2

C’est une chose d’avoir une architecture de puce impressionnante, mais c’est une autre de fournir les performances nécessaires au datacenter. Il y a plus à réussir dans le centre de données, mais je donne à AWS le bénéfice du doute sur la fiabilité et la disponibilité étant donné que les services AWS sont…. fiable et disponible. Ce qui diffère dans les déclarations de performances d'AWS, c'est qu'il s'agit des performances d'AWS mesurées dans le centre de données AWS, exécutant le logiciel AWS par rapport aux instances M5 actuelles d'AWS dans le centre de données AWS.

Comparé à Graviton de première génération, AWS affirme que Graviton2 offre «7 fois plus de performances avec 4 fois les cœurs de calcul et 5 fois plus de mémoire». Il offre également un réseau de 25 Gbit / s et une bande passante EBS de 18 Gbit / s. Mais qu'en est-il par rapport à ses instances M5 alimentées par la série Intel Xeon Platinum 8000 (basées sur Skylake et Cascade Lake SP) fonctionnant toutes avec un turbo à 3,1 GHz?

Voici combien AWS dit que son instance M6g surpasse M5:

  • Performances entières supérieures de 40% au taux SPECint2017 (estimation)
  • Performances en virgule flottante supérieures de 20% au taux SPECfp2017 (estimation)
  • Performances Java améliorées de 40% sur SPECjvm2008 (estimation)
  • > 20% de meilleures performances de service Web sur NGINX
  • > 40% de meilleures performances sur Memcached avec une latence plus faible et un débit plus élevé
  • Performances d'encodage multimédia 20% supérieures pour les vidéos 1080p non compressées en H.264
  • Inférence BERT ML 25% supérieure
  • > Performances EDA améliorées de 50% sur l'outil EDA Cadence Xcelium

Ce sont de sérieux chiffres époustouflants partagés par AWS et rappelez-vous, ils n'ont pas été effectués dans un laboratoire vierge mais dans un centre de données AWS. N'oubliez pas non plus qu'AWS prévoit de facturer M6g 20% ​​de moins que M5. Je suis impatient de voir les clients comparer leurs applications sur M6g et comparer ces résultats aux benchmarks AWS ci-dessus. Je suis également intéressé par la façon dont Graviton2 se compare au 2Dakota du Nord Les instances du processeur Gen AMD EPYC (alias «Rome»), car AWS ne les a pas encore déployées.

Alors, que peut-il fonctionner aujourd'hui?

Donc, si je suis un client AWS, que puis-je exécuter sur les instances M6g basées sur Arm? AWS a déclaré que les clients pouvaient exécuter les éléments suivants:

  • OS / Environnement: Amazon Linux 2; Ubuntu 16.04 / 18.04 / 18.10; RHEL 7,6 / 8,0; SUSE Linux Enterprise Server pour Arm 15; Fedora Rawhide / Atomic; Debian 9.8; Docker Desktop Community et Docker Enterprise Engine (en version bêta) avec «plus à venir bientôt»
  • Conteneurs: Amazon ECS et Amazon EKS (en avant-première) et AWS indique que «la majorité (> 70% à ce jour) des images officielles Docker hébergées dans Docker Hub prennent déjà en charge les systèmes Arm 64 bits avec x86».
  • Outils: AWS Marketplace, Systems Manager, CloudWatch, CodeBuild, CodeCommit, Cloud9, CodePipeline, Inspector, Batch, CDK, CodeDeploy, CodeStar, CLI, X-Ray et Amazon Corretto (distribution OpenJDK).
  • Services AWS: Amazon ElastiCache, EMR, Elastic Load Balancing

Ce que vous voyez ici est un début impressionnant pour les applications natives du cloud, mais comme vous vous en doutez, découvrez les environnements d'entreprise «lift and shift» comme SAP ou Oracle. VMware a déjà ESXi exécuté sur des instances basées sur Graviton. Cela ne veut pas dire qu’Oracle n’a pas annoncé la prise en charge d’Arm, car ils l’ont fait, mais n’ont pas (encore) pris en charge AWS EC2 M6g. Quant à SAP? Pas un coup d'œil.

En termes AWS, «si vous utilisez un logiciel open-source, tout ce sur quoi vous comptez fonctionne très probablement sur les systèmes Arm aujourd'hui.» De manière générale, si votre application est actuellement écrite pour X86 dans un langage compilé comme C # ou VB, les clients besoin de recompiler leur application pour fonctionner sur M6g. Si l'application est dans un langage interprété comme Python et JS, la recompilation n'est pas requise. Vous pouvez trouver des témoignages intéressants de clients et partenaires sur la page Web AWS A1.

Futures instances planifiées pour 2020

Aujourd'hui, M6g est disponible en aperçu, mais AWS ne s'arrête pas là. Il a annoncé que les EC2 6 suivantse des instances de génération arriveront en 2020:

  • R6g: ces instances sont conçues pour les grands ensembles de données en mémoire avec stockage EBS (magasin de blocs élastiques)
  • C6g: ces instances sont conçues pour les charges de travail gourmandes en calcul avec stockage EBS
  • M6gd: ces instances sont M6 avec stockage NVMe local par instance
  • R6gd: ces instances sont conçues pour les grands ensembles de données en mémoire et incluent le stockage NVMe
  • C6gd: ces instances sont conçues pour des charges de travail intensives en calcul et incluent NVMe

Emballer

Je m'attendais à une mise à niveau de suivi des instances A1 annoncée lors de l'AWS re: Invent de l'année dernière, peut-être un «A2», mais rien de tel que la société a annoncé avec l'AWS Graviton2. AWS est très sérieux avec cette nouvelle puce, et je ne dis pas cela à la légère. Tout d'abord, c'est un nouveau 6e génération d'instances EC2 qui commence par Graviton2, pas ce que je voyais comme un "cure-pipe" avec des instances A1 annoncées l'année dernière. AWS ne dérange pas en ce qui concerne les nouvelles générations d'instances, et il ne dérange pas avec M6g car il compare littéralement face à face avec les instances M5 actuelles.

Voici autre chose que je trouve impressionnant. Arm a sorti N1 IP en février de cette année et AWS lance une pièce entièrement conçue et fabriquée basée sur cette IP environ 10 mois plus tard. Ce n'est pas ce que l'on attend d'un cycle de conception, de développement et de fabrication du silicium. Littéralement inouï. Même en supposant qu'AWS a obtenu l'IP tôt, ce qui, j'en suis sûr, est à peu près aussi agile qu'un cycle de vie de développement de silicium comme on peut l'imaginer.

Vous vous demandez peut-être comment AWS pourrait faire quelque chose d'aussi important. Ce n'est pas le premier rodéo de l'équipe. Cette équipe a commencé sous le nom d'Annapurna Labs, acquise par Amazon au début de 2015. Avant son acquisition, AWS a travaillé en étroite collaboration avec Annapurna Labs sur Nitro, la sauce secrète d'AWS pour le déchargement, l'accélération et la virtualisation du calcul, du stockage et du réseau. Chaque puce Annapurna incluait des cœurs d'accélération ASIC et Arm, et je crois que des dizaines de millions de ces puces alimentent Nitro aujourd'hui.

L'autre chose à considérer est que la puce AWS Graviton2 a été conçue pour fonctionner à l'intérieur de sa propre architecture de centre de données AWS, et non des millions de variantes de centres de données d'entreprise. Il n'a pas non plus besoin d'être rétrocompatible avec 30 ans de logiciel, ce qui réduit considérablement le temps de test et le développement. Il est également important de comprendre qu'AWS a concédé sous licence le noyau N1 de base à Arm, qui comprend des milliards de dollars en R&D sur l'armement et qui sera exploité par de nombreux fabricants et limitant davantage le temps et les efforts de test. Ceci est différent des autres jeux de centre de données Arm qui ont développé leurs propres cœurs. Ce n'était pas de la naïveté; c'est qu'Arm ne concevait pas et ne concédait pas de licences pour les «gros cœurs».

Je crois que le degré de réussite d'AWS Graviton2 sera déterminé par le degré de conversion des performances et des coûts déclarés par ses clients ci-dessus en charges de travail réelles des clients. AWS a du travail à faire pour intégrer Graviton2 à tous ses outils et services. Cela dépendra également du prix / des performances des 2 AMDDakota du Nord La génération EPYC est disponible aujourd'hui auprès d'autres fournisseurs de cloud et le rapport prix / performances / watt du prochain silicium Xeon 10 nm d'Intel devrait arriver en 2H / 2020. Je me demande quel sera l’impact sur les autres acteurs du cloud. Est-ce que cela les poussera à approfondir avec Arm et AMD? Le temps nous le dira. Tenez également compte du fait que, jusqu'à présent, la plupart des discussions ont porté sur l'IaaS. Mais maintenant, considérez que tous les PaaS et SaaS d'AWS se situent au-dessus de cet IaaS qui pourrait avoir des performances 40% supérieures à un coût 20% inférieur.

Quel que soit le résultat, nous avons désormais encore plus de concurrence sur le marché des processeurs de centre de données. Comme je l'ai dit, le silicium est chaud.

Remarque: ce blog a été rédigé avec le contenu de Matt Kimball, analyste en informatique de Moor Insights & Strategy.

Divulgation: Moor Insights & Strategy, comme toutes les sociétés de recherche et d'analystes, fournit ou a fourni des recherches, des analyses, des conseils ou des conseils rémunérés à de nombreuses entreprises de haute technologie de l'industrie, y compris Amazon.com, Advanced Micro Devices, Apstra, ARM Holdings , Aruba Networks, AWS, A-10 Strategies, Bitfusion, Cisco Systems, Dell, DellEMC, Dell Technologies, Diablo Technologies, Digital Optics, Dreamchain, Echelon, Ericsson, Foxconn, Frame, Fujitsu, Gen Z Consortium, Glue Networks, GlobalFoundries , Google, HPInc., Hewlett Packard Enterprise, HuaweiTechnologies, IBM, Intel, Interdigital, Jabil Circuit, Konica Minolta, Lattice Semiconductor, Lenovo, Linux Foundation, MACOM (Applied Micro), MapBox, Marvell, Mavenir, Mesosphere, Microsoft, National Instruments, NetApp, NOKIA, Nortek, NVIDIA, ON Semiconductor, ONUG, OpenStack Foundation, Panasas, Peraso, Pixelworks, Plume Design, Portworx, Pure Storage, Qualcomm, Rackspace, Rambus, Rayvolt E-Bikes, Red Hat, Samsung Électronique, Silver Peak, SONY, Springpath, Sprint, Stratus Technologies, Symantec, Synaptics, Syniverse, TensTorrent, Tobii Technology, Twitter, Unity Technologies, Verizon Communications, Vidyo, Wave Computing, Wellsmith, Xilinx, Zebra, qui peuvent être cités dans ce article.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.