{"version":"1.1","schema_version":"1.1.0","plugin_version":"1.1.2","url":"https://tutos-gameserver.fr/2020/03/07/ibm-lance-power-server-pour-linference-de-lia-et-la-gestion-des-donnees-bien-choisir-son-serveur-d-impression/","llm_html_url":"https://tutos-gameserver.fr/2020/03/07/ibm-lance-power-server-pour-linference-de-lia-et-la-gestion-des-donnees-bien-choisir-son-serveur-d-impression/llm","llm_json_url":"https://tutos-gameserver.fr/2020/03/07/ibm-lance-power-server-pour-linference-de-lia-et-la-gestion-des-donnees-bien-choisir-son-serveur-d-impression/llm.json","manifest_url":"https://tutos-gameserver.fr/llm-endpoints-manifest.json","language":"fr-FR","locale":"fr_FR","title":"IBM lance Power Server pour l&#39;inférence de l&#39;IA et la gestion des données\n\n &#8211; Bien choisir son serveur d impression","site":{"name":"Tutos GameServer","url":"https://tutos-gameserver.fr/"},"author":{"id":1,"name":"Titanfall","url":"https://tutos-gameserver.fr/author/titanfall/"},"published_at":"2020-03-07T04:36:46+00:00","modified_at":"2020-03-07T04:36:46+00:00","word_count":1561,"reading_time_seconds":469,"summary":"L’utilisation de GPU T4 exploite les cœurs Turing Tensor pour leurs capacités variées de précision mixte (FP32, FP16, INT8, INT4) les mieux adaptées à l’inférence et le coût inférieur de T4. Dans l&#39;ensemble, cela aide IBM à attaquer ce que les analystes disent être le segment de marché de l&#39;IA à la croissance la plus [&hellip;]","summary_points":["L’utilisation de GPU T4 exploite les cœurs Turing Tensor pour leurs capacités variées de précision mixte (FP32, FP16, INT8, INT4) les mieux adaptées à l’inférence et le coût inférieur de T4.","Dans l&#39;ensemble, cela aide IBM à attaquer ce que les analystes disent être le segment de marché de l&#39;IA à la croissance la plus rapide et susceptible de devenir le plus important en volume.","En revanche, l&#39;AC922 exploite les GPU Nvidia V100, qui sont mieux adaptés aux charges de travail de formation HPC et AI traditionnelles et plus coûteux.","L&#39;AC922 est construit de manière célèbre en utilisant la même architecture que le supercalculateur Summit, actuellement le supercalculateur le plus rapide au monde selon la liste Top500 (novembre 2019)."],"topics":["Serveur d'impression"],"entities":[],"entities_metadata":[{"id":10,"name":"Serveur d'impression","slug":"serveur-dimpression","taxonomy":"category","count":3907,"url":"https://tutos-gameserver.fr/category/serveur-dimpression/"}],"tags":["Serveur d'impression"],"content_hash":"fb2f553e38957984fef1b020d68045e1","plain_text":"L’utilisation de GPU T4 exploite les cœurs Turing Tensor pour leurs capacités variées de précision mixte (FP32, FP16, INT8, INT4) les mieux adaptées à l’inférence et le coût inférieur de T4. Dans l&#39;ensemble, cela aide IBM à attaquer ce que les analystes disent être le segment de marché de l&#39;IA à la croissance la plus rapide et susceptible de devenir le plus important en volume. En revanche, l&#39;AC922 exploite les GPU Nvidia V100, qui sont mieux adaptés aux charges de travail de formation HPC et AI traditionnelles et plus coûteux. L&#39;AC922 est construit de manière célèbre en utilisant la même architecture que le supercalculateur Summit, actuellement le supercalculateur le plus rapide au monde selon la liste Top500 (novembre 2019).\n«L&#39;IC922 se concentre sur les données, les déductions et le cloud», a déclaré Dylan Boday, directeur IBM des systèmes de gestion, cognitifs et évolutifs, lors d&#39;un pré-briefing avec HPCwire. «Nous pourrons piloter jusqu&#39;à 24 disques compacts, et dans un avenir pas trop éloigné, 24 disques NVMe. Lorsque vous combinez 24 disques NVMe et PCIe Gen 4 à votre réseau, vous avez une histoire très puissante d&#39;un point de vue équilibré.\n«Au niveau du rack, vous obtenez des débits très élevés. C&#39;est intéressant pour l&#39;IA car de nombreuses personnes commencent à regarder les déploiements de stockage et leur hiérarchie de niveaux. Vous avez besoin d&#39;un accès «chaud» ou à faible latence à certaines capacités de stockage. Deuxièmement, le lancement avec jusqu&#39;à six GPU Nvidia T4 donne aux clients la flexibilité [and] dans un avenir très proche, nous allons passer à huit [T4s], ce qui vous donnera une densité GPU 33% supérieure à celle des serveurs HP ou Dell dans un serveur 2U. »\nIBM affirme également être en mesure de tirer parti de son avantage threads par cœur à la fois de manière générale et pour les performances des conteneurs.\nLe nouveau système sera disponible le 7 février. IBM indique qu&#39;il &quot;étudie actuellement l&#39;extension de IC922 dans le cloud public IBM&quot;. L&#39;annonce officielle de l&#39;IC922 a été publiée dans un blog (Complétez votre puzzle AI avec inférence) aujourd&#39;hui par Grace Liu, responsable de l&#39;offre principale, Infrastructure Linux.\nIBM a promis une nouvelle poussée de produits dans l&#39;IA et l&#39;IC922 n&#39;est probablement que le premier. &quot;Notre marché Linux est un marché qui est [delivering] un portefeuille pour l&#39;ère de l&#39;IA », a déclaré Boday. De nombreux projets d&#39;IA échouent, affirme-t-il, et l&#39;une des raisons est la difficulté de passer d&#39;un environnement de formation contrôlé à un environnement d&#39;acquisition et d&#39;inférence de données plus chaotique où les exigences et les compétences de calcul sont différentes. L&#39;IC922, a-t-il dit, est optimisé pour l&#39;inférence et la gestion des données et facilitera la transition. Sa conception modulaire permet aux organisations d&#39;adapter l&#39;infrastructure pour répondre aux besoins, sur site ou dans un environnement de cloud privé.\nLe logiciel, bien sûr, est une autre clé. Au SC19, IBM a fait la promotion de son expertise logicielle bayésienne en tant que catalyseur d&#39;IA. Parallèlement à l&#39;annonce de l&#39;IC922, Boday a déclaré: &quot;Nous allons introduire un logiciel d&#39;inférence [it] vous permet essentiellement d&#39;opérationnaliser votre inférence. » Peu de détails ont été discutés lors du briefing et en réponse à une question envoyée par e-mail à propos de ces plans, IBM a répondu: «IBM estime que tout comme la formation nécessite un logiciel spécialisé, l&#39;inférence de l&#39;IA aussi. Notre famille de produits Watson Machine Learning Accelerator continue d&#39;évoluer pour tirer parti des dernières capacités d&#39;IBM Power Systems for AI, et nous nous attendons à ce que cela continue pour l&#39;inférence. »\nCela ressemble à un message à l&#39;écoute. Ci-dessous sont les puces de la ligne supérieure de l&#39;annonce officielle:\n\nBien que la priorité immédiate d&#39;IC922 soit sur l&#39;utilisation des T4, IBM a noté des plans pour prendre en charge d&#39;autres types d&#39;accélérateurs.\n&quot;Je ne vais pas discuter de tous les détails&quot;, a déclaré Boday. &quot;Il y a quelques déclarations de direction autour des FPGA de Xilinx et d&#39;autres capacités ASIC, car ces périphériques se déplacent vers PCIe Gen 4. C&#39;est une sorte de boîte à l&#39;épreuve du temps, s&#39;ils veulent commencer à tirer parti d&#39;un FPGA comme inférence, ou même un appareil d&#39;entraînement. Il existe des centaines de capacités d&#39;accélération différentes qui arrivent assez rapidement sur le marché. Ce système devrait pouvoir les capturer. À mesure que les demandes des clients augmentent, nous sommes en mesure de répondre de manière agile pour les ajouter à notre serveur et fournir la meilleure solution pour ces types de capacités d&#39;accélération. »\nContrairement à l&#39;AC922, qui offre NVLink pour la communication CPU-GPU, le LC922 utilise PCIe 4. «Dans AC922, nous avons NVLink &#8211; c&#39;est à cause du facteur de forme et des capacités intégrées dans le Nvidia Volta. Il y a moins de demande sur le débit global de ces types de [training systems]», A déclaré Boday. IBM a choisi de tirer parti des avantages de densité PCIe pour l&#39;IC922 et de fournir la capacité OpenCAPI pour les futurs périphériques. Ces derniers mois, il y a eu pas mal de discussions autour d&#39;OpenCAPI et de la nouvelle norme CXL dirigée par Intel, avec des spéculations sur la compatibilité entre les deux.\nBoday a déclaré: «CXL n&#39;est pas une technologie commercialement viable à ce stade. Ce que je dirais, c&#39;est que CXL est définitivement sur notre radar. Nous avons un siège au conseil d&#39;administration au sein de la Fondation CXL. Alors que cela gagne de plus en plus de traction, nous allons avoir une voix d&#39;influence importante là-bas. Je dirais que IBM [started activities] pour la cohérence dans l&#39;accélération il y a plusieurs années avec CAPI et OpenCAPI. S&#39;adressant à cette boîte, en particulier, elle aura des capacités OpenCAPI. Il s&#39;agit en fait du premier boîtier doté de capacités OpenCAPI disponibles dans le commerce, et ce que nous verrons, c&#39;est la capacité des développeurs à commencer à tirer parti d&#39;une interface cohérente, à haut débit et à faible latence pour toutes sortes de nouveaux appareils. »\nIBM rapporte qu&#39;il aura bientôt une carte de développeur. «L&#39;une des premières choses que nous allons faire est d&#39;activer le marché avec une carte basée sur FPGA Bittware. Il sera également disponible dans un proche avenir. Cela permet aux développeurs de profiter de la faible latence / haut débit, puis nous aurons même une carte pour eux de commencer à explorer cela dans un avenir très proche. &quot;\nLa manière dont la nouvelle offre s&#39;intègre dans la stratégie plus large de mise sur le marché de l&#39;IA articulée par l&#39;exécutif d&#39;IBM Dave Turek au SC19 n&#39;est pas entièrement claire. Il a suggéré une stratégie dans laquelle IBM fournirait des systèmes d&#39;IA plus petits capables de tirer parti de l&#39;infrastructure existante d&#39;un client pour améliorer les performances du système et des applications. (Pour plus voir HPCwire article, SC19: IBM modifie son plan de jeu HPC-AI).\nLiu a écrit dans son blog: «Pour montrer comment l&#39;IC922 s&#39;intègre dans le puzzle de l&#39;IA, le programme de modernisation du calcul haute performance (HPCMP) du ministère de la Défense a récemment démontré comment les IC922 et AC922 pouvaient être combinés en une plate-forme informatique modulaire, créant un IBM POWER9 à base de supercalculateur dans un conteneur d&#39;expédition. Cette capacité de calcul modulaire, initialement installée au sein du USD Combat Capabilities Development Command du Army Research Laboratory DoD Supercomputing Resource Center, permettra au DoD de redéfinir le terme «  avantage &#39;&#39; pour inclure le déploiement d&#39;une capacité de superinformatique IA n&#39;importe où dans le monde, y compris sur le champ de bataille. . &quot;\nDans un sens, cette utilisation de périphérie pourrait englober des déploiements similaires à ce que Turek a suggéré dans lequel IBM apporte un cluster d&#39;IA &#8211; aussi petit qu&#39;un seul nœud, a déclaré Turek &#8211; pour améliorer les performances de l&#39;infrastructure déjà en place. Il a également laissé entendre qu&#39;IBM offrirait des systèmes d&#39;IA spécialisés autour de fonctions spécifiques telles que la sécurité et la gestion des systèmes. C&#39;est peut-être la prochaine étape, avec les combinaisons AC922-IC922 proposées pour «suralimenter» l&#39;infrastructure existante.\nLien vers le blog IBM: https://www.ibm.com/blogs/systems/complete-your-ai-puzzle-with-inference/\n\n\nClick to rate this post!\r\n                                   \r\n                               [Total: 0  Average: 0]","paragraphs":["L’utilisation de GPU T4 exploite les cœurs Turing Tensor pour leurs capacités variées de précision mixte (FP32, FP16, INT8, INT4) les mieux adaptées à l’inférence et le coût inférieur de T4. Dans l&#39;ensemble, cela aide IBM à attaquer ce que les analystes disent être le segment de marché de l&#39;IA à la croissance la plus rapide et susceptible de devenir le plus important en volume. En revanche, l&#39;AC922 exploite les GPU Nvidia V100, qui sont mieux adaptés aux charges de travail de formation HPC et AI traditionnelles et plus coûteux. L&#39;AC922 est construit de manière célèbre en utilisant la même architecture que le supercalculateur Summit, actuellement le supercalculateur le plus rapide au monde selon la liste Top500 (novembre 2019).\n«L&#39;IC922 se concentre sur les données, les déductions et le cloud», a déclaré Dylan Boday, directeur IBM des systèmes de gestion, cognitifs et évolutifs, lors d&#39;un pré-briefing avec HPCwire. «Nous pourrons piloter jusqu&#39;à 24 disques compacts, et dans un avenir pas trop éloigné, 24 disques NVMe. Lorsque vous combinez 24 disques NVMe et PCIe Gen 4 à votre réseau, vous avez une histoire très puissante d&#39;un point de vue équilibré.\n«Au niveau du rack, vous obtenez des débits très élevés. C&#39;est intéressant pour l&#39;IA car de nombreuses personnes commencent à regarder les déploiements de stockage et leur hiérarchie de niveaux. Vous avez besoin d&#39;un accès «chaud» ou à faible latence à certaines capacités de stockage. Deuxièmement, le lancement avec jusqu&#39;à six GPU Nvidia T4 donne aux clients la flexibilité [and] dans un avenir très proche, nous allons passer à huit [T4s], ce qui vous donnera une densité GPU 33% supérieure à celle des serveurs HP ou Dell dans un serveur 2U. »\nIBM affirme également être en mesure de tirer parti de son avantage threads par cœur à la fois de manière générale et pour les performances des conteneurs.\nLe nouveau système sera disponible le 7 février. IBM indique qu&#39;il &quot;étudie actuellement l&#39;extension de IC922 dans le cloud public IBM&quot;. L&#39;annonce officielle de l&#39;IC922 a été publiée dans un blog (Complétez votre puzzle AI avec inférence) aujourd&#39;hui par Grace Liu, responsable de l&#39;offre principale, Infrastructure Linux.\nIBM a promis une nouvelle poussée de produits dans l&#39;IA et l&#39;IC922 n&#39;est probablement que le premier. &quot;Notre marché Linux est un marché qui est [delivering] un portefeuille pour l&#39;ère de l&#39;IA », a déclaré Boday. De nombreux projets d&#39;IA échouent, affirme-t-il, et l&#39;une des raisons est la difficulté de passer d&#39;un environnement de formation contrôlé à un environnement d&#39;acquisition et d&#39;inférence de données plus chaotique où les exigences et les compétences de calcul sont différentes. L&#39;IC922, a-t-il dit, est optimisé pour l&#39;inférence et la gestion des données et facilitera la transition. Sa conception modulaire permet aux organisations d&#39;adapter l&#39;infrastructure pour répondre aux besoins, sur site ou dans un environnement de cloud privé.\nLe logiciel, bien sûr, est une autre clé. Au SC19, IBM a fait la promotion de son expertise logicielle bayésienne en tant que catalyseur d&#39;IA. Parallèlement à l&#39;annonce de l&#39;IC922, Boday a déclaré: &quot;Nous allons introduire un logiciel d&#39;inférence [it] vous permet essentiellement d&#39;opérationnaliser votre inférence. » Peu de détails ont été discutés lors du briefing et en réponse à une question envoyée par e-mail à propos de ces plans, IBM a répondu: «IBM estime que tout comme la formation nécessite un logiciel spécialisé, l&#39;inférence de l&#39;IA aussi. Notre famille de produits Watson Machine Learning Accelerator continue d&#39;évoluer pour tirer parti des dernières capacités d&#39;IBM Power Systems for AI, et nous nous attendons à ce que cela continue pour l&#39;inférence. »\nCela ressemble à un message à l&#39;écoute. Ci-dessous sont les puces de la ligne supérieure de l&#39;annonce officielle:","Bien que la priorité immédiate d&#39;IC922 soit sur l&#39;utilisation des T4, IBM a noté des plans pour prendre en charge d&#39;autres types d&#39;accélérateurs.\n&quot;Je ne vais pas discuter de tous les détails&quot;, a déclaré Boday. &quot;Il y a quelques déclarations de direction autour des FPGA de Xilinx et d&#39;autres capacités ASIC, car ces périphériques se déplacent vers PCIe Gen 4. C&#39;est une sorte de boîte à l&#39;épreuve du temps, s&#39;ils veulent commencer à tirer parti d&#39;un FPGA comme inférence, ou même un appareil d&#39;entraînement. Il existe des centaines de capacités d&#39;accélération différentes qui arrivent assez rapidement sur le marché. Ce système devrait pouvoir les capturer. À mesure que les demandes des clients augmentent, nous sommes en mesure de répondre de manière agile pour les ajouter à notre serveur et fournir la meilleure solution pour ces types de capacités d&#39;accélération. »\nContrairement à l&#39;AC922, qui offre NVLink pour la communication CPU-GPU, le LC922 utilise PCIe 4. «Dans AC922, nous avons NVLink &#8211; c&#39;est à cause du facteur de forme et des capacités intégrées dans le Nvidia Volta. Il y a moins de demande sur le débit global de ces types de [training systems]», A déclaré Boday. IBM a choisi de tirer parti des avantages de densité PCIe pour l&#39;IC922 et de fournir la capacité OpenCAPI pour les futurs périphériques. Ces derniers mois, il y a eu pas mal de discussions autour d&#39;OpenCAPI et de la nouvelle norme CXL dirigée par Intel, avec des spéculations sur la compatibilité entre les deux.\nBoday a déclaré: «CXL n&#39;est pas une technologie commercialement viable à ce stade. Ce que je dirais, c&#39;est que CXL est définitivement sur notre radar. Nous avons un siège au conseil d&#39;administration au sein de la Fondation CXL. Alors que cela gagne de plus en plus de traction, nous allons avoir une voix d&#39;influence importante là-bas. Je dirais que IBM [started activities] pour la cohérence dans l&#39;accélération il y a plusieurs années avec CAPI et OpenCAPI. S&#39;adressant à cette boîte, en particulier, elle aura des capacités OpenCAPI. Il s&#39;agit en fait du premier boîtier doté de capacités OpenCAPI disponibles dans le commerce, et ce que nous verrons, c&#39;est la capacité des développeurs à commencer à tirer parti d&#39;une interface cohérente, à haut débit et à faible latence pour toutes sortes de nouveaux appareils. »\nIBM rapporte qu&#39;il aura bientôt une carte de développeur. «L&#39;une des premières choses que nous allons faire est d&#39;activer le marché avec une carte basée sur FPGA Bittware. Il sera également disponible dans un proche avenir. Cela permet aux développeurs de profiter de la faible latence / haut débit, puis nous aurons même une carte pour eux de commencer à explorer cela dans un avenir très proche. &quot;\nLa manière dont la nouvelle offre s&#39;intègre dans la stratégie plus large de mise sur le marché de l&#39;IA articulée par l&#39;exécutif d&#39;IBM Dave Turek au SC19 n&#39;est pas entièrement claire. Il a suggéré une stratégie dans laquelle IBM fournirait des systèmes d&#39;IA plus petits capables de tirer parti de l&#39;infrastructure existante d&#39;un client pour améliorer les performances du système et des applications. (Pour plus voir HPCwire article, SC19: IBM modifie son plan de jeu HPC-AI).\nLiu a écrit dans son blog: «Pour montrer comment l&#39;IC922 s&#39;intègre dans le puzzle de l&#39;IA, le programme de modernisation du calcul haute performance (HPCMP) du ministère de la Défense a récemment démontré comment les IC922 et AC922 pouvaient être combinés en une plate-forme informatique modulaire, créant un IBM POWER9 à base de supercalculateur dans un conteneur d&#39;expédition. Cette capacité de calcul modulaire, initialement installée au sein du USD Combat Capabilities Development Command du Army Research Laboratory DoD Supercomputing Resource Center, permettra au DoD de redéfinir le terme «  avantage &#39;&#39; pour inclure le déploiement d&#39;une capacité de superinformatique IA n&#39;importe où dans le monde, y compris sur le champ de bataille. . &quot;\nDans un sens, cette utilisation de périphérie pourrait englober des déploiements similaires à ce que Turek a suggéré dans lequel IBM apporte un cluster d&#39;IA &#8211; aussi petit qu&#39;un seul nœud, a déclaré Turek &#8211; pour améliorer les performances de l&#39;infrastructure déjà en place. Il a également laissé entendre qu&#39;IBM offrirait des systèmes d&#39;IA spécialisés autour de fonctions spécifiques telles que la sécurité et la gestion des systèmes. C&#39;est peut-être la prochaine étape, avec les combinaisons AC922-IC922 proposées pour «suralimenter» l&#39;infrastructure existante.\nLien vers le blog IBM: https://www.ibm.com/blogs/systems/complete-your-ai-puzzle-with-inference/","Click to rate this post!\n                                   \n                               [Total: 0  Average: 0]"],"content_blocks":[{"id":"text-1","type":"text","heading":"","plain_text":"L’utilisation de GPU T4 exploite les cœurs Turing Tensor pour leurs capacités variées de précision mixte (FP32, FP16, INT8, INT4) les mieux adaptées à l’inférence et le coût inférieur de T4. Dans l&#39;ensemble, cela aide IBM à attaquer ce que les analystes disent être le segment de marché de l&#39;IA à la croissance la plus rapide et susceptible de devenir le plus important en volume. En revanche, l&#39;AC922 exploite les GPU Nvidia V100, qui sont mieux adaptés aux charges de travail de formation HPC et AI traditionnelles et plus coûteux. L&#39;AC922 est construit de manière célèbre en utilisant la même architecture que le supercalculateur Summit, actuellement le supercalculateur le plus rapide au monde selon la liste Top500 (novembre 2019).\n«L&#39;IC922 se concentre sur les données, les déductions et le cloud», a déclaré Dylan Boday, directeur IBM des systèmes de gestion, cognitifs et évolutifs, lors d&#39;un pré-briefing avec HPCwire. «Nous pourrons piloter jusqu&#39;à 24 disques compacts, et dans un avenir pas trop éloigné, 24 disques NVMe. Lorsque vous combinez 24 disques NVMe et PCIe Gen 4 à votre réseau, vous avez une histoire très puissante d&#39;un point de vue équilibré.\n«Au niveau du rack, vous obtenez des débits très élevés. C&#39;est intéressant pour l&#39;IA car de nombreuses personnes commencent à regarder les déploiements de stockage et leur hiérarchie de niveaux. Vous avez besoin d&#39;un accès «chaud» ou à faible latence à certaines capacités de stockage. Deuxièmement, le lancement avec jusqu&#39;à six GPU Nvidia T4 donne aux clients la flexibilité [and] dans un avenir très proche, nous allons passer à huit [T4s], ce qui vous donnera une densité GPU 33% supérieure à celle des serveurs HP ou Dell dans un serveur 2U. »\nIBM affirme également être en mesure de tirer parti de son avantage threads par cœur à la fois de manière générale et pour les performances des conteneurs.\nLe nouveau système sera disponible le 7 février. IBM indique qu&#39;il &quot;étudie actuellement l&#39;extension de IC922 dans le cloud public IBM&quot;. L&#39;annonce officielle de l&#39;IC922 a été publiée dans un blog (Complétez votre puzzle AI avec inférence) aujourd&#39;hui par Grace Liu, responsable de l&#39;offre principale, Infrastructure Linux.\nIBM a promis une nouvelle poussée de produits dans l&#39;IA et l&#39;IC922 n&#39;est probablement que le premier. &quot;Notre marché Linux est un marché qui est [delivering] un portefeuille pour l&#39;ère de l&#39;IA », a déclaré Boday. De nombreux projets d&#39;IA échouent, affirme-t-il, et l&#39;une des raisons est la difficulté de passer d&#39;un environnement de formation contrôlé à un environnement d&#39;acquisition et d&#39;inférence de données plus chaotique où les exigences et les compétences de calcul sont différentes. L&#39;IC922, a-t-il dit, est optimisé pour l&#39;inférence et la gestion des données et facilitera la transition. Sa conception modulaire permet aux organisations d&#39;adapter l&#39;infrastructure pour répondre aux besoins, sur site ou dans un environnement de cloud privé.\nLe logiciel, bien sûr, est une autre clé. Au SC19, IBM a fait la promotion de son expertise logicielle bayésienne en tant que catalyseur d&#39;IA. Parallèlement à l&#39;annonce de l&#39;IC922, Boday a déclaré: &quot;Nous allons introduire un logiciel d&#39;inférence [it] vous permet essentiellement d&#39;opérationnaliser votre inférence. » Peu de détails ont été discutés lors du briefing et en réponse à une question envoyée par e-mail à propos de ces plans, IBM a répondu: «IBM estime que tout comme la formation nécessite un logiciel spécialisé, l&#39;inférence de l&#39;IA aussi. Notre famille de produits Watson Machine Learning Accelerator continue d&#39;évoluer pour tirer parti des dernières capacités d&#39;IBM Power Systems for AI, et nous nous attendons à ce que cela continue pour l&#39;inférence. »\nCela ressemble à un message à l&#39;écoute. Ci-dessous sont les puces de la ligne supérieure de l&#39;annonce officielle:","html":"<p>L’utilisation de GPU T4 exploite les cœurs Turing Tensor pour leurs capacités variées de précision mixte (FP32, FP16, INT8, INT4) les mieux adaptées à l’inférence et le coût inférieur de T4. Dans l&#039;ensemble, cela aide IBM à attaquer ce que les analystes disent être le segment de marché de l&#039;IA à la croissance la plus rapide et susceptible de devenir le plus important en volume. En revanche, l&#039;AC922 exploite les GPU Nvidia V100, qui sont mieux adaptés aux charges de travail de formation HPC et AI traditionnelles et plus coûteux. L&#039;AC922 est construit de manière célèbre en utilisant la même architecture que le supercalculateur Summit, actuellement le supercalculateur le plus rapide au monde selon la liste Top500 (novembre 2019).\n«L&#039;IC922 se concentre sur les données, les déductions et le cloud», a déclaré Dylan Boday, directeur IBM des systèmes de gestion, cognitifs et évolutifs, lors d&#039;un pré-briefing avec HPCwire. «Nous pourrons piloter jusqu&#039;à 24 disques compacts, et dans un avenir pas trop éloigné, 24 disques NVMe. Lorsque vous combinez 24 disques NVMe et PCIe Gen 4 à votre réseau, vous avez une histoire très puissante d&#039;un point de vue équilibré.\n«Au niveau du rack, vous obtenez des débits très élevés. C&#039;est intéressant pour l&#039;IA car de nombreuses personnes commencent à regarder les déploiements de stockage et leur hiérarchie de niveaux. Vous avez besoin d&#039;un accès «chaud» ou à faible latence à certaines capacités de stockage. Deuxièmement, le lancement avec jusqu&#039;à six GPU Nvidia T4 donne aux clients la flexibilité [and] dans un avenir très proche, nous allons passer à huit [T4s], ce qui vous donnera une densité GPU 33% supérieure à celle des serveurs HP ou Dell dans un serveur 2U. »\nIBM affirme également être en mesure de tirer parti de son avantage threads par cœur à la fois de manière générale et pour les performances des conteneurs.\nLe nouveau système sera disponible le 7 février. IBM indique qu&#039;il &quot;étudie actuellement l&#039;extension de IC922 dans le cloud public IBM&quot;. L&#039;annonce officielle de l&#039;IC922 a été publiée dans un blog (Complétez votre puzzle AI avec inférence) aujourd&#039;hui par Grace Liu, responsable de l&#039;offre principale, Infrastructure Linux.\nIBM a promis une nouvelle poussée de produits dans l&#039;IA et l&#039;IC922 n&#039;est probablement que le premier. &quot;Notre marché Linux est un marché qui est [delivering] un portefeuille pour l&#039;ère de l&#039;IA », a déclaré Boday. De nombreux projets d&#039;IA échouent, affirme-t-il, et l&#039;une des raisons est la difficulté de passer d&#039;un environnement de formation contrôlé à un environnement d&#039;acquisition et d&#039;inférence de données plus chaotique où les exigences et les compétences de calcul sont différentes. L&#039;IC922, a-t-il dit, est optimisé pour l&#039;inférence et la gestion des données et facilitera la transition. Sa conception modulaire permet aux organisations d&#039;adapter l&#039;infrastructure pour répondre aux besoins, sur site ou dans un environnement de cloud privé.\nLe logiciel, bien sûr, est une autre clé. Au SC19, IBM a fait la promotion de son expertise logicielle bayésienne en tant que catalyseur d&#039;IA. Parallèlement à l&#039;annonce de l&#039;IC922, Boday a déclaré: &quot;Nous allons introduire un logiciel d&#039;inférence [it] vous permet essentiellement d&#039;opérationnaliser votre inférence. » Peu de détails ont été discutés lors du briefing et en réponse à une question envoyée par e-mail à propos de ces plans, IBM a répondu: «IBM estime que tout comme la formation nécessite un logiciel spécialisé, l&#039;inférence de l&#039;IA aussi. Notre famille de produits Watson Machine Learning Accelerator continue d&#039;évoluer pour tirer parti des dernières capacités d&#039;IBM Power Systems for AI, et nous nous attendons à ce que cela continue pour l&#039;inférence. »\nCela ressemble à un message à l&#039;écoute. Ci-dessous sont les puces de la ligne supérieure de l&#039;annonce officielle:</p>"},{"id":"text-2","type":"text","heading":"","plain_text":"Bien que la priorité immédiate d&#39;IC922 soit sur l&#39;utilisation des T4, IBM a noté des plans pour prendre en charge d&#39;autres types d&#39;accélérateurs.\n&quot;Je ne vais pas discuter de tous les détails&quot;, a déclaré Boday. &quot;Il y a quelques déclarations de direction autour des FPGA de Xilinx et d&#39;autres capacités ASIC, car ces périphériques se déplacent vers PCIe Gen 4. C&#39;est une sorte de boîte à l&#39;épreuve du temps, s&#39;ils veulent commencer à tirer parti d&#39;un FPGA comme inférence, ou même un appareil d&#39;entraînement. Il existe des centaines de capacités d&#39;accélération différentes qui arrivent assez rapidement sur le marché. Ce système devrait pouvoir les capturer. À mesure que les demandes des clients augmentent, nous sommes en mesure de répondre de manière agile pour les ajouter à notre serveur et fournir la meilleure solution pour ces types de capacités d&#39;accélération. »\nContrairement à l&#39;AC922, qui offre NVLink pour la communication CPU-GPU, le LC922 utilise PCIe 4. «Dans AC922, nous avons NVLink &#8211; c&#39;est à cause du facteur de forme et des capacités intégrées dans le Nvidia Volta. Il y a moins de demande sur le débit global de ces types de [training systems]», A déclaré Boday. IBM a choisi de tirer parti des avantages de densité PCIe pour l&#39;IC922 et de fournir la capacité OpenCAPI pour les futurs périphériques. Ces derniers mois, il y a eu pas mal de discussions autour d&#39;OpenCAPI et de la nouvelle norme CXL dirigée par Intel, avec des spéculations sur la compatibilité entre les deux.\nBoday a déclaré: «CXL n&#39;est pas une technologie commercialement viable à ce stade. Ce que je dirais, c&#39;est que CXL est définitivement sur notre radar. Nous avons un siège au conseil d&#39;administration au sein de la Fondation CXL. Alors que cela gagne de plus en plus de traction, nous allons avoir une voix d&#39;influence importante là-bas. Je dirais que IBM [started activities] pour la cohérence dans l&#39;accélération il y a plusieurs années avec CAPI et OpenCAPI. S&#39;adressant à cette boîte, en particulier, elle aura des capacités OpenCAPI. Il s&#39;agit en fait du premier boîtier doté de capacités OpenCAPI disponibles dans le commerce, et ce que nous verrons, c&#39;est la capacité des développeurs à commencer à tirer parti d&#39;une interface cohérente, à haut débit et à faible latence pour toutes sortes de nouveaux appareils. »\nIBM rapporte qu&#39;il aura bientôt une carte de développeur. «L&#39;une des premières choses que nous allons faire est d&#39;activer le marché avec une carte basée sur FPGA Bittware. Il sera également disponible dans un proche avenir. Cela permet aux développeurs de profiter de la faible latence / haut débit, puis nous aurons même une carte pour eux de commencer à explorer cela dans un avenir très proche. &quot;\nLa manière dont la nouvelle offre s&#39;intègre dans la stratégie plus large de mise sur le marché de l&#39;IA articulée par l&#39;exécutif d&#39;IBM Dave Turek au SC19 n&#39;est pas entièrement claire. Il a suggéré une stratégie dans laquelle IBM fournirait des systèmes d&#39;IA plus petits capables de tirer parti de l&#39;infrastructure existante d&#39;un client pour améliorer les performances du système et des applications. (Pour plus voir HPCwire article, SC19: IBM modifie son plan de jeu HPC-AI).\nLiu a écrit dans son blog: «Pour montrer comment l&#39;IC922 s&#39;intègre dans le puzzle de l&#39;IA, le programme de modernisation du calcul haute performance (HPCMP) du ministère de la Défense a récemment démontré comment les IC922 et AC922 pouvaient être combinés en une plate-forme informatique modulaire, créant un IBM POWER9 à base de supercalculateur dans un conteneur d&#39;expédition. Cette capacité de calcul modulaire, initialement installée au sein du USD Combat Capabilities Development Command du Army Research Laboratory DoD Supercomputing Resource Center, permettra au DoD de redéfinir le terme «  avantage &#39;&#39; pour inclure le déploiement d&#39;une capacité de superinformatique IA n&#39;importe où dans le monde, y compris sur le champ de bataille. . &quot;\nDans un sens, cette utilisation de périphérie pourrait englober des déploiements similaires à ce que Turek a suggéré dans lequel IBM apporte un cluster d&#39;IA &#8211; aussi petit qu&#39;un seul nœud, a déclaré Turek &#8211; pour améliorer les performances de l&#39;infrastructure déjà en place. Il a également laissé entendre qu&#39;IBM offrirait des systèmes d&#39;IA spécialisés autour de fonctions spécifiques telles que la sécurité et la gestion des systèmes. C&#39;est peut-être la prochaine étape, avec les combinaisons AC922-IC922 proposées pour «suralimenter» l&#39;infrastructure existante.\nLien vers le blog IBM: https://www.ibm.com/blogs/systems/complete-your-ai-puzzle-with-inference/","html":"<p>Bien que la priorité immédiate d&#039;IC922 soit sur l&#039;utilisation des T4, IBM a noté des plans pour prendre en charge d&#039;autres types d&#039;accélérateurs.\n&quot;Je ne vais pas discuter de tous les détails&quot;, a déclaré Boday. &quot;Il y a quelques déclarations de direction autour des FPGA de Xilinx et d&#039;autres capacités ASIC, car ces périphériques se déplacent vers PCIe Gen 4. C&#039;est une sorte de boîte à l&#039;épreuve du temps, s&#039;ils veulent commencer à tirer parti d&#039;un FPGA comme inférence, ou même un appareil d&#039;entraînement. Il existe des centaines de capacités d&#039;accélération différentes qui arrivent assez rapidement sur le marché. Ce système devrait pouvoir les capturer. À mesure que les demandes des clients augmentent, nous sommes en mesure de répondre de manière agile pour les ajouter à notre serveur et fournir la meilleure solution pour ces types de capacités d&#039;accélération. »\nContrairement à l&#039;AC922, qui offre NVLink pour la communication CPU-GPU, le LC922 utilise PCIe 4. «Dans AC922, nous avons NVLink &#8211; c&#039;est à cause du facteur de forme et des capacités intégrées dans le Nvidia Volta. Il y a moins de demande sur le débit global de ces types de [training systems]», A déclaré Boday. IBM a choisi de tirer parti des avantages de densité PCIe pour l&#039;IC922 et de fournir la capacité OpenCAPI pour les futurs périphériques. Ces derniers mois, il y a eu pas mal de discussions autour d&#039;OpenCAPI et de la nouvelle norme CXL dirigée par Intel, avec des spéculations sur la compatibilité entre les deux.\nBoday a déclaré: «CXL n&#039;est pas une technologie commercialement viable à ce stade. Ce que je dirais, c&#039;est que CXL est définitivement sur notre radar. Nous avons un siège au conseil d&#039;administration au sein de la Fondation CXL. Alors que cela gagne de plus en plus de traction, nous allons avoir une voix d&#039;influence importante là-bas. Je dirais que IBM [started activities] pour la cohérence dans l&#039;accélération il y a plusieurs années avec CAPI et OpenCAPI. S&#039;adressant à cette boîte, en particulier, elle aura des capacités OpenCAPI. Il s&#039;agit en fait du premier boîtier doté de capacités OpenCAPI disponibles dans le commerce, et ce que nous verrons, c&#039;est la capacité des développeurs à commencer à tirer parti d&#039;une interface cohérente, à haut débit et à faible latence pour toutes sortes de nouveaux appareils. »\nIBM rapporte qu&#039;il aura bientôt une carte de développeur. «L&#039;une des premières choses que nous allons faire est d&#039;activer le marché avec une carte basée sur FPGA Bittware. Il sera également disponible dans un proche avenir. Cela permet aux développeurs de profiter de la faible latence / haut débit, puis nous aurons même une carte pour eux de commencer à explorer cela dans un avenir très proche. &quot;\nLa manière dont la nouvelle offre s&#039;intègre dans la stratégie plus large de mise sur le marché de l&#039;IA articulée par l&#039;exécutif d&#039;IBM Dave Turek au SC19 n&#039;est pas entièrement claire. Il a suggéré une stratégie dans laquelle IBM fournirait des systèmes d&#039;IA plus petits capables de tirer parti de l&#039;infrastructure existante d&#039;un client pour améliorer les performances du système et des applications. (Pour plus voir HPCwire article, SC19: IBM modifie son plan de jeu HPC-AI).\nLiu a écrit dans son blog: «Pour montrer comment l&#039;IC922 s&#039;intègre dans le puzzle de l&#039;IA, le programme de modernisation du calcul haute performance (HPCMP) du ministère de la Défense a récemment démontré comment les IC922 et AC922 pouvaient être combinés en une plate-forme informatique modulaire, créant un IBM POWER9 à base de supercalculateur dans un conteneur d&#039;expédition. Cette capacité de calcul modulaire, initialement installée au sein du USD Combat Capabilities Development Command du Army Research Laboratory DoD Supercomputing Resource Center, permettra au DoD de redéfinir le terme «  avantage &#039;&#039; pour inclure le déploiement d&#039;une capacité de superinformatique IA n&#039;importe où dans le monde, y compris sur le champ de bataille. . &quot;\nDans un sens, cette utilisation de périphérie pourrait englober des déploiements similaires à ce que Turek a suggéré dans lequel IBM apporte un cluster d&#039;IA &#8211; aussi petit qu&#039;un seul nœud, a déclaré Turek &#8211; pour améliorer les performances de l&#039;infrastructure déjà en place. Il a également laissé entendre qu&#039;IBM offrirait des systèmes d&#039;IA spécialisés autour de fonctions spécifiques telles que la sécurité et la gestion des systèmes. C&#039;est peut-être la prochaine étape, avec les combinaisons AC922-IC922 proposées pour «suralimenter» l&#039;infrastructure existante.\nLien vers le blog IBM: https://www.ibm.com/blogs/systems/complete-your-ai-puzzle-with-inference/</p>"},{"id":"text-3","type":"text","heading":"","plain_text":"Click to rate this post!\n                                   \n                               [Total: 0  Average: 0]","html":"<p>Click to rate this post!\n                                   \n                               [Total: 0  Average: 0]</p>"}],"sections":[{"id":"text-1","heading":"Text","content":"L’utilisation de GPU T4 exploite les cœurs Turing Tensor pour leurs capacités variées de précision mixte (FP32, FP16, INT8, INT4) les mieux adaptées à l’inférence et le coût inférieur de T4. Dans l&#39;ensemble, cela aide IBM à attaquer ce que les analystes disent être le segment de marché de l&#39;IA à la croissance la plus rapide et susceptible de devenir le plus important en volume. En revanche, l&#39;AC922 exploite les GPU Nvidia V100, qui sont mieux adaptés aux charges de travail de formation HPC et AI traditionnelles et plus coûteux. L&#39;AC922 est construit de manière célèbre en utilisant la même architecture que le supercalculateur Summit, actuellement le supercalculateur le plus rapide au monde selon la liste Top500 (novembre 2019).\n«L&#39;IC922 se concentre sur les données, les déductions et le cloud», a déclaré Dylan Boday, directeur IBM des systèmes de gestion, cognitifs et évolutifs, lors d&#39;un pré-briefing avec HPCwire. «Nous pourrons piloter jusqu&#39;à 24 disques compacts, et dans un avenir pas trop éloigné, 24 disques NVMe. Lorsque vous combinez 24 disques NVMe et PCIe Gen 4 à votre réseau, vous avez une histoire très puissante d&#39;un point de vue équilibré.\n«Au niveau du rack, vous obtenez des débits très élevés. C&#39;est intéressant pour l&#39;IA car de nombreuses personnes commencent à regarder les déploiements de stockage et leur hiérarchie de niveaux. Vous avez besoin d&#39;un accès «chaud» ou à faible latence à certaines capacités de stockage. Deuxièmement, le lancement avec jusqu&#39;à six GPU Nvidia T4 donne aux clients la flexibilité [and] dans un avenir très proche, nous allons passer à huit [T4s], ce qui vous donnera une densité GPU 33% supérieure à celle des serveurs HP ou Dell dans un serveur 2U. »\nIBM affirme également être en mesure de tirer parti de son avantage threads par cœur à la fois de manière générale et pour les performances des conteneurs.\nLe nouveau système sera disponible le 7 février. IBM indique qu&#39;il &quot;étudie actuellement l&#39;extension de IC922 dans le cloud public IBM&quot;. L&#39;annonce officielle de l&#39;IC922 a été publiée dans un blog (Complétez votre puzzle AI avec inférence) aujourd&#39;hui par Grace Liu, responsable de l&#39;offre principale, Infrastructure Linux.\nIBM a promis une nouvelle poussée de produits dans l&#39;IA et l&#39;IC922 n&#39;est probablement que le premier. &quot;Notre marché Linux est un marché qui est [delivering] un portefeuille pour l&#39;ère de l&#39;IA », a déclaré Boday. De nombreux projets d&#39;IA échouent, affirme-t-il, et l&#39;une des raisons est la difficulté de passer d&#39;un environnement de formation contrôlé à un environnement d&#39;acquisition et d&#39;inférence de données plus chaotique où les exigences et les compétences de calcul sont différentes. L&#39;IC922, a-t-il dit, est optimisé pour l&#39;inférence et la gestion des données et facilitera la transition. Sa conception modulaire permet aux organisations d&#39;adapter l&#39;infrastructure pour répondre aux besoins, sur site ou dans un environnement de cloud privé.\nLe logiciel, bien sûr, est une autre clé. Au SC19, IBM a fait la promotion de son expertise logicielle bayésienne en tant que catalyseur d&#39;IA. Parallèlement à l&#39;annonce de l&#39;IC922, Boday a déclaré: &quot;Nous allons introduire un logiciel d&#39;inférence [it] vous permet essentiellement d&#39;opérationnaliser votre inférence. » Peu de détails ont été discutés lors du briefing et en réponse à une question envoyée par e-mail à propos de ces plans, IBM a répondu: «IBM estime que tout comme la formation nécessite un logiciel spécialisé, l&#39;inférence de l&#39;IA aussi. Notre famille de produits Watson Machine Learning Accelerator continue d&#39;évoluer pour tirer parti des dernières capacités d&#39;IBM Power Systems for AI, et nous nous attendons à ce que cela continue pour l&#39;inférence. »\nCela ressemble à un message à l&#39;écoute. Ci-dessous sont les puces de la ligne supérieure de l&#39;annonce officielle:"},{"id":"text-2","heading":"Text","content":"Bien que la priorité immédiate d&#39;IC922 soit sur l&#39;utilisation des T4, IBM a noté des plans pour prendre en charge d&#39;autres types d&#39;accélérateurs.\n&quot;Je ne vais pas discuter de tous les détails&quot;, a déclaré Boday. &quot;Il y a quelques déclarations de direction autour des FPGA de Xilinx et d&#39;autres capacités ASIC, car ces périphériques se déplacent vers PCIe Gen 4. C&#39;est une sorte de boîte à l&#39;épreuve du temps, s&#39;ils veulent commencer à tirer parti d&#39;un FPGA comme inférence, ou même un appareil d&#39;entraînement. Il existe des centaines de capacités d&#39;accélération différentes qui arrivent assez rapidement sur le marché. Ce système devrait pouvoir les capturer. À mesure que les demandes des clients augmentent, nous sommes en mesure de répondre de manière agile pour les ajouter à notre serveur et fournir la meilleure solution pour ces types de capacités d&#39;accélération. »\nContrairement à l&#39;AC922, qui offre NVLink pour la communication CPU-GPU, le LC922 utilise PCIe 4. «Dans AC922, nous avons NVLink &#8211; c&#39;est à cause du facteur de forme et des capacités intégrées dans le Nvidia Volta. Il y a moins de demande sur le débit global de ces types de [training systems]», A déclaré Boday. IBM a choisi de tirer parti des avantages de densité PCIe pour l&#39;IC922 et de fournir la capacité OpenCAPI pour les futurs périphériques. Ces derniers mois, il y a eu pas mal de discussions autour d&#39;OpenCAPI et de la nouvelle norme CXL dirigée par Intel, avec des spéculations sur la compatibilité entre les deux.\nBoday a déclaré: «CXL n&#39;est pas une technologie commercialement viable à ce stade. Ce que je dirais, c&#39;est que CXL est définitivement sur notre radar. Nous avons un siège au conseil d&#39;administration au sein de la Fondation CXL. Alors que cela gagne de plus en plus de traction, nous allons avoir une voix d&#39;influence importante là-bas. Je dirais que IBM [started activities] pour la cohérence dans l&#39;accélération il y a plusieurs années avec CAPI et OpenCAPI. S&#39;adressant à cette boîte, en particulier, elle aura des capacités OpenCAPI. Il s&#39;agit en fait du premier boîtier doté de capacités OpenCAPI disponibles dans le commerce, et ce que nous verrons, c&#39;est la capacité des développeurs à commencer à tirer parti d&#39;une interface cohérente, à haut débit et à faible latence pour toutes sortes de nouveaux appareils. »\nIBM rapporte qu&#39;il aura bientôt une carte de développeur. «L&#39;une des premières choses que nous allons faire est d&#39;activer le marché avec une carte basée sur FPGA Bittware. Il sera également disponible dans un proche avenir. Cela permet aux développeurs de profiter de la faible latence / haut débit, puis nous aurons même une carte pour eux de commencer à explorer cela dans un avenir très proche. &quot;\nLa manière dont la nouvelle offre s&#39;intègre dans la stratégie plus large de mise sur le marché de l&#39;IA articulée par l&#39;exécutif d&#39;IBM Dave Turek au SC19 n&#39;est pas entièrement claire. Il a suggéré une stratégie dans laquelle IBM fournirait des systèmes d&#39;IA plus petits capables de tirer parti de l&#39;infrastructure existante d&#39;un client pour améliorer les performances du système et des applications. (Pour plus voir HPCwire article, SC19: IBM modifie son plan de jeu HPC-AI).\nLiu a écrit dans son blog: «Pour montrer comment l&#39;IC922 s&#39;intègre dans le puzzle de l&#39;IA, le programme de modernisation du calcul haute performance (HPCMP) du ministère de la Défense a récemment démontré comment les IC922 et AC922 pouvaient être combinés en une plate-forme informatique modulaire, créant un IBM POWER9 à base de supercalculateur dans un conteneur d&#39;expédition. Cette capacité de calcul modulaire, initialement installée au sein du USD Combat Capabilities Development Command du Army Research Laboratory DoD Supercomputing Resource Center, permettra au DoD de redéfinir le terme «  avantage &#39;&#39; pour inclure le déploiement d&#39;une capacité de superinformatique IA n&#39;importe où dans le monde, y compris sur le champ de bataille. . &quot;\nDans un sens, cette utilisation de périphérie pourrait englober des déploiements similaires à ce que Turek a suggéré dans lequel IBM apporte un cluster d&#39;IA &#8211; aussi petit qu&#39;un seul nœud, a déclaré Turek &#8211; pour améliorer les performances de l&#39;infrastructure déjà en place. Il a également laissé entendre qu&#39;IBM offrirait des systèmes d&#39;IA spécialisés autour de fonctions spécifiques telles que la sécurité et la gestion des systèmes. C&#39;est peut-être la prochaine étape, avec les combinaisons AC922-IC922 proposées pour «suralimenter» l&#39;infrastructure existante.\nLien vers le blog IBM: https://www.ibm.com/blogs/systems/complete-your-ai-puzzle-with-inference/"},{"id":"text-3","heading":"Text","content":"Click to rate this post!\n                                   \n                               [Total: 0  Average: 0]"}],"media":{"primary_image":"https://tutos-gameserver.fr/wp-content/uploads/2020/03/IBM-IC922-0120-675x380-1.png"},"relations":[{"rel":"canonical","href":"https://tutos-gameserver.fr/2020/03/07/ibm-lance-power-server-pour-linference-de-lia-et-la-gestion-des-donnees-bien-choisir-son-serveur-d-impression/"},{"rel":"alternate","href":"https://tutos-gameserver.fr/2020/03/07/ibm-lance-power-server-pour-linference-de-lia-et-la-gestion-des-donnees-bien-choisir-son-serveur-d-impression/llm","type":"text/html"},{"rel":"alternate","href":"https://tutos-gameserver.fr/2020/03/07/ibm-lance-power-server-pour-linference-de-lia-et-la-gestion-des-donnees-bien-choisir-son-serveur-d-impression/llm.json","type":"application/json"},{"rel":"llm-manifest","href":"https://tutos-gameserver.fr/llm-endpoints-manifest.json","type":"application/json"}],"http_headers":{"X-LLM-Friendly":"1","X-LLM-Schema":"1.1.0","Content-Security-Policy":"default-src 'none'; img-src * data:; style-src 'unsafe-inline'"},"license":"CC BY-ND 4.0","attribution_required":true,"allow_cors":false}