Meilleures pratiques pour la gestion du Big Data – Serveur d’impression

Author: Titanfall —

Short summary: <div _ngcontent-c14 = "" innerhtml = " Post invité écrit par Ash Ashutosh Ash Ashosh est PDG de Actifio, fournisseur de logiciels de gestion de données. Ash Ashosh Le Big Data est le résultat de pratiquement tout ce qui est surveillé et mesuré dans le monde, créant des données plus rapidement que les technologies disponibles […]

Quick overview

Site
Tutos GameServer
Canonical URL
https://tutos-gameserver.fr/2019/05/04/meilleures-pratiques-pour-la-gestion-du-big-data-serveur-dimpression/
LLM HTML version
https://tutos-gameserver.fr/2019/05/04/meilleures-pratiques-pour-la-gestion-du-big-data-serveur-dimpression/llm
LLM JSON version
https://tutos-gameserver.fr/2019/05/04/meilleures-pratiques-pour-la-gestion-du-big-data-serveur-dimpression/llm.json
Manifest
https://tutos-gameserver.fr/llm-endpoints-manifest.json
Estimated reading time
10 minutes (589 seconds)
Word count
1963

Key points

Primary visual

Meilleures pratiques pour la gestion du Big Data

 – Serveur d’impression
Main illustration associated with the content.

Structured content

<div _ngcontent-c14 = "" innerhtml = " Post invité écrit par Ash Ashutosh Ash Ashosh est PDG de Actifio, fournisseur de logiciels de gestion de données.

Ash Ashosh

Le Big Data est le résultat de pratiquement tout ce qui est surveillé et mesuré dans le monde, créant des données plus rapidement que les technologies disponibles ne peuvent les stocker, les traiter ou les gérer. Étant donné qu'il est beaucoup plus intuitif de représenter des informations sous la forme d'un «fichier» qu'un objet relationnel, il y a eu une recrudescence de données non structurées, constituant jusqu'à 80% des nouvelles données à gérer. Les organisations ont du mal à gérer le Big Data. Selon IDC, la quantité d'informations créées, capturées ou répliquées dépasse la capacité de stockage disponible pour la première fois depuis 2007. La taille de l'univers numérique cette année sera dix fois plus grande qu'elle ne l'était cinq ans plus tôt.

Par conséquent, les organisations doivent trouver des approches de gestion des données plus intelligentes leur permettant de corriger et d'optimiser efficacement leurs données. Trop d'entreprises pensent pouvoir gérer le Big Data en consacrant de plus en plus de ressources de stockage au problème. Ils achètent souvent une capacité de stockage supplémentaire tous les 6 à 12 mois, ce qui non seulement entraîne des coûts exorbitants, mais oblige également leurs équipes informatiques débordées à consacrer plus de temps à la gestion des données plutôt qu'à des initiatives informatiques plus stratégiques. L'absence d'une véritable solution pour la gestion des données volumineuses entraîne simplement une énorme inefficacité dans l'ensemble de l'entreprise. Dans le même temps, le Big Data ne cesse de croître, selon Forrester Research: – L'organisation moyenne augmentera ses données de 50% au cours de la prochaine année. –Les données d'entreprise globales augmenteront de 94%. – Les systèmes de bases de données augmenteront de 97%.

– Les sauvegardes de serveur pour la reprise après sinistre et la continuité augmenteront de 89%. Le Big Data comporte trois défis fondamentaux: le stockage, le traitement et la gestion efficace. Des architectures en scale-out ont été développées pour stocker de grandes quantités de données et des appliances spécialement conçues ont amélioré la capacité de traitement. La prochaine étape consiste à apprendre à gérer le Big Data tout au long de son cycle de vie. Ce que la plupart des gens ne savent pas, c’est que la grande majorité des Big Data sont des données dupliquées ou synthétisées. Jetons un coup d’œil sur un centre de recherche médicale de premier plan qui génère 100 téraoctets de données à partir de divers instruments. Ces données sont ensuite copiées par 18 départements de recherche différents qui les traitent en ajoutant 5 téraoctets de données synthétisées supplémentaires. Désormais, ils doivent gérer un total de plus d'un pétaoctet de données, dont moins de 150 téraoctets sont uniques. Pourtant, l'intégralité du pétaoctet de données est sauvegardée, déplacée vers un site de récupération après sinistre, consommant ainsi davantage d'énergie et d'espace utilisé pour le stocker. Le centre médical a donc utilisé plus de 10 pétaoctets de stockage pour gérer moins de 150 téraoctets de données véritablement uniques. Ce n'est pas efficace. Alors, comment devrait-il être géré? La première étape consiste à ramener les données à leur ensemble unique et à réduire la quantité de données à gérer.

Suivant , tirez parti de la puissance de la technologie de virtualisation. Les organisations doivent virtualiser cet ensemble de données unique de manière à ce que non seulement plusieurs applications puissent réutiliser le même empreinte de données, mais également que l'empreinte de données plus petite puisse être stockée sur tout périphérique de stockage indépendant du fournisseur. La virtualisation est l'arme secrète que les entreprises peuvent utiliser pour relever le défi de la gestion du Big Data. En réduisant l'encombrement des données, en virtualisant la réutilisation et le stockage des données et en centralisant la gestion du jeu de données, le Big Data est finalement transformé en petites données et géré comme des données virtuelles. Maintenant que l'encombrement des données est réduit, les organisations vont améliorer considérablement la gestion des données dans trois domaines clés:

Les applications ont besoin de moins de temps pour traiter les données. Les données peuvent être mieux sécurisées puisque la gestion est centralisée, même si l'accès est distribué. Les résultats de l'analyse des données sont plus précis puisque toutes les copies des données sont visibles.

La virtualisation est en effet le «héros» de la gestion du Big Data. De plus, il offre aux entreprises de nombreux avantages supplémentaires: les utilisateurs finaux bénéficient d'une flexibilité, de coûts réduits et d'une liberté totale vis-à-vis des fournisseurs informatiques. Une approche de gestion des données plus intelligente permet non seulement de sauvegarder le Big Data de manière beaucoup plus efficace, mais également de le rendre plus facilement récupérable et accessible, avec une économie de 90%, tout en permettant au personnel informatique de mener des initiatives technologiques plus stratégiques qui stimulent la croissance de l'entreprise au lieu de s'engager dans une bataille futile avec une bête Big Data incontrôlable. "> Post invité écrit par Ash Ashutosh Ash Ashutosh est PDG d'Actifio, fournisseur de logiciels de gestion de données. Le Big Data est le résultat de pratiquement tout ce qui est surveillé et mesuré dans le monde, créant des données plus rapidement que les technologies disponibles ne peuvent les stocker, les traiter ou les gérer. Étant donné qu'il est beaucoup plus intuitif de représenter des informations sous la forme d'un «fichier» qu'un objet relationnel, il y a eu une recrudescence de données non structurées, constituant jusqu'à 80% des nouvelles données à gérer. Les organisations ont du mal à gérer le Big Data. Selon IDC, la quantité d'informations créées, capturées ou répliquées dépasse la capacité de stockage disponible pour la première fois depuis 2007. La taille de l'univers numérique cette année sera dix fois plus grande qu'elle ne l'était cinq ans plus tôt. Par conséquent, les organisations doivent trouver des approches de gestion des données plus intelligentes leur permettant de corriger et d'optimiser efficacement leurs données. Trop d'entreprises pensent pouvoir gérer le Big Data en consacrant de plus en plus de ressources de stockage au problème. Ils achètent souvent une capacité de stockage supplémentaire tous les 6 à 12 mois, ce qui non seulement entraîne des coûts exorbitants, mais oblige également leurs équipes informatiques débordées à consacrer plus de temps à la gestion des données plutôt qu'à des initiatives informatiques plus stratégiques. L'absence d'une véritable solution pour la gestion des données volumineuses entraîne simplement une énorme inefficacité dans l'ensemble de l'entreprise. Dans le même temps, Big Data ne cesse de croître, selon Forrester Research: – L'organisation moyenne augmentera ses données de 50% au cours de la prochaine année. –Les données d'entreprise globales augmenteront de 94%. – Les systèmes de bases de données augmenteront de 97%. – Les sauvegardes de serveur pour la reprise après sinistre et la continuité augmenteront de 89%. Le Big Data comporte trois défis fondamentaux: le stockage, le traitement et la gestion efficace. Des architectures en scale-out ont été développées pour stocker de grandes quantités de données et des appliances spécialement conçues ont amélioré la capacité de traitement. La prochaine étape consiste à apprendre à gérer le Big Data tout au long de son cycle de vie. Ce que la plupart des gens ne savent pas, c’est que la grande majorité des Big Data sont des données dupliquées ou synthétisées. Jetons un coup d’œil sur un centre de recherche médicale de premier plan qui génère 100 téraoctets de données à partir de divers instruments. Ces données sont ensuite copiées par 18 départements de recherche différents qui les traitent en ajoutant 5 téraoctets de données synthétisées supplémentaires. Désormais, ils doivent gérer un total de plus d'un pétaoctet de données, dont moins de 150 téraoctets sont uniques. Pourtant, l'intégralité du pétaoctet de données est sauvegardée, déplacée vers un site de récupération après sinistre, consommant ainsi davantage d'énergie et d'espace utilisé pour le stocker. Le centre médical a donc utilisé plus de 10 pétaoctets de stockage pour gérer moins de 150 téraoctets de données véritablement uniques. Ce n'est pas efficace. Alors, comment devrait-il être géré? La première étape consiste à ramener les données à leur ensemble unique et à réduire la quantité de données à gérer.

Suivant , tirez parti de la puissance de la technologie de virtualisation. Les organisations doivent virtualiser cet ensemble de données unique de manière à ce que non seulement plusieurs applications puissent réutiliser le même empreinte de données, mais également que l'empreinte de données plus petite puisse être stockée sur tout périphérique de stockage indépendant du fournisseur. La virtualisation est l'arme secrète que les entreprises peuvent utiliser pour relever le défi de la gestion du Big Data. En réduisant l'encombrement des données, en virtualisant la réutilisation et le stockage des données et en centralisant la gestion du jeu de données, le Big Data est finalement transformé en petites données et géré comme des données virtuelles. Maintenant que l'encombrement des données est réduit, les organisations vont améliorer considérablement la gestion des données dans trois domaines clés:

Les applications ont besoin de moins de temps pour traiter les données. Les données peuvent être mieux sécurisées puisque la gestion est centralisée, même si l'accès est distribué. Les résultats de l'analyse des données sont plus précis puisque toutes les copies des données sont visibles.

La virtualisation est en effet le «héros» de la gestion du Big Data. De plus, il offre aux entreprises de nombreux avantages supplémentaires: les utilisateurs finaux bénéficient d'une flexibilité, de coûts réduits et d'une liberté totale vis-à-vis des fournisseurs informatiques. Une approche de gestion des données plus intelligente permet non seulement de sauvegarder le Big Data de manière beaucoup plus efficace, mais également de le rendre plus facilement récupérable et accessible, avec une économie de 90%, tout en permettant au personnel informatique de mener des initiatives technologiques plus stratégiques qui stimulent la croissance de l'entreprise au lieu de s'engager dans une bataille futile avec une bête Big Data incontrôlable.

Click to rate this post! [Total: 0 Average: 0]

Topics and keywords

Themes: Serveur d'impression

License & attribution

License: CC BY-ND 4.0.

Attribution required: yes.

Manifest: https://tutos-gameserver.fr/llm-endpoints-manifest.json

LLM Endpoints plugin version 1.1.2.