Un regard sur l’évolution du stockage de données

0
32
Data warping into safe box - 3D Rendering

De nombreux facteurs déterminent l’évolution du stockage des données. Le premier est la création numérique. Qu’il s’agisse des médias, de l’industrie 4.0, de l’IoT ou de l’infrastructure numérique des entreprises, ce sont les catalyseurs qui génèrent d’énormes quantités de données dans le monde.

Considérez comment nous utilisons les machines pour travailler et jouer dans nos ménages. Avant la pandémie, la majorité de la main-d’œuvre se trouvait dans des bureaux avec tous les appareils de connexion au même endroit. Mais maintenant, alors que nous travaillons à domicile, dans des cafés et des espaces de coworking, les technologies de visioconférence et les médias sociaux que nous utilisons génèrent de plus en plus de données. En conséquence, une grande quantité de données est capturée depuis la périphérie : à la fois statiques (cafés, etc.) et mobiles (avions, voitures, navires, etc.).

En venant à l’industrie 4.0, chaque entreprise adopte et rend ses machines plus intelligentes. L’IOT n’est plus seulement destiné au lieu de travail, mais fait désormais partie de la vie quotidienne. Par exemple, la domotique génère une énorme quantité de données. Pensez aux appareils domestiques Alexa et Google utilisés dans le monde entier : tout, des appareils électroménagers aux jeux vidéo de nos enfants, génère des données.

Évolution des capacités de stockage de données supérieures
Au cours des deux dernières décennies, en raison de l’augmentation exponentielle de l’utilisation des données, les centres de données ont développé des exigences strictes pour une plus grande capacité de stockage par surface carrée et une transmission de données plus rapide, l’industrie a continué d’évoluer. Les innovateurs se sont concentrés sur la recherche de moyens d’atteindre une plus grande capacité et un débit plus rapide, tout en utilisant un espace limité et en respectant leur budget énergétique.

La technologie Flash est devenue populaire en raison de sa petite taille et de sa capacité à fournir des informations plus rapidement en utilisant une consommation d’énergie nettement inférieure à celle de la technologie des disques durs. Cependant, même si cette option résout certains problèmes de taille et de puissance, elle a des limites. Par exemple, la durée de vie de la plupart des périphériques flash ne vous permet d’y écrire des données qu’un certain nombre de fois avant qu’ils ne tombent en panne mécaniquement.

Au cours des 90 dernières années, le stockage de données a évolué des tambours et bandes magnétiques aux disques durs, puis aux supports mixtes, au flash et enfin au stockage en nuage. C’est là où nous en sommes aujourd’hui, et à mesure que nos besoins de stockage augmentent, l’innovation continue d’évoluer dans de nombreux domaines.

Le changement de paradigme vers le stockage de données en périphérie
Le Big Data joue un rôle central dans presque tout ce que nous faisons de nos jours, mais il ne suffit plus d’avoir accès à des informations basées sur les données, en particulier si elles sont obsolètes et obsolètes. À mesure que la quantité de données générées augmente et que la capture de données se rapproche de plus en plus des environnements périphériques, un traitement urgent est essentiel pour fournir des renseignements opportuns qui reflètent les circonstances en temps réel.

Les organisations subissent de plus en plus de pression pour obtenir et appliquer rapidement des informations, avant que les situations ne changent. Ce fait oblige les chefs d’entreprise de tous les secteurs d’activité à adopter les données actives et à déployer des moyens de les capturer et de les transporter pour un traitement immédiat.

Les défis de la gestion du Big Data
Pour optimiser l’IA pour l’avenir, nous avons également besoin de systèmes performants. Il peut s’agir de systèmes de stockage ou basés sur le cloud, traités par des applications modernes et gourmandes en données. Plus vous alimentez ces applications en données, plus elles peuvent exécuter rapidement leurs algorithmes et fournir des informations, que ce soit pour des outils de micro-stratégie ou des outils de business intelligence. C’est ce qu’on appelle généralement l’exploration de données et, par le passé, nous le faisions en plaçant les données dans un entrepôt, puis en exécutant des applications pour les traiter.

Cependant, ces méthodes sont pleines de défis. Les appareils générateurs de données génèrent désormais en permanence des quantités toujours croissantes d’informations. Que la source soit des véhicules autonomes ou des soins de santé, et que la plateforme soit un drone ou un appareil de pointe, tout est capable de générer de plus grandes quantités de données qu’auparavant. Jusqu’à présent, l’industrie de la gestion des données n’a pas été en mesure de capturer ces quantités, que ce soit via les réseaux, la 5G, le cloud ou toute autre méthode de stockage.

Ces circonstances ont conduit à la perte de 90 % des données collectées en raison d’une capacité de stockage insuffisante et de l’incapacité de les traiter rapidement et de les transmettre à un centre de données. Les résultats s’appliquent également aux données critiques capturées sur des sites distants qui n’ont pas de connectivité ou d’applications cloud exécutées à la périphérie.

Il est essentiel pour nous de développer des moyens de résoudre ces défis, des solutions qui incluent la capture en temps opportun, le transport vers les centres de données/cloud et le traitement immédiat à l’aide d’un stockage unique et léger qui nous permettent de profiter des avantages de mettre l’IA au service de l’humanité.

Préparer l’avenir
Les DSI sont toujours à la recherche de nouvelles façons d’exploiter l’infrastructure de manière rentable. Pour préparer votre entreprise à obtenir des résultats de haute performance à l’avenir, toutes les applications que vous exécutez doivent être très réactives. Toutes les données ne sont pas consultées en permanence. Certains ensembles de données ne sont consultés que pendant une courte période, puis ils sont obsolètes. Pour optimiser votre infrastructure en termes de coût, de performances et d’éléments d’espace, vous devez :

• Analyser la chaîne de données et identifiez les ensembles de données et les segments qui ne sont pas constamment nécessaires.
• Concevez une architecture de données qui inclut un stockage à vitesse lente pour les données non critiques. Cela pourrait être un hybride de technologies de stockage rapide et de technologies de disque dur.
• Constituez l’architecture de manière à ce que seules les données actives nécessitent un stockage rapide et que le reste puisse être stocké dans des emplacements plus lents.

Il existe certainement différents types de produits dans les lecteurs flash SSD. Les systèmes de stockage à haute densité suivront également cette technologie. L’espace Big Data connaît des innovations révolutionnaires pour relever les défis de stockage, de migration et de déploiement et il faut rester au courant pour bénéficier des données dont nous disposons.

 

Source:

  1. https://www.expresscomputer.in/
  2. https://www.computerhistory.org/
  3. https://unsplash.com/
  4. Istock