Le problème de la sécurité résolu, les bénéfices économiques et de souplesse du cloud permettent aux DSI de réduire leurs investissements en stockage traditionnel pour les transférer dans le stockage Cloud.
Les innovations technologiques telles que l’analyse prédictive, le Machine Learning, l’automatisation ou encore l’IoT évoluent vers les services cloud. Tout cela fait partie de la transition numérique des Entreprises et pour répondre aux besoins des organisations en matière de stockage, et cela de manière rentable,il existe donc de nombreuses raisons pour lesquelles le cloud 2.0 est une nécessité. Wasabi, entreprise spécialisée dans le hot cloud storage, décrypte ces raisons.
Selon IDC, le monde générait 161 exabytes de données par an en 2006. 14 ans plus tard, ce sont 2,5 exabytes supplémentaires qui sont produits chaque jour. Et d’ici la fin de l’année 2020, des estimations prédisent que le volume total de données à l’échelle mondiale atteindra 44 zettaoctets (44 milliards de giga-octets). Et ce n’est que le début car Les nouveaux usages, la digitalisation ou encore l’automatisation de nombreux secteurs comme celui de la santé ne font qu’augmenter la masse de données à stocker.
Grâce à des technologies telles que l’analyse prédictive ou le machine learning, les dirigeants accèdent en quelques minutes à des informations basées sur des données qui nécessitent une transformation numérique et un stockage des données plus long. Cela signifie que les données utilisées pour obtenir ces informations doivent être accessibles facilement, plutôt que stockées sur des bandes ou dans des services cloud peu performants.
À mesure que le volume de données augmente, le coût supplémentaire des services premium ou accélérés qui s’ajoutent au stockage cloud, sera prohibitif pour la plupart des organisations. La prochaine génération de stockage doit donc intégrer cette dimension et proposer des solutions adaptées permettant aux clients de ne pas faire un compromis entre le prix et la performance.
Le coût annuel d’un pétaoctet chez l’un des principaux fournisseurs de cloud au monde s’élève à environ 250 000 dollars par an. S’il existe des niveaux de service moins coûteux, ceux-ci sont souvent conçus pour un accès peu fréquent et se révèlent généralement trop lent pour supporter une analyse rapide et flexible. Ils peuvent également se transformer en une mine de coûts cachés, par exemple pour des besoins d’accès aux données plus importants que prévus. Et comme le volume, la variété et la vélocité des données augmentent de manière exponentielle, la complexité des décisions de stockage augmentera également.
Tenter de comprendre les niveaux de stockage complexes et les modèles de tarification opaques peut s’avérer difficile et représente une perte de temps pour les entreprises. Devoir calculer ce qu’il faut stocker et comment il faut le stocker (dans un stockage standard, d’accès peu fréquent, en ligne de proximité ou à froid), alors que le nombre et la variété des sources de données, la taille des fichiers et la vitesse des données ne cessent de croître est un véritable casse-tête. L’ère du Big Data nécessitera donc une solution de stockage de nouvelle génération avec un seul niveau de service universel à un tarif forfaitaire.
De plus en plus, la capacité des entreprises à dégager un avantage concurrentiel dépendra de leur aptitude à extraire des informations depuis de multiples sources à la croissance exponentielle. Or, il ne sera pas possible d’exploiter ces données s’il n’est pas possible de les stocker facilement à un prix abordable. Le cloud 2.0 devra doit donc répondre aux exigences et aux nouveaux besoins des entreprises à l’ère du Big data.