En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Dossiers

Le défi des données d’observabilité de masse : où mettre la limite ?

Par Stéphane Dulor, VP France et Afrique du Nord chez Dynatrace

Publication: Janvier 2023

Partagez sur
 
A mesure que s’accroît la dépendance aux services pilotés par des applications, la transformation digitale est devenue omniprésente dans tous les secteurs...
 

Les clients et les utilisateurs finaux attendent de la part des organisations des services digitaux toujours plus efficaces, plus sécurisés, plus rapides et de meilleure qualité. Les environnements multicloud, qui s’appuient en moyenne sur cinq plateformes différentes, sont au cœur de cette transformation. Ils améliorent l’agilité des organisations, afin que les équipes DevOps puissent accélérer leur innovation et apporter une réelle valeur ajoutée à l’entreprise.

Mais ces environnements multicloud ont aussi introduit de nouveaux défis, compte tenu de leur complexité et de leur échelle. Les applications couvrent plusieurs technologies, contiennent des millions de ligne de code et génèrent plus encore de dépendances. Si bien que pour les équipes DevOps, le monitoring manuel de ces environnements, la reconstitution et l’analyse des logs pour obtenir les informations dont elles ont besoin pour fournir des expériences digitales de qualité, dépassent aujourd’hui leurs capacités humaines.

L’AIOps à la rescousse

Les plateformes d’intelligence artificielle pour les opérations (AIOps) gagnent en popularité dans les entreprises qui cherchent à maîtriser la complexité du multicloud et à en surmonter les défis. L’AIOps combine big data et techniques de machine learning pour automatiser les opérations IT, et permettre ainsi aux organisations d’innover plus rapidement en libérant du temps utile aux développeurs pour se consacrer à des tâches plus stratégiques.

Mais l’intelligence de l’AIOps dépend de la qualité et de la quantité de logs et de données dont les équipes la nourrissent, ce qui rend donc l’observabilité essentielle. Les organisations ont en effet besoin de capturer des métriques, des logs et des traces détaillés, à partir des applications et des infrastructures multicloud, et de les intégrer aux plateformes d’AIOps.

C’est ce qui permet à l’IA de fournir aux équipes DevOps les informations dont elles ont besoin pour optimiser les applications, offrir de meilleures expériences clients, et générer des résultats business plus positifs. Avec des données d’observabilité de meilleure qualité, les solutions d’AIOps peuvent fournir un meilleur contexte, et les équipes peuvent opérer de manière plus agile et plus éclairée.

Des données, des données, des données

Le problème, c’est que dans cette course effrénée pour collecter toujours plus de données utilisateurs, de métadonnées et d’informations sur les résultats business, les organisations se retrouvent submergées. Elles ne peuvent tout simplement pas gérer l’immense volume de données issues des milliers de microservices et de conteneurs de leurs environnements multicloud, sans compter les clics et autres interactions des utilisateurs avec un service digital. Les organisations s’aperçoivent qu’il est de plus en plus difficile de continuer à utiliser les solutions traditionnelles de monitoring et d’analyse de logs, qui n’ont pas été conçues pour une telle explosion continue de données d’observabilité.

Les organisations ont donc la plus grande peine à ingérer, stocker, indexer et analyser les données d’observabilité à la bonne échelle. Les implications en termes de finances et de temps sont trop peu rentables. Et les organisations qui ont choisi de multiplier les solutions de monitoring et d’analyses pour répondre à leurs différents besoins, font face aujourd’hui à des silos de données difficiles à exploiter. Cette approche fragmentée, en rendant plus complexe l’analyse des données de logs dans leur contexte, limite la valeur que l’AIOps peut apporter aux organisations.

Par ailleurs, les organisations sont souvent contraintes de migrer leurs données de logs historiques vers des "cold storage (ou des référentiels de stockage pour les données inactives), ou bien de complètement nettoyer ou supprimer les données en fonction du coût du stockage initial. Bien que cela rende l’analyse de logs plus rentables, cela réduit aussi sa valeur et son impact sur les approches modernes d’AIOps. Lorsque les données sont stockées dans des cold storages, les organisations ne peuvent pas utiliser les plateformes d’AIOps pour effectuer des requêtes à la demande afin d’obtenir des informations en temps réel, ni pour identifier le contexte de la cause d’un problème potentiel. Ces données doivent d’abord être réhydratées et réindexées avant que les équipes ne puissent exécuter des requêtes et obtenir des informations, ce qui peut prendre des heures, voire des jours entiers. Les informations générées peuvent alors s’avérer déjà obsolètes et donc peu utiles pour prévenir les problèmes avant qu’ils impactent l’expérience client.

Une observabilité sans limite dans le cloud

La dépendance aux environnements multicloud et à l’automatisation pilotée par AIOps ne montre aucun signe de ralentissement, l’appétence pour les services digitaux continuant à augmenter partout. Par conséquent, les organisations doivent trouver une nouvelle approche pour capturer, ingérer, indexer, stocker et exploiter les données d’observabilité, une approche adaptée au monde du cloud.

Il s’agit de disposer de modèles d’analyses de logs conçus pour s’adapter à la complexité des environnements multicloud et à l’évolution sans limite des volumes de métriques, de logs et de traces qu’ils créent. Un data lakehouse constitue une solution particulièrement efficiente, en ce qu’il combine les caractéristiques de structure, de gestion et de requête d’un data warehouse, mais avec les avantages économiques d’un data lake. Les équipes n’ont ainsi plus besoin de gérer plusieurs sources de données, de les reconstituer manuellement et de les déplacer entre des hot et des cold storages, ce qui améliore la vitesse et la précision des informations d’AIOps.

De cette façon, les organisations peuvent obtenir des analyses entièrement contextualisées de données et de logs, à une échelle gigantesque, et permettre ainsi des requêtes plus rapides qui fournissent des réponses issues de l’AIOps plus précises. Dotées de ces capacités, les organisations peuvent déployer une automatisation plus intelligente pour créer des interactions digitales de meilleure qualité pour leurs clients et leurs utilisateurs finaux, et pour gagner un avantage concurrentiel inestimable dans un monde de plus en plus connecté.

https://www.dynatrace.com/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: