Pure Storage, le fournisseur informatique pionnier des technologies et des services de stockage de données, partage ses principales prédictions technologiques pour 2026 en matière d’intelligence artificielle, d’énergie et de sécurité. Dans un contexte où la pression réglementaire, les tensions géopolitiques et l’explosion des usages IA bousculent les modèles établis, cinq tendances clés devraient marquer l’année à venir et les priorités des organisations, selon Pure Storage.
Le nombre d’attaques très médiatisées a explosé l’année dernière, non seulement en termes de volume, mais aussi par l’ampleur des dégâts qu’elles ont causés, paralysant notamment de grands industriels. L’approche historique consistant à traiter la cyber-résilience comme un sujet isolé, confié à un seul fournisseur pour toute une entreprise, touchera à sa fin. Les organisations abandonneront les solutions ponctuelles au profit d’un écosystème plus riche , ne pouvant plus y arriver seules. Un cadre interconnecté peut aider à prévenir un effet domino en cas d’attaque : les utilisateurs doivent être en mesure d’identifier et de stopper une attaque en cours. Le rythme et l’ampleur des attaques vont se poursuivre, et il est essentiel de disposer d’un cadre correctement intégré pour atténuer les risques et accélérer la reprise de service.
Si les efforts visant à réduire la consommation d’énergie ont perdu de leur importance dans l’agenda politique et économique ces derniers mois, ils restent une priorité pour certains. Trois grandes tendances se distinguent en matière de consommation d’énergie. Premièrement, la disponibilité de l’énergie sera un critère essentiel dans la construction de nouveaux datacenters, et la pénurie d’électricité freinera la construction. Leur architecture et leur emplacement dépendront désormais principalement de l’accès à l’énergie. On peut s’attendre à ce que la colocalisation de la production d’énergie et des datacenters permette d’éviter la dépendance à un réseau sous-dimensionné. Deuxièmement, les solutions de chauffage urbain (distribution de la chaleur résiduelle produite par les centres de données à d’autres endroits) commenceront à se généraliser. Les fournisseurs commenceront à exploiter la chaleur produite, que ce soit en la détournant vers des propriétés résidentielles ou des serres agricoles. Cependant, tant que cela ne sera pas imposé par la réglementation, cette solution ne sera pas généralisée et les gouvernements doivent en tenir compte. Finalement, une autre norme industrielle qui devrait évoluer concerne la façon dont l’efficacité du stockage des données est mesurée. Le teraoctet par watt (TBe/W) mesure la quantité de données stockées par unité d’énergie et devrait être introduit. Il s’agit d’une mesure pertinente et claire qui reflète la consommation d’énergie réelle et constitue un repère simple, neutre et précis. Cette approche pourrait réduire l’impact de l’augmentation des prix de l’énergie, renforcer la sécurité énergétique et soulager la pression sur des infrastructures surchargées.
Alors que certaines organisations continuent de se convaincre du caractère indispensable de l’IA, la plupart adoptent désormais une vision réaliste de ce qu’elles déploient et, surtout, de ce qu’elles ne déploient pas. Le passage d’un focus sur l’entraînement à l’inférence implique que, sans une plateforme d’inférence solide et la capacité de préparer les données pour les pipelines d’IA, les organisations se dirigent vers l’échec. À mesure que les charges d’inférence deviennent partie intégrante des workflows de production, les organisations vont devoir s’assurer que leur infrastructure offre non seulement un accès rapide, mais aussi une haute disponibilité, une sécurité renforcée et des opérations non disruptives. Ne pas répondre à ces exigences entraînera des coûts importants, tant en termes de résultats que d’efficacité opérationnelle, notamment concernant l’utilisation des ressources comme les GPU.
Cependant, la plupart des organisations rencontrent encore des difficultés face au défi de la préparation des données. Rendre les données prêtes pour l’IA nécessite de passer par de nombreuses étapes telles que l’ingestion, la curation, la transformation, la vectorisation, l’indexation et la mise à disposition. Chacune de ces phases peut prendre des jours ou des semaines et retarder le moment où les résultats d’un projet d’IA peuvent être évalués. Les organisations qui souhaitent exploiter l’IA avec leurs propres données chercheront à rationaliser et automatiser l’ensemble du pipeline de données pour l’IA, non seulement pour accélérer l’évaluation initiale des résultats, mais aussi pour permettre l’ingestion continue de nouvelles données et l’itération.
Les enjeux croisés de l’IA et de la souveraineté des données alimentent des inquiétudes quant à l’endroit où les données sont stockées et à la manière dont les organisations peuvent maintenir la confiance et garantir l’accès en cas de problème. Pour tirer de la valeur de l’IA, il est essentiel pour les organisations de savoir où se trouvent leurs données les plus importantes et qu’elles soient prêtes à être utilisées.
À cela s’ajoutent des préoccupations liées à la souveraineté des données, qui poussent davantage d’organisations à reconsidérer leur stratégie cloud. La montée des tensions géopolitiques et la pression réglementaire influenceront les stratégies de datacenter des nations en 2026 pour y répondre. Les gouvernements, en particulier, cherchent à réduire le risque que l’accès aux données puisse être utilisé comme menace ou comme levier de négociation. Les organisations doivent également rester vigilantes et s’y préparer.
De nombreux clients adoptent des alternatives à VMware. KubeVirt offre une plateforme unique qui répond à la fois aux besoins de virtualisation et de conteneurisation, qui pourrait se développer fortement en 2026. Pour beaucoup, passer à un autre fournisseur de virtualisation représente une transformation majeure, et même si cela permet d’économiser à court terme, il est peu probable que cela donne accès aux fonctionnalités nécessaires à long terme.