Surprovisionnement des charges de travail kubernetes
Les dépenses des entreprises en matière de cloud sont incontrôlables. Les entreprises continuent d’allouer beaucoup plus de capacité de calcul que nécessaire, juste pour jouer la carte de la sécurité. Résultat ? Des ressources gaspillées et des coûts qui montent en flèche. L’étude de Cast AI a révélé que la plupart des solutions Kubernetes ne fonctionnaient qu’à 10 % de leur capacité de calcul et à moins de 25 % de leur capacité de mémoire en 2024. Il s’agit là d’un niveau d’inefficacité insensé.
Laurent Gil, président et cofondateur de Cast AI, souligne que le surprovisionnement est un problème qui touche l’ensemble du cloud. Les entreprises dépensent pour des ressources informatiques qu’elles n’utilisent pas parce qu’elles craignent l’alternative : pénurie de ressources, temps d’arrêt et mécontentement des clients. Au lieu d’adopter une approche stratégique et fondée sur les données pour la mise à l’échelle, de nombreuses entreprises ont tendance à surprovisionner juste pour éviter les pires scénarios.
C’est là que les décisions des dirigeants doivent être plus précises. Le surprovisionnement peut sembler la voie la plus sûre, mais c’est la plus coûteuse. Les entreprises devraient investir dans l’automatisation et la mise à l’échelle prédictive pour aligner le provisionnement du cloud sur les demandes réelles de charge de travail. L’objectif est simple : adapter l’offre à la demande et cesser de payer pour ce que vous n’utilisez pas.
La gestion des coûts du cloud reste un défi majeur
Les coûts du cloud ne cessent d’augmenter, même si AWS, Microsoft et Google Cloud proposent des prix compétitifs. Cela n’a pas de sens – jusqu’à ce que vous examiniez la façon dont les entreprises achètent des ressources cloud. Les entreprises dépensent plus, non pas parce que les prix augmentent, mais parce qu’elles ne gèrent pas efficacement leur consommation.
Le marché mondial de l’infrastructure cloud a progressé de 22 % d’une année sur l’autre en 2024, atteignant 330 milliards de dollars, selon Synergy Research Group. Alors que les hyperscalers offrent des coûts unitaires plus bas, les entreprises doivent encore faire face à des factures imprévisibles. Pourquoi ? Le manque de visibilité en temps réel sur l’utilisation du cloud et une dépendance excessive aux contrats à long terme qui troquent la flexibilité contre des remises à court terme.
Les DSI et les DAF doivent repenser leur approche. La bonne décision consiste à optimiser la consommation. Un placement plus intelligent des charges de travail, un suivi des coûts en temps réel et une stratégie cloud claire peuvent permettre de maîtriser les coûts sans compromettre les performances.
Les programmes d’épargne peuvent se retourner contre eux si les ressources ne sont pas utilisées
Les programmes d’économies sur le cloud semblent intéressants – jusqu’à ce que vous réalisiez qu’ils conduisent souvent à des dépenses inutiles. AWS, Microsoft et Google Cloud proposent des tarifs échelonnés, des remises sur les instances ponctuelles et des plans d’engagement à long terme qui peuvent réduire les prix jusqu’à 75 %. Mais il y a un hic : si vous n’utilisez pas ce à quoi vous vous êtes engagé, ces économies se transforment en coûts irrécupérables.
Les équipes chargées des achats achètent généralement plus que ce dont elles ont besoin pour éviter les pénuries. Cette approche est logique dans un environnement informatique traditionnel, mais dans le cloud, elle est erronée. Contrairement à l’infrastructure physique, les ressources du cloud peuvent être adaptées de manière dynamique. Pourtant, de nombreuses entreprises prennent des engagements à long terme pour obtenir des tarifs plus bas, avant de se rendre compte qu’elles n’utilisent pas la moitié de ce qu’elles ont payé.
Les dirigeants doivent se concentrer sur la flexibilité. La meilleure stratégie en matière de cloud est celle qui maximise les réductions sans sacrifier l’adaptabilité. Des engagements plus courts, une surveillance en temps réel et une combinaison d’instances à la demande et d’instances ponctuelles peuvent garantir que les ressources du cloud correspondent aux besoins de l’entreprise, et non l’inverse.
Les charges de travail d’IA intensifient les pressions sur les coûts du cloud.
L’IA stimule la demande demande de cloud à de nouveaux niveaux, et les entreprises ont du mal à suivre. Le problème n’est pas seulement que les charges de travail d’IA ont besoin de plus de puissance de calcul, mais aussi que de nombreuses entreprises n’ont pas la bonne stratégie pour optimiser ces charges de travail.
Cast AI a constaté que 6 % des charges de travail ont dépassé la mémoire demandée au moins une fois sur une période de 24 heures, ce qui a entraîné des interruptions de service. Les modèles d’IA nécessitent une grande puissance GPU et CPU, mais le provisionnement inefficace de ces ressources entraîne deux problèmes : soit les systèmes rencontrent des problèmes de performance, soit les entreprises surallouent et gaspillent de l’argent.
Laurent Gil met en évidence un problème clé : même lorsque le processeur est en excès, les charges de travail de l’IA peuvent toujours manquer de mémoire. Ce déséquilibre conduit à l’instabilité, obligeant les équipes à provisionner encore plus de ressources pour se prémunir. C’est une solution coûteuse. La meilleure approche ? Un équilibrage plus intelligent de la charge de travail, une surveillance en temps réel et une mise à l’échelle rentable des GPU.
L’optimisation stratégique des coûts peut permettre de réaliser des économies importantes
Les entreprises qui gagnent dans le domaine du cloud ne sont pas celles qui courent après les rabais. Ce sont celles qui maîtrisent l’optimisation des coûts.
Les remises sur les instances AWS peuvent réduire les coûts jusqu’à 90 %, mais les prix fluctuent en moyenne 197 fois par mois. Cela signifie que les entreprises ont besoin d’une stratégie adaptative, et non d’une approche de type « fixer et oublier ». L’étude de Cast AI montre que les clients d’Azure AI peuvent réduire leurs coûts de GPU de 90 % en utilisant la tarification ponctuelle des instances de Microsoft, tandis qu’AWS et Google Cloud offrent des économies de 67 % et 66 %, respectivement. Il s’agit d’une opportunité considérable, mais seulement pour ceux qui peuvent déplacer dynamiquement les charges de travail vers les options les moins coûteuses.
Une autre stratégie négligée est le placement des charges de travail. Le déplacement des charges de travail vers des régions et des zones de disponibilité moins coûteuses peut diviser les dépenses par six. Les organisations intelligentes tirent déjà parti de ces approches. Celles qui ne le font pas continueront à en payer le prix.
« Les dirigeants devraient pousser à la gestion automatisée des coûts, à l’optimisation de la charge de travail en temps réel et à des stratégies flexibles en matière de cloud. L’avenir de l’informatique Cloud consiste à utiliser ce que vous avez, mieux. »
Principaux enseignements pour les dirigeants
- Le surprovisionnement de Kubernetes épuise les budgets du cloud : Les entreprises allouent beaucoup plus de ressources cloud que nécessaire, les clusters Kubernetes n’utilisant que 10 % de leur CPU et moins de 25 % de leur mémoire. Les dirigeants devraient mettre en œuvre une mise à l’échelle automatisée et une surveillance en temps réel afin d’éliminer le gaspillage et d’optimiser les dépenses.
- Les coûts du cloud ne cessent d’augmenter malgré des prix compétitifs : Le marché du cloud a connu une croissance de 22 % en 2024, mais les entreprises sont toujours confrontées à des coûts galopants en raison d’une consommation inefficace. Les décideurs doivent se concentrer sur le contrôle des coûts basé sur la consommation plutôt que sur la simple obtention de remises de la part des fournisseurs.
- Les programmes d’économies peuvent se retourner contre vous s’ils ne sont pas utilisés intelligemment : Les réductions basées sur le Cloud peuvent réduire les coûts jusqu’à 75 %, mais les ressources non utilisées transforment ces économies en dépenses inutiles. Les dirigeants doivent trouver un équilibre entre les contrats à long terme et les capacités flexibles à la demande afin d’éviter tout engagement excessif.
- Les charges de travail d’IA intensifient les pressions sur les coûts du cloud : Les applications d’IA exigent une puissance de calcul élevée, ce qui entraîne des déséquilibres de ressources qui font grimper les coûts et perturbent les services. Les dirigeants doivent optimiser le placement des charges de travail d’IA et tirer parti de la mise à l’échelle rentable des GPU pour éviter les dépassements de budget.
- L’optimisation intelligente du cloud permet de réaliser des économies massives : La tarification des instances ponctuelles et le placement stratégique des charges de travail peuvent réduire les dépenses liées au cloud jusqu’à 90 %. Les dirigeants devraient donner la priorité au provisionnement dynamique et à la gestion automatisée des coûts pour rester agiles tout en réduisant les dépenses inutiles liées au cloud.