Kubernetes est le fondement de l’infrastructure cloud-native.
Kubernetes est le système de contrôle de l’informatique Cloud moderne. Il orchestre tout, en automatisant la façon dont les entreprises déploient et gèrent les logiciels à travers les centres de données et les clouds. C’est pourquoi près de 84 % des entreprises utilisent Kubernetes en production ou l’évaluent activement (enquête CNCF 2023).
Ce qui fait la force de Kubernetes, c’est sa flexibilité. Il n’est pas enfermé dans une seule fonction – il gère les pipelines CI/CD, les modèles d’apprentissage automatique, les bases de données à l’échelle mondiale, et bien plus encore. Les entreprises l’utilisent pour tout exécuter, des transactions financières aux analyses pilotées par l’IA. Et comme il s’agit d’un logiciel libre, il ne cesse d’évoluer. Des milliers de développeurs y contribuent, ce qui permet de l’améliorer, de l’accélérer et de la sécuriser.
Kubernetes n’est pas simple pour autant. Il est incroyablement performant, mais aussi incroyablement complexe. Il vous donne un contrôle total, mais un grand pouvoir s’accompagne d’une grande responsabilité. C’est pourquoi tant d’entreprises se tournent vers des services Kubernetes gérés comme Amazon EKS, Azure AKS et Google GKE. Ces plateformes gèrent la complexité pour vous, de sorte que vous n’avez pas besoin d’embaucher une armée d’ingénieurs pour faire fonctionner les choses.
« Si votre entreprise prend au sérieux l’évolutivité, l’automatisation et la résilience, Kubernetes est l’avenir. Mais la question est de savoir s’il peut devenir plus facile à utiliser. »
La facilité d’utilisation s’améliore, mais reste complexe
Kubernetes est aujourd’hui puissant, mais pas encore assez convivial pour le grand public. Il est devenu beaucoup plus facile au fil des ans, grâce aux services gérés et aux outils d’automatisation. Les entreprises peuvent désormais déployer des applications sans avoir à s’occuper de tous les détails délicats de la configuration manuelle des serveurs, de la mise en réseau et du stockage.
Mais la complexité n’a pas disparu, elle a simplement été déplacée. Au lieu de se battre avec l’infrastructure, les entreprises se battent maintenant pour savoir comment utiliser Kubernetes efficacement. L’écosystème est énorme, avec des centaines d’outils, chacun résolvant un problème différent.
Par exemple, les opérateurs Kubernetes ont rendu l’exécution de charges de travail complexes – comme les bases de données – beaucoup plus facile en automatisant les tâches répétitives. Mais leur mise en place nécessite toujours une expertise approfondie. Si la sécurité s’est améliorée, elle n’est toujours pas « prête à l’emploi ». Des erreurs de configuration se produisent constamment, entraînant des problèmes de performance et des risques pour la sécurité.
Les données le confirment. 84 % des entreprises délaissent désormais l’autogestion de Kubernetes au profit de services gérés (enquête State of Kubernetes 2023). Le message est clair : Kubernetes devient indispensable, mais le secteur travaille encore à le rendre accessible à tous.
La complexité et le coût caché de l’innovation
Kubernetes est une bête. Il est conçu pour gérer des applications à l’échelle mondiale, ce qui signifie qu’il est livré avec un nombre impressionnant d’options et de paramètres. C’est une bonne chose si vous gérez des milliers de serveurs, mais pour la plupart des entreprises, c’est trop de frais généraux.
75 % des praticiens de Kubernetes signalent des problèmes permanents liés à l’exécution de leurs clusters (rapport Spectro Cloud 2023). Ce chiffre est en hausse par rapport aux 66 % de 2022, ce qui signifie que les choses deviennent plus difficiles, et non plus faciles. Pourquoi ? Parce que Kubernetes n’est plus seulement une question de déploiement. Il s’agit de multi-cloud, de sécurité, de surveillance, d’automatisation, de mise à l’échelle, de conformité et de tout ce qui se trouve entre les deux.
L’un des plus grands défis est la gestion multi-clusters. De nombreuses entreprises exploitent 10 clusters Kubernetes ou plus, chacun nécessitant une coordination et une optimisation. Sans les bons outils, leur gestion est un cauchemar. Même les équipes expérimentées ont du mal à configurer correctement les limites de ressources, les politiques de réseau et les paramètres de stockage.
Ensuite, il y a la sécurité. Kubernetes nécessite des contrôles d’accès stricts, une analyse continue des vulnérabilités et une gestion de la conformité. S’il est mal configuré, il peut exposer votre entreprise à des cybermenaces. Même les équipes DevOps chevronnées commettent des erreurs car la sécurité dans Kubernetes n’est pas intuitive.
Et puis il y a le manque de compétences. Kubernetes n’est pas aussi largement compris que les technologies de virtualisation traditionnelles comme VMware. De nombreuses équipes informatiques hésitent à l’adopter simplement parce qu’elles manquent d’expertise. C’est pourquoi les entreprises embauchent des spécialistes de Kubernetes ou externalisent auprès de fournisseurs de cloud.
« Kubernetes est l’avenir, mais pour l’instant, il est compliqué et gourmand en ressources. Si les entreprises veulent bénéficier des avantages sans les maux de tête, elles ont besoin d’une meilleure abstraction, d’une automatisation et d’un outillage plus intelligent. »
Kubernetes s’étend au-delà des conteneurs
Au début, Kubernetes ne servait qu’à gérer les conteneurs, les éléments constitutifs des logiciels modernes. Mais aujourd’hui ? Il est en train de devenir le système d’exploitation du cloud.
L’un des changements les plus importants est la prise en charge des machines virtuelles (VM). Les entreprises s’appuient sur VMware et d’autres plateformes de virtualisation depuis des décennies, et Kubernetes est en train d’absorber ce monde. Avec KubeVirt, les entreprises peuvent exécuter des applications héritées à l’intérieur de clusters Kubernetes, en se modernisant sans avoir besoin d’une reconstruction complète.
Pourquoi cela est-il important ? Parce que la plupart des entreprises utilisent encore des charges de travail anciennes. Les banques, les constructeurs automobiles et les entreprises industrielles dépendent d’applications conçues il y a 10, 20, voire 30 ans. Ces charges de travail ne peuvent pas être conteneurisées du jour au lendemain : elles nécessitent une migration minutieuse. Kubernetes est désormais en mesure de prendre en charge à la fois les anciennes et les nouvelles applications, ce qui en fait l’infrastructure de choix pour les grandes entreprises.
Un autre changement majeur ? Kubernetes évolue vers un plan de contrôle multi-cloud. Cela signifie que les entreprises peuvent exécuter des applications sur plusieurs fournisseurs de cloud – AWS, Google Cloud, Microsoft Azure-sans être enfermées dans un seul. Cette flexibilité est essentielle car les entreprises tentent de réduire leur dépendance à l’égard d’un seul fournisseur.
Cependant, une grande puissance s’accompagne d’une grande complexité. Exécuter des charges de travail héritées dans Kubernetes signifie faire face à la migration des données, à la reprise après sinistre et à de nouveaux défis en matière de sécurité. Les entreprises ont besoin d’une solide expertise Kubernetes pour que cette transition se fasse en douceur.
Comme le souligne Murli Thirumale, directeur général de Portworx, il s’agit d’un énorme pas en avant. Kubernetes n’est plus réservé aux startups cloud-natives – c’est désormais un concurrent sérieux pour la modernisation de l’informatique d’entreprise.
L’IA fait passer Kubernetes à la vitesse supérieure
L’IA change la donne pour Kubernetes. L’échelle même des charges de travail d’IA – ensembles de données massives, calcul haute performance et allocation dynamique des ressources – fait de Kubernetes l’outil idéal. Mais le problème est que Kubernetes n’a pas été conçu pour l’IA. Il est contraint d’évoluer pour répondre aux besoins des ingénieurs en IA, des scientifiques des données et des équipes d’apprentissage automatique.
Les charges de travail d’IA exigent une infrastructure rapide, évolutive et automatisée. L’entraînement d’un modèle d’IA peut nécessiter des centaines de GPU et, une fois entraînés, ces modèles doivent être déployés efficacement pour l’inférence en temps réel. Kubernetes peut gérer cela, mais pas d’emblée. Les équipes doivent créer des pipelines d’IA personnalisés, déployer des services supplémentaires et optimiser manuellement les charges de travail.
C’est là que Kubeflow entre en jeu. Kubeflow est un projet open-source conçu pour simplifier la formation et le déploiement de modèles d’apprentissage automatique sur Kubernetes. Il fait abstraction des problèmes d’infrastructure, permettant aux équipes d’intelligence artificielle de se concentrer sur l’élaboration de modèles plutôt que sur la configuration de clusters. Des entreprises comme le CERN, Red Hat et Apple utilisent déjà Kubeflow pour rationaliser les charges de travail d’IA.
Et puis il y a l’inférence de l’IA, où les modèles traitent les données du monde réel en production. Kubernetes est bien adapté pour cela, mais l’évolutivité reste un défi. Certaines charges de travail doivent être distribuées sur plusieurs régions de cloud, tandis que d’autres s’exécutent sur des périphériques de périphérie avec une puissance de calcul limitée. C’est là que KServe intervient, en fournissant un moyen indépendant du cadre pour déployer des modèles d’IA à grande échelle.
Comme l’explique Chase Christiansen, Staff Solutions Engineer chez TileDB, le défi consiste à déployer l’IA sur Kubernetes tout en la rendant fiable, évolutive et rentable. Les outils s’améliorent, mais il y a encore du travail à faire. L’IA et Kubernetes vont continuer à converger, mais pour l’instant, l’écosystème est encore trop fragmenté.
Kubernetes s’étend à la périphérie, mais des défis subsistent
Kubernetes ne se contente plus d’être utilisé dans les centres de données, mais s’étend à la périphérie. Il s’agit d’exécuter des logiciels sur des sites distants, dans des usines, des magasins de détail et même dans le cadre d’opérations militaires. Pourquoi ? Parce que certaines charges de travail ne peuvent pas se permettre la latence liée à l’envoi et au retour des données dans le cloud.
Prenez le ministère américain de la Défense. Il déploie Kubernetes dans des environnements aériens – cuirassés, jets F-16 et bases militaires sécurisées – où il n’y a aucune connectivité internet. Les chaînes de magasins utilisent Kubernetes au niveau des magasins pour traiter les données des clients en temps réel. Les fabricants de produits IoT intègrent des distributions Kubernetes légères dans les appareils intelligents et les capteurs.
Mais le défi est que l’edge computing est une bête complètement différente. Au lieu d’exploiter quelques grands clusters, les entreprises ont maintenant des milliers de petits clusters Kubernetes. Leur gestion est un cauchemar logistique.
C’est là qu’interviennent les distributions Kubernetes légères telles que K3s et Bottlerocket. Ces versions simplifiées de Kubernetes sont conçues pour les environnements à faible consommation d’énergie et à ressources limitées. Des plateformes comme AWS Fargate et MicroShift offrent des options de calcul sans serveur pour les charges de travail en périphérie.
Mais la gestion de milliers de clusters périphériques nécessite toujours une orchestration centralisée. Comme le dit Raghu Vatte, Field CTO chez ZEDEDA, « vous ne voulez pas reconstruire une application simplement parce que vous la déployez à la périphérie ». La normalisation entre le cloud et la périphérie est essentielle.
« La périphérie est la prochaine frontière pour Kubernetes, mais l’outillage n’a pas encore rattrapé son retard. Les entreprises ont besoin d’une meilleure automatisation, d’une meilleure sécurité et d’une meilleure résilience du réseau pour rendre pratiques les déploiements à grande échelle en périphérie. »
La sécurité et la conformité sont les maillons faibles de la chaîne
La sécurité dans Kubernetes est vitale, mais elle est encore en cours d’élaboration. La puissance de Kubernetes en fait également une cible pour les pirates informatiques. Une mauvaise configuration peut exposer des infrastructures entières à des attaques, ce qui fait de la sécurité une préoccupation majeure pour les entreprises.
Voici la réalité : la plupart des défaillances de sécurité de Kubernetes ne sont pas dues au logiciel lui-même, mais à l’erreur humaine. Les entreprises ne parviennent souvent pas à :
- Mettre en œuvre correctement le contrôle d’accès basé sur les rôles (RBAC).
- Mettez en place des politiques de réseau pour restreindre le trafic interne.
- Recherchez régulièrement les vulnérabilités des conteneurs.
Et ce, avant même d’aborder la question de la conformité. Pour des secteurs comme la finance, la santé et le gouvernement, Kubernetes doit répondre à des exigences de sécurité strictes. En d’autres termes :
- Les normes fédérales de traitement de l’information (FIPS) du NIST pour le cryptage des données.
- Exigences FedRAMP en matière d’analyse des vulnérabilités pour la sécurité du cloud.
- Conformité SOC 2 et HIPAA pour le traitement des données sensibles.
Comme l’explique Gaurav Rishi, VP of Product chez Kasten by Veeam, la sécurité s’est considérablement améliorée au cours des cinq dernières années, mais la conformité reste un obstacle majeur. Les entreprises veulent la flexibilité de Kubernetes mais ont besoin d’une sécurité de niveau entreprise pour l’accompagner.
C’est pourquoi les outils tels que les plateformes de sécurité natives de Kubernetes, les moteurs d’application des politiques et les cadres de conformité automatisés se développent rapidement. Mais la sécurité reste un combat permanent, et les entreprises qui l’ignorent l’apprendront à leurs dépens.
Kubernetes est l’avenir, mais la convivialité doit rattraper son retard
Kubernetes est là pour rester. C’est déjà la norme pour les applications cloud-natives, et son influence ne fera que croître. D’ici 2025, Gartner prévoit que 95 % des applications seront déployées sur des plateformes cloud-natives. Cela signifie que Kubernetes est inévitable.
Mais la dure réalité est que Kubernetes est encore trop complexe. Les entreprises adoptent des services gérés, des outils d’automatisation et des approches d’ingénierie de plateforme pour faciliter les choses, mais la courbe d’apprentissage reste abrupte.
L’écosystème cloud-native a besoin de meilleures abstractions, afin que les développeurs et les entreprises puissent utiliser Kubernetes sans avoir besoin d’être des experts Kubernetes. Cela signifie que :
- Automatisation plus intelligente de la mise à l’échelle, de la sécurité et de l’optimisation des performances.
- Des outils de développement plus intuitifs qui ne nécessitent pas de connaissances approfondies sur Kubernetes.
- Les équipes d’ingénierie de plateforme qui construisent des plateformes internes basées sur Kubernetes pour les développeurs.
La bonne nouvelle, c’est que le secteur évolue dans la bonne direction. L’IA rend Kubernetes plus intelligent, les outils de sécurité sont de plus en plus automatisés et les services gérés le rendent plus accessible.
« Comme le souligne Andreas Grabner, activiste DevOps chez Dynatrace, les outils d’observabilité pilotés par l’IA facilitent déjà le diagnostic et l’optimisation automatiques des clusters Kubernetes. Ce n’est que le début. »
Kubernetes est le fondement de l’informatique Cloud, mais il doit devenir plus facile. Les entreprises qui investissent dans Kubernetes dès maintenant seront en position de force pour dominer la prochaine vague d’innovation dans le cloud. La seule question est de savoir si Kubernetes deviendra suffisamment simple avant que la complexité ne fasse fuir les entreprises.
L’avenir nous le dira.