Microsoft met l’accent sur l’efficacité des centres de données
L’explosion de la demande d’applications basées sur l’IA, telles que ChatGPT, exerce une pression considérable sur la consommation d’énergie des centres de données. Il s’agit d’un recalibrage de la façon dont nous concevons la puissance et la performance.
Microsoft a reconnu l’urgence de ce défi. L’objectif est simple : faire plus avec moins. Leur écosystème cloud modulaire décompose le matériel en composants qui peuvent être optimisés individuellement.
Avec l’augmentation rapide des charges de travail de l’IA, l’entraînement des modèles et l’exécution de l’inférence requièrent une quantité astronomique de puissance de calcul. Microsoft a ancré sa stratégie dans une innovation soucieuse du climat, où l’efficacité est un objectif. L’atteinte des objectifs climatiques est tissée dans cette vision, en s’assurant que le potentiel du cloud est atteint sans compromettre la gestion de l’environnement.
Azure Boost
Azure Boost est une avancée audacieuse. Microsoft ne s’est pas contenté d’ajustements progressifs ; il a réimaginé l’interaction entre le matériel et les machines virtuelles. L’introduction de cartes basées sur des FPGA est un élément clé à cet égard. Ces cartes fonctionnent en dehors des limites du locataire, donnant aux fonctions de réseau et de stockage la liberté d’exceller sans compromis.
Le stockage à distance offre désormais une amélioration de 15 % en termes d’IOPS et de 12 % en termes de bande passante. Les performances du stockage local sont encore meilleures : Les IOPS sont passés de 3,8 millions à 6,6 millions, tandis que le débit est passé de 17,2 Go/s à 36 Go/s.
Il est impressionnant de constater que ces avancées ne perturbent pas les opérations. Azure Boost peut mettre à jour la pile réseau en moins de 250 millisecondes, en laissant les connexions actuelles pratiquement intactes. En faisant tourner davantage de machines virtuelles sur le même matériel, Microsoft a amplifié à la fois la rentabilité et l’évolutivité.
Solutions SDN personnalisées pour un réseau évolutif
La mise en réseau est l’épine dorsale de l’infrastructure cloud, et Microsoft l’a remaniée avec sa solution de commutation intelligente personnalisée, Dash. Construit sur sa pile SONiC SDN, Dash intègre des unités de traitement de données (DPU) personnalisées qui peuvent gérer plus de 1,5 million de connexions par seconde.
Au lieu de remplacer le matériel pour répondre aux demandes croissantes, la conception modulaire d’Azure lui permet d’évoluer avec précision : il suffit d’ajouter des DPU. Les coûts restent ainsi prévisibles et l’infrastructure s’adapte à la croissance exponentielle du trafic réseau. Microsoft a construit un système qui évolue sans contrainte, prêt à répondre aux exigences de demain.
L’informatique sans serveur, l’avenir d’Azure
L’informatique sans serveur est arrivée et Microsoft montre la voie. Leur écosystème sans serveur consiste à créer un cloud qui fonctionne plus intelligemment et plus rapidement.
Azure Container Instances (ACI) en est un exemple frappant. En utilisant des nœuds de secours, ACI peut faire évoluer les charges de travail Kubernetes de manière dynamique sans gaspiller de ressources sur des nœuds inactifs. Lors d’une démonstration en direct, Microsoft a lancé 10 000 pods en seulement 90 secondes, une vitesse inégalée à cette échelle.
La sécurité n’est pas sacrifiée à la vitesse. L’architecture ACI isole les applications exécutées dans le même pod, ce qui permet de maintenir une sécurité hermétique même dans un environnement partagé. Des outils comme Hyperlight, Dapr et Drasi soutiennent cette vision sans serveur, offrant flexibilité et rapidité dans l’ensemble des opérations cloud de Microsoft.
Innovations informatiques confidentielles
Les violations de données sont une menace constante, c’est pourquoi Microsoft a revu la sécurité de l’informatique Cloud avec l’informatique confidentielle. Le cryptage est intégré à chaque couche.
Les modules de sécurité matériels (HSM) intégrés garantissent que les clés de chiffrement ne sont jamais exposées, même pendant les transitions entre les frontières virtuelles. Microsoft étend également ses environnements d’exécution de confiance (TEE) aux GPU, créant ainsi un canal sécurisé pour les opérations sensibles telles que l’inférence de l’IA.
Prenez l’exemple d’OpenAI Whisper. À partir du moment où l’invite d’un utilisateur entre dans le système, chaque interaction, y compris le traitement GPU, est cryptée. Cela crée une voie sécurisée de bout en bout qui établit une nouvelle norme pour la gestion des charges de travail confidentielles.
Salles blanches confidentielles
La collaboration s’accompagne souvent d’un risque d’exposition de données sensibles. Les salles blanches confidentielles de Microsoft éliminent totalement ce risque.
Voici comment cela fonctionne : les données entrent dans la salle blanche cryptées et le restent tout au long du traitement. Seules les opérations qui répondent à des règles prédéfinies sont exécutées, et les résultats ne sont transmis qu’à la partie approuvée. Cela crée un environnement sûr et contrôlé, idéal pour les industries soumises à des réglementations strictes.
Les cas d’utilisation sont convaincants. Deux équipes juridiques peuvent collaborer à la recherche de preuves sans partager d’informations sensibles. Les entreprises qui procèdent à des fusions et acquisitions peuvent analyser des données partagées sans compromettre la confidentialité. Les modèles d’IA peuvent même être affinés avec les données des clients de manière à préserver la confidentialité des informations des deux parties.