Le choix de la bonne base de données pour votre application est une décision qui peut avoir un impact significatif sur ses performances, son évolutivité et sa rentabilité.
Pour un cadre supérieur, il est essentiel de comprendre les différents facteurs impliqués dans ce processus de décision.

Questions clés pour guider la sélection de la base de données

Le choix d’une base de données doit être guidé par une série de questions essentielles.
Ces questions permettent de clarifier les exigences de votre application et de les aligner sur les capacités des différentes solutions de base de données.

Stockage de données prévu

Pour les applications devant stocker des données de l’ordre du gigaoctet ou moins, le choix de la base de données est relativement simple.
À cette échelle, presque n’importe quel système de base de données suffira, et les bases de données en mémoire deviennent une option viable.

Les bases de données en mémoire offrent un accès rapide aux données et des vitesses de traitement élevées, ce qui les rend idéales pour les applications où la performance est un facteur clé et où l’ensemble des données est suffisamment petit pour tenir dans la mémoire.

Lorsqu’il s’agit de stocker des données de l’ordre du téraoctet, de nombreuses options de bases de données sont disponibles, y compris des solutions SQL et NoSQL.
Ces bases de données doivent gérer efficacement des volumes de données beaucoup plus importants.

Les bases de données SQL traditionnelles comme PostgreSQL et MySQL peuvent gérer des données à l’échelle du téraoctet avec une indexation et une optimisation appropriées.
Les bases de données NoSQL telles que MongoDB et Cassandra entrent également en jeu, offrant des schémas flexibles et une évolutivité horizontale, ce qui est avantageux pour traiter des ensembles de données volumineux et variables.

Relever le défi du pétaoctet

Le stockage de données à l’échelle du pétaoctet ou au-delà présente des défis uniques et réduit considérablement la liste des choix viables en matière de bases de données.
À ce niveau, les coûts de stockage sont importants et la nécessité de solutions de stockage hiérarchisées devient évidente.

Des systèmes comme Google Cloud Spanner, Amazon Redshift et Hadoop HDFS sont conçus pour traiter efficacement de grandes quantités de données.

Les systèmes de ce type impliquent souvent des stratégies de stockage hiérarchisées, où les données « chaudes » fréquemment consultées sont stockées sur des supports plus rapides et plus coûteux tels que les disques SSD, tandis que les données « froides » sont stockées sur des supports plus lents et moins coûteux tels que les disques rotatifs, ce qui permet d’optimiser à la fois les performances et le rapport coût/efficacité.

Chargement simultané des utilisateurs

L’estimation de la charge des utilisateurs simultanés est cruciale pour la planification des performances.
Pour les bases de données internes utilisées par les employés, cette estimation est relativement simple.
En revanche, les bases de données destinées au public doivent tenir compte des pics d’utilisation potentiellement imprévisibles ou saisonniers.
L’évolutivité, tant verticale qu’horizontale, est un élément clé.

La mise à l’échelle verticale consiste à augmenter la puissance d’un seul serveur, tandis que la mise à l’échelle horizontale consiste à ajouter des serveurs pour gérer la charge.
Des bases de données comme Amazon Aurora et Google Cloud Spanner offrent des fonctions de mise à l’échelle automatisées qui peuvent ajuster les ressources en fonction de la demande actuelle, garantissant ainsi des performances constantes.

Surmonter l’obstacle de la charge d’utilisateur

La contention d’index est une limitation importante dans le traitement des requêtes simultanées, en particulier dans les bases de données SQL transactionnelles en lecture/écriture.
La contention d’index se produit lorsque plusieurs requêtes se disputent les mêmes ressources d’index, ce qui entraîne des goulets d’étranglement au niveau des performances.

Les stratégies d’atténuation comprennent l’utilisation du partage de base de données, où les grandes tables sont réparties sur plusieurs serveurs, et l’utilisation d’une combinaison de bases de données OLTP (Online Transaction Processing) et OLAP (Online Analytical Processing) pour séparer les charges de travail transactionnelles et analytiques.
Cette approche permet d’équilibrer la charge et d’améliorer les performances globales du système.

Exigences « Ility

Voici quelques stratégies et technologies qui peuvent vous aider à améliorer votre système de gestion de base de données afin qu’il reste complet, efficace et conforme à vos objectifs organisationnels :

  • Assurer la disponibilité des bases de données 24 heures sur 24, 7 jours sur 7 : La disponibilité est primordiale pour les bases de données transactionnelles, en particulier pour les applications critiques nécessitant une disponibilité quasi constante.
    Il est possible d’atteindre un temps de disponibilité de 99,999 %, souvent appelé « five nines », avec des bases de données en nuage fonctionnant dans plusieurs zones de disponibilité.
  • Évolution de votre base de données : L’évolutivité permet de s’assurer que votre base de données peut évoluer avec votre entreprise.
    Les environnements cloud simplifient l’évolutivité dynamique, permettant d’ajouter ou de supprimer des ressources en fonction de la demande.
    Des solutions comme Amazon DynamoDB et Google Cloud Firestore offrent une mise à l’échelle horizontale transparente, ce qui les rend adaptées aux applications dont la charge de travail fluctue.
  • Maintenir des temps de réponse rapides comme l’éclair : La latence, c’est-à-dire le délai qui s’écoule avant qu’un transfert de données ne commence à la suite d’une instruction, est un paramètre clé.
    Pour les applications destinées aux utilisateurs, cette exigence se traduit souvent par des temps de réponse des bases de données inférieurs à 100 millisecondes pour les transactions simples.
    Les stratégies permettant d’obtenir une faible latence comprennent l’utilisation de bases de données en mémoire, l’optimisation des performances des requêtes et la garantie d’une indexation efficace.
    Les requêtes complexes peuvent être déchargées sur des processus d’arrière-plan afin de maintenir la réactivité de l’utilisateur.
  • Maximiser le nombre de transactions par seconde : le débit, généralement mesuré en nombre de transactions par seconde (TPS), indique la capacité de la base de données à gérer des opérations simultanées.
    Un débit élevé est essentiel pour les bases de données OLTP, qui prennent en charge de nombreux utilisateurs simultanés effectuant des transactions.
  • La cohérence des données à tout moment : La cohérence des données est un élément clé, en particulier pour les applications qui nécessitent des données fiables et précises à tout moment.
    Une cohérence éventuelle peut améliorer les performances et l’évolutivité, mais peut entraîner temporairement des lectures périmées.
    Le choix entre SQL et NoSQL dépend des exigences de cohérence de votre application et des compromis acceptables entre la cohérence, la disponibilité et la tolérance aux partitions.

Stabilité des schémas de base de données

Pour les applications dont les schémas sont stables et bien définis, les bases de données SQL constituent généralement le meilleur choix.
Les bases de données SQL appliquent une structure cohérente, ce qui signifie que toutes les données respectent un format prédéfini.

Cette stabilité est bénéfique pour les applications où l’intégrité des données et la cohérence des types sont primordiales, telles que les systèmes financiers et les solutions de planification des ressources de l’entreprise (ERP).

Les bases de données NoSQL offrent une plus grande flexibilité pour les applications dont les schémas de données sont dynamiques ou évolutifs.
Les bases de données NoSQL, telles que MongoDB et Couchbase, permettent le stockage de données sans schéma, ce qui signifie que les différents enregistrements peuvent avoir des structures différentes.

Répartition géographique des utilisateurs

Lorsque votre application a une base d’utilisateurs mondiale, il est essentiel de minimiser la latence pour offrir une expérience utilisateur réactive.

La vitesse de la lumière impose une limite fondamentale aux vitesses de transfert des données sur de longues distances, d’où la nécessité d’un placement stratégique des serveurs.
Les bases de données distribuées peuvent être utiles en rapprochant les données des utilisateurs.

Des solutions comme Amazon Aurora Global Database et Azure Cosmos DB offrent des déploiements multirégionaux, garantissant que les données sont répliquées et disponibles à plusieurs endroits dans le monde.

Les bases de données distribuées utilisent différentes méthodes de réplication pour conserver les données sur plusieurs sites.
Les bases de données NoSQL utilisent souvent la réplication peer-to-peer, ce qui permet une cohérence éventuelle et des opérations d’écriture plus rapides sur les nœuds distribués.

Les bases de données SQL utilisent des algorithmes de consensus tels que Paxos ou Raft pour obtenir une cohérence forte dans un environnement distribué.
Ces algorithmes garantissent que les données restent cohérentes d’un nœud à l’autre, même en cas de partition du réseau ou de défaillance d’un serveur, ce qui les rend adaptés aux applications nécessitant des données fiables et cohérentes à l’échelle mondiale.

Forme naturelle des données

Les bases de données SQL stockent les données dans des tables rectangulaires structurées avec des colonnes et des types de données prédéfinis.

Un format structuré est idéal pour les applications nécessitant une forte intégrité des données et des requêtes complexes, telles que les modèles de données relationnels utilisés dans les applications commerciales traditionnelles.
Les bases de données SQL telles que MySQL et PostgreSQL offrent des capacités d’interrogation complètes grâce à SQL et prennent en charge les opérations JOIN pour relier les données de plusieurs tables.

Les bases de données documentaires stockent les données dans des formats de type JSON, ce qui permet d’imbriquer les documents et les tableaux.
Une conception de schéma flexible s’adapte à des structures de données variées et évolutives, ce qui rend les bases de données documentaires telles que MongoDB et Couchbase adaptées aux applications contenant des données diverses et dynamiques, telles que les systèmes de gestion de contenu et les plates-formes de commerce électronique.

La possibilité de stocker des structures de données complexes en mode natif simplifie la manipulation et la récupération des données.

Les bases de données NoSQL englobent une variété de modèles de stockage, y compris les magasins clé-valeur et les magasins en colonnes.

Les magasins clé-valeur, tels que Redis et DynamoDB, permettent de récupérer des données à grande vitesse à l’aide d’une simple recherche par clé.
Les magasins en colonnes, comme Apache Cassandra et HBase, excellent dans la gestion de tableaux larges avec un grand nombre de colonnes, ce qui les rend adaptés aux données chronologiques et aux applications analytiques.

OLTP, OLAP ou HTAP ?

Comprendre les différentes catégories et fonctionnalités de ces bases de données peut considérablement améliorer l’efficacité de la gestion et de l’analyse des données dans divers environnements professionnels.
Vous trouverez ci-dessous des informations détaillées sur les trois principaux types de bases de données (OLTP, OLAP et HTAP), chacun étant adapté à des demandes opérationnelles et à des applications uniques.

  • Bases de données OLTP: Conçues pour un traitement transactionnel à grande vitesse, elles gèrent de nombreuses transactions courtes en ligne et privilégient les écritures rapides et les index minimaux pour permettre une insertion et une récupération rapides des données. Les bases de données telles que MySQL, PostgreSQL et SQL Server sont couramment utilisées pour les applications OLTP, prenant en charge des tâches telles que le traitement des commandes, les transactions de paiement et la gestion des stocks.
  • OLAP dLes bases de données : Elles se concentrent sur le traitement analytique, permettant des requêtes complexes et l’analyse de données, car elles sont optimisées pour des opérations de lecture intensive, avec une indexation poussée pour permettre une récupération rapide des données.
    Les bases de données OLAP comme Amazon Redshift, Google BigQuery et Microsoft Azure Synapse Analytics sont utilisées pour la veille stratégique, l’entreposage de données et la création de rapports.
  • HTAP bases de données : Combinent les capacités de l’OLTP et de l’OLAP, en prenant en charge les charges de travail transactionnelles et analytiques.
    Elles utilisent souvent la réplication pour séparer les données transactionnelles des requêtes analytiques, garantissant ainsi l’efficacité des deux types d’opérations.
    Des solutions comme Google Cloud Spanner et Azure Cosmos DB offrent une fonctionnalité HTAP, facilitant l’analyse en temps réel sur des données transactionnelles en direct sans compromettre les performances.

Rapport lecture/écriture

Les bases de données optimisées pour les charges de travail lourdes en lecture utilisent généralement des arbres B pour l’indexation, ce qui permet une récupération efficace des données pour les opérations de lecture.

Les applications gourmandes en lecture, telles que les réseaux de diffusion de contenu et les sites web d’information, bénéficient de bases de données telles qu’Elasticsearch et Solr, qui sont conçues pour des recherches rapides et complexes et un débit de lecture élevé.

Les applications à forte densité d’écriture, telles que les systèmes de journalisation et la collecte de données IoT, nécessitent des bases de données capables de gérer des écritures de données fréquentes et volumineuses.

Les arbres de fusion structurés en logs (arbres LSM) sont souvent utilisés dans ces scénarios pour optimiser les performances en écriture.
Les bases de données telles que Cassandra et RocksDB sont bien adaptées aux charges de travail à forte intensité d’écriture, car elles garantissent que les données sont écrites efficacement tout en maintenant de bonnes performances de lecture.

Index et requêtes géospatiales

L’interrogation efficace de données géographiques ou géométriques nécessite des types d’index spécifiques pour traiter les défis uniques posés par les données spatiales.

Les arbres R, par exemple, sont un choix courant en raison de leur capacité à indexer efficacement des informations multidimensionnelles.
Ce type d’index est essentiel pour les applications qui doivent effectuer des opérations telles que la recherche de tous les objets situés dans un certain rayon ou la détermination des objets situés à l’intérieur d’un périmètre donné.

Par exemple, une entreprise de logistique peut utiliser une base de données géospatiale pour gérer et optimiser les itinéraires de livraison.
En utilisant les arbres R, le système peut rapidement identifier les points de livraison les plus proches d’un lieu spécifique, améliorant ainsi l’efficacité et réduisant les coûts de carburant.

L’indexation géospatiale est également essentielle pour des applications telles que les systèmes d’information géographique (SIG), les services basés sur la localisation et la planification urbaine.

Outre les arbres R, il existe d’autres structures de données telles que les arbres quadrangulaires, les arbres KD et les hachages géographiques qui peuvent être utilisés en fonction des exigences spécifiques et de la nature des requêtes spatiales. Ce choix de la bonne structure d’index est essentiel pour obtenir des performances d’interrogation rapides et traiter efficacement les grands ensembles de données.

Index et requêtes en texte intégral

La recherche en texte intégral nécessite une approche différente de l’indexation par rapport aux données relationnelles ou géospatiales.

Les index de listes inversées, qui stockent une correspondance entre un contenu, tel que des mots ou des termes, et leur emplacement dans une base de données, sont couramment utilisés et accélèrent considérablement les requêtes de recherche en évitant de devoir parcourir l’ensemble de la base de données.

L’utilisation de la recherche en texte intégral est très répandue dans des applications telles que les systèmes de gestion de documents, la recherche de courrier électronique et les plateformes de médias sociaux.
La mise en œuvre d’index de listes inversées implique le traitement du texte pour créer des tokens, la gestion des mots vides et la réduction des mots à leur forme de base afin d’améliorer la précision et l’efficacité de la recherche.

Langages de programmation préférés

Le choix de la base de données peut être influencé par les langages de programmation préférés dans votre environnement d’application.

JSON (JavaScript Object Notation) est un format de données naturel pour les applications JavaScript, ce qui rend les bases de données prenant en charge les types de données JSON, telles que MongoDB, Couchbase ou PostgreSQL, particulièrement attrayantes pour les développeurs travaillant en JavaScript.

La compatibilité entre la base de données et le langage de programmation peut rationaliser les processus de développement, réduire la nécessité de transformations complexes des données et augmenter la productivité globale.

Dans les environnements où des langages de programmation fortement typés tels que Java ou C# sont utilisés, le choix d’une base de données fortement typée peut présenter des avantages en termes de sécurité des types et de réduction des erreurs d’exécution.
L’alignement entre la base de données et l’écosystème du langage de programmation est un élément clé dans le processus de prise de décision concernant la pile technologique.

Contraintes budgétaires

Le coût des bases de données est très variable, allant de solutions gratuites et libres à des systèmes d’entreprise onéreux. Les bases de données libres comme MySQL, PostgreSQL et MongoDB offrent des fonctionnalités robustes sans frais de licence, ce qui les rend attrayantes pour les startups et les petites entreprises.

Les versions gratuites peuvent nécessiter une expertise interne pour la gestion et la maintenance.

Les versions payantes et les offres destinées aux entreprises sont souvent dotées de fonctionnalités supplémentaires, de performances accrues et d’une assistance professionnelle.
Oracle Database et Microsoft SQL Server offrent des fonctionnalités avancées et une assistance complète, mais leur coût de licence est élevé.
Les bases de données basées sur le cloud, telles qu’Amazon RDS, Google Cloud SQL et Azure SQL Database, proposent des modèles de tarification à la carte, ce qui peut être avantageux pour faire évoluer les coûts en fonction de l’utilisation.

Lors de l’examen du budget, il est important de tenir compte à la fois des coûts directs (frais de licence et d’assistance) et des coûts indirects (maintenance, mise à l’échelle et temps d’arrêt potentiel).
L’équilibre entre ces facteurs permet de sélectionner une base de données qui répond aux contraintes financières tout en satisfaisant les besoins de performance et d’évolutivité.

Considérations relatives au soutien

Les bases de données open-source peuvent ne pas bénéficier d’une assistance formelle de la part des fournisseurs, ce qui peut être un inconvénient si votre équipe ne dispose pas de l’expertise nécessaire.

Dans de tels cas, s’appuyer sur le support de la communauté peut s’avérer insuffisant pour les applications critiques.
Faire appel à des fournisseurs ou à des fournisseurs de cloud pour l’assistance peut vous décharger du fardeau de l’administration et de la maintenance de la base de données, ce qui permet à votre équipe de se concentrer sur les activités principales de l’entreprise.

Par exemple, le support d’entreprise de fournisseurs tels qu’Oracle, Microsoft ou MongoDB Inc. garantit l’accès à l’assistance d’experts, à des mises à jour opportunes et à des optimisations de performances.
Les fournisseurs de cloud comme AWS, Google Cloud et Azure proposent des services de base de données gérés avec différents niveaux d’assistance et de garanties SLA, ce qui permet de gagner en tranquillité d’esprit et en efficacité opérationnelle.

Restrictions légales

La conformité avec les réglementations en matière de sécurité des données et de protection de la vie privée n’est pas négociable.

Dans l’UE, le règlement général sur la protection des données (RGPD) impose des exigences strictes en matière de protection des données, de respect de la vie privée et de localisation des données.
La non-conformité peut entraîner de lourdes amendes et des répercussions juridiques.

Aux États-Unis, la loi HIPAA (Health Insurance Portability and Accountability Act) régit le traitement des informations médicales, tandis que la loi GLBA (Gramm-Leach-Bliley Act) réglemente la manière dont les institutions financières gèrent les données de leurs clients.
La loi californienne sur la protection de la vie privée des consommateurs (CCPA) renforce le droit à la vie privée et la protection des consommateurs, en exigeant des entreprises qu’elles mettent en œuvre des pratiques rigoureuses en matière de traitement des données.

Conformité

Certaines bases de données sont conçues avec des fonctionnalités intégrées qui facilitent la mise en conformité avec ces réglementations.
Les bases de données qui offrent des capacités de cryptage, d’audit et de masquage des données peuvent simplifier les efforts de mise en conformité.

D’autre part, certaines bases de données peuvent être dépourvues de ces caractéristiques, ce qui rend difficile la mise en conformité avec la réglementation, quel que soit le soin apporté à la gestion des données.

Il est essentiel de choisir une base de données qui respecte les lois en vigueur.
Des fonctionnalités telles que le contrôle d’accès basé sur les rôles, le cryptage au repos et en transit, ainsi qu’une journalisation complète peuvent aider à répondre aux exigences légales.
L’évaluation de ces fonctionnalités au cours du processus de sélection de la base de données permet d’atténuer les risques juridiques et de protéger les données sensibles.

Base de données SQL ou NoSQL

Pour les applications qui exigent une faible latence, un débit élevé et qui peuvent tolérer une cohérence éventuelle, les bases de données NoSQL à base de clés et de valeurs constituent un choix optimal.

Ces bases de données, telles que Redis et Amazon DynamoDB, offrent une évolutivité horizontale massive, ce qui est essentiel pour traiter de grands volumes de données et des transactions à grande vitesse.

Dans des scénarios tels que l’analyse en temps réel, la gestion des sessions et la mise en cache, les bases de données NoSQL fonctionnent bien en raison de leur capacité à traiter rapidement de grandes quantités de données et à répondre aux requêtes en quelques millisecondes.
Une conception sans schéma offre une grande flexibilité, ce qui permet un développement et une itération rapides.

Pour les applications impliquant des transactions financières, où les propriétés d’atomicité, de cohérence, d’isolation et de durabilité (ACID) sont primordiales, les bases de données SQL sont la solution préférée.

Les bases de données SQL distribuées comme Google Cloud Spanner ou CockroachDB offrent les garanties nécessaires pour des transactions fiables et précises, même dans des régions géographiquement dispersées.

Les bases de données SQL prennent en charge les requêtes complexes, les relations et l’intégrité des données, ce qui les rend adaptées aux systèmes financiers, aux solutions ERP et à d’autres applications critiques pour lesquelles l’exactitude et la cohérence des données ne peuvent être compromises.

Recommandations finales

Pour choisir la bonne base de données, il faut répondre de manière approfondie à toutes les questions critiques liées aux exigences de votre application.
Une évaluation complète permet d’éviter les pièges d’une base de données qui pourrait s’avérer inadéquate ou excessivement coûteuse à long terme.

La prise en compte de facteurs tels que les besoins de stockage des données, la charge de travail des utilisateurs, les exigences en matière d’ergonomie, la stabilité du schéma, la distribution géographique, la forme des données, les ratios de lecture/écriture, les besoins d’indexation, la compatibilité avec les langages de programmation, les contraintes budgétaires et les restrictions légales permet de s’assurer que la base de données choisie correspond bien aux objectifs de votre entreprise et à vos exigences techniques.

Comprendre les frais de stockage des données

Les coûts de stockage des données deviennent importants lorsqu’il s’agit de données à l’échelle du pétaoctet.

Les entreprises doivent peser le pour et le contre du stockage sur site, qui implique des dépenses d’investissement élevées, par rapport au stockage dans le cloud, qui entraîne des dépenses opérationnelles permanentes.
Les fournisseurs de cloud comme AWS, Google Cloud et Azure proposent des solutions de stockage évolutives avec des structures de coûts variables, ce qui permet aux entreprises de ne payer que pour ce qu’elles utilisent.

S’attaquer de front à la contention de l’index

La contention d’index peut limiter le nombre de requêtes simultanées dans les bases de données transactionnelles en lecture/écriture.
Cela se produit lorsque plusieurs transactions se disputent les mêmes ressources d’index, ce qui entraîne des goulets d’étranglement au niveau des performances.

Les stratégies visant à atténuer ce problème comprennent l’utilisation de techniques de partage pour répartir la charge et la combinaison de bases de données OLTP et OLAP pour séparer les charges de travail transactionnelles et analytiques.

Répondre à la norme d’excellence en matière de latence

Le maintien de temps de réponse inférieurs à la seconde est idéal pour les applications en contact avec l’utilisateur, l’objectif étant d’obtenir des réponses de la base de données inférieures à 100 millisecondes pour les transactions simples.
Pour atteindre ces normes de latence, il faut optimiser les performances des requêtes, utiliser des bases de données en mémoire et indexer efficacement les données.

Le fait de décharger les requêtes complexes sur des processus d’arrière-plan permet également de préserver des temps de réponse rapides pour les utilisateurs.

Décryptage des options de cohérence des données

Les modèles de cohérence des données vont d’une forte cohérence dans les bases de données SQL à une cohérence éventuelle dans les bases de données NoSQL.

Une cohérence forte garantit que toutes les lectures reflètent l’écriture la plus récente, ce qui est essentiel pour les applications nécessitant une précision fiable des données.
Une cohérence éventuelle peut améliorer les performances et l’évolutivité, mais peut temporairement entraîner des lectures périmées.
Le choix du modèle de cohérence doit correspondre aux exigences de l’application et aux compromis acceptables.

Ce que votre organisation doit faire

Alors que vous étudiez les options qui s’offrent à vous en matière de base de données, posez-vous la question : Votre choix actuel est-il vraiment optimisé pour vos ambitions de croissance et les besoins de vos clients ?
La bonne base de données peut être le catalyseur de l’innovation et de l’efficacité, en libérant de nouveaux potentiels pour votre marque.
Êtes-vous prêt à prendre la décision qui propulsera votre entreprise vers l’avant ?

Alexander Procter

juillet 30, 2024

24 Min