Les données des ordinateurs centraux ont une valeur immense pour les entreprises, mais leur accès est notoirement difficile. Selon un rapport de Rocket Software, plus des trois quarts des professionnels de l’analyse, de la gestion, de l’ingénierie et de l’architecture des données affirment que l’accès aux données et à leurs métadonnées contextuelles à partir des ordinateurs centraux constitue un défi considérable. Les raisons proviennent des technologies complexes et obsolètes impliquées, ce qui rend difficile l’interaction des outils de données modernes avec ces systèmes existants.
Près de deux tiers des professionnels sont également confrontés à des problèmes lors de l’intégration des données mainframe avec les sources de données cloud, ce qui met en évidence les frictions technologiques entre les systèmes existants et les environnements cloud.
Comment les connaissances sur les ordinateurs centraux font progresser l’entreprise
Les données des mainframes sont particulièrement précieuses pour les entreprises car elles capturent le flux des transactions en temps réel. Plus de la moitié des personnes interrogées dans le rapport de Rocket Software estiment que la croissance de l’entreprise et la création d’outils analytiques avancés dépendent de l’accès à ces données.
Contrairement à d’autres types de données qui peuvent offrir des aperçus de haut niveau ou des instantanés historiques, les données de l’ordinateur central fournissent des informations granulaires et quotidiennes qui sont essentielles pour les opérations de l’entreprise. Elles permettent de suivre en direct les finances de l’entreprise, le comportement des clients et les activités de la chaîne d’approvisionnement, ce qui en fait une mine d’or pour générer des informations sur l’entreprise.
Malgré ce potentiel, seuls 25 % des professionnels interrogés déclarent que leur entreprise est en mesure de tirer pleinement parti de ces données mainframe. L’écart entre la disponibilité et l’utilisation des données est une préoccupation majeure pour les dirigeants qui cherchent à stimuler l’innovation et la croissance.
Les données elles-mêmes sont enfermées dans des systèmes existants depuis des années, codifiées par des décennies de décisions commerciales, de relations et d’intégrations. L’extraction de ces données sous une forme utile est un défi, mais elle est de plus en plus nécessaire car les entreprises cherchent à rester compétitives dans un marché axé sur les données.
Les données de l’ordinateur central sont inestimables
La valeur essentielle des données des ordinateurs centraux est leur nature en temps réel. Alors que d’autres systèmes peuvent offrir des données historiques, les ordinateurs centraux stockent des données transactionnelles en temps réel, ce qui en fait l’une des sources d’informations commerciales les plus exploitables.
Qu’il s’agisse de transactions bancaires, de mouvements de la chaîne d’approvisionnement ou de ventes au détail, ces systèmes capturent les activités critiques au moment où elles se produisent. Le flux de données en temps réel permet aux entreprises de réagir instantanément aux changements du marché et aux exigences opérationnelles, ce qui leur confère un avantage concurrentiel.
Selon IBM, 70 % des transactions mondiales en valeur passent encore par des systèmes centraux, ce qui souligne leur importance persistante. Le volume et la valeur des transactions stockées sur les ordinateurs centraux les rendent indispensables pour les entreprises qui dépendent d’une précision de dernière minute.
Les transactions fournissent des données opérationnelles et les bases de l’analyse prédictive et des applications d’IA. Les entreprises qui cherchent à faire avancer leurs efforts de transformation numérique se concentrent de plus en plus sur l’intégration de ces données dans des systèmes plus récents, basés sur le Cloud.
Le cloud n’est pas toujours roi quand les modèles hybrides surpassent la migration
Alors que la migration vers le cloud domine de nombreuses stratégies technologiques, déplacer des données mainframe vers le cloud n’est pas toujours la solution optimale. Plutôt que de déverser de grandes quantités de données mainframe dans des systèmes cloud, de nombreuses entreprises optent pour des modèles hybrides dans lesquels des outils et des tâches d’IA spécifiques sont traités sur site.
Une telle approche permet aux entreprises de maintenir les contrôles de sécurité et de conformité nécessaires pour les données propriétaires ou sensibles, une préoccupation majeure dans des secteurs tels que la finance et la santé. Selon une étude de Kyndryl, l’exécution de modèles d’IA spécifiques à une tâche sur site réduit le risque d’exposition des données et de violation de la conformité, ce qui constitue un avantage majeur par rapport à une migration complète vers le cloud.
L’informatique Cloud est efficace pour traiter des ensembles de données massifs et exécuter des analyses à l’échelle, mais pour de nombreuses entreprises, l’intérêt de conserver les données sensibles des ordinateurs centraux en interne est évident.
Les environnements hybrides, où les outils d’IA et d’analyse sont apportés aux données (et non l’inverse), permettent d’éviter les difficultés liées au transfert d’énormes quantités de données propriétaires vers le cloud.
Une telle approche minimise les problèmes de latence et améliore la sécurité, ce qui en fait un choix plus pragmatique pour les entreprises qui ont besoin de garder le contrôle de leurs systèmes centraux tout en tirant parti de la technologie moderne.
Revitaliser les ordinateurs centraux grâce à des outils d’IA générative
Les outils de codage génératif de l’IA s’avèrent être un atout utile pour moderniser les applications COBOL héritées, qui restent incontournables dans de nombreux systèmes mainframe. Ces outils d’IA permettent de réduire le temps et les efforts nécessaires pour mettre à jour et améliorer ces anciennes applications sans les réécrire complètement.
La réécriture complète des systèmes existants est souvent vouée à l’échec, un risque relevé par Forrester dans un rapport commandé par Rocket Software. Comme le dit Michael Curry, « la réécriture est l’option nucléaire », et de nombreuses organisations ont essuyé des échecs lorsqu’elles ont tenté de s’engager dans cette voie.
Au lieu de cela, le refactoring, qui consiste à mettre à jour des parties du code sans altérer sa fonctionnalité principale, offre une solution plus fiable. L’IA peut aider en automatisant certaines parties de ce processus, ce qui permet aux équipes de se concentrer sur des tâches de plus haut niveau telles que l’intégration d’outils d’analyse modernes.
En utilisant l’IA pour moderniser progressivement les applications, les entreprises peuvent tirer davantage de valeur de leurs systèmes centraux sans les risques et les coûts associés aux remplacements complets de systèmes.
Exigences des dirigeants et réalités informatiques
Les services informatiques gèrent l’essentiel des opérations des mainframes, mais les chefs d’entreprise exigent de plus en plus que les précieuses données stockées dans ces systèmes soient intégrées dans des plateformes analytiques et cloud modernes.
Les dirigeants voient les résultats des initiatives de données basées sur le Cloud et se demandent pourquoi leurs données les plus précieuses, souvent stockées dans des ordinateurs centraux, ne sont pas utilisées de la même manière. Le décalage entre la vision de la direction et les réalités quotidiennes de l’informatique crée des tensions.
D’une part, les services informatiques hésitent à migrer ou à modifier de manière significative les systèmes centraux en raison des risques liés à l’altération des processus métier critiques. D’autre part, les chefs d’entreprise souhaitent tirer davantage de valeur des données stockées dans ces systèmes existants. Pour combler ce fossé, il faut une collaboration entre les équipes, ainsi que des investissements dans des stratégies de modernisation qui permettent une intégration progressive sans perturber les opérations de base.
Principaux enseignements
Les défis liés à l’accès aux données mainframe sont importants, mais la valeur potentielle pour les entreprises en fait une priorité. Alors que les organisations explorent les modèles hybrides et l’IA générative pour moderniser les systèmes existants, elles trouvent un équilibre entre le besoin de sécurité et la demande d’insights en temps réel.
Tandis que les cadres dirigeants réclament une plus grande intégration des données, les responsables informatiques sont prudents, car ils doivent faire face à la complexité de technologies obsolètes. L’utilisation efficace des données mainframe nécessitera de nouveaux outils, une plus grande collaboration entre les équipes cloud et mainframe, ainsi qu’une approche stratégique de la modernisation qui minimise les perturbations tout en maximisant l’utilisation des données.