La pénurie de talents technologiques qualifiés est une préoccupation majeure
La transformation numérique ne fait pas de pause. Lorsque vous naviguez dans des changements à l’échelle de l’entreprise, comme la migration de l’infrastructure, la mise à niveau des systèmes ERP ou l’accélération du déploiement de l’IA, vous avez besoin des bonnes personnes pour exécuter. À l’heure actuelle, nous n’en avons pas assez. C’est une réalité quotidienne pour les dirigeants de tous les secteurs.
Kostas Georgakopoulos, CTO et CISO chez Mondelēz, dirige une transformation de 1,2 milliard de dollars englobant des migrations de charges de travail et la mise en œuvre de l’IA générative. Il ne s’inquiète pas de l’ambition ou de la vision, celles-ci sont en place. Ce qui l’empêche de dormir, ce sont les capacités humaines. Le travail ne manque pas, mais la main-d’œuvre est sollicitée. Vous pouvez concevoir tous les systèmes que vous voulez, mais sans personnes compétentes et concentrées pour les construire et les faire fonctionner, vous êtes dans l’impasse.
Il s’agit d’un problème d’acquisition de talentsIl s’agit également d’un problème de rétention, d’équilibre et de longévité. C’est pourquoi les équipes techniques chevronnées recherchent des défis et un environnement de travail qui respecte leur temps et leur bande passante mentale. Selon une enquête récente de l’ISACA, environ un professionnel de la technologie sur trois a changé d’employeur au cours des deux dernières années. Ces changements sont principalement motivés par la recherche d’un meilleur équilibre entre vie professionnelle et vie privée, et pas seulement par le salaire. Si vous ne donnez pas la priorité à cet aspect, vous perdrez rapidement des employés.
Aujourd’hui encore, la demande reste forte. Près de 500 000 offres d’emploi dans le secteur de la technologie étaient actives au cours du seul mois de février, d’après l’examen par la CompTIA des données du Bureau des statistiques du travail des États-Unis. Si certains employeurs pensent que les conditions du marché leur donnent un pouvoir de négociation, il s’agit là d’un raisonnement à court terme. Il y a toujours une pénurie structurelle de talents numériques, en particulier dans des domaines comme l’IA, la cybersécurité, le cloud et l’architecture de données.
La voie à suivre est simple. L’amélioration des compétences doit devenir une stratégie opérationnelle. Il ne s’agit pas d’un projet secondaire ou d’une semaine de formation, mais d’un processus permanent ancré dans la culture. Si vous construisez des systèmes prêts pour l’avenir, vous avez besoin de personnes prêtes pour l’avenir pour les faire fonctionner. Sinon, tous vos plans technologiques ne sont que des diapositives.
Il est difficile de trouver un équilibre entre rapidité et sécurité dans l’adoption des technologies
Tous les dirigeants veulent aller vite, la rapidité est un atout concurrentiel. Mais aller vite sans stabilité entraîne des risques pour le système, du bruit opérationnel et une exposition aux réglementations. Cette tension s’intensifie à mesure que les capacités de l’IA se développent et que son adoption s’accélère dans tous les secteurs.
David Glick, SVP of Enterprise Business Services chez Walmart, est très clair sur le sujet : si vous allez trop lentement, vous prenez du retard ; si vous allez trop vite, vous ouvrez des brèches. Chez Walmart, l’équipe déploie outils de codage alimentés par l’IA dans des équipes de développement en Amérique du Nord et en Inde. Le projet est stratégique, mais la question reste de savoir à quelle vitesse on peut parler de vitesse excessive. Les dirigeants doivent décider de la vitesse d’adoption en fonction de l’état de préparation, et pas seulement de l’enthousiasme.
La pression pour déployer l’IA est réelle. Selon Informatica, plus de 90 % des dirigeants s’inquiètent de voir les projets pilotes d’IA aller de l’avant en dépit d’avertissements antérieurs ou de problèmes non résolus. Près de 60 % d’entre eux affirment qu’ils se sentent poussés à faire avancer ces projets malgré tout. Lorsque les systèmes s’étendent avant que l’infrastructure ou la gouvernance ne soient prêtes, les pannes sont inévitables. La plupart des dirigeants le savent, mais ils manquent souvent de marge de manœuvre pour ralentir.
Ce qu’il faut, c’est une exécution disciplinée. La transformation de l’IA doit se faire rapidement, mais sous surveillance. Vous avez besoin de contrôles internes, de modèles de rapports transparents et d’une préparation interfonctionnelle. Les services juridiques, la sécurité, l’informatique et les opérations doivent tous être synchronisés. Si l’un d’entre eux est à la traîne, le système est en danger. En fin de compte, votre capacité à fonctionner sous pression dépend du degré de préparation de vos fondations, et non de l’agressivité du calendrier de lancement sur une diapositive.
Trop d’entreprises fixent des délais en fonction de l’urgence du conseil d’administration et non de la maturité du produit. C’est là que l’échec commence généralement. Une meilleure approche consiste à intégrer la vitesse dans les systèmes uniquement lorsque la résilience est intégrée au préalable. La vitesse devient un avantage lorsque le processus peut l’absorber, et cela commence au niveau de la direction.
Les défis de la gouvernance et de la conformité dans la mise en œuvre de l’IA stressent les dirigeants
L’IA progresse rapidement, mais la réglementation est à la traîne. Ce décalage est source de complexité pour toute entreprise opérant dans plusieurs régions. Les dirigeants sont confrontés à des lois fragmentées, à des normes éthiques changeantes et à des exigences de conformité floues, tout en essayant d’étendre leurs activités à l’échelle mondiale.
Steve McCrystal, Chief Enterprise Technology Officer chez Unilever, gère un portefeuille mondial de plus de 500 projets d’intelligence artificielle. Il s’attache à gérer cette croissance de manière responsable. Avec environ 23 000 employés formés à l’IA, Unilever n’évite pas l’innovation, mais l’entreprise va de l’avant avec une structure. M. McCrystal insiste sur la nécessité de faire des affaires « de la bonne manière », en reliant directement la performance à la mise en œuvre éthique. Cela signifie qu’il faut aligner la technologie sur les cadres réglementaires existants et futurs, avant que les problèmes ne surviennent.
Les États-Unis ne disposent pas d’une réglementation fédérale en matière d’IA. Au lieu de cela, la responsabilité incombe aux différents États, ce qui conduit à un patchwork réglementaire qui complique le déploiement à grande échelle. Dans l’UE, la loi sur l’IA progresse vers l’application, obligeant les entreprises à respecter à la fois des lignes directrices strictes en matière de développement et des critères éthiques en constante évolution. Les équipes internationales doivent gérer des régimes de conformité concurrents, chacun ayant des attentes, des mécanismes d’application et des risques juridiques différents. Attendre la clarté n’est pas une option.
Shiyi Pickrell, vice-présidente principale chargée des données et de l’IA au sein du groupe Expedia, le confirme. Selon elle, c’est la gouvernance responsable qui permet à son équipe de dormir la nuit – non pas l’innovation seule, mais la façon dont elle est gérée. C’est un signal que de plus en plus de dirigeants reconnaissent : les déploiements précipités d’IA sans responsabilité claire peuvent se retourner contre eux.
Les recherches le confirment. Une étude conjointe d’Accenture et d’AWS a révélé que plus de 80 % des organisations estiment que les cadres d’IA responsables améliorent la confiance des employés et contribuent à débloquer l’innovation. Il s’agit d’une stratégie opérationnelle. Les entreprises qui font évoluer l’infrastructure éthique parallèlement à l’adoption de l’IA sont mieux placées pour pivoter lorsque la réglementation les rattrape.
Il y a là une leçon plus large à tirer : la gouvernance consiste à établir un contrôle sur votre technologie avant que des forces extérieures ne vous imposent ce contrôle. Les dirigeants qui intègrent la gouvernance dès le début disposeront d’une plus grande marge de manœuvre pour innover par la suite, avec moins de risques de réputation et une plus grande clarté organisationnelle.
Les menaces de cybersécurité et le risque d’attaques par l’IA suscitent des inquiétudes croissantes
La technologie s’améliore, tout comme les menaces. Les mêmes innovations qui favorisent l’efficacité, l’automatisation et l’intelligence sont adaptées par les attaquants. L’IA modifie la cybersécurité, la façon dont nous nous défendons et la façon dont nous sommes attaqués. Les dirigeants qui sous-estiment cette évolution seront pris au dépourvu.
Joe Depa, Global Chief Innovation Officer chez EY, est clair : EY considère les vecteurs de menace basés sur l’IA comme une préoccupation croissante, alimentée par une automatisation accrue, des tentatives d’intrusion plus rapides et des adversaires plus sophistiqués. Le défi consiste désormais à construire de meilleurs outils et à anticiper les problèmes à l’échelle de la machine. M. Depa insiste sur l’urgence de mettre en place des cadres dès maintenant, et non pas après que les modèles d’attaque auront évolué.
Le marché s’en rend compte. Bloomberg Intelligence prévoit que le marché mondial de la cybersécurité fera plus que doubler, atteignant 338 milliards de dollars d’ici 2033, contre 152,5 milliards en 2023. Cette ampleur reflète la place centrale qu’occupe désormais la gestion des risques dans les technologies d’entreprise. Si vos systèmes sont connectés, intelligents et basés sur le Cloud, alors votre exposition est non négligeable.
La confiance dans la protection s’accroît, mais de manière inégale. Selon le rapport 2025 State of AI Cybersecurity de Darktrace, plus de 60 % des RSSI et des DSI estiment actuellement qu’ils sont suffisamment préparés pour faire face aux éléments suivants cyberattaques alimentées par l’IA. Cela représente une augmentation de 15 % d’une année sur l’autre. Mais la confiance diminue chez les personnes qui se trouvent plus loin dans la pile de données. Seule une minorité d’architectes, d’ingénieurs et d’analystes SOC en sécurité font état du même niveau de confiance. Ce décalage est important. Les dirigeants stratégiques peuvent se sentir prêts en raison de la visibilité des outils et des équipes, mais c’est la préparation au niveau du terrain qui détermine le succès de la défense.
La pénurie de talents fait partie du problème. Les données de Skillsoft montrent que les compétences en IA et en cybersécurité sont parmi les plus demandées mais les plus difficiles à trouver. Sans un vivier de professionnels qui comprennent à la fois l’IA et la cybersécurité, les entreprises auront du mal à défendre les systèmes construits sur ces plateformes.
Les dirigeants doivent considérer la cybersécurité comme une infrastructure de base. Cela implique une conception de la sécurité fondée sur la confiance zéro, des tests continus, des systèmes de réaction rapide et des programmes de formation centrés sur l’homme. Mais cela implique également un état d’esprit culturel. Plus l’IA progresse rapidement, plus les attaquants se déplacent rapidement. La seule position durable est celle où la défense évolue au même rythme que l’innovation. Elle n’est pas en retard sur l’innovation.
Le déploiement responsable de l’IA est considéré comme un impératif éthique et une responsabilité tactique.
L’IA prend de l’ampleur, plus rapidement que prévu. De nouvelles recherches, de nouveaux produits et de nouveaux outils de déploiement arrivent sur le marché chaque semaine. Cette dynamique crée une urgence. Mais plus important encore, il crée une responsabilité. Les leaders technologiques posent des questions sur l’inclusion, l’équité et l’impact sociétal à long terme.
Francesco Marzoni, Chief Data and Analytics Officer chez IKEA Retail, ne considère pas la mise en œuvre de l’IA comme une simple étape technique. Pour lui, c’est une affaire personnelle. IKEA a été l’une des premières entreprises à lancer un outil sur le GPT Store d’OpenAI et à mettre en place des efforts de formation à l’IA à l’échelle de l’entreprise, ce qui lui a permis d’avancer rapidement. Mais M. Marzoni voit un défi plus profond : s’assurer que cette technologie reflète un avenir plus large et plus inclusif.
Le rythme lui-même est effréné. Selon Accenture, l’IA agentique, c’est-à-dire les systèmes capables de mener des opérations orientées vers un objectif, a connu une forte hausse de la recherche. Moins de 600 études existaient en 2023 ; en octobre 2024, ce nombre dépassait les 1 500. L’évolution est suffisamment rapide pour que même les experts se sentent obligés de se tenir au courant. Ce rythme introduit un risque : si le déploiement dépasse la compréhension, les résultats inattendus se multiplient.
L’étude d’EY confirme ce que ressentent de nombreux cadres supérieurs : plus de la moitié d’entre eux déclarent avoir du mal à rester en phase avec les changements. Ce constat est le signe d’un problème plus profond. Lorsque la direction stratégique a l’impression d’être à la traîne, le risque opérationnel s’aggrave. Le décalage entre la direction, la mise en œuvre et les attentes du public expose la réputation de l’entreprise.
L’IA responsable est une décision stratégique. Les entreprises qui intègrent l’inclusivité, la sécurité et la transparence dans leurs processus de déploiement créeront des systèmes plus résilients avec moins d’obligations à long terme. Il s’agit notamment de s’assurer que les ensembles de données représentent la diversité du monde réel, d’appliquer des politiques d’utilisation claires et de permettre aux employés de première ligne d’avoir une visibilité sur la façon dont les modèles d’IA prennent des décisions.
M. Marzoni ne mâche pas ses mots : il ne veut pas que les générations futures, y compris ses filles, regardent en arrière et se demandent pourquoi ce moment n’a pas été mieux géré. C’est une question de responsabilité. La façon dont l’IA évolue aujourd’hui déterminera la perception que les gens auront de cette technologie dans dix ans. Les dirigeants qui comprennent cela se déploieront plus rapidement, de manière plus éthique et avec une valeur plus durable.
Faits marquants
- La pénurie de talents a un impact sur la capacité d’exécution : Les dirigeants devraient investir dans des stratégies de perfectionnement continu et de fidélisation, car près de 500 000 postes techniques restent vacants et l’équilibre entre vie professionnelle et vie privée demeure un facteur essentiel de la fidélité des employés.
- La vitesse sans structure augmente les risques : Les équipes dirigeantes doivent fixer des seuils d’adoption clairs et des garde-fous interfonctionnels avant d’accélérer le déploiement de l’IA afin d’éviter les faux pas coûteux et les atteintes à la réputation.
- La clarté réglementaire est à la traîne par rapport à la croissance de l’IA : Les dirigeants opérant sur les marchés mondiaux devraient dès à présent mettre en place de manière proactive des cadres d’IA responsables, afin de réduire le risque de conformité tout en renforçant la confiance et la préparation à l’innovation.
- Les menaces alimentées par l’IA redéfinissent les priorités en matière de sécurité : Les dirigeants doivent intégrer la cybersécurité dans leur stratégie de base, y compris l’acquisition de talents, les modèles de confiance zéro et les systèmes de détection des menaces qui évoluent en même temps que les capacités de l’IA.
- L’IA responsable relève de la responsabilité des dirigeants : Les dirigeants doivent se faire les champions de systèmes d’IA équitables, inclusifs et transparents afin de préserver la confiance du public et de garantir une valeur à long terme pour leurs organisations et la société.