Une évolution nécessaire ou une flambée des prix ?

L’IA est en train de remodeler la cybersécurité, mais pas sans un prix élevé. Les responsables informatiques constatent que les outils de sécurité sont inondés de fonctions d’IA et s’inquiètent de leur impact financier. Le coût de la mise en œuvre d’une sécurité basée sur l’IA est dû à la puissance de calcul, à l’infrastructure de données et au personnel spécialisé nécessaires au bon fonctionnement de ces systèmes. Pourtant, la valeur de l’IA dans la cybersécurité est indéniable.

Selon une enquête réalisée par Sophos, 80 % des décideurs en matière de sécurité informatique pensent que l’IA augmentera de manière significative les coûts de sécurité. Cela correspond à la projection de Gartner selon laquelle les dépenses technologiques mondiales augmenteront de 10 % en 2024, en grande partie en raison des mises à niveau induites par l’IA. L’augmentation de 45 % du prix d’Office 365 par Microsoft, grâce à son assistant d’IA Copilot, est un signe clair de la façon dont les entreprises monétisent les fonctions d’IA.

Mais la vraie question est celle de la valeur, et non du coût. Si l’IA rend la sécurité plus proactive, plus évolutive et plus précise, les entreprises doivent penser à autre chose qu’au prix fort. Le défi consiste à s’assurer que la complexité et le coût supplémentaires de l’IA apportent des améliorations réelles et mesurables plutôt que de gonfler les prix des fournisseurs.

Les gains d’efficacité de l’IA justifieront-ils son coût ?

Pour de nombreuses entreprises, l’IA dans la cybersécurité est considérée comme un investissement clé. L’IA a le potentiel de détecter les menaces plus rapidement, d’automatiser les réponses et d’éliminer les tâches manuelles qui prennent du temps. Cela signifie que les équipes de sécurité peuvent se concentrer sur une stratégie de haut niveau plutôt que sur la chasse aux fausses alertes. Si les choses sont bien faites, les gains d’efficacité pourraient compenser l’augmentation des coûts.

Les données le confirment. 87 % des responsables de la sécurité interrogés par Sophos pensent que les améliorations de l’efficacité de l’IA l’emporteront sur ses coûts au fil du temps. C’est pourquoi 65 % des entreprises ont déjà adopté des solutions de sécurité basées sur l’IA. Et avec des modèles d’IA peu coûteux comme DeepSeek R1 on peut espérer que les prix se stabiliseront à mesure que la concurrence s’intensifiera.

Il ne s’agit pas ici de remplacer les équipes de sécurité humaines par l’IA, mais plutôt de renforcer leurs capacités. L’IA peut traiter des quantités massives de données de sécurité en temps réel et repérer des schémas que les humains ne verraient pas. L’essentiel est d’utiliser l’IA comme un multiplicateur de force et non comme un autre outil qui ajoute des coûts sans retour sur investissement clair.

La cybersécurité alimentée par l’IA et les préoccupations de la main-d’œuvre

L’IA peut rendre la sécurité plus efficace, mais il y a un effet secondaire qui rend les professionnels de la cybersécurité mal à l’aise : les réductions d’effectifs. Lorsque l’IA commence à automatiser la détection des menaces, les flux de travail de réponse et l’analyse des anomalies, les entreprises peuvent y voir une opportunité de réduire les effectifs. C’est une grande préoccupation pour les équipes de sécurité.

84 % des responsables de la sécurité informatique craignent que les attentes liées aux capacités de l’IA ne poussent les entreprises à supprimer des emplois. Mais il y a un autre risque : l’IA n’est pas parfaite. 89 % des professionnels de la sécurité craignent que les failles des outils de sécurité pilotés par l’IA n’introduisent de nouvelles vulnérabilités au lieu de les éliminer. Les faux positifs, les menaces manquées et les prises de décision biaisées pourraient tous créer plus de problèmes qu’ils n’en résolvent.

« Au lieu de chasser manuellement les menaces, les équipes de sécurité devront se concentrer sur la supervision des modèles d’IA, l’ajustement des algorithmes et l’investigation des attaques sophistiquées que l’IA ne peut pas gérer seule. »

L’IA dans la cybercriminalité est moins menaçante que prévu

La cybercriminalité utilisant l’IA ressemble à un cauchemar de science-fiction, mais la réalité est bien moins dramatique. Malgré les prédictions selon lesquelles les pirates adopteraient rapidement l’IA pour lancer des attaques dévastatrices, la plupart d’entre eux ne l’utilisent même pas. Ils s’en tiennent plutôt aux méthodes traditionnelles de la cybercriminalité, comme l’exploitation des vulnérabilités, le vol d’informations d’identification et l’échange d’accès aux systèmes compromis.

Les chercheurs de Sophos ont fouillé dans les forums de cybercriminalité et ont trouvé moins de 150 discussions liées à l’IA au cours de l’année écoulée. En comparaison, il y avait plus de 1 000 posts sur les escroqueries aux crypto-monnaies et plus de 600 sur la vente d’accès à des réseaux piratés. Même un forum de cybercriminalité en langue russe qui dispose d’une section dédiée à l’IA depuis 2019 ne contient que 300 discussions – une goutte d’eau dans l’océan comparé au développement de malwares et d’exploits.

Pourquoi ? Parce que l’IA n’est pas facile à contrôler. Les pirates préfèrent les méthodes d’attaque fiables et éprouvées, et les modèles d’IA comportent encore trop d’inconnues. Certains considèrent même l’IA comme un risque pour leur propre sécurité. Un utilisateur du forum a ainsi averti que l’utilisation d’un outil basé sur la technologie GPT pourrait compromettre la sécurité opérationnelle.

Cela ne signifie pas que la cybercriminalité pilotée par l’IA ne se produira pas, mais simplement que pour l’instant, les pirates font davantage confiance à leurs propres compétences qu’aux exploits générés par l’IA. Le véritable risque réside dans l’automatisation des attaques d’ingénierie sociale, et non dans les logiciels malveillants créés par l’IA (pour l’instant).

Un outil pour le spamming et l’ingénierie sociale, pas pour le piratage avancé.

Les pirates ne sont peut-être pas encore en train de fabriquer des cyberarmes alimentées par l’IA, mais ils utilisent certainement l’IA pour des attaques de bas niveau telles que le phishing, le spamming et la collecte de renseignements. La raison en est simple : L’IA permet de créer plus facilement, à moindre coût et plus rapidement de faux messages convaincants à grande échelle.

Les attaques par hameçonnage nécessitaient auparavant des efforts manuels – rédiger des courriels, imiter des styles d’écriture et éviter d’être détecté. L’IA a automatisé ce processus. Les cybercriminels peuvent désormais générer d’innombrables variantes de courriels de phishing en quelques secondes, ce qui les rend plus difficiles à détecter avec les filtres traditionnels. L’IA permet également d’extraire des données publiques pour obtenir des renseignements de source ouverte (OSINT), ce qui permet aux attaquants de personnaliser les escroqueries et de les rendre plus crédibles.

Les chiffres parlent d’eux-mêmes. Vipre a détecté une augmentation de 20 % des attaques de type BEC (Business Email Compromission) au deuxième trimestre 2024 par rapport à la même période en 2023. Plus inquiétant encore, l’IA était responsable de 40 % de ces attaques. Cela signifie que près de la moitié des attaques de phishing modernes sont désormais assistées par l’IA.

« L’IA rend les attaques à faible effort et à grand volume beaucoup plus efficaces. Les entreprises doivent s’adapter en formant leurs employés à reconnaître les tromperies générées par l’IA et en renforçant les protocoles d’authentification. »

Les logiciels malveillants générés par l’IA n’en sont qu’à leurs débuts

Les logiciels malveillants alimentés par l’IA font l’objet d’un grand battage médiatique, mais la réalité n’est pas à la hauteur. Bien que certains cybercriminels aient expérimenté l’utilisation de l’IA pour générer des codes malveillants, la plupart des tentatives ont été primitives et inefficaces. Même dans les forums de pirates, les logiciels malveillants générés par l’IA sont souvent raillés pour leur piètre qualité.

Les chercheurs de Sophos ont trouvé très peu de tentatives réussies d’utilisation de l’IA pour créer de véritables outils d’attaque. Les pirates préfèrent encore les exploits écrits à la main, car les scripts générés par l’IA sont souvent truffés d’erreurs, inefficaces ou facilement détectables par les logiciels de sécurité modernes. En fait, HP a intercepté une campagne de logiciels malveillants générés par l’IA en juin 2024, et le script était si mal écrit qu’il a été immédiatement signalé et bloqué.

Les forums de cybercriminels reflètent ce scepticisme. Un utilisateur a réagi de manière sarcastique à un script généré par l’IA en demandant : « Est-ce que ChatGPT a-t-il écrit cela ? Parce que ça ne marche pas du tout ». Tel est le sentiment général : les logiciels malveillants générés par l’IA sont actuellement un outil pour les amateurs, pas pour les professionnels.

Cela dit, il serait erroné de penser que les logiciels malveillants générés par l’IA n’évolueront pas. Pour l’instant, ils ne sont pas encore au point et ne sont pas fiables, mais à mesure que les modèles d’IA s’améliorent, les attaquants pourraient finir par les utiliser pour mettre au point des exploits plus efficaces. Le secteur de la cybersécurité doit garder une longueur d’avance sur cette courbe avant qu’elle ne devienne une véritable menace.

L’avenir de l’IA dans la cybercriminalité est une question de « quand » et non de « si ».

Les pirates informatiques n’adoptent peut-être pas complètement l’IA aujourd’hui, mais nombre d’entre eux en voient le potentiel. Certains messages sur les forums évoquent l’idée d’outils d’attaque autonomes alimentés par l’IA, même s’ils admettent qu’ils n’ont pas encore la capacité de les construire.

Un billet intitulé « The world’s first AI-powered autonomous C2 » (Command-and-Control system) (Le premier système de commande et de contrôle autonome alimenté par l’IA) l’indique clairement : ce n’est pas pour tout de suite, mais ce n’est qu’une question de temps. Certains pirates informatiques réfléchissent déjà à la manière d’automatiser les cyberattaques à l’aide de l’IA, même s’ils ne disposent pas encore des outils nécessaires pour en faire une réalité.

L’IA est déjà utilisée pour l’automatisation à petite échelle. Certains cybercriminels l’utilisent pour des tâches de base telles que la recherche de vulnérabilités ou l’automatisation de la reconnaissance. Si l’IA n’est pas à l’origine de la cybercriminalité aujourd’hui, son impact à terme est inévitable. La question est de savoir à quelle vitesse la technologie progressera et si les défenses de cybersécurité peuvent évoluer assez rapidement pour suivre le rythme.

Pour l’instant, l’IA est davantage un outil pour les défenseurs que pour les attaquants. Mais cela ne durera pas éternellement. Les entreprises doivent pérenniser leurs stratégies de sécurité, investir dans la détection des menaces par l’IA et former les équipes de sécurité à contrer les attaques assistées par l’IA avant qu’elles ne se généralisent.

Principaux enseignements pour les dirigeants

  • Les coûts de cybersécurité induits par l’IA augmentent : Les responsables informatiques voient les dépenses de sécurité exploser en raison des outils alimentés par l’IA, 80 % d’entre eux s’attendant à des augmentations de coûts significatives. Les décideurs doivent évaluer si les investissements dans l’IA apportent des améliorations mesurables en matière de protection pour justifier les dépenses.

  • Les gains d’efficacité peuvent compenser les dépenses liées à l’IA : Bien que l’IA augmente les coûts, 87 % des responsables de la sécurité estiment que les avantages de l’automatisation dépassent l’investissement. Les organisations devraient se concentrer sur les solutions d’IA qui réduisent les charges de travail manuelles et améliorent la détection des menaces en temps réel pour maximiser le retour sur investissement.

  • Les cybercriminels n’utilisent pas encore l’IA à grande échelle : Malgré les inquiétudes, les pirates préfèrent les méthodes d’attaque traditionnelles aux exploits générés par l’IA, invoquant des problèmes de fiabilité. Les équipes de sécurité doivent garder une longueur d’avance en se préparant aux menaces assistées par l’IA avant qu’elles ne soient adoptées par le plus grand nombre.

  • L’IA est un outil de plus en plus utilisé pour le phishing et l’ingénierie sociale : Bien que les logiciels malveillants générés par l’IA restent primitifs, les pirates informatiques utilisent avec succès l’IA pour développer les attaques de phishing et de compromission des courriels d’entreprise (BEC). Les entreprises devraient renforcer leurs protocoles d’authentification et la formation de leurs employés pour contrer la tromperie induite par l’IA.

Tim Boesen

février 24, 2025

11 Min