Ces dernières années, l’intégration des technologies d’intelligence artificielle (IA) et d’apprentissage automatique (ML) dans les opérations gouvernementales est devenue particulièrement répandue. Ces technologies sont synonymes d’efficacité, de prise de décision fondée sur des données et d’amélioration des services aux citoyens. Toutefois, cette dépendance croissante à l’égard de l’IA s’accompagne d’une nouvelle série de défis en matière de sécurité, principalement sous la forme de menaces liées à l’IA. Nous explorons les questions émergentes concernant la sécurité de l’IA dans les secteurs gouvernementaux, en discutant des vulnérabilités, des exemples du monde réel et des solutions potentielles pour protéger les systèmes d’IA contre les manipulations adverses.
Le problème : les nouveaux défis de l’IA en matière de sécurité
L’émergence des menaces liées à l’IA
Les menaces liées à l’intelligence artificielle couvrent un large éventail de techniques visant à manipuler les systèmes d’intelligence artificielle à des fins malveillantes. Ces menaces peuvent se manifester de différentes manières, de l’empoisonnement des données à la manipulation des modèles, et elles représentent un défi important pour la sécurité des applications d’IA gouvernementales.
Le cas de Tay, le chatbot de Microsoft, est un exemple frappant de la vulnérabilité des systèmes d’IA à la manipulation par des adversaires. Tay a été conçue pour tirer des enseignements des conversations sur Twitter et engager des interactions significatives avec les utilisateurs. Cependant, il a rapidement été victime d’une attaque par empoisonnement de données. Des utilisateurs malveillants ont exploité le système en l’alimentant en contenu offensant et incendiaire, en amenant Tay à réagir de manière inappropriée et en diffusant des messages offensants. Cet incident souligne la facilité avec laquelle les systèmes d’intelligence artificielle peuvent être manipulés lorsqu’ils ne sont pas correctement sécurisés.
Des exemples concrets mettent en évidence la diversité des menaces de l’IA. Les atteintes à la cybersécurité, les atteintes à la confidentialité des dossiers des patients et le vol de propriété intellectuelle sont autant d’exemples des dommages potentiels qui peuvent résulter de l’exploitation des vulnérabilités de l’IA. Dans le secteur public, des agences telles que le ministère de la Justice sont de plus en plus confrontées à des défis d’IA contradictoires, en particulier dans des domaines sensibles tels que la reconnaissance faciale. Ces défis soulignent l’urgence de traiter les questions de sécurité de l’IA.
Construire des défenses contre l’IA adverse
La mise au point de défenses solides contre l’IA adverse est une entreprise complexe. L’un des principaux défis consiste à créer des systèmes d’IA capables de protéger efficacement contre ces nouvelles menaces de sécurité. Les mesures de sécurité traditionnelles, bien que précieuses, peuvent ne pas être suffisantes pour lutter contre les vulnérabilités uniques inhérentes à l’IA.
Des efforts sont en cours pour résoudre ce problème grâce à des initiatives telles que le programme GARD (Guaranteed Architecture for Physical Security) de l’Agence pour les projets de recherche avancée de défense (DARPA). GARD vise à développer des capacités défensives générales contre un large éventail d’attaques adverses, ce qui laisse espérer une amélioration de la sécurité de l’IA à l’avenir.
Nouvelles technologies, nouvelles vulnérabilités
Absence de cadres normalisés
L’absence de cadres normalisés pour l’évaluation et la gestion de la sécurité des systèmes d’IA constitue un problème croissant et alarmant en matière de sécurité de l’IA. Contrairement au développement de logiciels traditionnels, pour lequel il existe des pratiques et des références bien établies, la sécurité de l’IA ne dispose pas d’un cadre normalisé pour les évaluations techniques. Cette absence rend difficile l’évaluation de la sécurité des systèmes d’IA et entrave la capacité de comparer efficacement leurs mesures de sécurité.
Le problème est encore aggravé par le fait que les attaques adverses peuvent se produire à n’importe quel stade du cycle de vie de l’IA/ML, depuis la collecte des données et l’entraînement des modèles jusqu’au déploiement. C’est pourquoi des mesures de sécurité complètes doivent être mises en œuvre tout au long du cycle de vie afin de garantir l’intégrité des systèmes d’IA.
IA contradictoire contre développement logiciel traditionnel
Défis uniques en matière de sécurité de l’IA
Les considérations de sécurité de l’IA diffèrent assez radicalement de celles du développement de logiciels traditionnels. Dans les logiciels traditionnels, les vulnérabilités proviennent souvent d’erreurs de codage, qui peuvent être corrigées par des correctifs et des mises à jour. Cependant, les systèmes d’IA sont particulièrement vulnérables aux attaques centrées sur les données, telles que l’empoisonnement et la manipulation des données.
L’empoisonnement des données consiste à introduire des données malveillantes ou trompeuses dans un système d’intelligence artificielle au cours de sa phase d’apprentissage, ce qui donne lieu à un modèle qui fait des prédictions incorrectes ou biaisées. Contrairement aux vulnérabilités logicielles traditionnelles, l’empoisonnement des données ne peut pas être corrigé par des correctifs de code classiques. Il faut au contraire adopter une approche plus proactive et centrée sur les données afin d’identifier et d’atténuer les menaces.
La correction des vulnérabilités des systèmes d’intelligence artificielle est non seulement coûteuse, mais elle peut également avoir un impact négatif sur les performances des modèles. La complexité des modèles d’IA rend difficile l’application de correctifs sans conséquences imprévues, ce qui souligne la nécessité de mesures préventives et d’une approche plus globale de la sécurité.
La solution : Une approche en trois volets
Pour relever les défis en matière de sécurité posés par l’IA adverse, il faut une approche à multiples facettes et dirigée par des experts, y compris le besoin pressant d’adopter des technologies avancées et nouvelles, une formation approfondie de la main-d’œuvre et l’élaboration de normes de sécurité rigoureuses.
Formation croisée de la main-d’œuvre
L’un des aspects essentiels de la protection de la sécurité de l’IA consiste à combler le fossé entre l’IA/ML et l’expertise en cybersécurité. De nombreux professionnels de la sécurité peuvent ne pas avoir la compréhension nécessaire des technologies d’IA et de ML, ce qui rend difficile l’identification et l’atténuation efficace des menaces d’IA adverses. De même, les praticiens de l’IA peuvent ne pas être très au fait des principes de cybersécurité.
Pour résoudre ce problème, les organisations devraient investir dans la formation polyvalente de leur personnel. En dotant les professionnels de la sécurité de connaissances en matière d’IA/ML et vice versa, ils peuvent mieux collaborer pour sécuriser les systèmes d’IA. Cette approche peut être facilitée par des initiatives telles que MLOps (Machine Learning Operations) et MLSecOps (Machine Learning Security Operations), qui intègrent des considérations de sécurité dans le développement et les opérations de l’IA.
Fixer des normes de sécurité et impliquer des spécialistes
Le développement d’un cadre d’IA contre-adversaire est crucial pour les organisations qui cherchent à sécuriser efficacement leurs systèmes d’IA. Ce cadre devrait comprendre des lignes directrices normalisées pour l’évaluation et l’atténuation des risques associés à l’IA conflictuelle.
À l’instar du rôle des hackers éthiques dans la cybersécurité, les équipes rouges de l’IA peuvent être employées pour identifier et traiter les vulnérabilités de l’IA en matière de sécurité. Ces équipes sont spécialisées dans la recherche des faiblesses des systèmes d’IA et dans l’élaboration de stratégies de défense contre les attaques adverses. Faire appel à des spécialistes de l’IA à ce titre peut considérablement améliorer la capacité d’une organisation à protéger ses actifs en matière d’IA.
Sécuriser le cycle de développement du modèle
Reconnaissant que les modèles d’IA sont sensibles à des menaces uniques, les organisations devraient adopter des techniques de défense spécifiques tout au long du cycle de développement du modèle. L’entraînement contradictoire, par exemple, consiste à entraîner les modèles sur des exemples contradictoires afin d’améliorer leur résistance aux attaques. Cette approche proactive peut aider les systèmes d’IA à mieux résister aux manipulations adverses.
Principaux enseignements
L’expansion rapide et l’intégration des technologies d’IA et de ML dans les opérations gouvernementales s’accompagnent d’une multitude de défis en matière de sécurité, principalement sous la forme de menaces d’IA adverses. Ces menaces peuvent se manifester de différentes manières, de l’empoisonnement des données à la manipulation des modèles, et représentent un risque important pour l’intégrité des systèmes d’IA.
Pour relever ces défis, il est essentiel d’adopter une approche proactive. La formation croisée du personnel pour combler le fossé entre l’IA/ML et l’expertise en cybersécurité, la définition de normes de sécurité, l’implication de spécialistes tels que les équipes rouges de l’IA et l’adoption de techniques de défense spécifiques sont des étapes essentielles pour protéger les systèmes d’IA contre les manipulations adverses.
Alors que l’IA continue de jouer un rôle inévitable dans les opérations gouvernementales, les leaders en matière de données, de technologie et de sécurité doivent collaborer pour développer et mettre en œuvre des mesures de sécurité robustes. Le contrôle et la mise à jour continus des stratégies de défense sont essentiels pour garder une longueur d’avance sur la nature évolutive des menaces liées à l’IA. Ce n’est que grâce à ces efforts concertés que les agences gouvernementales pourront sécuriser leurs systèmes d’IA et protéger l’intégrité de leurs opérations.