Deux récents sommets sur la sécurité de l’IA, organisés de part et d’autre de l’Atlantique, ont soulevé des inquiétudes quant aux risques potentiels associés à l’IA. Alors que les visions de dystopies de science-fiction avec des robots tueurs et des lignes directrices détaillées sur la réglementation de l’IA peuvent dominer le discours, des défis pratiques persistent pour les organisations qui cherchent à exploiter le pouvoir de l’IA générative.
Parmi les plaintes les plus importantes concernant l’IA générative figurent les objections des auteurs et des artistes qui estiment que leur travail est utilisé sans autorisation pour former de grands modèles de langage (LLM). Ces préoccupations ont récemment conduit à des concessions à Hollywood, où les studios ont limité l’utilisation d’outils d’IA pour remplacer les scénaristes et les interprètes humains. Cependant, les pièges de l’IA générative dépassent le cadre des industries créatives et peuvent avoir des conséquences embarrassantes et juridiques pour les entreprises.
1. Utilisation excessive de l’IA dans les domaines à enjeux élevés
Si les directives de transparence de Microsoft pour Azure OpenAI déconseillent judicieusement le déploiement de l’IA générative dans des domaines à fort enjeu tels que la santé, la finance et les contextes juridiques en raison des répercussions potentielles des erreurs ou des mauvais jugements, il est important de reconnaître que les défis associés à l’IA générative vont au-delà de ces domaines.
L’IA générative – à ses débuts – a montré une propension à générer des contenus de faible qualité et, parfois, absurdes, même dans des domaines moins critiques.
Cette situation est préoccupante car ce type de contenu peut nuire à la réputation d’une entreprise, quel que soit le contexte. Si les conséquences ne sont pas aussi graves que dans le secteur de la santé ou de la finance, l’atteinte à l’image d’une organisation peut être importante. Imaginez un scénario dans lequel des articles de blog, des biographies de conférences ou des documents marketing générés par l’IA semblent impressionnants à première vue, mais n’ont finalement aucun sens après un examen plus approfondi. De tels cas peuvent nuire à la crédibilité et au professionnalisme d’une entreprise.
Les entreprises, quel que soit leur secteur d’activité, doivent faire preuve de vigilance lorsqu’elles intègrent l’IA générative dans leurs opérations. Il ne suffit pas de respecter les consignes de prudence dans les secteurs à fort enjeu. Les organisations doivent plutôt mettre en place un système solide de surveillance, d’examen et de contrôle de la qualité pour s’assurer que le contenu généré par l’IA est conforme à leurs normes d’exactitude, de pertinence et de cohérence. Cela implique non seulement des précautions technologiques, mais aussi un engagement organisationnel en faveur du maintien de l’intégrité de la réputation.
2. Atteinte potentielle à la réputation
La rencontre de Microsoft avec un système d’information piloté par l’IA est un excellent exemple des graves répercussions qui surviennent lorsque l’IA manque sa cible. En l’occurrence, Microsoft a fait les frais d’un cauchemar en matière de relations publiques lorsque son article généré par l’IA contenait un sondage extraordinairement insensible centré sur la mort tragique d’une femme. Ce sondage n’était pas seulement profondément offensant, il témoignait également d’un manque total d’empathie et de jugement éthique.
Un manque de sens moral
Ce qui rend cette situation encore plus préoccupante, c’est qu’il ne s’agit pas d’un incident isolé. L’outil d’IA responsable de ce sondage malheureux avait déjà été impliqué dans la création d’une série de sondages controversés et inappropriés. Ces sondages posaient des questions non seulement offensantes, mais aussi moralement répréhensibles. Par exemple, ils ont demandé si le fait de refuser de sauver une femme qui a ensuite été tuée par balle était une bonne décision, se sont interrogés sur l’identification correcte des restes humains trouvés dans un parc national et ont demandé si les habitants d’une région dévastée par un incendie devaient vraiment suivre les conseils d’évacuation d’urgence.
La plateforme Bing Chat, alimentée par l’IA et censée fournir des informations et des services fiables, comportait des liens vers des logiciels malveillants dans ses publicités. Cela met les utilisateurs en danger, non seulement en compromettant leur confiance, mais aussi en risquant de porter atteinte à la sécurité de leurs appareils et de leurs données.
Ces erreurs, pour la plupart, n’ont pas fait l’objet d’une surveillance humaine. Ils ont été publiés sur les plateformes de Microsoft, qui reçoivent des millions de visiteurs, par des systèmes automatisés, ce qui a exacerbé la gravité de la situation.
L’absence d’intervention humaine dans des processus de génération de contenu aussi critiques est en contradiction directe avec les principes d’une utilisation responsable de l’IA, notamment l’information des personnes lorsqu’elles interagissent avec un système d’IA et la mise en place de lignes directrices pour l’interaction entre l’homme et l’IA.
3. L’IA générative n’est pas toujours précise
Les outils d’IA générative, de par leur nature même, fonctionnent selon des principes probabilistes. Ils ne fournissent pas de réponses absolues et définitives, mais génèrent des résultats basés sur des modèles et des données sur lesquels ils ont été formés. Cette nature probabiliste inhérente signifie que l’IA peut produire des résultats inexacts, injustes, voire choquants, tout en les présentant de manière convaincante. Ce risque de générer des contenus trompeurs ou problématiques souligne l’importance de ne pas accorder une confiance aveugle aux résultats générés par l’IA.
Les organisations doivent aborder l’IA générative avec prudence
Les organisations devraient plutôt considérer l’IA générative comme un outil d’inspiration et de réflexion plutôt que comme un oracle de vérité. Il doit servir de source d’idées et de créativité, susciter des discussions et inciter à poursuivre l’exploration. Ce changement de perspective permet aux entreprises d’exploiter les atouts de l’IA tout en atténuant les risques liés à sa faillibilité.
L’approche adoptée par Microsoft pour relever ce défi constitue un exemple précieux. Ils mettent l’accent sur le contrôle humain et la surveillance grâce à des outils tels que Copilot. En impliquant les humains dans la boucle, les organisations peuvent s’assurer que les résultats générés par l’IA ne sont pas pris pour argent comptant, mais qu’ils font l’objet d’une évaluation critique et d’un perfectionnement par des experts humains. Copilot facilite l’expérimentation des suggestions de l’IA, permettant aux employés d’affiner et d’améliorer les résultats générés par l’IA.
4. Transparence dans l’utilisation de l’IA
Il est indispensable que les entreprises adoptent une approche claire et ouverte concernant l’implication de l’IA dans les processus de génération de contenu. Même lorsque le contenu généré par l’IA atteint des niveaux élevés de qualité et de sophistication, les organisations ne doivent pas occulter son origine, mais plutôt la rendre explicite pour les parties prenantes internes et les utilisateurs externes.
Cette transparence implique d’informer les utilisateurs lorsque l’IA est responsable de la production de contenu. Ce faisant, les organisations démontrent leur engagement en faveur d’un déploiement éthique et responsable de l’IA. Les utilisateurs ont tout intérêt à savoir qu’ils interagissent avec des systèmes d’IA, ce qui favorise la confiance et garantit que les attentes sont correctement définies. La clarté concernant l’implication de l’IA devient particulièrement vitale dans les contextes sensibles où le jugement humain, l’empathie et la compréhension nuancée sont primordiaux.
Offrir aux utilisateurs la possibilité de recourir à une assistance humaine dans les interactions pilotées par l’IA est un élément clé de la transparence de l’IA.
Si l’IA peut gérer efficacement diverses tâches, il existe des scénarios dans lesquels l’intervention humaine est nécessaire, par exemple lorsqu’il s’agit de traiter des questions complexes ou chargées d’émotion. Offrir aux utilisateurs la possibilité de passer de l’assistance de l’IA à l’assistance humaine permet non seulement d’améliorer la transparence, mais aussi de souligner l’engagement de l’organisation en faveur de la satisfaction des clients et de l’utilisation responsable de l’IA.
5. L’IA générative est facilement mal appliquée
L’efficacité de l’IA générative est liée à la disponibilité de données de formation spécifiques à un domaine. En substance, le modèle d’IA apprend à partir des données existantes pour générer des réponses ou des solutions. Lorsqu’elle est confrontée à des problèmes bien définis dans un domaine familier, l’IA générative peut exceller, en fournissant des résultats prévisibles, souhaitables et vérifiables.
Toutefois, lorsque l’IA générative rencontre des territoires inexplorés ou des problèmes inédits, faute de données d’entraînement adéquates, elle peut s’avérer inefficace. Cette limitation est particulièrement évidente dans des domaines complexes et dynamiques tels que les opérations informatiques. Les problèmes informatiques impliquent souvent des défis complexes et à multiples facettes pour lesquels il n’existe pas toujours de données de formation facilement accessibles. Dans de tels scénarios, la propension de l’IA générative à produire des résultats inexacts ou non pertinents devient préoccupante.
L’IA n’est pas une solution universelle… pour l’instant
Au lieu de s’appuyer sur l’IA générative pour résoudre les problèmes de manière autonome dans ces situations, les organisations devraient la considérer comme un conseiller précieux. En apprenant au moteur d’IA à reconnaître les schémas, les problèmes connus et les solutions établies dans des disciplines et des référentiels de connaissances définis, il peut servir d’outil complémentaire. L’IA générative peut aider à diagnostiquer des problèmes connus, à identifier des inefficacités et à suggérer des solutions, à condition que le problème entre dans les paramètres appris.
6. Accroître la charge de travail des humains
S’il est vrai que le contenu généré par l’IA peut être utile dans certains scénarios, il introduit souvent une couche de travail supplémentaire en termes de révision et de correction. Les rédacteurs, les éditeurs et les créateurs de contenu sont souvent confrontés à des suggestions générées par l’intelligence artificielle qui ne sont pas utiles ou qui nécessitent d’être affinées.
L’un des principaux défis auxquels les organisations sont confrontées est la nécessité de mettre en place des processus solides pour gérer ces erreurs et affiner le contenu généré par l’IA. Il s’agit de créer un flux de travail qui comprend une supervision et une intervention humaines afin de garantir que le résultat final est conforme aux normes de qualité et d’image de marque de l’organisation. Ces processus ne devraient pas seulement se concentrer sur la correction des erreurs individuelles, mais aussi sur l’amélioration des performances de l’IA au fil du temps en fournissant un retour d’information et des données d’entraînement.
En outre, une communication transparente sur l’utilisation de l’IA au sein de l’organisation est primordiale. Les membres de l’équipe doivent savoir quand l’IA est utilisée, quelles sont ses limites et quel rôle ils jouent dans l’examen et l’amélioration du contenu généré par l’IA. Cette transparence garantit que les employés comprennent l’objectif de l’IA et peuvent collaborer efficacement avec elle, au lieu de s’en remettre aveuglément à elle.