L’application de la loi sur la sécurité en ligne est critiquée pour son manque de vigueur apparent

La loi sur la sécurité en ligne devait changer la donne, notamment en ce qui concerne la gestion des risques en ligne et la protection des utilisateurs vulnérables. Mais pour l’instant, l’application de la loi n’est pas à la hauteur. L’Ofcom, l’autorité britannique de régulation des communications, dispose des outils nécessaires : elle peut infliger aux entreprises des amendes allant jusqu’à 10 % de leur chiffre d’affaires global ou 18 millions de livres sterling, le montant le plus élevé étant retenu. Il s’agit là d’un levier important. Toutefois, jusqu’à présent, l’utilisation de ces pouvoirs a été perçue comme procédurale et excessivement prudente. Les critiques, dont l’experte en médias Iona Silverman de Freeths, estiment que l’approche de l’Ofcom consiste davantage à cocher des cases qu’à mettre fin à des pratiques préjudiciables.

Ce qui manque ici, c’est l’urgence. Les plateformes sociales évoluent rapidement. Les contenus préjudiciables n’attendent pas. Et si les régulateurs ne peuvent pas, ou ne veulent pas, agir de manière décisive, les risques s’accroissent. Vous laissez la porte ouverte à une exposition permanente à des contenus préjudiciables, en particulier pour les enfants et les jeunes adultes, qui sont les plus touchés. Si les gens commencent à avoir l’impression que le gouvernement ne peut pas protéger ses citoyens en ligne, la pression monte pour des politiques plus extrêmes, comme des interdictions générales pour les moins de 16 ans. Des pays comme l’Australie envisagent déjà activement de le faire.

Voici le contexte plus large pour tout dirigeant qui observe ce qui se passe : la réglementation ne freine pas l’innovation, c’est la stagnation qui la freine. Attendre que les plateformes se corrigent d’elles-mêmes, c’est ignorer les réalités économiques et sociales. La leçon est simple : si nous voulons que la confiance règne dans l’espace numérique, l’application de la réglementation doit être réelle, immédiate et cohérente. Les dirigeants doivent partir du principe que les sanctions légères seront ignorées si elles n’ont pas d’impact réel sur le chiffre d’affaires ou la croissance du nombre d’utilisateurs. Pour que la conformité fonctionne à grande échelle, l’application doit évoluer avec elle et se déplacer aussi rapidement que les plateformes qu’elle tente de réguler.

Les investisseurs se soucient de la prévisibilité. Les régulateurs se soucient de la sécurité publique. Il n’y a pas de conflit lorsque les deux parties s’engagent à respecter des normes claires, applicables et transparentes. Les retards ou la dilution de l’application ne font qu’engendrer des risques et, en fin de compte, érodent la confiance des utilisateurs dans les plateformes et les régulateurs.

Les algorithmes des médias sociaux contribuent à l’exposition des mineurs à des contenus préjudiciables et inappropriés

Arrêtons de prétendre que ce problème commence et se termine par des utilisateurs mineurs qui mentent sur leur âge. Ce n’est qu’une partie du problème. Ce qui est plus préoccupant, ce sont les systèmes algorithmiques utilisés par ces plateformes, en particulier la manière dont elles ciblent et diffusent le contenu. Ces systèmes ne sont pas neutres. Ils sont optimisés pour l’engagement, et non pour la sécurité. Et lorsqu’un enfant de 12 ans franchit une barrière d’âge, l’interaction suivante est dictée par des algorithmes qui donnent la priorité au temps passé sur la plateforme plutôt qu’à la protection.

Iona Silverman, experte en médias chez Freeths, a clairement souligné ce point : ces plateformes ne sont pas seulement des outils passifs. Une fois que les utilisateurs sont à bord, les algorithmes façonnent l’ensemble de leur expérience. Pour les mineurs, cela signifie souvent qu’ils sont nourris de contenus et de publicités qu’ils n’auraient jamais dû voir, de publicités qui vantent des produits interdits aux mineurs, de messages qui déforment l’image du corps ou de messages politiques qui exploitent les émotions. Selon une étude de l’Advertising Standards Authority portant sur 100 enfants, les fausses déclarations d’âge sont courantes. L’accès à des contenus inappropriés est presque inévitable une fois qu’ils sont dans l’écosystème.

Il est important que les équipes dirigeantes et les décideurs en matière de produits comprennent ceci : le problème n’est pas seulement l’accès par une porte dérobée, mais aussi ce qui se passe après que cet accès a été accordé. Chaque point de données, chaque balayage, chaque clic alimente un système qui sait comment garder les utilisateurs enfermés, y compris les mineurs. Cette boucle de rétroaction a d’énormes implications pour la sécurité des utilisateurs et la responsabilité réglementaire.

Du point de vue de la conformité, attendre que la législation rattrape son retard est un manque de vision. Il est plus responsable de revoir les moteurs de recommandation et d’intégrer la responsabilité dans la manière dont les plateformes diffusent le contenu.

Les plateformes ont aujourd’hui la possibilité de jouer la carte de la transparence. Montrez exactement comment les algorithmes sont ajustés pour signaler les contenus à haut risque. Créez des outils en temps réel pour vérifier l’exposition et introduisez des modèles de contenu tenant compte de l’âge qui contrôlent la porte d’entrée et tout ce qui se trouve au-delà. Ces actions doivent être standardisées, et non optionnelles. Et elles doivent être menées par les dirigeants, et non imposées par des amendes.

L’exposition à des contenus non réglementés sur les médias sociaux a un impact négatif sur la santé mentale des mineurs

La corrélation entre l’exposition numérique non filtrée et le déclin de la santé mentale chez les jeunes utilisateurs est bien établie. Lorsque les mineurs sont entraînés dans des environnements non modérés, où les contenus nuisibles, les messages prédateurs ou les comparaisons sociales irréalistes sont placés en tête de leur fil d’actualité, l’impact psychologique est direct et mesurable.

Nous savons déjà que les enfants contournent fréquemment les systèmes de vérification de l’âge pour accéder aux plateformes de médias sociaux. Cela a été confirmé par une étude de l’Advertising Standards Authority, qui a constaté que de nombreux utilisateurs mineurs déclarent facilement leur âge de manière erronée pour s’inscrire et s’engager. Une fois à l’intérieur, le système n’est pas conçu pour distinguer la maturité de l’utilisateur. Il fonctionne sur la base d’entrées et de mesures d’engagement basées sur le comportement, et non sur des considérations éthiques. C’est un défaut. Les responsables des produits et des politiques des entreprises de médias sociaux doivent en prendre conscience.

Résultat ? L’anxiété des jeunes monte en flèche. L’estime de soi s’érode. La validation sociale devient une dépendance. Ces résultats ont été documentés par des experts en psychologie infantile, des groupes de surveillance indépendants et maintenant par les gouvernements. Pourtant, les plateformes continuent de fonctionner comme si le risque était marginal ou gérable avec une intervention minimale. Cette hypothèse ne tient plus la route sur le plan juridique, social ou opérationnel.

Pour les cadres dirigeants des équipes chargées de la stratégie, des produits ou des risques, cette tendance devrait déclencher une évaluation immédiate des voies d’exposition au contenu. Susciter un engagement à court terme sans tenir compte de la santé des utilisateurs à long terme n’est pas viable. Les investisseurs et les régulateurs vont dans le même sens : une plus grande responsabilité, en particulier en ce qui concerne les dommages causés aux mineurs.

Le risque commercial va désormais bien au-delà de l’aspect optique. Si les plateformes ne s’attaquent pas à ces schémas, elles s’exposent à des réactions politiques agressives, à des coûts de mise en conformité plus élevés et à des atteintes à la réputation à long terme. Il est plus stratégique d’engager des ressources dans des contrôles de santé mentale intégrés à la plateforme, des outils de filtrage de contenu conçus pour une exposition adaptée à l’âge, des mécanismes de signalement en temps réel et des partenariats avec des experts indépendants en matière de sécurité.

Les plateformes de médias sociaux doivent assumer la responsabilité directe de la modération des contenus préjudiciables

Compter sur les utilisateurs pour signaler un contenu après qu’il a été endommagé n’est pas extensible et n’est plus crédible. Ce modèle fonctionnait lorsque les plateformes étaient plus petites, que les volumes de contenu étaient gérables et que les attentes en matière de responsabilité étaient moindres. Cette époque est révolue. Les utilisateurs ne doivent pas être traités comme une main-d’œuvre gratuite pour la modération. Les entreprises de médias sociaux ont à la fois la capacité technologique et l’obligation légale de mettre en place des systèmes qui détectent les menaces en temps réel, avant qu’elles ne se propagent.

La loi sur la sécurité en ligne rend cette responsabilité explicite. Iona Silverman, experte en médias chez Freeths, a été claire : les plateformes n’ont plus la possibilité de rester passives. Elles sont désormais légalement tenues de prévenir les dommages en ligne de manière proactive, en particulier pour les mineurs. Cela signifie que les outils automatisés doivent être associés à une surveillance humaine, et non pas cachés derrière un système de signalement des utilisateurs qui déplace la responsabilité et retarde l’action.

Attendre une notification pour supprimer un contenu haineux, illégal ou préjudiciable est un échec garanti, et les régulateurs le savent. Au-delà de la sécurité des utilisateurs, cela crée une responsabilité de réaction tardive qui frappe d’autant plus fort que les entreprises l’ignorent. Le contenu se propage rapidement. Les dommages sont rapides. Les atténuer après coup compromet la confiance et attire l’attention.

Pour les équipes dirigeantes ayant un rôle technique, juridique ou de gouvernance, la priorité doit être d’intégrer des mécanismes de prévention à chaque étape de l’architecture du produit, et non pas de les ajouter après coup. Les modèles d’apprentissage automatique devraient avoir des seuils adaptés aux normes juridiques. Les équipes de modérateurs doivent être équipées de protocoles d’intervention, et non de flux de travail optionnels. Les pipelines de contenu doivent intégrer des couches de classification qui signalent automatiquement les menaces sans compromettre le dialogue légitime.

Pour les entreprises opérant à l’échelle mondiale, cela signifie également qu’il faut aligner les processus internes sur les exigences réglementaires croissantes, car ces attentes ne diminuent pas. L’inaction n’est plus un choix économique. Le déploiement de systèmes de modération avancés, la publication de rapports de transparence et l’engagement précoce auprès des régulateurs sont des signes de contrôle et non de lassitude à l’égard de la conformité. C’est le niveau de base de la maturité opérationnelle que les régulateurs attendent désormais de toute plateforme gérant de larges audiences.

Agir maintenant préserve l’optionnalité. Les plateformes qui prennent l’initiative d’une modération proactive conservent une plus grande liberté dans leur mode de fonctionnement et d’innovation. Celles qui résistent constatent que les décisions sont prises à leur place.

L’Ofcom doit continuellement mettre à jour ses lignes directrices pour rester efficace face aux technologies émergentes comme l’IA

La technologie n’attend pas. L’IA évolue rapidement, le contenu se déplace plus vite et les modèles de menace changent tous les jours. Les cadres réglementaires élaborés il y a cinq ans, ou même l’année dernière, ne correspondent pas au rythme de changement des plateformes numériques d’aujourd’hui. C’est pourquoi les modèles d’application statiques ne produiront pas de résultats efficaces. Pour que la loi sur la sécurité en ligne ait un réel impact, l’Ofcom doit adopter une approche vivante et itérative de ses lignes directrices.

Iona Silverman, de Freeths, a soulevé ce point en demandant à l’Ofcom de rester adaptable et tourné vers l’avenir. Elle a raison. L’application d’hypothèses techniques dépassées à des systèmes numériques modernes réduit l’impact de la réglementation et accroît l’écart de conformité. Les plateformes de médias sociaux utilisent l’apprentissage en profondeur, l’IA prédictive et la modélisation comportementale pour façonner les expériences des utilisateurs. Si la réglementation est en retard sur cette courbe, elle n’est plus pertinente avant même d’être mise en œuvre.

Les cadres des secteurs de la technologie, du risque et de la gouvernance devraient prendre cela comme un signal clair : la conformité ne se fera pas au moyen d’un document unique. Il s’agira d’un processus continu qui exigera la même flexibilité et la même rapidité que celles généralement réservées au développement de produits et à la sécurité. Si les plateformes veulent évoluer de manière responsable, elles doivent s’engager avec les régulateurs en tant que partenaires stratégiques, en contribuant activement à l’évolution des règles, plutôt que d’attendre des sanctions une fois qu’elles ne sont plus alignées.

Contribuer à l’élaboration de la feuille de route réglementaire présente également un intérêt à long terme. Les entreprises qui aident les régulateurs à comprendre les outils émergents tels que l’IA générative, la synthèse de contenu en temps réel et les médias immersifs seront en position de force lorsque la prochaine couche de conformité sera introduite. Elles seront mieux préparées, moins réactives et disposeront de systèmes internes beaucoup plus solides.

L’objectif n’est pas de ralentir la technologie, mais de guider sa trajectoire afin que l’innovation ne nuise pas à la sécurité. Pour que la réglementation soit à l’épreuve du temps, il ne s’agit pas de prévoir chaque menace spécifique, mais d’intégrer l’adaptabilité dans le système. Un régulateur capable d’ajuster les lignes directrices aussi rapidement que les plates-formes embarquent des fonctionnalités est un atout concurrentiel, et non un obstacle. Les entreprises qui comprennent et soutiennent cette dynamique seront plus propres, évolueront plus rapidement et éviteront une surcorrection coûteuse par la suite.

Les préoccupations internationales en matière de liberté d’expression soulignent les débats sur les implications de la loi sur la sécurité en ligne

Le débat sur la loi relative à la sécurité en ligne ne se limite pas au Royaume-Uni. Les États-Unis, par l’intermédiaire de leur département d’État, se sont inquiétés du fait que cette loi pourrait porter atteinte à la liberté d’expression. C’est important. Lorsque les démocraties mondiales commencent à se demander si la protection des utilisateurs en ligne restreint également l’expression, cela signale un défi que les régulateurs et les entreprises technologiques doivent résoudre directement, et non pas reporter.

Iona Silverman, experte en médias chez Freeths, a abordé ces points en déclarant que le gouvernement britannique a été clair : l’objectif de la loi est de lutter contre les contenus criminels, et non de réduire au silence le discours public. Cette distinction est essentielle. Les gouvernements tentent d’empêcher les plateformes de favoriser la criminalité, les abus et les préjudices systémiques tout en préservant un dialogue ouvert.

Les dirigeants des entreprises technologiques, en particulier ceux qui opèrent dans plusieurs juridictions, doivent être attentifs à la manière dont les règles de modération des contenus interagissent avec les attentes en matière de liberté d’expression. Il ne suffira pas de dire que vous êtes en conformité. Les parties prenantes, notamment les régulateurs, les utilisateurs, les observateurs juridiques et les investisseurs, exigeront une visibilité sur la manière dont ces normes sont équilibrées et appliquées sur les différents marchés.

C’est ici que la clarté stratégique est importante. L’objectif n’est pas de choisir entre la sécurité et la liberté d’expression. Il s’agit de concevoir des politiques, internes et externes, qui montrent que ces droits peuvent coexister. Les entreprises qui rejettent les préoccupations soulevées par les parties prenantes internationales risquent d’être considérées comme évasives ou négligentes. Ce n’est pas viable.

Une dynamique se met en place à l’échelle mondiale autour d’environnements numériques contrôlés qui protègent les utilisateurs tout en respectant les droits. La confiance du public dans les plateformes repose sur la démonstration que les protections ne sont pas automatiquement synonymes de censure. Mme Silverman a cité des médias récents, tels que la série télévisée « Adolescence », pour montrer ce qui se passe en l’absence de réglementation : un préjudice réel, ciblant souvent les jeunes utilisateurs, n’est pas contrôlé.

Les dirigeants doivent faire partie de l’architecture de la solution et ne pas rester au milieu. Cela signifie qu’ils doivent soutenir des règles qui s’appliquent strictement aux comportements criminels, dont l’exécution est transparente et qui font l’objet d’un réexamen régulier. Le débat sur la loi sur la sécurité en ligne n’est pas seulement juridique, il est aussi stratégique. Les entreprises qui sauront tirer leur épingle du jeu bénéficieront d’un effet de levier en termes de conformité et de réputation sur les marchés mondiaux.

Principaux faits marquants

  • La faiblesse de l’application limite l’impact : L’application actuelle de l’Ofcom, lente et basée sur des listes de contrôle, sape l’intention de la loi sur la sécurité en ligne. Les dirigeants devraient faire pression en faveur d’une réglementation assertive, assortie de sanctions, afin de responsabiliser les plateformes et d’éviter les débordements politiques.
  • Les algorithmes font courir des risques aux utilisateurs : Les plateformes permettent l’exposition à des contenus préjudiciables par le biais de flux algorithmiques, en particulier pour les utilisateurs mineurs. Les dirigeants devraient investir dans des systèmes de diffusion de contenu tenant compte de l’âge des utilisateurs et aligner la conception des algorithmes sur les normes de sécurité des utilisateurs.
  • L’exposition non réglementée nuit à la santé mentale : Des filtres de contenu inadéquats sont liés à l’augmentation des problèmes d’anxiété et d’estime de soi chez les mineurs. Les équipes dirigeantes devraient donner la priorité aux mesures de protection de la santé mentale et intégrer la réduction des risques dans les stratégies de croissance des plateformes.
  • La modération réactive n’est plus viable : Laisser la modération du contenu aux utilisateurs est dépassé et inefficace. Les dirigeants doivent passer à des systèmes de modération proactifs, basés sur la technologie et soutenus par une supervision humaine claire afin de respecter les normes légales et éthiques.
  • Les réglementations doivent évoluer avec la technologie : les directives statiques ne peuvent pas suivre le rythme des plateformes pilotées par l’IA et des nouvelles menaces en ligne. Les décideurs doivent plaider en faveur d’un codéveloppement réglementaire permettant une adaptabilité en temps réel, et y participer.
  • Les préoccupations relatives à la liberté d’expression appellent un examen minutieux à l’échelle mondiale : Les réactions internationales suggèrent que les efforts de réglementation doivent équilibrer efficacement la sécurité et l’expression. Les dirigeants doivent veiller à la transparence de la gouvernance des contenus et concevoir des politiques qui renforcent à la fois l’ouverture du discours et la prévention des dommages.

Alexander Procter

avril 17, 2025

17 Min