Le projet de loi en attente des entreprises technologiques pour protéger les mineurs sur les réseaux sociaux
Bill Gates a déclaré il y a des années que « La technologie n’est qu’un outil. Sur le plan académique, l’enseignant est la chose la plus importante ». Aujourd’hui, cette réflexion prend un nouveau sens face à l’un des défis les plus complexes du monde numérique : comment protéger les mineurs sur les réseaux sociaux alors qu’il n’est même pas possible de savoir avec certitude si un compte appartient à un enfant ou à un adulte.
L’approbation récente d’une loi visant à renforcer la protection des mineurs sur Internet impose une responsabilité plus sévère aux plateformes numériques. Désormais, il ne suffit plus de réagir aux problèmes : il faut démontrer qu’on a fait tout son possible pour empêcher un mineur d’accéder à un environnement auquel il n’a pas sa place. L’intention est louable, mais elle soulève une question inconfortable : comment savoir avec certitude s’il y a un enfant ou un adolescent derrière un compte ?
Un système qui repose, encore aujourd’hui, sur la bonne foi
Les données officielles de l’INE en 2023 confirment que 94,7% de la population âgée de 10 à 15 ans ont utilisé Internet au cours des trois derniers mois, et les réseaux sociaux comme Instagram, Tik Tok soit x Ils fixent un âge minimum de 13 ans pour s’inscrire. Cela révèle un écart entre la norme et la pratique quotidienne. Et la méthode la plus courante pour filtrer les utilisateurs consiste simplement à leur demander leur âge lors de leur inscription. Un système qui peut être contourné en changeant simplement un numéro.
Intelligence artificielle : utile, mais limitée
Face à cette fragilité, les plateformes technologiques auraient intégré des algorithmes basés sur l’intelligence artificielle qui analysent la langue, les temps de connexion, le type de contenu consommé ou le mode d’interaction. L’objectif est de détecter les signes indiquant qu’un utilisateur pourrait être mineur. Il ne s’agit pas de confirmer, mais plutôt de déduire.
Meta reconnaîtrait que ses modèles de vérification sont corrects dans 60 à 70 % du temps, sur la base de tests internes. Cela laisse une large marge d’erreur, dans un domaine où les conséquences peuvent être graves. Car chaque échec expose un mineur à des risques comme le harcèlement, l’exposition à des contenus inappropriés ou encore l’exploitation.
Et ces risques ne sont pas mineurs : les rapports de l’UNICEF indiquent que les plateformes numériques exposent les mineurs à des risques et à des contenus potentiellement préjudiciables, notamment à la violence et aux abus. La technologie doit donc non seulement identifier les âges, mais également agir dans le contexte dans lequel les mineurs interagissent.
Des vérifications plus fiables, mais difficiles à appliquer à grande échelle
Lorsque des questions surviennent ou que des plaintes sont reçues, les plateformes recourent à des méthodes plus fiables : documents officiels, selfies en temps réel ou services externes de vérification de l’âge. Mais ces processus sont coûteux, lents et complexes à mettre à l’échelle. Leur application massive – à des centaines de millions d’utilisateurs – impliquerait une profonde transformation structurelle et technologique.
Meta aurait déjà commencé à utiliser ces systèmes dans certains cas précis, mais de manière limitée et pour une raison claire : chaque vérification entraîne un coût économique, un risque juridique et une grande responsabilité dans la gestion des données personnelles.
Ce que vous ne voyez pas : modération manuelle, réclamations et ajustements juridiques
Au-delà de la technologie, les réseaux sociaux investissent dans un travail silencieux mais essentiel : l’examen manuel des comptes signalés, la modération des contenus et le développement de systèmes de restriction par défaut pour les comptes adolescents. Cela passe par des équipes humaines, un développement technique continu et une adaptation constante aux évolutions réglementaires.
Avec la nouvelle législation, les plateformes ne seront pas seulement jugées sur ce qu’elles font, mais aussi sur ce qu’elles ne parviennent pas à empêcher. La marge d’erreur qui pouvait auparavant être tolérée devient désormais un motif possible de sanctions.
La sécurité des enfants en ligne a un prix (élevé)
L’objectif est clair : protéger les mineurs. Mais bien le faire a un coût élevé en ressources, technologiques et humaines. Nous parlons de davantage d’investissements dans l’IA, de meilleurs processus de vérification, d’une gouvernance des données plus rigoureuse et d’une charge opérationnelle plus lourde. Et pourtant, aucune technologie ou système ne garantit zéro erreur.
Dans ce nouveau scénario, les entreprises technologiques devront décider combien elles sont prêtes à investir et dans quelle mesure elles peuvent assumer le risque d’échec. Car ne pas agir a des conséquences, mais agir implique aussi des décisions difficiles.
