Mineurs et réseaux sociaux : un code de bonne conduite

AFNOR lance un travail collaboratif pour mettre au point un document de bonnes pratiques de nature à protéger les mineurs dans l’usage galopant qu’ils font des réseaux sociaux. Diffusion prévue au dernier trimestre 2023 en format AFNOR Spec.

Écoutez cet article :
Temps de lecture : 4 minutes
Mineurs et réseaux sociaux : un code de bonne conduite

Mise à jour : Le document AFNOR Spec 2305 a été publié le 23 novembre 2023, cliquez ici pour en savoir plus.

 

Jeunes ou moins jeunes, vous avez tous en tête cette mesure inédite de la part de TikTok, réseau social de plus en plus populaire chez les jeunes, en mars 2023 : la plateforme chinoise de micro-vidéos va mettre en place un avertissement au bout de soixante minutes d’utilisation, invitant ses utilisateurs ayant déclaré avoir moins de 18 ans à saisir un mot de passe. Cette mesure survient suite aux alertes répétées des psychologues, éducateurs, juristes et autres spécialistes à propos des abus et dommages qu’une utilisation frénétique des réseaux sociaux peut générer chez les mineurs. L’association E-Enfance recense ainsi 30 000 appels par an au numéro 3018, dont 4 sur 10 sont à l’initiative de mineurs. Mais la mesure de TikTok se contourne facilement : l’utilisateur peut désactiver la notification ou mentir sur son âge. Pour verrouiller l’accès des mineurs dans l’optique de les protéger, l’un des défis consiste donc à trouver une alternative à l’auto-déclaration, tout en respectant la liberté individuelle et les données personnelles.

Se mettre d’accord, consensuellement, sur de bonnes pratiques

C’est l’un des sujets que se propose d’aborder un guide AFNOR intitulé « Prévention des risques et protection des mineurs sur les réseaux sociaux ». Ce travail prénormatif, dont l’objectif de publication est le quatrième trimestre 2023 en format AFNOR Spec, a été lancé mardi 21 mars 2023 dans les locaux de la plateforme Yubo, à Paris, qui s’adresse justement aux 13-25 ans. En dépit de l’adoption du DSA (Digital Services Act) au niveau européen, « la loi, la réglementation et les instances de régulation ont tout à gagner de mettre les acteurs autour de la table afin de se tomber d’accord, consensuellement, sur de bonnes pratiques », expose Julie Latawiec, qui coordonne le projet pour AFNOR. Des plateformes comme Meta, auteur de gros efforts financiers pour détecter comptes et contenus illicites avec de l’intelligence artificielle, ou des organes de régulation comme la Cnil ou l’Arcom sont déjà de la partie. A plus long terme, le document pourra être proposé aux enceintes de normalisation européenne (CEN) et internationale (ISO) pour en faire une norme volontaire. Il existe d’ailleurs un premier standard international (IEEE 2089), décliné dans un accord prénormatif européen de 2021.

Voici les trois axes de travail du projet AFNOR Spec 2302 :

Assurance et confiance des utilisateurs

  • vérification d’identité
  • lutte contre l’anonymat
  • accord parental
  • vérification et estimation d’âge
  • création de faux comptes

Détection et modération des contenus

  • contenus inappropriés
  • détection automatisée (IA)
  • modération automatisée et humaine
  • protection des données personnelles

Prévention et éducation

  • sensibilisation
  • information
  • transparence
  • éducation
  • support