Communication de la Commission 2025/5519 du 10 octobre 2025 - Lignes directrices concernant des mesures visant à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs en ligne, conformément à l’article 28, paragraphe 4, du règlement (UE) 2022/2065

Date de signature :10/10/2025 Statut du texte :En vigueur
Date de publication :10/10/2025 Emetteur :
Consolidée le : Source :JOUE Série C du 10 octobre 2025
Date d'entrée en vigueur :11/10/2025
Communication de la Commission 2025/5519 du 10 octobre 2025 - Lignes directrices concernant des mesures visant à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs en ligne, conformément à l’article 28, paragraphe 4, du règlement (UE) 2022/2065 

(C/2025/5519)

1. INTRODUCTION

1. Les mineurs accèdent de plus en plus aux plateformes en ligne (1) qui peuvent leur être profitables de plusieurs manières. Elles peuvent par exemple permettre aux mineurs d’accéder à une multitude de ressources éducatives, les aidant ainsi à acquérir de nouvelles compétences et à développer leurs connaissances. Les plateformes en ligne peuvent également leur permettre d’exprimer leur point de vue et de nouer des contacts avec d’autres mineurs qui partagent les mêmes intérêts, les aidant ainsi à développer leurs compétences sociales, à gagner en assurance et à créer un sentiment d’appartenance commune. En jouant en ligne et en explorant l’environnement internet, les mineurs peuvent également stimuler leur curiosité naturelle, en participant à des activités qui encouragent la créativité, la résolution de problèmes, l’esprit critique, la capacité d’agir et le divertissement.

2. Il existe toutefois un large consensus parmi les décideurs politiques, les autorités de réglementation, la société civile, les chercheurs, les éducateurs et les tuteurs (2) sur le fait que le niveau actuel de protection de la vie privée, de sûreté et de sécurité en ligne des mineurs est souvent insuffisant. La conception et les caractéristiques des plateformes en ligne et services très diversifiés offerts par les fournisseurs de plateformes en ligne accessibles aux mineurs peuvent engendrer des risques pour la vie privée, la sûreté et la sécurité des mineurs et exacerber les risques existants. Parmi ces risques figure, par exemple, l’exposition à des contenus illicites (3) et à des contenus préjudiciables, qui portent atteinte à la vie privée, à la sûreté et à la sécurité des mineurs ou qui peuvent nuire à leur développement physique ou mental. Ces risques comprennent également le cyberharcèlement ou les contacts de personnes cherchant à nuire à des mineurs, notamment les individus qui cherchent à abuser sexuellement ou à racketter des mineurs, les trafiquants d’êtres humains et les personnes qui cherchent à recruter des mineurs dans des bandes criminelles ou à promouvoir la violence, la radicalisation, l’extrémisme violent et le terrorisme. Les mineurs peuvent également être exposés à des risques en tant que consommateurs ainsi qu’à des risques liés à l’utilisation extensive ou excessive des plateformes en ligne et à l’exposition à des pratiques inappropriées ou d’exploitation, y compris en ce qui concerne les jeux de paris et les jeux d’argent et de hasard. L’intégration croissante des agents conversationnels et des compagnons reposant sur l’intelligence artificielle (IA) dans les plateformes en ligne, ainsi que les hypertrucages fondés sur l’IA, peuvent également avoir une incidence sur la manière dont les mineurs interagissent avec les plateformes en ligne, exacerber les risques existants et en poser de nouveaux qui sont susceptibles de nuire à la vie privée, à la sûreté et à la sécurité des mineurs (4). Ces risques peuvent être attribuables à l’expérience directe du mineur avec la plateforme et/ou à des agissements d’autres utilisateurs sur la plateforme.

3. Les présentes lignes directrices visent à aider les fournisseurs de plateformes en ligne à faire face à ces risques en mettant à leur disposition un ensemble de mesures dont la Commission estime qu’elles aideront ces fournisseurs à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leurs plateformes, contribuant ainsi à la protection des mineurs, ce qui constitue un objectif stratégique important de l’Union. Les présentes lignes directrices visent également à aider les coordinateurs pour les services numériques et les autorités nationales compétentes en ce qui concerne l’application et l’interprétation de l’article 28 du règlement (UE) 2022/2065. Par exemple, renforcer la confidentialité des comptes des mineurs aidera, entre autres, les fournisseurs de plateformes en ligne à réduire le risque de contacts non désirés ou non sollicités. La mise en oeuvre de mesures de vérification de l’âge (5) peut, entre autres, aider les fournisseurs à réduire le risque que des mineurs soient exposés à des services, à des contenus, à des comportements, à des contacts ou à des pratiques commerciales qui portent atteinte à leur vie privée, à leur sûreté et à leur sécurité. L’adoption de telles mesures et d’autres dispositions – sur des questions allant des systèmes de recommandation et de la gouvernance à l’assistance aux utilisateurs et aux signalements – peut aider les fournisseurs de plateformes en ligne à renforcer la sûreté et la sécurité de leurs plateformes pour les mineurs et à faire en sorte qu’elles soient plus respectueuses de leur vie privée.

2. CHAMP D’APPLICATION DES LIGNES DIRECTRICES

4. C’est à la lumière des risques susmentionnés que le législateur de l’Union a adopté l’article 28 du règlement (UE) 2022/2065 du Parlement européen et du Conseil (6). Le paragraphe 1 de cette disposition oblige les fournisseurs de plateformes en ligne accessibles aux mineurs à mettre en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service. L’article 28, paragraphe 2, du règlement (UE) 2022/2065 interdit aux fournisseurs de plateformes en ligne de présenter sur leur interface de la publicité qui repose sur du profilage, tel qu’il est défini à l’article 4, point 4), du règlement (UE) 2016/679 (7), en utilisant des données à caractère personnel concernant le bénéficiaire du service dès lors qu’ils ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur. L’article 28, paragraphe 3, du règlement (UE) 2022/2065 précise que le respect des obligations énoncées dans le présent article n’impose pas aux fournisseurs de plateformes en ligne de traiter des données à caractère personnel supplémentaires afin de déterminer si le destinataire du service est un mineur. L’article 28, paragraphe 4, du règlement (UE) 2022/2065 prévoit que la Commission, après avoir consulté le Comité européen des services numériques (ci-après dénommé «comité»), peut publier des lignes directrices pour aider les fournisseurs de plateformes en ligne à appliquer le paragraphe 1.

5. Les présentes lignes directrices décrivent les mesures que la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient prendre pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité en ligne pour les mineurs, conformément à l’article 28, paragraphe 1, du règlement (UE) 2022/2065. L’obligation prévue à cette disposition s’adresse aux fournisseurs de plateformes en ligne dont les services sont accessibles aux mineurs (8). Le considérant 71 de ce règlement précise en outre qu’«[u]ne plateforme en ligne peut être considérée comme accessible aux mineurs lorsque ses conditions générales permettent aux mineurs d’utiliser le service, lorsque son service s’adresse aux mineurs ou est utilisé de manière prédominante par des mineurs, ou lorsque le fournisseur sait par ailleurs que certains des destinataires de son service sont des mineurs»..

6. En ce qui concerne le premier scénario décrit dans ce considérant, la Commission estime que le fournisseur d’une plateforme en ligne ne saurait se fonder uniquement sur une déclaration figurant dans ses conditions générales interdisant l’accès aux mineurs pour faire valoir que la plateforme ne leur est pas accessible. Si le fournisseur de la plateforme en ligne ne met pas en oeuvre de mesures efficaces visant à empêcher les mineurs d’accéder à son service, il ne peut prétendre, sur la base de cette déclaration, que sa plateforme en ligne ne relève pas du champ d’application de l’article 28, paragraphe 1, du règlement (UE) 2022/2065. Par exemple, les fournisseurs de plateformes en ligne qui hébergent et diffusent des contenus pour adultes, tels que les plateformes en ligne diffusant des contenus pornographiques, et qui limitent donc, dans leurs conditions générales, l’utilisation de leur service aux utilisateurs âgés de plus de 18 ans, seront considérés comme accessibles aux mineurs au sens de l’article 28, paragraphe 1, du règlement (UE) 2022/2065 lorsqu’aucune mesure efficace n’a été mise en place pour empêcher les mineurs d’accéder à leur service.

7. En ce qui concerne le troisième scénario, le considérant 71 du règlement (UE) 2022/2065 précise qu’un exemple de situation dans laquelle un fournisseur d’une plateforme en ligne devrait savoir que certains des bénéficiaires de son service sont des mineurs est celui où ledit fournisseur traite déjà les données à caractère personnel desdits destinataires révélant leur âge à d’autres fins, par exemple lors de l’enregistrement dans le service concerné, ce qui indique que certains de ces destinataires sont mineurs. Parmi les autres exemples de situations dans lesquelles il peut être raisonnablement attendu qu’un fournisseur sache que des mineurs figurent parmi les destinataires de son service, citons ceux dans lesquels la plateforme en ligne est connue pour plaire aux mineurs; le fournisseur de la plateforme en ligne offre des services semblables à ceux que des mineurs utilisent; la plateforme en ligne fait l’objet d’une promotion auprès des mineurs; le fournisseur de la plateforme en ligne a mené ou commandé des recherches qui établissent que des mineurs sont des destinataires des services ou lorsqu’une recherche indépendante établit cet état de fait.

8. Conformément à l’article 19 du règlement (UE) 2022/2065, l’obligation prévue à l’article 28, paragraphe 1, du règlement (UE) 2022/2065 ne s’applique pas aux fournisseurs de plateformes en ligne qui peuvent être qualifiés de microentreprises ou de petites entreprises, sauf lorsque leur plateforme en ligne a été désignée par la Commission comme une très grande plateforme en ligne conformément à l’article 33, paragraphe 4, dudit règlement (9).

9. D’autres dispositions du règlement (UE) 2022/2065 visent également à assurer la protection des mineurs en ligne (10). Il s’agit, entre autres, de plusieurs dispositions du chapitre III, section 5 du règlement (UE) 2022/2065, qui impose des obligations supplémentaires aux fournisseurs de très grandes plateformes en ligne (ci-après dénommées «TGPL») et de très grands moteurs de recherche en ligne (ci-après dénommés «TGMRL») (11). Les présentes lignes directrices ne visent pas à interpréter ces dispositions et les fournisseurs de TGPL et de TGMRL ne devraient pas s’attendre à ce que l’adoption des mesures décrites ci-dessous, que ce soit partiellement ou intégralement, suffise à garantir le respect des obligations qui leur incombent en vertu du chapitre III, section 5, du règlement (UE) 2022/2065, étant donné que lesdits fournisseurs peuvent devoir mettre en place des mesures supplémentaires qui ne sont pas énoncées dans les présentes lignes directrices et qui sont nécessaires pour qu’ils se conforment aux obligations découlant de ces dispositions (12).

10. L’article 28, paragraphe 1, du règlement (UE) 2022/2065 devrait également être considéré à la lumière d’autres actes législatifs et instruments non contraignants de l’Union visant à faire face aux risques auxquels les mineurs sont exposés en ligne (13). Ces instruments contribuent également à la réalisation de l’objectif consistant à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs en ligne, et complètent ainsi l’application de l’article 28, paragraphe 1, du règlement (UE) 2022/2065. Les présentes lignes directrices ne devraient pas être comprises comme interprétant ou préjugeant des obligations découlant de ces instruments ou de la législation des États membres. La surveillance et la mise en oeuvre de ces instruments restent sous la seule responsabilité des autorités compétentes en vertu de ces cadres juridiques. En particulier, comme précisé au considérant 10 du règlement (UE) 2022/2065, ce règlement est sans préjudice d’autres actes du droit de l’Union régissant la fourniture de services de la société de l’information en général, régissant d’autres aspects de la fourniture de services intermédiaires dans le marché intérieur ou précisant et complétant les règles harmonisées énoncées dans le règlement (UE) 2022/2065, tels que la directive 2010/13/UE, ainsi que le droit de l’Union relatif à la protection des consommateurs et à la protection des données à caractère personnel, en particulier le règlement (UE) 2016/679.

11. Il est vrai que les présentes lignes directrices énoncent des mesures visant à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs en ligne, mais les fournisseurs de plateformes en ligne sont encouragés à adopter ces mesures afin de protéger tous les utilisateurs, et pas seulement les mineurs. La création d’un environnement en ligne sûr et sécurisé pour tous les utilisateurs permettra, par sa nature même, de renforcer le respect de la vie privée, la sûreté et la sécurité des mineurs en ligne, tout en adoptant des mesures garantissant le respect de leurs droits et de leurs besoins particuliers conformément à l’article 28 du règlement (UE) 2022/2065.

12. En adoptant les présentes lignes directrices, la Commission déclare qu’elle les appliquera aux situations qui y sont décrites et qu’ainsi, elle s’autolimitera dans l’exercice de son pouvoir d’appréciation chaque fois qu’elle appliquera l’article 28, paragraphe 1, du règlement (UE) 2022/2065. En tant que telles, les présentes lignes directrices peuvent donc être considérées comme une référence significative et pertinente sur laquelle la Commission se fondera lorsqu’elle appliquera l’article 28, paragraphe 1, du règlement (UE) 2022/2065 et qu’elle déterminera le respect de cette disposition par les fournisseurs de plateformes en ligne accessibles aux mineurs (14). Les coordinateurs pour les services numériques et les autorités nationales compétentes peuvent également s’inspirer des présentes lignes directrices lorsqu’ils appliquent et interprètent l’article 28, paragraphe 1, du règlement (UE) 2022/2065. Néanmoins, l’adoption et la mise en oeuvre, en tout ou partie, des mesures énoncées dans les présentes lignes directrices n’entraînent pas automatiquement le respect de cette disposition.

13. Toute interprétation faisant autorité de l’article 28, paragraphe 1, du règlement (UE) 2022/2065 ne peut être donnée que par la Cour de justice de l’Union européenne, qui est notamment compétente pour statuer à titre préjudiciel sur la validité et l’interprétation des actes de l’Union, y compris l’article 28, paragraphe 1, du règlement (UE) 2022/2065.

14. Tout au long de l’élaboration des lignes directrices, la Commission a consulté des parties prenantes (15), y compris le comité et son groupe de travail sur la protection des mineurs. Conformément à l’article 28, paragraphe 4, du règlement (UE) 2022/2065, la Commission a consulté le comité en ce qui concerne le projet des présentes lignes directrices avant leur adoption le 2 juillet 2025.

15. Les mesures décrites aux sections 5 à 8 des présentes lignes directrices ne sont pas exhaustives. D’autres mesures peuvent également être jugées appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs conformément à l’article 28, paragraphe 1, du règlement (UE) 2022/2065, notamment des mesures résultant du respect d’autres actes législatifs de l’Union (16) ou de l’adhésion à des orientations nationales relatives à la protection des mineurs ou à des normes techniques (17). En outre, de nouvelles mesures pourraient être définies à l’avenir en vue de permettre aux fournisseurs de plateformes en ligne accessibles aux mineurs de mieux respecter leur obligation de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service.

3. STRUCTURE

16. La section 4 des présentes lignes directrices énonce les principes généraux qui devraient régir toutes les mesures que les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service. Les sections 5 à 8 des présentes lignes directrices exposent les principales mesures que la Commission estime que ces fournisseurs devraient mettre en place pour garantir un tel niveau élevé de protection de la vie privée, de sûreté et de sécurité. Il s’agit notamment de l’examen des risques (section 5), de la conception des services (section 6), des signalements, de l’assistance aux utilisateurs et des outils destinés aux tuteurs (section 7) et de la gouvernance (section 8).

4. PRINCIPES GÉNÉRAUX

17. Les présentes lignes directrices reposent sur les principes généraux suivants, qui sont interdépendants et devraient être considérés de manière globale dans toutes les activités des fournisseurs de plateformes en ligne qui relèvent du champ d’application des présentes lignes directrices. La Commission estime que toute mesure que le fournisseur d’une plateforme en ligne accessible aux mineurs met en place pour se conformer à l’article 28, paragraphe 1, du règlement (UE) 2022/2065 devrait respecter les principes généraux suivants. 5. EXAMEN DES RISQUES

18. L’hétérogénéité des plateformes en ligne et la diversité des contextes peuvent nécessiter des approches distinctes, certaines mesures étant mieux adaptées à certaines plateformes que d’autres. Lorsque le fournisseur d’une plateforme en ligne accessible aux mineurs décide de la manière de garantir un niveau élevé de sûreté, de protection de la vie privée et de sécurité aux mineurs sur sa plateforme, et détermine les mesures appropriées et proportionnées à cette fin, la Commission estime que ce fournisseur devrait, au minimum, cerner et prendre en considération les aspects suivants: 19. Lorsqu’ils procèdent à cet examen, les fournisseurs de plateformes en ligne accessibles aux mineurs devraient tenir compte de l’intérêt supérieur de l’enfant en tant que considération primordiale (25) conformément à la Charte et aux autres principes de la CNUDE (26), ainsi qu’à d’autres orientations pertinentes de l’Union en la matière (27). Ils devraient inclure le point de vue des enfants en sollicitant leur participation, ainsi que celui des tuteurs, des représentants d’autres groupes potentiellement affectés et d’autres experts et parties prenantes concernés.

20. Les fournisseurs devraient tenir compte des informations et des connaissances disponibles les plus actualisées provenant de sources scientifiques et universitaires, y compris en tirant parti d’autres évaluations pertinentes effectuées par le fournisseur. Ils devraient respecter le principe de précaution lorsqu’il existe des éléments permettant raisonnablement de penser qu’une pratique, une caractéristique ou un choix de conception particuliers présente des risques pour les enfants, en prenant des mesures visant à prévenir ou à atténuer ces risques jusqu’à ce qu’il soit démontré que ses effets ne sont pas préjudiciables pour les enfants.

21. Les fournisseurs devraient procéder à l’examen régulier, et au moins une fois par an, ou chaque fois qu’ils apportent des modifications importantes à la conception de la plateforme (28) ou prennent connaissance d’autres circonstances ayant une incidence sur la conception et le fonctionnement de la plateforme qui sont pertinentes pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur plateforme en ligne. Les fournisseurs devraient mettre l’examen des risques à la disposition des autorités de surveillance concernées et en publier les résultats sans divulguer d’informations à caractère sensible concernant l’exploitation ou la sécurité au plus tard avant de procéder à l’examen suivant, et envisager de soumettre ces résultats à l’examen d’experts indépendants ou de parties prenantes concernées.

22. Les normes et outils existants permettant d’évaluer l’impact sur les droits de l’enfant peuvent aider les fournisseurs à procéder à cet examen. Il s’agit, par exemple, des modèles, formulaires et autres orientations fournis par l’UNICEF (29), le ministère néerlandais de l’Intérieur et des Relations au sein du Royaume (BZK) (30) ou l’organisme européen de normalisation CEN-CENELEC (31). La Commission peut formuler des orientations ou élaborer des outils supplémentaires en vue d’aider les fournisseurs à procéder à l’examen, y compris au moyen d’outils spécifiques permettant d’évaluer l’impact sur les droits de l’enfant. D’ici la publication de ces orientations, les fournisseurs peuvent utiliser les outils et les bonnes pratiques existants pour procéder à ces évaluations.

23. Pour les fournisseurs de TGPL et de TGMRL, cet examen des risques peut également être effectué dans le cadre de l’évaluation générale des risques systémiques au titre de l’article 34 du règlement (UE) 2022/2065, qui complétera et dépassera l’examen des risques mené conformément aux présentes lignes directrices.

6. CONCEPTION DES SERVICES

6.1. Vérification de l’âge

6.1.1. Introduction et terminologie

24. Ces dernières années, la technologie a connu des évolutions rapides qui permettent aux fournisseurs de plateformes en ligne de s’assurer de l’âge de leurs utilisateurs de manière plus précise, fiable et robuste. Ces mesures sont communément appelées «vérification de l’âge» (32).

25. La Commission considère que les mesures visant à limiter l’accès en fonction de l’âge constituent un moyen efficace de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs sur les plateformes en ligne. À cette fin, les outils de vérification de l’âge peuvent aider les fournisseurs à appliquer des restrictions d’accès pour les utilisateurs en dessous d’un âge donné, afin de protéger les mineurs contre l’accès à des contenus en ligne inappropriés pour leur âge, tels que les jeux d’argent et de hasard ou la pornographie, ou contre le risque d’être exposés à d’autres risques tels que le pédopiégeage.

26. Les outils de vérification de l’âge peuvent également aider les fournisseurs à empêcher que des adultes accèdent à certaines plateformes conçues pour les mineurs, sauf lorsqu’ils le font légitimement à des fins parentales, éducatives ou de surveillance, réduisant ainsi le risque que des adultes se fassent passer pour des mineurs et/ou cherchent à leur nuire.

27. Enfin, il est possible d’utiliser des outils de vérification de l’âge pour étayer la conception du service adaptée à l’âge, favorisant ainsi des espaces en ligne plus sûrs et plus adaptés aux enfants. Dans ces cas, les outils peuvent être utilisés pour faire en sorte que les enfants n’aient accès qu’à certains contenus, caractéristiques ou activités adaptés à leur consommation, en tenant compte de leur âge et du développement de leurs capacités.

28. Il est important de faire la distinction entre, d’une part, la limitation d’âge qui permet de restreindre l’accès à la plateforme ou à des parties de celle-ci aux utilisateurs en dessous ou au-dessus d’un âge donné et, d’autre part, les méthodes de vérification de l’âge qui sont utilisées pour déterminer l’âge d’un utilisateur.

29. Les mesures de vérification de l’âge qui sont les plus courantes actuellement et que les plateformes en ligne appliquent le plus fréquemment se répartissent en trois grandes catégories: l’autodéclaration, l’estimation de l’âge et la vérification de l’âge. 30. Le niveau de précision est la principale différence entre les mesures d’estimation et de vérification de l’âge. La vérification de l’âge offre une certitude quant à l’âge de l’utilisateur, tandis que l’estimation de l’âge permet de déterminer son âge approximatif. La précision des technologies d’estimation de l’âge peut varier et s’améliorer à mesure que les technologies progressent.

6.1.2. Déterminer s’il y a lieu de mettre en place des restrictions d’accès fondées sur des mesures de vérification de l’âge

31. Avant de décider s’il y a lieu d’instaurer des restrictions d’accès fondées sur l’âge et étayées par des méthodes de vérification de l’âge, les fournisseurs de plateformes en ligne accessibles aux mineurs devraient toujours procéder à une évaluation visant à déterminer si une telle mesure est appropriée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service et si elle est proportionnée, ou s’il est déjà possible de parvenir à un tel niveau élevé de protection en s’appuyant sur d’autres mesures de moindre ampleur (34). À cet égard, la Commission estime que les fournisseurs devraient envisager des restrictions d’accès fondées sur l’âge et étayées par des mesures de vérification de l’âge en tant qu’outil complémentaire aux mesures énoncées dans d’autres sections des présentes lignes directrices. En d’autres termes, les restrictions d’accès et la vérification de l’âge ne peuvent, à elles seules, se substituer aux mesures recommandées ailleurs dans les présentes lignes directrices.

32. Une telle évaluation devrait garantir que toute restriction à l’exercice des libertés et droits fondamentaux des destinataires, en particulier des mineurs, est proportionnée. Par conséquent, la Commission considère que les fournisseurs de plateformes en ligne devraient mettre le résultat d’une telle évaluation à la disposition du public sur l’interface en ligne de leur service, que l’évaluation conclue qu’aucune restriction d’accès fondée sur une vérification de l’âge n’est requise ou qu’une telle restriction constituerait une mesure appropriée et proportionnée.

33. La Commission fait observer que des solutions d’estimation de l’âge dont la précision est moindre n’entraînent pas automatiquement une incidence moindre sur les libertés et droits fondamentaux des destinataires, étant donné que des solutions moins précises peuvent traiter davantage de données à caractère personnel que des solutions plus précises. En raison de leur niveau de précision inférieur, elles peuvent également empêcher certains enfants d’accéder à des plateformes en ligne auxquelles ils pourraient autrement avoir accès. Par conséquent, lorsqu’ils envisagent des méthodes d’estimation de l’âge qui nécessitent le traitement de données à caractère personnel, les fournisseurs de plateformes en ligne accessibles aux mineurs devraient veiller à ce que les principes de protection des données, en particulier la minimisation des données, soient correctement mis en oeuvre et restent robustes au fil du temps, et tenir compte de la déclaration du comité européen de la protection des données (CEPD) concernant la vérification de l’âge (35).

34. La Commission estime que, pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leurs services, les fournisseurs de plateformes en ligne accessibles aux mineurs qui envisagent des restrictions d’accès fondées sur des méthodes de vérification de l’âge nécessaires et proportionnées devraient fournir des informations sur les solutions de vérification de l’âge qu’ils ont recensées, ainsi que sur leur adéquation et leur efficacité. Ils devraient également fournir une vue d’ensemble des indicateurs de performance utilisés pour effectuer de telles mesures, notamment les taux de faux positifs et de faux négatifs, ainsi que les taux de précision et de rappel.

35. Il convient de prévoir la participation des enfants à la conception, à la mise en oeuvre et à l’évaluation des restrictions d’âge et des méthodes de vérification de l’âge.

36. Il est possible que seuls certains contenus ou seules certaines sections ou fonctions d’une plateforme en ligne accessibles aux mineurs présentent un risque pour les mineurs ou que, sur certaines parties de cette plateforme, le risque soit atténué par d’autres mesures et/ou que ce ne soit pas le cas sur d’autres parties. Dans ces cas, au lieu de restreindre l’âge sur l’ensemble du service, les fournisseurs de ces plateformes en ligne devraient évaluer quels contenus, quelles sections ou quelles fonctions de leur plateforme présentent des risques pour les mineurs et mettre en oeuvre des restrictions d’accès fondées sur des méthodes de vérification de l’âge afin de réduire ces risques pour les mineurs de manière proportionnée et appropriée. Par exemple, les parties de services de médias sociaux dont le contenu, les sections ou les fonctions peuvent présenter un risque pour les mineurs, telles que les sections de médias sociaux dont l’accès est réservé aux adultes, ou les sections présentant des communications commerciales réservées aux adultes ou des placements de produits réservés aux adultes par des influenceurs, ne devraient être mises à la disposition que des utilisateurs adultes dont l’âge a été vérifié en conséquence.

6.1.3. Déterminer les méthodes de vérification de l’âge qu’il convient d’utiliser

6.1.3.1. Vérification de l’âge:

37. Dans les situations suivantes, étant donné que la protection des mineurs constitue un objectif stratégique important de l’Union, comme en témoigne le règlement (UE) 2022/2065 et son considérant 71, la Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âgeconstitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs: 38. Les méthodes d’estimation de l’âge peuvent compléter les technologies de vérification de l’âge et peuvent être utilisées en complément de celles-ci, ou comme solution de substitution temporaire, notamment lorsqu’on ne dispose pas encore de mesures de vérification qui respectent les critères d'efficacité énoncés à la section 6.1.4, en mettant particulièrement l’accent sur la protection du droit des utilisateurs à la vie privée, sur la protection des données ainsi que sur la précision. Cette période transitoire ne devrait pas s’étendre au-delà du premier examen des présentes lignes directrices (38). Par exemple, les plateformes proposant des contenus réservés aux adultes peuvent utiliser des méthodes d’estimation ex ante de l’âge si elles peuvent prouver que ces méthodes sont comparables à celles de la vérification de l’âge, au regard des critères énoncés à la section 6.1.4, en l’absence de mesures efficaces de vérification de l’âge (39). La Commission pourrait, en temps utile, compléter les présentes lignes directrices par une analyse technique des principales méthodes existantes d’estimation de l’âge qui sont actuellement disponibles au regard des critères énoncés à la section 6.1.4.

6.1.3.2. Technologies de vérification de l’âge

39. La vérification de l’âge devrait être considérée comme un processus distinct qui n’est pas lié aux autres activités de collecte de données qu’exercent les plateformes en ligne. La vérification de l’âge ne devrait pas permettre aux fournisseurs de plateformes en ligne de stocker des données à caractère personnel outre les informations relatives à la tranche d’âge de l’utilisateur.

40. Comme expliqué plus en détail à la section 6.1.4, toute méthode de vérification de l’âge doit être robuste, et donc difficile à contourner, pour être considérée comme appropriée et proportionnée. Une méthode facile à contourner pour les mineurs ne sera pas considérée comme une mesure efficace de vérification de l’âge.

41. Les méthodes qui reposent sur des identifications vérifiées et crédibles qui sont émises par l’administration, sans fournir à la plateforme d’autres données à caractère personnel, peuvent constituer une méthode efficace de vérification de l’âge, dans la mesure où elles reposent sur des jetons anonymisés d’identification d’âge (40). Ces jetons devraient être émis après que l’âge de la personne a été vérifié de manière fiable. Ils devraient être émis par un tiers indépendant, plutôt que par le fournisseur de la plateforme en ligne, en particulier lorsqu’elle propose un accès à des contenus pour adultes. La Commission considère que les protocoles cryptographiques, tels que la rotation des clés ou les preuves à divulgation nulle de connaissance (41), constituent une base appropriée pour vérifier l’âge sans transmettre de données à caractère personnel.

42. Les États membres sont actuellement en train de fournir à l’ensemble de leurs citoyens, résidents et entreprises un portefeuille européen d’identité numérique (42). Ces portefeuilles européens d’identité numérique à venir fournissent des moyens d’identification électronique sûrs, fiables et privés au sein de l’Union. Lorsqu’ils auront été déployés, ils pourront être utilisés pour ne partager que certaines informations avec un service, comme le fait que l’âge d’une personne est supérieur à un âge déterminé.
Le portefeuille européen d’identité numérique

Lorsqu’il sera mis en oeuvre, le portefeuille européen d’identité numérique constituera un moyen d’identification électronique sûr, fiable et privé pour chacun au sein de l’Union. Chaque État membre est tenu de fournir au moins un portefeuille à l’ensemble de ses citoyens, résidents et entreprises, ce qui devrait leur permettre de prouver leur identité, et de stocker, partager et signer des documents numériques importants en toute sécurité d’ici la fin de 2026. Tous les portefeuilles européens d’identité numérique permettent de recevoir un jeton d’identification d’âge et les États membres peuvent mettre en oeuvre des services permettant d’émettre de tels jetons.

43. Afin de faciliter la vérification de l’âge avant que les portefeuilles européens d’identité numérique ne soient disponibles, la Commission teste actuellement une solution européenne de vérification de l’âge en tant que mesure autonome qui respecte les critères d’efficacité des solutions de vérification de l’âge énoncés à la section 6.1.4. Lorsqu’elle sera finalisée, la solution européenne de vérification de l’âge constituera un exemple de conformité et une norme de référence concernant une méthode de vérification de l’âge basée sur un appareil. Les fournisseurs de plateformes en ligne qui sont censés utiliser des solutions de vérification de l’âge pour leurs services sont donc encouragés à participer aux tests disponibles sur les premières versions de la solution européenne de vérification de l’âge, ce qui peut permettre de les informer sur le meilleur moyen de garantir le respect de l’article 28 du règlement (UE) 2022/2065.

44. La norme de référence (43) définie par la solution européenne de vérification de l’âge peut être mise en oeuvre au moyen d’applications publiées par des entités publiques ou privées ou être intégrée dans le portefeuille européen d’identité numérique à venir. La mise en oeuvre de cette norme constituera une technologie de vérification de l’âge qui préserve la vie privée, assure la minimisation des données, n’est pas traçable et est interopérable, conformément aux critères d’efficacité des solutions de vérification de l’âge énoncés à la section 6.1.4.
Solution européenne de vérification de l’âge

La solution européenne de vérification de l’âge, qui comprend une application, sera une méthode de vérification de l’âge facile à utiliser permettant de prouver qu’un utilisateur est âgé d’au moins 18 ans (18 ans ou plus). Cette solution sera destinée à assurer la transition jusqu’à ce que le portefeuille européen d’identité numérique soit disponible. Cette solution rigoureuse, respectueuse de la vie privée et permettant d’assurer la minimisation des données visera à établir une norme en matière de protection de la vie privée et de facilité d’utilisation.

La solution européenne de vérification de l’âge constitue une référence en matière de conformité pour ce qui est de la précision d’une solution de vérification de l’âge tout en réduisant au minimum l’incidence sur les droits et libertés des destinataires.

Les utilisateurs pourront activer l’application facilement et recevoir la preuve de plusieurs manières différentes. Cette preuve confirme uniquement que l’utilisateur est âgé de 18 ans ou plus. Elle ne précise pas son âge exact et ne comporte aucune autre information sur l’utilisateur. L’utilisateur peut présenter à la plateforme en ligne la preuve qu’il est âgé de «18 ans ou plus» d’une manière qui préserve sa vie privée, sans transmission de données vers le fournisseur de preuves. En outre, des mécanismes seront mis en place en vue d’empêcher le traçage entre les plateformes en ligne. L’utilisation de l’application est simple. Lorsqu’il demande l’accès à du contenu en ligne pour adultes, l’utilisateur présente à la plateforme en ligne la preuve qu’il est âgé de «18 ans ou plus» par l’intermédiaire de l’application. Après vérification de sa validité, la plateforme en ligne accorde l’accès à l’utilisateur. L’identité et les actions de l’utilisateur sont protégées contre toute divulgation dans l’ensemble du processus. Le fournisseur de preuves crédible n’est pas informé des services en ligne auxquels l’utilisateur cherche à accéder à l’aide de la preuve qu’il est âgé de «18 ans ou plus». De même, l’identité de l’utilisateur qui demande l’accès n’est pas transmise aux fournisseurs de services en ligne réservés aux plus de 18 ans. Seule une preuve que l’utilisateur est âgé de 18 ans ou plus lui est communiquée.

La solution européenne de vérification de l’âge sera également techniquement capable de fournir d’autres attributs, tels que la détection de la vivacité. Dans les pays où des méthodes valides d’attestation de l’âge des personnes de moins de 18 ans sont applicables, la solution européenne de vérification de l’âge peut également permettre de vérifier l’âge des personnes de moins de 18 ans.

45. Les fournisseurs de plateformes en ligne accessibles aux mineurs peuvent utiliser d’autres méthodes de vérification de l’âge en vue de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, à condition qu’elles soient compatibles avec la norme de référence de l’UE (telle que décrite aux paragraphes 43 et 44 ci-dessus) et qu’elles satisfassent aux critères énoncés à la section 6.1.4. La solution européenne de vérification de l’âge constitue un exemple de méthode qui répond à ces critères.

46. Afin de garantir le respect des principes de minimisation des données, de limitation des finalités et de confiance des utilisateurs, les fournisseurs de plateformes en ligne sont encouragés à adopter des méthodes de vérification de l’âge en double aveugle. Une méthode en double aveugle garantit i) que la plateforme en ligne ne reçoit pas de moyens supplémentaires permettant d’identifier l’utilisateur et ne reçoit au contraire que des informations lui permettant de confirmer s’il atteint l’âge requis et ii) que le fournisseur de vérification de l’âge n’obtient aucune information sur les services pour lesquels la preuve de l’âge est utilisée. Ces méthodes peuvent s’appuyer sur le traitement sur l’appareil local, sur des jetons cryptographiques anonymisés ou sur des preuves à divulgation nulle de connaissance (44).

6.1.3.3.Estimation de l’âge

47. La Commission considère que l’utilisation de méthodes d’estimation de l’âge, lorsqu’elles sont fournies par un tiers indépendant ou au moyen de systèmes faisant l’objet d’un audit approprié et indépendant, notamment pour garantir la conformité en matière de sécurité et de protection des données, ainsi que lorsque ces méthodes sont mises en oeuvre ex ante si nécessaire afin de garantir l’efficacité de la mesure, constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs dans les situations suivantes:
Bonnes pratiques

MegaBetting (48) est une plateforme en ligne qui permet aux utilisateurs de parier sur les résultats d’événements réels. Le prestataire limite son service aux utilisateurs âgés de plus de 18 ans, conformément au droit national. Pour faire en sorte que des mineurs ne puissent pas accéder à sa plateforme en ligne, il s’appuie sur la solution européenne de vérification de l’âge, qui indique uniquement au fournisseur si l’utilisateur est âgé d’au moins 18 ans. Ces informations sont générées par un émetteur crédible sur la base de l’identification électronique nationale de l’utilisateur et sont transmises à partir d’une application sur le téléphone de l’utilisateur. Le fournisseur considère donc que le système répond à des critères d’efficacité élevée tout en préservant la vie privée de l’utilisateur.
 
Mauvaise pratique

SadMedia est une plateforme en ligne de médias sociaux. Le fournisseur de SadMedia a décidé de limiter ses services aux mineurs âgés d’au moins 13 ans. Cette décision repose sur son évaluation des risques moyens que la plateforme pourrait présenter pour la vie privée, la sûreté et la sécurité des mineurs. Les conditions générales de SadMedia mentionnent cette restriction. Pour la faire respecter, le fournisseur de SadMedia s’appuie sur un modèle d’estimation de l’âge qu’il a mis au point et qui, selon lui, permet de prédire l’âge de l’utilisateur avec une marge d’erreur de ± 2 ans. En raison de cette marge d’erreur, de nombreux mineurs dont l’âge est inférieur à l’âge indiqué peuvent accéder au service et de nombreux mineurs qui ont l’âge requis ne peuvent pas y accéder. La mesure de vérification de l’âge de SadMedia n’est pas très efficace et ne garantit donc pas un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs sur son service.

48. Lorsque le fournisseur d’une plateforme en ligne accessible aux mineurs a établi que des restrictions d’accès fondées sur la vérification de l’âge sont nécessaires pour atteindre un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs sur son service, la Commission estime qu’il devrait proposer sur sa plateforme plusieurs méthodes de vérification de l’âge, afin de permettre à l’utilisateur de choisir entre différentes méthodes, à condition que cette méthode réponde aux critères énoncés à la section 6.1.4. Cela permettra d’éviter d’exclure des utilisateurs qui, bien qu’ils réunissent les conditions requises pour accéder à une plateforme en ligne, ne peuvent pas recourir à une méthode spécifique de vérification de l’âge. Afin d’accroître l’efficacité et la facilité d’utilisation, la méthode appropriée de vérification de l’âge devrait être appliquée, si possible lors de la création du compte, et les informations relatives à l’âge devraient être utilisées par la suite pour contribuer à une expérience adaptée à l’âge sur la plateforme, en complément des autres mesures de protection mentionnées dans les présentes lignes directrices. En outre, les fournisseurs de plateformes en ligne devraient prévoir un mécanisme de recours permettant aux utilisateurs d’introduire une réclamation concernant toute évaluation incorrecte de son âge par le fournisseur (49).
Mauvaise pratique

SadMedia utilise une solution d’estimation de l’âge dans le cadre d’une série de mesures visant à contribuer à un niveau élevé de protection de la vie privée, de sûreté et de sécurité. Lorsque le système d’estimation de l’âge donne un résultat négatif indiquant que l’utilisateur est trop jeune pour utiliser le service, une fenêtre contextuelle s’affiche pour l’utilisateur avec la mention «Vous n’êtes pas d’accord avec le résultat? Veuillez réessayer!». L’utilisateur peut alors recommencer le test d’estimation de l’âge à l’aide de la même méthode. Dans cet exemple, la mesure de vérification de l’âge ne serait pas considérée comme appropriée ou proportionnée, étant donné que le destinataire n’a pas la possibilité d’utiliser une autre méthode de vérification de l’âge ni de bénéficier d’une voie de recours pour contester une appréciation incorrecte de son âge.

6.1.4. Évaluation du caractère approprié et proportionné de toute méthode de vérification de l’âge

49. Avant d’envisager s’il y a lieu de mettre en place une méthode spécifique de vérification ou d’estimation de l’âge pour fonder des restrictions d’accès, les fournisseurs de plateformes en ligne accessibles aux mineurs devraient prendre en considération les caractéristiques suivantes d’une telle méthode: 50. Lorsque les mesures de vérification de l’âge ne satisfont pas aux critères énoncés ci-dessus, elles ne peuvent pas être considérées comme appropriées et proportionnées.

51. Les solutions de vérification de l’âge qui peuvent être facilement contournées ne devraient pas être considérées comme garantissant un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs. Cette évaluation devrait être réalisée en fonction de l’incidence que la plateforme est susceptible d’avoir sur la vie privée, la sûreté et la sécurité des mineurs. Le stockage d’une preuve de l’âge devrait également dépendre des risques associés aux plateformes concernées. Par exemple, les plateformes en ligne réservées aux adultes ne devraient pas permettre le partage des identifiants des comptes d’utilisateur et ainsi vérifier l’âge lors de chaque accès à leur service.

52. La Commission estime que l’autodéclaration (54) ne satisfait pas à toutes les exigences susmentionnées, en particulier à l’exigence de robustesse et de précision. Par conséquent, elle estime que l’autodéclaration ne constitue pas une méthode appropriée de vérification de l’âge permettant de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, conformément à l’article 28, paragraphe 1, du règlement (UE) 2022/2065.

53. En outre, la Commission estime qu’il convient d’expliquer aux mineurs que la vérification de l’âge est effectuée par un tiers – comme dans tous les cas – de manière accessible, visible et dans un langage adapté aux enfants (voir la section 8.4 relative à la transparence). En outre, c’est au fournisseur qu’il incombe de veiller à l’efficacité de la méthode utilisée par le tiers, conformément aux considérations exposées ci-dessus. Cela inclut, par exemple, les situations dans lesquelles le fournisseur a l’intention de s’appuyer sur des solutions fournies par des opérateurs de systèmes d’exploitation ou d’appareils.

6.2. Inscription

54. L’inscription ou l’authentification peut avoir une incidence sur le fait que des mineurs puissent accéder ou non à un service donné et l’utiliser, ainsi que sur la manière dont ils le font, de manière sûre, adaptée à leur âge et respectueuse de leurs droits. La Commission estime que, lorsqu’il a été établi que la vérification de l’âge est nécessaire pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité et pour fournir une expérience adaptée à l’âge, l’inscription ou l’authentification peut constituer un premier point d’utilisation pour effectuer cette opération de manière proportionnée.

55. Lorsqu’une inscription n’est pas requise, et compte tenu du fait qu’un utilisateur non inscrit pourrait être un mineur qui n’a pas atteint l’âge minimal requis par la plateforme en ligne pour accéder au service et/ou à des contenus inadaptés à son âge sur le service, le fournisseur de la plateforme en ligne concernée accessible aux mineurs devrait configurer les paramètres de tout utilisateur non inscrit d’une manière qui garantisse les niveaux les plus élevés de protection de la vie privée, de sûreté et de sécurité, en tenant compte en particulier des recommandations énoncées aux sections 6.3.1 et 6.3.2 et en considérant l’intérêt supérieur de l’enfant comme une considération primordiale, y compris en tenant compte des risques liés à un contact avec un adulte susceptible de se présenter comme un enfant.

56. Lorsqu’une inscription est requise ou proposée pour accéder à une plateforme en ligne accessible aux mineurs, la Commission estime que le fournisseur de ladite plateforme devrait: 6.3. Paramètres des comptes

6.3.1. Paramètres par défaut

57. Les paramètres par défaut sont un outil important que les fournisseurs de plateformes en ligne accessibles aux mineurs peuvent utiliser pour atténuer les risques pour la vie privée, la sûreté et la sécurité des mineurs, tels que le risque de contacts non désirés établis par des personnes cherchant à leur nuire. Les faits montrent que les utilisateurs ont tendance à ne pas modifier leurs paramètres par défaut, ce qui signifie que ceux-ci restent applicables chez la plupart des utilisateurs et jouent donc un rôle essentiel pour orienter les comportements (57). Par conséquent, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient: 58. Si des mineurs modifient leurs paramètres par défaut ou choisissent des fonctions qui nuisent à leur vie privée, leur sûreté ou leur sécurité, la Commission estime que le fournisseur de la plateforme en ligne devrait: 6.3.2. Disponibilité des paramètres, des fonctions et des fonctionnalités

59. La Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient: 6.4. Conception d’interfaces en ligne et autres outils

60. La Commission estime que les mesures permettant aux mineurs de prendre le contrôle de leurs expériences en ligne constituent un moyen efficace de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs aux fins de l’article 28, paragraphe 1, du règlement (UE) 2022/2065.

61. Sans préjudice des obligations incombant aux fournisseurs de TGPL et de TGMRL en vertu du chapitre III, section 5, du règlement (UE) 2022/2065 et indépendamment des obligations incombant aux fournisseurs de plateformes en ligne en ce qui concerne la conception, l’organisation et l’exploitation de leurs interfaces en ligne découlant de l’article 25 dudit règlement, la Commission considère que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient adopter et mettre en oeuvre des fonctionnalités permettant aux mineurs de décider de leur mode d’interaction avec les services. Ces fonctionnalités devraient assurer un juste équilibre entre la capacité d’agir des enfants et un niveau adéquat de protection de la vie privée, de sûreté et de sécurité. Par exemple:
Mauvaise pratique

SadFriends est une plateforme de médias sociaux sur laquelle les paramètres relatifs aux profils des mineurs sont les mêmes que ceux des adultes. Lors de l’inscription, les informations et le contenu des comptes des mineurs sont visibles par les autres utilisateurs de la plateforme ainsi que par des personnes extérieures à la plateforme. Un mineur peut être contacté par d’autres utilisateurs qu’il n’a pas acceptés comme contacts. Ces autres utilisateurs peuvent lui envoyer des messages et commenter ses contenus. Lorsqu’un mineur active la géolocalisation pour partager sa localisation avec ses amis, l’emplacement où il se trouve devient visible sur tous les comptes avec lesquels il est ami et reste activé après la fermeture de la session, ce qui signifie que d’autres utilisateurs peuvent voir où il se trouve jusqu’à ce qu’il se souvienne de désactiver sa géolocalisation.

En conséquence, des acteurs malveillants commencent à cibler des mineurs sur SadFriends. Des adultes inconnus s’adressent aux mineurs et dialoguent avec eux, nouant ainsi un lien émotionnel et gagnant leur confiance. Les mineurs sont manipulés et contraints à créer et à partager des images pédopornographiques avec leurs agresseurs.

6.5. Systèmes de recommandation et fonctions de recherche

62. Les systèmes de recommandation (62) déterminent la manière dont les informations sont hiérarchisées, optimisées et présentées aux mineurs. En conséquence, ces systèmes ont une incidence importante pour déterminer si et dans quelle mesure les mineurs sont confrontés à certains types de contenus, de contacts ou de comportements en ligne. Les systèmes de recommandation peuvent présenter des risques pour la vie privée, la sûreté et la sécurité des mineurs en ligne et aggraver de tels risques, par exemple en amplifiant des contenus susceptibles d’avoir une incidence négative sur la sûreté et la sécurité des mineurs (63).

63. La Commission rappelle les obligations incombant à tous les fournisseurs de toutes les catégories de plateformes en ligne en ce qui concerne la transparence des systèmes de recommandation en vertu de l’article 27 du règlement (UE) 2022/2065 et les exigences supplémentaires applicables aux fournisseurs de TGPL et de TGMRL en vertu des articles 34, paragraphe 1, 35, paragraphe 1, et 38 du règlement (UE) 2022/2065 à cet égard (64).

64. Afin de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité particulièrement pour les mineurs, comme l’exige l’article 28, paragraphe 1, du règlement (UE) 2022/2065, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient mettre en place les mesures suivantes:

6.5.1. Test et adaptation de la conception et du fonctionnement des systèmes de recommandation destinés aux mineurs

65. Les fournisseurs de plateformes en ligne accessibles aux mineurs qui utilisent des systèmes de recommandation pour fournir leurs services devraient: 6.5.2. Contrôle et autonomisation des utilisateurs

66. Les fournisseurs de plateformes en ligne accessibles aux mineurs qui utilisent des systèmes de recommandation dans le cadre de la fourniture de leurs services devraient adopter les mesures suivantes afin de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs: 67. Outre les obligations énoncées à l’article 27, paragraphe 1, du règlement (UE) 2022/2065, et pour les fournisseurs de TGPL et de TGMRL, les obligations de vigilance renforcées prévues aux articles 34, 35 et 38 dudit règlement, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient: 6.6. Pratiques commerciales

68. Les mineurs sont particulièrement exposés aux effets persuasifs des pratiques commerciales et ont le droit d’être protégés contre les pratiques d’exploitation économique (68) des plateformes en ligne. Ils sont confrontés aux pratiques commerciales des plateformes en ligne et font face à diverses tactiques de persuasion dynamiques et personnalisées, telles que la publicité, les placements de produits, l’utilisation de monnaies intégrées aux applications, le marketing d’influenceurs, le parrainage ou les incitations renforcées par l’IA (69) (70). Cela peut avoir des répercussions négatives sur la vie privée, la sûreté et la sécurité des mineurs lorsqu’ils utilisent les services d’une plateforme en ligne.

69. Conformément au cadre juridique horizontal existant, et sans préjudice de celui-ci, en particulier la directive 2005/29/CE sur les pratiques commerciales déloyales, qui est pleinement applicable à toutes les pratiques commerciales également à l’égard des mineurs (71) et les règles plus spécifiques du règlement (UE) 2022/2065 concernant la publicité (article 26, article 28, paragraphe 2, et article 39) et concernant les interfaces trompeuses (article 25), la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient adopter les mesures suivantes pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service, aux fins de l’article 28, paragraphe 1, du règlement (UE) 2022/2065: 6.7. Modération

70. La modération peut permettre de réduire l’exposition des mineurs à des contenus et à des comportements préjudiciables à leur vie privée, à leur sûreté et à leur sécurité, y compris à des contenus illicites ou à des contenus susceptibles de nuire à leur développement physique ou mental. Elle peut aussi contribuer à la prévention de la criminalité.

71. La Commission rappelle les obligations liées: aux conditions générales énoncées à l’article 14 du règlement (UE) 2022/2065; aux rapports de transparence prévus à l’article 15 dudit règlement pour les fournisseurs de services intermédiaires, y compris les fournisseurs de plateformes en ligne; aux mécanismes de notification et d’action et aux exposés des motifs prévus respectivement à l’article 16 et à l’article 17 dudit règlement pour les fournisseurs de services d’hébergement, y compris les plateformes en ligne; aux obligations relatives aux signaleurs de confiance (85) pour les fournisseurs de plateformes en ligne énoncées à l’article 22 dudit règlement. Elle rappelle également le code de conduite pour la lutte contre les discours haineux illégaux en ligne de 2025 et le code de bonnes pratiques contre la désinformation, qui constituent des codes de conduite au sens de l’article 45 du règlement (UE) 2022/2065.

72. Outre ces obligations, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient mettre en place les mesures suivantes pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service aux fins de l’article 28, paragraphe 1, du règlement (UE) 2022/2065, tout en considérant l’intérêt supérieur de l’enfant comme une considération primordiale: 73. Les fournisseurs de plateformes en ligne accessibles aux mineurs devraient partager des indicateurs sur la modération des contenus, par exemple la fréquence à laquelle ils reçoivent des signalements d’utilisateurs, la fréquence à laquelle ils détectent de manière proactive les violations de contenus et de comportements, les types de contenus et de comportements signalés et détectés et la manière dont la plateforme a répondu à ces problèmes.

74. Aucune des mesures susmentionnées ne devrait entraîner une obligation générale de surveiller les contenus que les fournisseurs de plateformes en ligne accessibles aux mineurs transmettent ou stockent (87).
Mauvaise pratique

SadShare est une plateforme de médias sociaux qui permet aux utilisateurs de charger et de partager des contenus visuels avec d’autres. Les politiques de la plateforme ne prévoient pas de mécanismes solides de modération des contenus permettant de détecter et de prévenir le chargement de contenus préjudiciables et explicites, y compris de contenus à caractère pédopornographique. Cette absence de modération expose donc les mineurs à des contenus illicites et permet aux utilisateurs malveillants d’utiliser ou de réutiliser des images existantes. Cela alimente à son tour la demande de contenus à caractère pédopornographique, qui incite, de manière fortuite, d’autres utilisateurs à abuser de mineurs et à leur nuire en vue de créer de nouveaux contenus.

7. SIGNALEMENTS, ASSISTANCE AUX UTILISATEURS ET OUTILS DESTINÉS AUX TUTEURS

7.1. Signalements d’utilisateurs, retour d’information et réclamations

75. Des outils de signalement, de retour d’information et de réclamation efficaces, visibles et adaptés aux enfants permettent aux mineurs de faire connaître et de signaler les fonctions des plateformes en ligne susceptibles d’avoir une incidence négative sur le niveau de leur vie privée, de leur sûreté et de leur sécurité.

76. La Commission rappelle les obligations énoncées dans le règlement (UE) 2022/2065, y compris l’obligation de mettre en place des mécanismes de notification et d’action prévus à l’article 16, de fournir un exposé des motifs à l’article 17, de notifier les soupçons d’infraction pénale à l’article 18, de mettre en place un système interne de traitement des réclamations à l’article 20 et de règlement extrajudiciaire des litiges à l’article 21, ainsi que les règles relatives aux signaleurs de confiance à l’article 22.

77. Outre ces obligations, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient mettre en place les mesures suivantes pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service aux fins de l’article 28, paragraphe 1, du règlement (UE) 2022/2065:
Mauvaise pratique

SadLearn est une plateforme en ligne prisée conçue pour les utilisateurs âgés de 6 à 18 ans. Elle offre une panoplie de contenus éducatifs et de divertissement. Pour signaler un contenu qui est contraire aux conditions générales de SadLearn, l’utilisateur doit cliquer sur quatre liens différents. Une fois que l’utilisateur arrive dans la section «Réclamations», il doit choisir entre 15 catégories de réclamations différentes, ce qui complique l’identification et le choix de la bonne catégorie par les mineurs. Il n’est pas possible d’indiquer la catégorie sous forme de texte libre. Si les utilisateurs parviennent à introduire une réclamation, ils ne reçoivent aucune confirmation ni explication de ce qui se passera ensuite. En outre, l’outil de signalement n’est disponible qu’en anglais et le langage est adapté à un public adulte.

7.2. Mesures d’assistance aux utilisateurs

78. La mise en place, sur des plateformes en ligne accessibles aux mineurs, de fonctionnalités destinées à aider ces derniers à parcourir leurs services et à rechercher une assistance en cas de besoin constitue un moyen efficace de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs. Par conséquent, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient:
Bonnes pratiques

NiceSpace est une plateforme de médias sociaux qui s’adresse aux utilisateurs de plus de 13 ans. Lorsque les utilisateurs s’inscrivent, ils se voient proposer un tutoriel interactif intitulé «Guide du débutant sur SafeSpace» qui explique les fonctions de protection de la vie privée, de sûreté et de sécurité de la plateforme, y compris les options de blocage et de mise en sourdine, le contrôle des commentaires et les invitations à des groupes. NiceSpace propose également un bouton «Aide» bien visible qui permet de mettre directement en lien les utilisateurs avec la ligne d’assistance locale du centre pour un internet plus sûr. Si un utilisateur recherche des contenus potentiellement préjudiciables, NiceSpace l’avertit à l’aide d’invites contextuelles et le redirige vers des ressources plus sûres. Toutes les informations sont adaptées au plus jeune utilisateur qui est autorisé sur la plateforme.

7.3. Outils destinés aux tuteurs

79. Les outils destinés aux tuteurs sont des logiciels, des fonctions, des fonctionnalités ou des applications conçus pour aider les tuteurs à accompagner l’activité en ligne de leur mineur, sa vie privée, sa sécurité et son bien-être, tout en respectant la capacité d’agir et la vie privée des enfants.

80. La Commission estime que les outils destinés aux tuteurs devraient être considérés comme étant complémentaires des mesures de sécurité dès la conception et par défaut, ainsi que de toute autre mesure mise en place pour se conformer à l’article 28, paragraphe 1, du règlement (UE) 2022/2065, y compris celles décrites dans les présentes lignes directrices. Le respect de l’obligation imposée aux fournisseurs de plateformes en ligne accessibles aux mineurs de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité sur leurs services ne doit jamais s’appuyer exclusivement sur des outils destinés aux tuteurs. Les outils destinés aux tuteurs ne devraient pas être utilisés comme seule mesure pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur les plateformes en ligne, ni pour remplacerd’autres mesures mises en place à cette fin. Ces mesures peuvent ne pas refléter la réalité de la vie des enfants, en particulier en cas de garde alternée, de placement en famille d’accueil ou d’absence ou de désengagement des tuteurs. En outre, l’efficacité du consentement parental est limitée si l’identité ou l’autorité légale de l’adulte qui accepte le consentement n’est pas vérifiée de manière fiable. Les fournisseurs de plateformes en ligne accessibles aux mineurs doivent donc mettre en oeuvre des mesures appropriées visant à protéger les mineurs et ne devraient pas se limiter à se baser sur la surveillance parentale. Néanmoins, la Commission note que, lorsqu’ils sont utilisés en combinaison avec d’autres mesures, les outils destinés aux tuteurs peuvent contribuer à un tel niveau élevé.

81. Par conséquent, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient mettre en place des outils de contrôle destinés aux tuteurs aux fins de l’article 28, paragraphe 1, du règlement (UE) 2022/2065, qui devraient: 82.Les outils destinés aux tuteurs peuvent inclure des fonctions permettant de gérer les paramètres par défaut, de paramétrer des limites du temps d’écran (voir la section 6.4 relative à la conception d’interfaces en ligne et à d’autres outils), de voir les comptes avec lesquels le mineur communique, de gérer les paramètres de son compte, de fixer des limites de dépenses par défaut pour le mineur, le cas échéant, ou d’autres fonctions permettant de superviser les utilisations des plateformes en ligne qui peuvent porter atteinte à la vie privée, à la sûreté et à la sécurité du mineur.

8. GOUVERNANCE

83.La bonne gouvernance des plateformes est un moyen efficace de garantir que la priorité est dûment accordée à la protection des mineurs et que cette dernière est gérée sur l’ensemble de la plateforme, contribuant ainsi à garantir le niveau élevé requis de protection de la vie privée, de sûreté et de sécurité des mineurs.

8.1. Gouvernance (générale)

84. La Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient mettre en place des mesures de gouvernance efficaces comme moyen de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service aux fins de l’article 28, paragraphe 1, du règlement (UE) 2022/2065. Il s’agit des mesures suivantes, sans toutefois s’y limiter: 8.2. Conditions générales

85. Les conditions générales sont un cadre qui régit la relation entre le fournisseur de la plateforme en ligne et ses utilisateurs. Elles définissent les règles et les attentes en matière de comportement en ligne et jouent un rôle important dans la mise en place d’un environnement sûr, sécurisé et respectueux de la vie privée (96).

86. La Commission rappelle les obligations incombant à tous les fournisseurs de services intermédiaires en ce qui concerne les conditions générales énoncées à l’article 14 du règlement (UE) 2022/2065, qui comprend l’obligation pour les fournisseurs de services intermédiaires d’expliquer les conditions et les éventuelles restrictions relatives à l’utilisation du service dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté. En outre, l’article 14, paragraphe 3, dudit règlement précise que les services intermédiaires qui s’adressent principalement à des mineurs ou sont utilisés de manière prédominante par des mineurs, devraient fournir ces informations d’une manière compréhensible pour les mineurs (97) (98).

87.En outre, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient veiller à ce que les conditions générales du service qu’ils fournissent: 88. En outre, la Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient veiller à ce que les modifications des conditions générales soient enregistrées et publiées (99).
 
Bonnes pratiques

HappyExplore est une plateforme en ligne sur laquelle les mineurs peuvent jouer, créer et explorer des créatures et des mondes qu’ils peuvent partager les uns avec les autres. HappyExplore a un personnage qui s’appelle «Pixel Pioneer», qui enseigne aux utilisateurs comment être des explorateurs responsables. Tous les utilisateurs sont encouragés à accepter la «clause de bienveillance» qui leur permet d’apprendre à se comporter en ligne de manière bienveillante et sûre et de promettre de le faire. Pixel Pioneer explique également l’importance des décisions de modération et de sécurité aux utilisateurs à mesure qu’ils explorent la plateforme, notamment la raison pour laquelle ils devraient bien réfléchir avant de partager leurs créatures ou leurs mondes.

8.3. Suivi et évaluation

89. La Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient adopter des pratiques efficaces de suivi et d’évaluation pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service aux fins de l’article 28, paragraphe 1, du règlement (UE) 2022/2065. Il s’agit des mesures suivantes, sans toutefois s’y limiter: 8.4. Transparence

90. La Commission rappelle les obligations de transparence prévues aux articles 14, 15 et 24 du règlement (UE) 2022/2065. Compte tenu des stades de développement et du développement des capacités des mineurs, des considérations supplémentaires concernant la transparence du fonctionnement d’une plateforme en ligne sont nécessaires afin de garantir le respect de l’article 28, paragraphe 1, dudit règlement.

91. La Commission estime que les fournisseurs de plateformes en ligne accessibles aux mineurs devraient permettre aux mineurs d’accéder facilement à toutes les informations nécessaires et pertinentes sur le fonctionnement de leurs services afin de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité sur leurs services. Elle estime que les fournisseurs de plateformes en ligne devraient mettre à la disposition des mineurs et, le cas échéant, de leurs tuteurs, sur une interface accessible sur leurs plateformes en ligne, les informations suivantes:
Bonnes pratiques

HappyTerms est une plateforme en ligne destinée aux jeunes de 13 à 18 ans. Elle offre aux mineurs la possibilité de participer à des communautés et d’échanger des idées et des informations sur des intérêts communs. HappyTerms affiche des informations sur ses conditions générales au moyen de rubriques claires accompagnées d’icônes explicatives et d’images colorées. Les règles sont réparties en sections brèves et faciles à lire et un langage simple est utilisé pour les expliquer. La plateforme présente également des infographies qui aident les mineurs à comprendre ce qu’ils acceptent. Ces infographies s’affichent lorsqu’elles sont pertinentes si une fonction ou un paramètre est modifié. Les utilisateurs peuvent également trouver les règles en cliquant sur «Ce que je dois savoir», une icône qui oriente l’utilisateur vers les règles pertinentes, les outils connexes et les liens utiles figurant sur n’importe quelle partie de la plateforme. HappyTerms propose également un quiz interactif permettant aux mineurs de vérifier s’ils ont compris les conditions générales.

9. EXAMEN

92. La Commission examinera ces lignes directrices dès que cela sera nécessaire et au plus tard après une période de 12 mois, en tenant compte de l’expérience pratique acquise dans le cadre de l’application de l’article 28, paragraphe 1, du règlement (UE) 2022/2065 et du rythme des évolutions technologiques, sociétales et réglementaires dans ce domaine.

93. La Commission encouragera les fournisseurs de plateformes en ligne accessibles aux mineurs, les coordinateurs pour les services numériques, les autorités nationales compétentes, la communauté des chercheurs et les organisations de la société civile à contribuer à ce processus. À la suite de cet examen, la Commission peut, en consultation avec le Comité européen des services numériques, décider de modifier les présentes lignes directrices.
                
(1) Dans les présentes lignes directrices, on entend par «enfant», «enfants» et «mineur» une personne de moins de 18 ans.
(2) Dans les présentes lignes directrices, on entend par «tuteurs» les personnes exerçant des responsabilités parentales.
(3) Les contenus illicites comprennent, sans toutefois s’y limiter, les contenus représentant le trafic de stupéfiants, des contenus terroristes et extrémistes violents et des contenus à caractère pédopornographique. Le règlement (UE) 2022/2065 (règlement sur les services numériques) ne définit pas ce qui constitue un contenu illicite, mais d’autres législations le font, que ce soit au niveau de l’Union ou au niveau national.
(4) L’annexe I des présentes lignes directrices présente une typologie des risques auxquels les mineurs sont exposés lorsqu’ils accèdent aux plateformes en ligne, sur la base d’un cadre élaboré par l’OCDE.
(5) Voir la section 6.1 relative à la vérification de l’âge.
(6) Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) (JO L 277 du 27.10.2022, p. 1, ELI: http:// data.europa.eu/eli/reg/2022/2065/oj).
(7) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) (JO L 119 du 4.5.2016, p. 1, ELI: http://data.europa.eu/eli/reg/2016/679/oj).
(8) L’article 3 du règlement (UE) 2022/2065 définit une «plateforme en ligne» comme «un service d’hébergement qui, à la demande d’un destinataire du service, stocke et diffuse au public des informations, à moins que cette activité ne soit une caractéristique mineure et purement accessoire d’un autre service ou une fonctionnalité mineure du service principal qui, pour des raisons objectives et techniques, ne peut être utilisée sans cet autre service, et pour autant que l’intégration de cette caractéristique ou de cette fonctionnalité à l’autre service ne soit pas un moyen de contourner l’applicabilité du présent règlement».
(9) La recommandation 2003/361/CE définit une petite entreprise comme une entreprise qui occupe moins de 50 personnes et dont le chiffre d’affaires annuel et/ou le total du bilan annuel n’excède pas 10 millions d’EUR. Une micro-entreprise est une entreprise qui occupe moins de 10 personnes et dont le chiffre d’affaires annuel ou le total du bilan annuel n’excède pas 2 millions d’EUR. La Commission rappelle ici le considérant 10 du règlement (UE) 2022/2065 qui indique que le règlement (UE) 2022/2065 est sans préjudice de la directive (UE) 2010/13. La directive susmentionnée impose à tous les fournisseurs de plateformes de partage de vidéos, qu’ils soient qualifiés de micro-entreprise ou de petite entreprise, de mettre en place et d’exploiter des systèmes de vérification de l’âge pour les utilisateurs de plateformes de partage de vidéos en ce qui concerne les contenus susceptibles de nuire au développement physique ou mental des mineurs.
(10) Il s’agit notamment des obligations figurant dans les dispositions suivantes du règlement (UE) 2022/2065: l’article 14 relatif aux conditions générales, les articles 16 et 17 relatifs aux mécanismes de notification et d’action et à l’exposé des motifs, l’article 25 relatif à la conception et à l’organisation des interfaces en ligne, les articles 15 et 24 relatifs à la transparence, l’article 26 relatif à la publicité, l’article 27 relatif aux systèmes de recommandation et l’article 44 relatif aux normes.
(11) Cela inclut, sans toutefois s’y limiter, les dispositions suivantes du règlement (UE) 2022/2065: Les articles 34 et 35 relatifs à l’évaluation des risques et à l’atténuation des risques, l’article 38 relatif aux systèmes de recommandation, l’article 40 relatif à l’accès aux données et au contrôle des données et l’article 44, point j), relatif aux normes applicables aux mesures ciblées destinées à protéger les mineurs en ligne.
(12) Cela inclut, sans toutefois s’y limiter, les articles 34 et 35 relatifs à l’évaluation des risques et à l’atténuation des risques, l’article 38 relatif aux systèmes de recommandation et l’article 40 relatif à l’accès aux données et au contrôle des données.
(13) Ces actes sont notamment la stratégie pour un internet mieux adapté aux enfants, la directive 2010/13/UE (ci-après dénommée «directive Services de médias audiovisuels»), le règlement (UE) 2024/1689 (ci-après dénommé «règlement sur l’IA»), le règlement (UE) 2016/679 (ci-après dénommé «RGPD»), la directive 2011/93/UE relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants, la directive 2005/29/CE sur les pratiques commerciales déloyales (ci-après dénommée «DPCD»), le portefeuille européen d’identité numérique et la solution à court terme concernant la vérification de l’âge, le prochain plan d’action contre le cyberharcèlement, l’enquête à l’échelle de l’UE sur les incidences plus larges des médias sociaux sur le bien-être, la stratégie ProtectEU, la feuille de route de l’UE en matière de lutte contre le trafic de drogue et la criminalité organisée, le forum de l’UE sur l’internet, la stratégie de l’UE en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfantset la stratégie de l’UE visant à lutter contre la traite des êtres humains 2021-2025. En outre, le règlement (UE) 2022/2065 est sans préjudice des règles établies par le droit de l’Union en matière de protection des consommateurs et de sécurité des produits, y compris les règlements (UE) 2017/2394 et (UE) 2019/1020 et les directives 2001/95/CE et 2013/11/UE. La directive 2005/29 relative aux pratiques commerciales déloyales, notamment ses articles 5 à 9, protège également les mineurs et, par exemple, l’annexe I, point 28, interdit, dans une publicité, d’inciter directement les enfants à acheter ou à persuader leurs parents ou d’autres adultes de leur acheter le produit faisant l’objet de la publicité. La Commission rappelle également son bilan de qualité du droit de l’Union en matière de protection des consommateurs pour ce qui est de l’équité numérique.
(14) L’adoption et la mise en oeuvre des mesures énoncées dans les présentes lignes directrices n’impliquent pas le respect du RGPD ou de toute autre législation applicable en matière de protection des données. Afin de déterminer si l’article 28, paragraphe 1, du règlement (UE) 2022/2065 est respecté, les autorités responsables sont donc encouragées à coopérer avec les autorités chargées de la protection des données.
(15) La Commission a élaboré les lignes directrices en menant des recherches documentaires approfondies, en recueillant les commentaires des parties prenantes au moyen d’un appel à contributions, d’ateliers et d’une consultation publique ciblée. La Commission s’est également appuyée sur l’expertise du Centre européen pour la transparence des algorithmes tout au long des processus. En outre, la Commission a consulté des jeunes, notamment de jeunes ambassadeurs de la stratégie pour un internet mieux adapté aux enfants, et a organisé des groupes de réflexion avec des enfants dans sept États membres, avec le soutien des centres pour un internet plus sûr.
(16) Il s’agit, par exemple, des directives et règlements cités à la note de bas de page 13, des lignes directrices à venir du comité européen de la protection des données (CEPD) concernant le traitement des données à caractère personnel des mineurs conformément au règlement (UE) 2016/679 (RGPD).
(17) An Coimisiún um Chosaint Sonraí. (2021). Fundamentals for a child-oriented approach to data processing(Principes fondamentaux pour une approche du traitement des données axée sur les enfants). Disponible à l’adresse suivante: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/ Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán. (2024). Online safety code(Code de sécurité en ligne). Disponible à l’adresse suivante: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety- Code.pdf; IMY (autorité suédoise chargée de la protection de la vie privée). (2021). The rights of children and young people on digital platforms(Les droits des enfants et des jeunes sur les plateformes numériques). Disponible à l’adresse suivante: https://www.imy.se/en/publications/the-rights-of-children- and-young-people-on-digital-platforms/; Ministère néerlandais de l’intérieur et des relations au sein du Royaume. (2022). Code for children's rights(Code des droits de l’enfant). Disponible à l’adresse suivante: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor- Kinderrechten-EN.pdfCNIL. (2021). La CNIL publie 8 recommandations pour renforcer la protection des mineurs en ligne. Disponible à l’adresse suivante: https:// www.cnil.fr/fr/la-cnil-publie-8-recommandations-pour-renforcer-la-protection-des-mineurs-en-ligne; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs (Le mandataire indépendant chargé des questions relatives aux abus sexuels sur enfants). (s.d.). Rechtsfragen Digitales. Disponible à l’adresse suivante: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales; CEN- CENELEC (2023) Workshop Agreement 18016 Age Appropriate Digital Services Framework(Accord d’atelier 18016 sur le cadre de services numériques adaptés à l’âge); disponible à l’adresse: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; OCDE. (2021). Children in the digital environment - Revised typology of risks(Les enfants dans l’environnement numérique - typologie révisée des risques). Disponible à l’adresse suivante: https://www.oecd.org/en/publications/children-in-the-digital- environment_9b8f222e-en.html.
(18) Ces droits sont définis dans l’observation générale no25 du Comité des droits de l’enfant des Nations unies pour ce qui est de l’environnement numérique. Haut-Commissariat aux droits de l’homme. (2021). Observation générale no25 (2021) sur les droits de l’enfant en relation avec l’environnement numérique. Disponible à l’adresse suivante: https://www.ohchr.org/fr/documents/general- comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation.
(19) Les enfants ont droit à la protection et aux soins nécessaires à leur bien-être (article 24 de la Charte).
(20) Les enfants peuvent exprimer leur opinion librement. Celle-ci est prise en considération pour les sujets qui les concernent, en fonction de leur âge et de leur maturité (article 24 de la Charte).
(21) À cet égard, la Commission rappelle l’importance de l’accessibilité, y compris conformément à la directive (UE) 2016/2102 du Parlement européen et du Conseil du 26 octobre 2016 relative à l’accessibilité des sites internet et des applications mobiles des organismes du secteur public (ci-après dénommée «directive relative à l’accessibilité des sites internet»), ainsi que de la participation des enfants tout au long de la conception, de la mise en oeuvre et de l’évaluation de toutes les mesures de sûreté, de sécurité et de protection de la vie privée en ligne relatives aux enfants.
(22) Conformément à l’article 25 du RGPD, les opérateurs traitant des données à caractère personnel de mineurs doivent déjà mettre en oeuvre des mesures organisationnelles et techniques appropriées pour protéger les droits de la personne concernée (protection des données dès la conception et protection des données par défaut). Cette obligation est mise en oeuvre par les autorités compétentes en matière de protection des données, conformément à l’article 51 du RGPD. Voir les lignes directrices 4/2019 du CEPD relatives à l’article 25 du RGPD – Protection des données dès la conception et protection des données par défaut. Disponible à l’adresse suivante: https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-42019-article-25-data-protection-design-and_fr.
(23) OCDE (2024), Towards Digital Safety by Design for Children(Sur la voie de la sécurité numérique dès la conception pour les enfants). Disponible à l’adresse suivante: https://doi.org/10.1787/c167b650-en.
(24) Cela nécessite d’accorder la priorité aux caractéristiques, fonctionnalités, contenus ou modèles compatibles avec le développement des capacités de l’enfant, et de tenir compte des différences socioculturelles. Une conception adaptée à l’âge est essentielle pour assurer la protection de la vie privée, la sûreté et la sécurité des enfants: par exemple, en l’absence d’informations adaptées à l’âge, les enfants peuvent ne pas être en mesure de comprendre, d’utiliser ou de bénéficier de dispositifs, de paramètres ou d’autres outils relatifs à la protection de la vie privée ou à la sécurité. CEN-CENELEC (2023) Workshop Agreement 18016 Age Appropriate Digital Services Framework(Accord d’atelier 18016 sur le cadre de services numériques adaptés à l’âge), disponible à l’adresse suivante: https://www. cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; Âge et stades de développement disponibles, entre autres, en tant qu’annexe au Code néerlandais des droits de l’enfant. Disponible à l’adresse suivante: https://codevoorkinderrechten.waag.org/wp-content/ uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.
(25) Article 3 de la CNUDE; Article 24 de la Charte: Le droit de l’enfant à ce que son intérêt supérieur soit évalué et envisagé comme une considération primordiale lorsque différents intérêts sont pris en considération, en vue de prendre une décision quant à la problématique concernant un enfant, un groupe d’enfants identifiés ou non identifiés ou des enfants en général. La détermination de l’intérêt supérieur, le cas échéant, ne devrait pas être effectuée par les entreprises, mais sur la base de l’action des autorités compétentes. LSE Digital Futures for Children (2024), The Best interest of the child in the digital environment(L’intérêt supérieur de l’enfant dans l’environnement numérique). Disponible à l’adresse suivante: https://www.digital-futures-for-children.net/digitalfutures-assets/ digitalfutures-documents/Best-Interests-of-the-Child-FINAL.pdf.
(26) Non-discrimination: les droits de l’enfant s’appliquent à tout enfant, sans aucune discrimination, conformément à l’article 21 de la Charte. En vertu de l’article 24 de la Charte, les enfants ont droit à la protection et aux soins nécessaires à leur bien-être; les enfants peuvent exprimer leur opinion librement. Celle-ci est prise en considération pour les sujets qui les concernent, en fonction de leur âge et de leur maturité; dans tous les actes relatifs aux enfants, qu'ils soient accomplis par des autorités publiques ou des institutions privées, l'intérêt supérieur de l'enfant doit être une considération primordiale. Comme toute personne, les enfants ont aussi le droit à la vie (article 2 de la Charte) et le droit au respect de leur intégrité physique et mentale (article 3 de la Charte). Les droits de l’enfant sont également consacrés et détaillés dans la convention des Nations unies relative aux droits de l’enfant ci-après la «CNUDE»), que tous les États membres ont ratifiée.
(27) La Commission rappelle en particulier les lignes directrices du CEPD concernant l’analyse d’impact relative à la protection des données (AIPD) et déterminant si le traitement est «susceptible d’engendrer un risque élevé» aux fins du règlement (UE) 2016/679.
(28) Citons, par exemple, l’introduction de nouvelles fonctionnalités ayant une incidence sur l’interaction des utilisateurs, les modifications des systèmes de recommandation, les paramètres des comptes, la modération, les signalements ou d’autres caractéristiques de conception qui modifieraient sensiblement l’expérience des enfants sur la plateforme, des changements au niveau des pratiques de collecte des données, l’expansion pour atteindre de nouveaux groupes d’utilisateurs, l’intégration d’outils d’IA générative ou des changements liés aux mesures de vérification de l’âge ou aux fournisseurs de telles mesures.
(29) UNICEF. (2024). Children's rights impact assessment: A tool to support the design of AI and digital technology that respects children's rights (Évaluation de l’impact sur les droits de l’enfant: un outil destiné à soutenir la conception de technologies numériques et d’IA qui respectent les droits de l’enfant).Disponible à l’adresse suivante: https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/D- CRIA; (2021) MO-CRIA: Child Rights Impact Self-Assessment Tool for Mobile Operators(Outil d’autoévaluation de l’impact sur les droits de l’enfant destiné aux opérateurs mobiles), disponible à l’adresse suivante: https://www.unicef.org/reports/mo-cria-child-rights-impact- self-assessment-tool-mobile-operators.
(30) Ministère néerlandais de l’intérieur et des relations au sein du Royaume (BZK). (2024), Child Rights Impact Assessment (Fillable Form)[Évaluation del’impact sur les droits de l’enfant (formulaire à remplir)]. Disponible à l’adresse suivante: https://www. nldigitalgovernment.nl/document/childrens-rights-impact-assessment-fill-in-document/
(31) Voir en particulier le chapitre 14 du document intitulé Workshop Agreement 18016 Age Appropriate Digital Services Framework(Accord d’atelier 18016 sur le cadre de services numériques adaptés à l’âge), CEN-CENELEC (2023), disponible à l’adresse suivante: https:// www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.
(32) Commission européenne: Direction générale des réseaux de communication, du contenu et des technologies, Center for Law and Digital Technologies (eLaw) [Centre pour le droit et les technologies numériques (législation en ligne)], LLM, Raiz Shaffique, M. et van der Hof, S. (2024). Mapping age assurance typologies and requirements – Research report(Cartographie des typologies et des exigences en matière de vérification de l’âge – Rapport de recherche). Disponible à l’adresse suivante: https://data.europa.eu/doi/10.2759/455338.
(33) Ibidem; CEN-CENELEC. (2023). Workshop Agreement 18016 Age Appropriate Digital Services Framework(Accord d’atelier 18016 sur le cadre de services numériques adaptés à l’âge); https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.
(34) L’examen des outils permettant d’évaluer les risques et l’impact sur les droits de l’enfant énoncés à la section 5 relative à l’examen des risques peut aider les fournisseurs de plateformes en ligne à réaliser cette évaluation.
(35) Voir la déclaration 1/2025 du CEPD sur le contrôle de l’âge. Disponible à l’adresse suivante: https://www.edpb.europa.eu/our-work- tools/our-documents/statements/statement-12025-age-assurance_en.
(36) Il est possible de recenser ces risques au moyen de l’examen des risques décrit à la section 5.
(37) Dans ce contexte, la Commission rappelle les obligations qui incombent aux États membres en vertu de la directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d’information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l’information (JO L 241 du 17.9.2015, p. 1, ELI: http://data.europa.eu/eli/ dir/2015/1535/oj) et les procédures applicables aux projets de règles techniques qui y sont établies.
(38) La Commission teste actuellement une solution européenne de vérification de l’âge visant à faciliter ce processus selon la norme requise dans les présentes lignes directrices, avant que le portefeuille européen d’identité numérique ne soit disponible. D’autres solutions compatibles avec la norme définie dans les présentes lignes directrices peuvent être disponibles sur le marché ou dans certains États membres, mais pas dans d’autres. Les fournisseurs de plateformes en ligne qui prouvent une telle situation devraient de toute façon commencer à tester et à utiliser des méthodes de vérification de l’âge qui respectent les critères énoncés à la section 6.1.4 dès qu’elles seront disponibles. Cette période transitoire peut être adaptée en fonction du déploiement de la solution européenne de vérification de l’âge.
(39) . Une vue d’ensemble des différentes méthodes d’estimation de l’âge est disponible auprès de la Commission européenne: Direction générale des réseaux de communication, du contenu et des technologies, Center for Law and Digital Technologies (eLaw) [Centre pour le droit et les technologies numériques (législation en ligne)], LLM, Raiz Shaffique, M. et van der Hof, S. (2024) Mapping age assurance typologies and requirements – Research report(Cartographie des typologies et des exigences en matière de vérification de l’âge – Rapport de recherche). Disponible à l’adresse suivante: https://data.europa.eu/doi/10.2759/455338.
(40) Le prestataire de services doit seulement savoir si l’âge de l’utilisateur est supérieur ou inférieur à un seuil défini. Cette détermination devrait être mise en oeuvre par une approche par jeton fondée sur la participation d’un prestataire tiers, dans laquelle le prestataire de services ne voit que le résultat fonctionnel du processus de vérification de l’âge (par exemple, «âge supérieur» ou «âge inférieur au seuil défini»). Un prestataire tiers effectue une vérification de l’âge et fournit à l’utilisateur un «jeton d’identification d’âge» que l’utilisateur peut présenter au prestataire de services sans avoir besoin de prouver à nouveau son âge. Ce jeton peut contenir différentes caractéristiques et informations relatives à l’utilisateur et indiquer quand, où ou comment le contrôle de l’âge a été effectué. Voir aussi la déclaration 1/2025 du CEPD sur le contrôle de l’âge en ligne. Disponible à l’adresse suivante: https://www.edpb.europa.eu/our- work-tools/our-documents/statements/statement-12025-age-assurance_en.
(41) Une preuve à divulgation nulle de connaissance est un protocole dans lequel une partie (l’auteur) peut démontrer à une autre partie (le vérificateur) qu’une déclaration donnée est vraie, sans transmettre au vérificateur aucune information allant au-delà de la seule validité de cette déclaration.
(42) Conformément au chapitre II, section 1, du règlement (UE) no910/2014, tel que modifié par le règlement (UE) 2024/1183.
(43) La norme de référence de l’UE est disponible à l’adresse suivante: https://ageverification.dev.
(44) Ces méthodes sont fortement alignées sur l’appel du CEPD, au point 34 de sa déclaration 1/2025 sur le contrôle de l’âge en ligne, en faveur de solutions qui empêchent la reliabilité et le profilage. Des recherches universitaires sont également favorables à ces approches respectueuses de la vie privée qu’elles jugent évolutives, inclusives et efficaces pour réduire au minimum les risques pour les mineurs tout en respectant les droits fondamentaux. Disponible à l’adresse suivante: https://www.edpb.europa.eu/our-work-tools/our- documents/statements/statement-12025-age-assurance_en.
(45) Lorsque la vérification de l’âge est utilisée dans de tels cas, elle serait sans préjudice de toute obligation distincte incombant au fournisseur, par exemple son obligation de déterminer si le mineur en tant que consommateur était suffisamment âgé pour conclure un contrat légalement. Cela dépend du droit applicable de l’État membre dans lequel le mineur réside.
(46) Dans certains cas, il se peut que le prestataire puisse vérifier que le mineur a été inscrit par ses tuteurs.
(47) Il est possible de recenser ces risques au moyen de l’examen des risques décrit à la section 5.
(48) Tous les exemples de bonnes et de mauvaises pratiques figurant dans les présentes lignes directrices font référence à des plateformes en ligne fictives.
(49) Le fournisseur peut souhaiter intégrer ce mécanisme dans son système interne de traitement des réclamations au titre de l’article 20. Voir également la section 7.1 du présent document.
(50) Le manque de précision d’une vérification de l’âge peut entraîner l’exclusion des destinataires qui réunissent les conditions requises pour utiliser un service ou permettre à des bénéficiaires qui ne réunissent pas les conditions requises d’accéder au service malgré la mesure de vérification de l’âge qui est en place.
(51) Une vérification inadéquate de l’âge peut entraîner des risques excessifs pour les droits des destinataires à la protection des données et à la vie privée, tandis que la vérification générale de l’âge pourrait limiter l’accès aux services au-delà de ce qui est effectivement nécessaire.
(52) Voir le considérant 71 du règlement (UE) 2022/2065 qui souligne que les fournisseurs sont tenus de respecter le principe de minimisation des données prévu à l’article 5, paragraphe 1, point c), du règlement (UE) 2016/679.
(53) Voir les points 2.3 et 2.4 de la déclaration 1/2025 du CEPD sur le contrôle de l’âge en ligne. Disponible à l’adresse suivante: https:// www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_en.
(54) Commission européenne: Direction générale des réseaux de communication, du contenu et des technologies, Center for Law and Digital Technologies (eLaw) [Centre pour le droit et les technologies numériques (législation en ligne)], LLM, Raiz Shaffique, M. et van der Hof, S. (2024) Mapping age assurance typologies and requirements – Research report(Cartographie des typologies et des exigences en matière de vérification de l’âge – Rapport de recherche). Disponible à l’adresse suivante: https://data.europa.eu/doi/10.2759/455338.
(55) Cela est sans préjudice des exigences supplémentaires découlant d’autres actes législatifs, tels que l’article 12 du règlement (UE) 2016/679.
(56) Comme indiqué à la section 6.1, la Commission estime que l’autodéclaration ne constitue pas une méthode appropriée de vérification de l’âge permettant de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, conformément à l’article 28, paragraphe 1, du règlement (UE) 2022/2065.
(57) Willis, L. E. (2014). Why not privacy by default?(Pourquoi ne pas respecter la vie privée par défaut?) Berkeley Technology Law Journal, 29(1), 61. Disponible à l’adresse suivante: https://www.btlj.org/data/articles2015/vol29/29_1/29-berkeley-tech-l-j-0061-0134.pdf; Cho, H., Roh, S., et Park, B. (2019). Of promoting networking and protecting privacy: Effects of defaults and regulatory focus on social media users’ preference settings(Promotion des réseaux et de la protection de la vie privée: les effets des paramètres par défaut et des priorités réglementaires sur les paramètres de préférence des utilisateurs sur les médias sociaux). Computers in Human Behavior, 101, 1-13. Disponible à l’adresse suivante: https://doi.org/10.1016/j.chb.2019.07.001. Parmi les paramètres susceptibles de poser un risque pour la vie privée, la sûreté ou la sécurité des mineurs figurent, sans toutefois s’y limiter, l’activation du partage de localisation, le passage à un profil public, le fait de permettre à d’autres utilisateurs de voir ses contacts ou ses listes d’abonnés, le partage de fichiers médias et le fait de diffuser un flux en direct ou d’y participer.
(58) Les stades de développement et les niveaux de maturité et de compréhension des mineurs varient en fonction de leur âge. Cet état de fait est reconnu, entre autres, dans l’observation générale no25 du Comité des droits de l’enfant des Nations unies sur les droits de l’enfant en relation avec l’environnement numérique, 2021, paragraphes 19 à 21. Un tableau pratique sur les âges et les stades de développement est disponible, entre autres, en tant qu’annexe au Code néerlandais des droits de l’enfant. Disponible à l’adresse suivante: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.
(59) La Commission rappelle que la directive 2005/29/CE interdit les pratiques commerciales déloyales, y compris dans son annexe I, point 7, affirmant à tort qu’un produit ne sera disponible que pour une durée très limitée, ou qu’il ne sera disponible à des conditions particulières que pendant une période très limitée, afin de déclencher une décision immédiate et de ne pas donner aux consommateurs la possibilité ou le temps suffisants pour faire un choix éclairé.
(60) La Commission rappelle que les fournisseurs de systèmes d’IA destinés à interagir directement avec des personnes physiques sont tenus de veiller à ce que ceux-ci soient conçus et développés de manière que les personnes physiques concernées soient informées qu’elles interagissent avec un système d’IA conformément à l’article 50, paragraphe 1, du règlement (UE) 2024/1689 (ci-après dénommé «règlement sur l’IA»). Toute mesure prise sur la base de cette recommandation devrait s’entendre conformément aux mesures prises pour se conformer à l’article 50, paragraphe 1, du règlement sur l’IA, y compris son propre régime de contrôle et d’exécution, et sans préjudice de ces mesures.
(61) La Commission rappelle les lignes directrices sur les pratiques interdites en matière d’intelligence artificielle établies par le règlement (UE) 2024/1689 (règlement sur l’IA).
(62) Aux fins de la présente section, la Commission rappelle que, conformément à l’article 3, point s), du règlement (UE) 2022/2065, les systèmes de recommandation comprennent des systèmes déployés pour la recommandation de contenus, la recommandation de produits, la recommandation de publicités, la recommandation de contacts, la saisie semi-automatique lors des recherches et les résultats.
(63) Munn, L. (2020). Angry by design: Toxic communication and technical architectures(Quand la conception engendre de la colère: communication toxique et architectures techniques). Humanities and Social Sciences Communications, 7(53). Disponible à l’adresse suivante: https://doi.org/10.1057/s41599-020-00550-7; Milli, S. et al. (2025). Engagement, user satisfaction, and the amplification of divisive content on social media(Engagement, satisfaction des utilisateurs et amplification des contenus clivants sur les médias sociaux). PNAS Nexus, 4(3) pgaf062. Disponible à l’adresse suivante: https://doi.org/10.1093/pnasnexus/pgaf062; Piccardi, T. et al. (2024). Social Media Algorithms Can Shape Affective Polarization via Exposure to Antidemocratic Attitudes and Partisan Animosity(Les algorithmes des médias sociaux peuvent donner lieu à une polarisation affective en raison d’une exposition à des attitudes antidémocratiques et à l’animosité partisane). Disponible à l’adresse suivante: 10.48550/arXiv.2411.14652; Harriger, J. A., Evans, J. L., Thompson, J. K., et Tylka, T. L. (2022). The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms(Les dangers des phénomènes d’aspiration mentale: réflexions sur les médias sociaux en tant que passerelles vers un monde factice, basé sur des corps retouchés et sur le risque de troubles de l’alimentation, et le rôle des algorithmes). Body Image, 41, 292-297. Disponible à l’adresse suivante: https://doi.org/10.1016/j.bodyim.2022.03.007; Amnesty International. (2023). Poussé·e·s vers les ténèbres. Comment le fil «Pour toi» de TikTok encourage l’automutilation et les idées suicidaires. Disponible à l’adresse suivante: https://www.amnesty.org/fr/documents/pol40/7350/2023/fr/Hilbert, M., Ahmed, S., Cho, J., et Chen, Y. (2024). #BigTech @Minors: Social media algorithms quickly personalize minors’ content, lacking equally quick protection(#BigTech @Mineurs: les algorithmes des médias sociaux personnalisent rapidement les contenus des mineurs, sans assurer de protection aussi rapidement). Disponible à l’adresse suivante: http://dx.doi.org/10.2139/ssrn.4674573. Sala, A., Porcaro, L., Gómez, E. (2024). Social Media Use and adolescents' mental health and well-being: An umbrella review(Utilisation des médias sociaux et santé mentale et bien-être des adolescents: une analyse globale), Computers in Human Behavior Reports, volume 14, 100404, ISSN 2451-9588. Disponible à l’adresse suivante: https://doi.org/10.1016/j.chbr.2024.100404.
(64) La Commission rappelle également que d’autres dispositions du droit de l’Union ou du droit national peuvent avoir une incidence sur la conception et le fonctionnement des systèmes de recommandation, en vue de garantir la protection des intérêts juridiques couverts par lesdites dispositions, qui contribuent à un niveau élevé de protection de la vie privée, de sécurité et de protection des droits fondamentaux en ligne.
(65) Par exemple, les retours d’information des mineurs concernant des contenus, des activités, des personnes, des comptes ou des groupes qui les mettent mal à l’aise ou qu’ils souhaitent voir plus ou moins devraient être pris en considération dans le classement des systèmes de recommandation. Ces retours d’information pourraient inclure des options telles que «Voir plus/moins», «Je ne souhaite pas voir/Ça ne m’intéresse pas», «Je ne souhaite pas voir le contenu de ce compte», «Cela me met mal à l’aise», «Masquer cela», «Je n’aime pas cela», ou «Ce n’est pas pour moi». Voir aussi la section 7.1 relative aux signalements d’utilisateurs, aux retours d’information et aux réclamations des présentes lignes directrices.
(66) Des exemples de termes figurent dans l’ensemble de connaissances sur la lutte contre les ventes de drogues en ligne qui a été élaboré dans le cadre du forum de l’UE sur l’internet et rassemble plus de 3 500 termes, émojis et mots d’argot que les trafiquants de drogue utilisent pour vendre des stupéfiants en ligne - voir la référence dans la feuille de route de l’UE en matière de lutte contre le trafic de drogue et la criminalité organisée (COM(2023) 641 final).
(67) Voir article 27, paragraphes 1 et 3, du règlement (UE) 2022/2065.
(68) Comité des droits de l’enfant des Nations unies, Observation générale no25 (112): UNICEF. (2019). Le marketing numérique et les droits de l’enfant. Disponible à l’adresse suivante: https://www.unicef.org/childrightsandbusiness/media/256/file/Discussion-Paper- Digital-Marketing.pdf.
(69) Par conséquent, les mineurs ont du mal, par exemple, à faire la distinction entre les contenus commerciaux et non commerciaux, à résister à la pression exercée par leurs pairs pour acheter des contenus intégrés à un jeu ou à une application qui sont attrayants pour les mineurs, voire nécessaires pour progresser dans le jeu, ou à comprendre la valeur monétaire réelle des monnaies intégrées aux applications, ou que la présence des contenus les plus prisés, tels que des mises à niveau, des cartes et des avatars, peut être moins fréquente dans les achats aléatoires intégrés aux applications ou aux jeux que les contenus moins prisés.
(70) M. Ganapini, E. Panai (2023) An Audit Framework for Adopting AI-Nudging on Children(Cadre d’audit pour l’adoption d’incitations fondées sur l’IA pour les enfants). Disponible à l’adresse suivante: https://arxiv.org/pdf/2304.14338.
(71) La Commission rappelle qu’en vertu de l’article 2, paragraphe 4, du règlement (UE) 2022/2065, elle est sans préjudice de la directive 2010/13/UE, du droit de l’Union sur le droit d’auteur et les droits voisins, du règlement (UE) 2021/784, du règlement (UE) 2019/1148, du règlement (UE) 2019/1150, du droit de l’Union en matière de protection des consommateurs et de sécurité des produits (y compris la directive 2005/29/CE et le droit de l’Union en matière de protection des données à caractère personnel), du droit de l’Union dans le domaine de la coopération judiciaire en matière civile, du droit de l’Union dans le domaine de la coopération judiciaire en matière pénale et d’une directive établissant des règles harmonisées concernant la désignation de représentants légaux aux fins de la collecte de preuves en matière pénale. En outre, elle n’a aucune incidence sur l’application de la directive 2000/31/CE. En vertu de l’article 91 du règlement (UE) 2022/2065, la Commission est chargée d’évaluer et de faire rapport, au plus tard le 17 novembre 2025, sur la manière dont le présent règlement interagit avec d’autres actes juridiques, en particulier les actes susmentionnés.
(72) L’UNICEF fournit des ressources et des orientations destinées aux plateformes liées à l’écosystème du marketing numérique, notamment le document intitulé Discussion Paper on digital marketing and children’s rights(document de réflexion sur le marketing numérique et les droits de l’enfant), UNICEF (2025), disponible à l’adresse suivante: https://www.unicef.org/childrightsandbusiness/ workstreams/responsible-technology/digital-marketing.
(73) La Commission rappelle que, par exemple, les professionnels sont soumis à l’interdiction prévue à l’article 5, paragraphe 1, de la directive 2005/29/CE de se livrer à des pratiques commerciales déloyales et à l’interdiction figurant à l’annexe I, point 28, de la directive, d’inciter directement les enfants à acheter des produits faisant l’objet d’une publicité ou à persuader leurs parents ou d’autres adultes de le faire. Ce comportement commercial est considéré, en toutes circonstances, comme déloyal.
(74) L’observation générale no25 (2021) du Comité des droits de l’enfant sur les droits de l’enfant en relation avec l’environnement numérique prévoit que l’intérêt supérieur de l’enfant devrait être «une considération primordiale [lors de la réglementation de] la publicité et [du] marketing destinés et accessibles aux enfants. Le parrainage, le placement de produits et toutes les autres formes de contenus à caractère commercial doivent être clairement distingués de tout autre contenu et ne doivent pas perpétuer les stéréotypes liés au genre ou les stéréotypes raciaux».
(75) La Commission rappelle que de tels systèmes d’IA pourraient constituer des pratiques interdites en vertu de l’article 5, paragraphe 1, point b), du règlement (UE) 2024/1689 s’ils exploitent les vulnérabilités des enfants d’une manière qui cause ou est raisonnablement susceptible de causer un préjudice important. Toute mesure prise conformément à cette recommandation devrait aller au-delà des mesures prises pour empêcher l’application de cette interdiction. La surveillance et l’exécution des mesures prises pour se conformer à l’article 50, paragraphe 1, du règlement (UE) 2024/1689 restent de la responsabilité des autorités compétentes en vertu dudit règlement.
(76) La Commission rappelle que, conformément aux articles 6 et 7 de la directive 2005/29/CE, la divulgation de la nature commerciale doit être claire et appropriée, compte tenu du support sur lequel la commercialisation a lieu, y compris le contexte,le placement, le calendrier, la durée, la langue ou le public cible. Voir également les orientations concernant l’interprétation et l’application de la directive 2005/29/CE.
(77) La Commission rappelle que l’article 7, paragraphe 2, et l’annexe I, point 22, de la directive 2005/29/CE interdisent de faussement affirmer ou de donner l’impression que le professionnel n’agit pas à des fins qui entrent dans le cadre de son activité commerciale, industrielle, artisanale ou libérale, ou de se présenter faussement comme un consommateur. Elle rappelle également la directive 2010/13/UE qui interdit d’inciter directement les mineurs à l’achat ou à la location d’un produit ou d’un service, de les inciter à persuader leurs parents ou des tiers d’acheter les biens ou services faisant l’objet de la publicité, d’exploiter la confiance particulière que les mineurs ont dans leurs parents, leurs enseignants ou d’autres personnes. Conformément au considérant 10 du règlement (UE) 2022/2065, le règlement devrait être sans préjudice du droit de l’Union en matière de protection des consommateurs, y compris de la directive 2005/29/CE relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur.
(78) La Commission rappelle également que la directive 2010/13/UE prévoit que les plateformes de partage de vidéos doivent disposer d’une fonctionnalité permettant de déclarer que les contenus chargés contiennent des communications commerciales audiovisuelles.
(79) La Commission rappelle que la notion de monnaie virtuelle est définie dans la directive (UE) 2018/843 relative à la lutte contre le blanchiment de capitaux.
(80) L’exemple utilisé dans la présente recommandation est dénué de pertinence en ce qui concerne toute classification juridique ou définition des monnaies de jeu dans le droit de l’Union en vigueur et/ou toute interprétation de celles-ci concernant les implications de l’utilisation de tels instruments.
(81) La Commission rappelle que la directive 2005/29/CE, dans son annexe I, point 20, interdit de décrire un produit comme étant «gratuit», «à titre gracieux», «sans frais» ou autres termes similaires si le consommateur doit payer quoi que ce soit d’autre que les coûts inévitables liés à la réponse à la pratique commerciale et au fait de prendre possession ou livraison de l’article.
(82) Comme prévu à l’article 25 du règlement (UE) 2022/2065. La Commission rappelle que, conformément à l’article 25, paragraphe 2, l’interdiction énoncée à l’article 25, paragraphe 1, ne s’applique pas aux pratiques relevant de la directive 2005/29/CE ou du règlement (UE) 2016/679.
(83) La Commission rappelle que la directive 2005/29/CE, dans son annexe I, point 7, interdit d’affirmer à tort qu’un produit ne sera disponible que pour une durée très limitée, ou qu’il ne sera disponible à des conditions particulières que pendant une période très limitée, afin de déclencher une décision immédiate et de ne pas donner aux consommateurs la possibilité ou le temps suffisants pour faire un choix éclairé. Les professionnels sont donc soumis à l’interdiction d’utiliser des techniques fondées sur la rareté.
(84) La Commission rappelle que, dans le cas des jeux, en vertu des articles 8 et 9 de la directive 2005/29/CE, les professionnels ne devraient pas exploiter les biais comportementaux ni introduire d’éléments manipulateurs liés, par exemple, au moment auquel des offres sont proposées dans le jeu (proposition de microtransactions à des moments critiques du jeu), à l’utilisation d’effets visuels et acoustiques en vue d’exercer une pression excessive sur le joueur.
(85) Les signaleurs de confiance sont des entités disposant d’une expertise et de compétences particulières pour détecter certains types de contenus illicites, et les notifications qu’ils soumettent dans leur domaine d’expertise désigné doivent être prioritaires et traitées par les fournisseurs de plateformes en ligne sans retard injustifié. Le statut de signaleur de confiance est attribué par le coordinateur pour les services numériques de l’État membre dans lequel l’entité est établie, à condition que cette dernière ait démontré son expertise, ses compétences et son indépendance vis-à-vis des plateformes en ligne, ainsi que sa diligence, sa précision et son objectivité lors de la soumission des notifications.
(86) La Commission rappelle que de tels systèmes d’IA pourraient constituer des pratiques interdites en vertu de l’article 5, paragraphe 1, point b), du règlement (UE) 2024/1689 s’ils exploitent les vulnérabilités des enfants d’une manière qui cause ou est raisonnablement susceptible de causer un préjudice important. Toute mesure prise conformément à cette recommandation devrait aller au-delà des mesures prises pour empêcher l’application de cette interdiction. La surveillance et l’exécution des mesures prises pour se conformer à l’article 50, paragraphe 1, du règlement (UE) 2024/1689 restent de la responsabilité des autorités compétentes en vertu dudit règlement.
(87) Voir article 8 du règlement (UE) 2022/2065.
(88) Voir la section 6.5.2 des présentes lignes directrices pour savoir comment ces informations devraient avoir une incidence sur les systèmes de recommandation du fournisseur.
(89) Toute référence, dans la suite de la présente section, à une «réclamation» ou à des «réclamations» inclut toute réclamation introduite contre l’évaluation de l’âge de l’utilisateur effectuée par le fournisseur et toute réclamation introduite contre les décisions visées à l’article 20 du règlement (UE) 2022/2065. L’article 20 du règlement (UE) 2022/2065 impose aux fournisseurs de plateformes en ligne de fournir aux destinataires du service un accès à un système interne efficace de traitement des réclamations contre quatre types de décisions prises par le fournisseur de la plateforme en ligne. Il s’agit a) des décisions sur la question de savoir s’il y a lieu ou non de retirer les informations, de rendre l’accès à celles-ci impossible ou de restreindre leur visibilité; b) les décisions sur la question de savoir s’il y a lieu ou non de suspendre ou de mettre fin, en tout ou en partie, à la fourniture du service aux destinataires; c) les décisions sur la question de savoir s’il y a lieu ou non de suspendre ou de supprimer le compte des destinataires; et d) les décisions sur la question de savoir s’il y a lieu ou non de suspendre la capacité de monétiser les informations fournies par les destinataires, de mettre fin à cette capacité ou de restreindre d’une autre manière cette capacité.
(90) Telles que celles qui font partie des centres nationaux pour un internet plus sûr et les réseaux INHOPE ou d’autres lignes nationales d’assistance pour les enfants telles que https://childhelplineinternational.org/.
(91) Les orientations de l’UNICEF sur l’implication des parties prenantes auprès des enfants proposent des mesures concrètes concernant des activités de participation responsable des enfants. UNICEF. (2025). Spotlight guidance on best practices for stakeholder engagement with children in D-CRIAs (Orientations sur les bonnes pratiques en matière d’implication des parties prenantes auprès des enfants dans le cadre de l’évaluation de l’impact du numérique sur les droits de l’enfant).Disponible à l’adresse suivante: https://www.unicef.org/ childrightsandbusiness/media/1541/file/D-CRIA-Spotlight-Guidance-Stakeholder-Engagement.pdf.
(92) Cette approche est conforme à la stratégie pour un internet mieux adapté aux enfants, qui souligne l’importance de la sensibilisation et de l’éducation pour promouvoir la sécurité en ligne et soutient la mise en oeuvre du règlement (UE) 2022/2065 à cet égard. En outre, les centres pour un internet plus sûr, établis dans chaque État membre, démontrent la valeur des efforts de sensibilisation pour prévenir les préjudices et les risques en ligne et y faire face.
(93) Cette formation pourrait porter, par exemple, sur les droits des enfants, les risques et les atteintes à la vie privée, à la sûreté et à la sécurité des mineurs en ligne, ainsi que sur les pratiques efficaces en matière de prévention, de réaction et d’atténuation.
(94) An Coimisiún um Chosaint Sonraí. (2021). Fundamentals for a child-oriented approach to data processing(Principes fondamentaux pour une approche du traitement des données axée sur les enfants). Disponible à l’adresse suivante: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/ Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán. (2024). Online safety code(Code de sécurité en ligne). Disponible à l’adresse suivante: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety- Code.pdf; IMY (autorité suédoise chargée de la protection de la vie privée). (2021). The rights of children and young people on digital platforms(Les droits des enfants et des jeunes sur les plateformes numériques). Disponible à l’adresse suivante: https://www.imy.se/en/publications/the-rights-of-children- and-young-people-on-digital-platforms/; Ministère néerlandais de l’intérieur et des relations au sein du Royaume. (2022). Code for children's rights(Code des droits de l’enfant). Disponible à l’adresse suivante: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor- Kinderrechten-EN.pdf; CNIL. (2021). La CNIL publie 8 recommandations pour renforcer la protection des mineurs en ligne. Disponible à l’adresse suivante: https://www.cnil.fr/fr/la-cnil-publie-8-recommandations-pour-renforcer-la-protection-des-mineurs-en-ligne; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs (Le mandataire indépendant chargé des questions relatives aux abus sexuels sur enfants). (s.d.). Rechtsfragen Digitales. Disponible à l’adresse suivante: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales.
(95) CEN-CENELEC (2023) Workshop Agreement 18016 Age Appropriate Digital Services Framework(Accord d’atelier 18016 sur le cadre de services numériques adaptés à l’âge); OCDE. (2021). Children in the digital environment - Revised typology of risks(Les enfants dans l’environnement numérique - typologie révisée des risques). https://www.oecd.org/en/publications/children-in-the-digital- environment_9b8f222e-en.html.
(96) La norme P2089.2™ relative aux conditions générales applicables à la participation des enfants en ligne prévoit des procédures et des pratiques concernant l’élaboration de conditions générales contribuant à protéger les droits des enfants dans l’espace numérique.
(97) La Commission rappelle également que l’article 28 terde la directive 2010/13/UE impose aux fournisseurs de plateformes de partage de vidéos de protéger les mineurs des programmes, vidéos créées par un utilisateur et communications commerciales audiovisuelles susceptibles de nuire à leur épanouissement physique, mental ou moral. Ces exigences doivent être évaluées et, éventuellement, révisées au plus tard le 19 décembre 2026.
(98) Comme indiqué dans l’introduction des présentes lignes directrices, certaines dispositions du règlement (UE) 2022/2065, y compris les points 5) et 6) de l’article 14, imposent des obligations supplémentaires aux fournisseurs de très grandes plateformes en ligne (TGPL). Dans la mesure où les obligations qui y sont énoncées concernent également la vie privée, la sûreté et la sécurité des mineurs au sens de l’article 28, paragraphe 1, les présentes lignes directrices s’appuient sur ces dispositions.
(99) Par exemple, en les publiant dans la base de données des conditions générales des services numériques: https://platform- contracts.digital-strategy.ec.europa.eu/
(100) Comme indiqué dans le champ d’application des présentes lignes directrices (section 2), certaines dispositions du règlement (UE) 2022/2065, y compris le chapitre III, section 5, imposent des obligations supplémentaires aux fournisseurs de très grandes plateformes en ligne (TGPL) et de très grands moteurs de recherche en ligne (TGMRL). Dans la mesure où les obligations qui y sont énoncées concernent également la vie privée, la sûreté et la sécurité des mineurs au sens de l’article 28, paragraphe 1, les présentes lignes directrices s’appuient sur ces dispositions, et les TGPL ne devraient pas s’attendre à ce que l’adoption des mesures décrites dans les présentes lignes directrices, que ce soit partiellement ou intégralement, suffise à garantir le respect des obligations qui leur incombent en vertu du chapitre III, section 5, du règlement (UE) 2022/2065.

ANNEXE
Typologie des risques en ligne dite «5C» en ce qui concerne les enfants

1. L’OCDE (1) et des chercheurs (2) ont classé les risques (3) que les mineurs peuvent rencontrer en ligne, afin que les fournisseurs de plateformes en ligne accessibles aux mineurs, la sphère universitaire et les décideurs politiques puissent mieux les comprendre et les analyser. Cette classification des risques est connue sous le nom de typologie des risques en ligne dite «5C» en ce qui concerne les enfants. Elle contribue à recenser les risques et comporte 5 catégories de risques: les risques liés au contenu, les risques liés à la conduite, les risques liés aux contacts et les risques pour les consommateurs, ainsi que les risques transversaux. Ces risques peuvent se manifester en l’absence de mesures appropriées et proportionnées visant à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur le service, ce qui pourrait porter atteinte à un certain nombre de droits de l’enfant.

2. Typologie des risques en ligne dite «5C» en ce qui concerne les enfants (4)

Risques pour les enfants dans l’environnement numérique

Catégories de risque

Risques liés aux contenus

Risques liés à la conduite

Risques liés aux contacts

Risques pour les consommateurs

Risques transversaux

Risques supplémentaires liés à la protection de la vie privée, à la sûreté et à la sécurité

Risques liés aux technologies avancées

Risques pour la santé et le bien-être

Risques liés à une utilisation à mauvais escient

Manifestation des risques

Contenus haineux

Comportement haineux

Rencontres haineuses

Risques liés au marketing

Contenus préjudiciables

Comportement préjudiciable

Rencontres préjudiciables

Risques de profilage commercial

Contenus illicites

Comportement illicite

Rencontres illicites

Risques financiers

Désinformation

Comportement problématique créé par un utilisateur

Autres rencontres problématiques

Risques en matière de sécurité


3. Risques liés au contenu: les mineurs peuvent être exposés de manière inattendue et involontaire à des contenus susceptibles de leur porter préjudice: a. contenus haineux; b. contenus préjudiciables; c. contenus illicites; d. désinformation. Ces types de contenus sont généralement considérés comme ayant de graves répercussions sur la santé mentale et le bien-être physique des mineurs, par exemple les contenus promouvant l’automutilation, le suicide, les troubles alimentaires ou la violence extrême.

4. Risques liés à la conduite: il s’agit de comportements que les mineurs peuvent adopter activement en ligne et qui peuvent présenter des risques tant pour eux-mêmes que pour d’autres, tels que a. les comportements haineux (par exemple, la publication/l’envoi de contenus/messages haineux par des mineurs); b. les comportements préjudiciables (par exemple, la publication/l’envoi de contenus violents ou pornographiques par des mineurs); c. les comportements illicites (par exemple, la publication/l’envoi par des mineurs de contenus à caractère pédopornographique ou de contenus terroristes); et d. les comportements problématiques créés par des utilisateurs (par exemple, la participation à des défis dangereux; la textopornographie).

5. Risques liés aux contacts: il s’agit de situations dans lesquelles les mineurs ne sont pas acteurs, mais victimes d’interactions: a. les rencontres haineuses; b. les rencontres préjudiciables (par exemple, la rencontre a lieu dans l’intention de porter atteinte au mineur); c. les rencontres illicites (par exemple, celles qui sont susceptibles de faire l’objet de poursuites pénales); et d. les autres rencontres problématiques. Parmi les exemples de risques liés aux contacts figurent, entre autres, le pédopiégeage en ligne, la coercition et l’extorsion sexuelles en ligne, les abus sexuels par webcam, le cyberharcèlement et la traite d’êtres humains à des fins d’exploitation sexuelle. Ces risques s’étendent également aux pratiques de fraude en ligne telles que l’hameçonnage, la fraude sur les places de marché et l’usurpation d’identité.

6. Risques pour les consommateurs: les mineurs peuvent également être confrontés à des risques en tant que consommateurs dans l’économie numérique: a. les risques liés au marketing (par exemple boîtes à butin, «advergames» ou jeux publicitaires); b. les risques de profilage commercial (par exemple, placement de produit ou réception de publicités destinées aux adultes, telles que des services de rencontres); c. les risques financiers (par exemple, fraude ou dépense de montants importants à l’insu ou sans le consentement de leurs tuteurs); d. les risques liés à la sécurité, c’est-à-dire les risques liés à l’achat et à la consommation de drogues, de médicaments, d’alcool et d’autres produits illicites ou dangereux. Les risques pour les consommateurs comprennent également les risques liés à des contrats, par exemple la vente de données des utilisateurs ou les conditions générales inéquitables.

7. Risques transversaux: il s’agit de risques qui couvrent toutes les catégories de risques et sont considérés comme très problématiques, car ils peuvent avoir une incidence significative sur la vie des mineurs de diverses manières. Ces risques sont les suivants: 8.Parmi les autres risques transversaux, citons également (5):                 
(1) OCDE. (2021). Children in the digital environment - Revised typology of risks(Les enfants dans l’environnement numérique - typologie révisée des risques). https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(2) Livingstone, S., et Stoilova, M. (2021). The 4Cs: Classifying Online Risk to Children(Les 4C: classification des risques en ligne pour les enfants). (CO:RE Short Report Series on Key Topics). Hambourg: Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE - Children Online: Research and Evidence (CO:RE - Enfants en ligne: recherche et éléments de preuve), https://doi.org/ 10.21241/ssoar.71817.
(3) Voir également une analyse des risques fournie par Bundeszentrale für Kinder- und Jugendmedienschutz (BZKJ). (Agence fédérale pour la protection de l’enfance et de la jeunesse dans le domaine des médias) (2022). Gefährdungsatlas. (Atlas des menaces) Digitales Aufwachsen. (Grandir à l’âge du numérique) Vom Kind aus denken. (Penser à partir de l’enfant) Zukunftssicher handeln. (Agir dans une perspective d’avenir) Aktualisierte und erweiterte 2. Auflage. - Bundeszentrale für Kinder- und Jugendmedienschutz. Disponible à l’adresse suivante: https://www. bzkj.de/resource/blob/197826/5e88ec66e545bcb196b7bf81fc6dd9e3/2-auflage-gefaehrdungsatlas-data.pdf.
(4) OCDE. (2021). Children in the digital environment - Revised typology of risks(Les enfants dans l’environnement numérique - typologie révisée des risques). p. 7. https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(5) Livingstone, S., et Stoilova, M. (2021). The 4Cs: Classifying Online Risk to Children(Les 4C: classification des risques en ligne pour les enfants). (CO:RE Short Report Series on Key Topics). Hambourg: Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE - Children Online: Research and Evidence(CO:RE - Enfants en ligne: recherche et éléments de preuve), https://doi.org/10.21241/ ssoar.71817.