Enfance : Porno : la vigilance s’impose

Dans un récent rapport, l’Okaju pointe les conséquences néfastes de la pornographie sur les droits de l’enfant. Il exhorte le Luxembourg, qui héberge les plus importants diffuseurs de porno du monde et en tire à cet égard des bénéfices financiers, à prendre enfin ses responsabilités.

D’après le dernier rapport de Bee Secure Radar, 58 % des 12-17 ans consultent au moins « parfois » des sites pornographiques. (© pexels/Ivan Samkov)

Les mineur·es sont de plus en plus exposé·es à la pornographie et représentent aujourd’hui pas moins de 12 % des utilisateur·rices de sites pornographiques. Selon le rapport Bee Secure Radar (2025), une majorité d’adolescent·es (58 % des 12-17 ans) consultent au moins « parfois » ces plateformes. À douze ans, environ un tiers des enfants a déjà vu du contenu pornographique. L’âge de la première exposition à la pornographie est en constante diminution et se situerait aux alentours de dix ans, bien que les chiffres à ce sujet soient contradictoires. Or, l’exposition à la pornographie peut avoir des effets néfastes – largement documentés – sur le développement neurologique et psychologique, la santé mentale, la sexualité et les interactions sociales. De surcroît, la pornographie représente un obstacle à l’égalité entre les hommes et les femmes, dans la mesure où l’immense majorité des vidéos véhiculent la domination masculine et normalisent la violence envers les femmes, et peuvent influencer les plus jeunes en ce sens.

Pour l’Ombudsman fir Kanner a Jugendlecher (Okaju), qui a récemment émis une recommandation générale intitulée « Protéger les mineurs en ligne face à l’industrie de la pornographie », l’industrie pornographique menace les droits des enfants à plusieurs égards. Outre son rôle dans les dommages mentionnés précédemment, elle est également et de toute évidence néfaste pour les enfants directement exploité·es dans la production de contenus d’abus sexuels sur mineur·es (CSAM, pour « child sexual abuse material »), mais peut aussi jouer un rôle dans les agressions sexuelles d’enfants. Le visionnage répété de CSAM est ainsi susceptible de développer ou d’exacerber les tendances pédocriminelles de certaines personnes, notamment à travers la normalisation progressive de contenus impliquant des mineur·es et l’effet de désensibilisation, qui pousse à rechercher des contenus toujours plus extrêmes.

En parallèle, « l’industrie pornographique contribue activement à l’érotisation des mineurs », en témoigne la présence de catégories et de titres faisant référence à la minorité (comme « teen » ou « daughter », par exemple), ou de mises en scène évoquant l’enfance. Des plateformes comme Pornhub diffusent en outre massivement des vidéos d’abus sur mineur·es, ainsi que l’ont révélé différentes enquêtes journalistiques. Un recours collectif déposé en 2021 contre MindGeek, la société mère d’alors, accuse l’entreprise d’avoir délibérément décidé de ne pas contrôler le contenu pédopornographique dans le but de générer du trafic. Pour sa part, Bee Secure Stopline indique que les signalements de contenus pédopornographiques ont presque doublé entre 2023 et 2024, et affirme avoir enregistré près de 12.000 URL l’année dernière.

Déjà accessibles facilement en l’absence de vérification d’âge efficace, certains sites pornographiques n’hésitent pas non plus à cibler les mineur·es, notamment par le biais de « pop-ups », ces fenêtres publicitaires intrusives. « Les sites illégaux de streaming et de jeux vidéo sont des sources importantes d’exposition à la pornographie. En effet, un enfant regardant un dessin animé ou jouant sur ces sites illégaux est fortement susceptible de voir apparaître une publicité à caractère pornographique via des bandeaux publicitaires ou des fenêtres pop-up. Le danger est d’autant plus grand que les parents sont persuadés qu’il est en sécurité », prévient le gouvernement français sur une page dédiée à cette problématique. D’autres plateformes, en particulier le réseau social X (ex-Twitter), autorisent purement et simplement la publication de contenu pornographique que tout un chacun peut visionner.

Responsabilité du Luxembourg

(Photo : Alexander Zvir/Pexels)

Face à ce constat alarmant, « la question de la responsabilité de l’État dans la protection des mineurs ne peut plus être ignorée », vitupère l’Okaju, qui exhorte les autorités à « mettre en place des mesures efficaces pour réguler l’accès aux contenus nocifs, inappropriés et préjudiciables » : imposer aux plateformes des systèmes de vérification de l’âge efficaces ainsi que des obligations strictes en matière de vérification et de retrait des contenus illégaux ; interdire l’érotisation de mineur·es (ou de majeur·es présenté·es comme des mineur·es), de la violence et de l’inceste par les sites internet ; interdire le ciblage de mineur·es, etc.

En effet, si la responsabilité des parents est essentielle, la Convention relative aux droits de l’enfant, ratifiée par le Luxembourg – y compris son protocole facultatif –, impose aux gouvernements de garantir un environnement sûr pour les mineur·es, y compris dans l’espace numérique, rappelle l’Okaju. Certains pays, comme la France, le Royaume-Uni, l’Allemagne ou les États-Unis, ont pour leur part commencé à mettre en place des mesures strictes en la matière, impliquant notamment des systèmes de vérification « robustes » de l’âge des utilisateur·rices de sites pornographiques (via une pièce d’identité, une carte de crédit, etc.), desquels le Luxembourg pourrait s’inspirer.

L’Okaju ne manque pas non plus de pointer le double discours du Luxembourg, dont les responsables politiques promettent de s’attaquer à ce problème depuis plusieurs années, tout en persistant à maintenir « un modèle économique incluant des holdings dans la pornographie ». Les sièges des plus importants diffuseurs – notamment Dockler Holdings et Aylo (ex-Mindgeek, qui héberge le géant Pornhub) – sont en effet domiciliés au grand-duché. Selon nos confrères de Virgule, en 2021, Aylo a déclaré au Luxembourg un bénéfice net de 500 millions de dollars. « L’accord entre Aylo ou d’autres sociétés et l’État luxembourgeois reste inconnu. Toutefois, en appliquant le taux d’imposition minimum de 15 % (OCDE) aux 500 millions de bénéfices annoncés en 2021 par Aylo, cela représenterait théoriquement 75 millions d’euros de recettes fiscales. Les entreprises de cette envergure ont la responsabilité d’appliquer les normes les plus élevées en matière de protection des droits de l’enfant. À l’heure où les besoins en protection des enfants sont criants, la question de la priorité donnée aux profits se pose », fait remarquer l’Ombudsman Charel Schmit. La semaine dernière, il s’était joint au collectif Initiative pour un devoir de vigilance pour demander une transposition « ambitieuse » de la CSDDD, la directive européenne en matière de diligence des entreprises (woxx 1824). En effet, le secteur ne tombe pas sous le coup de cette directive en raison de son faible nombre d’employé·es, malgré les hauts risques en matière de droits humains qu’il présente.

L’IA : un danger bien réel

Le recours croissant à l’intelligence artificielle (IA) pour générer du contenu illicite soulève de nouvelles préoccupations, et non des moindres, en matière de pédopornographie. L’IA générative permet en effet de créer des « deepfakes » (des trucages ultraréalistes) sexuellement explicites à partir de n’importe quelle photographie d’enfant, alerte l’Okaju. Des criminels créent également ce type de contenu pour exercer du chantage à des fins lucratives auprès des familles et des enfants. L’émergence de chatbots capables d’avoir des interactions « hautement inappropriées » représente également un danger pour les plus jeunes. Dans son rapport datant d’octobre 2024, la Fondation pour l’enfance, se référant à des données collectées du 1er au 30 septembre 2023 par l’Internet Watch Foundation (IWF), fait état de 20.254 images pédocriminelles générées par IA et postées sur un forum consacré aux pédocriminels sur le dark web. 1.372 d’entre elles représentaient des enfants âgés de sept à dix ans, 143 des enfants âgés de trois à six ans. 50 % des images ou vidéos échangées sur les forums pédocriminels ont été initialement publiées par les parents, signale par ailleurs la fondation. Dans son nouveau rapport, datant de juillet 2024, l’IWF fait état d’images plus graves et de la circulation de vidéos de deepfakes reprenant des vidéos pornographiques pour adultes sur lesquelles sont ajoutés des visages d’enfants. « Ces développements technologiques exigent une vigilance accrue et des réponses réglementaires adaptées », insiste l’Okaju.


Cet article vous a plu ?
Nous offrons gratuitement nos articles avec leur regard résolument écologique, féministe et progressiste sur le monde. Sans pub ni offre premium ou paywall. Nous avons en effet la conviction que l’accès à l’information doit rester libre. Afin de pouvoir garantir qu’à l’avenir nos articles seront accessibles à quiconque s’y intéresse, nous avons besoin de votre soutien – à travers un abonnement ou un don : woxx.lu/support.

Hat Ihnen dieser Artikel gefallen?
Wir stellen unsere Artikel mit unserem einzigartigen, ökologischen, feministischen, gesellschaftskritischen und linkem Blick auf die Welt allen kostenlos zur Verfügung – ohne Werbung, ohne „Plus“-, „Premium“-Angebot oder eine Paywall. Denn wir sind der Meinung, dass der Zugang zu Informationen frei sein sollte. Um das auch in Zukunft gewährleisten zu können, benötigen wir Ihre Unterstützung; mit einem Abonnement oder einer Spende: woxx.lu/support.
Tagged , , .Speichere in deinen Favoriten diesen permalink.

Die Kommentare sind geschlossen.