Tuesday, April 21, 2026
HomeBusinessEmpowering children online: the Council of Europe is sceptical of blanket social...

Empowering children online: the Council of Europe is sceptical of blanket social media bans


De nombreux hommes politiques du monde entier se précipitent pour « faire quelque chose » pour les enfants en ligne. Certains États membres de l’Union européenne (par exemple la Grèce) ont déjà adopté des restrictions liées à l’âge pour l’utilisation des médias sociaux par les enfants et les adolescents (qui s’appliqueront au début de l’année prochaine), et d’autres pays envisagent de le faire.


PUBLICITÉ


PUBLICITÉ

Les expériences de pays comme le Royaume-Uni et l’Australie ont déjà montré que des restrictions excessives liées à l’âge conduisent souvent les enfants à contourner les règles et les poussent parfois vers des environnements en ligne marginaux et moins sûrs. Les décideurs australiens n’ont pas encore admis que cette politique ne fonctionne pas et optent plutôt pour une Effet Canberrademandant aux autres de suivre ses traces, comme le rapporte Politico EU.

Il n’y a pas si longtemps, un groupe de scientifiques du monde entier a exprimé préoccupations à cause de décisions hâtives concernant une interdiction des médias sociaux basée sur l’âge. Daniel Friedlaender de CCIA Europe a partagé cela dans son rapport 2025 déclarationSave the Children a également fait valoir que l’interdiction générale des réseaux sociaux pour les enfants peut avoir « de graves conséquences inattendues pour les enfants », comme les empêcher de trouver des informations utiles et du soutien en ligne, ce qui est particulièrement important pour les enfants marginalisés qui ne disposent pas d’un filet de sécurité sociale hors ligne.

Dans ce contexte, la récente réunion du Conseil de l’Europe recommandations pour les États membres de l’UE sur la sécurité en ligne et l’autonomisation des utilisateurs et des créateurs de contenu, adoptée le 8 avril, est une bouffée d’air frais.

Il n’y a pas de revirement majeur : les recommandations incluent des appels à améliorer les obligations existantes ou à en introduire de nouvelles sur les plateformes. Toutefois, le Conseil de l’Europe appelle également les décideurs politiques de l’UE à garantir que les actions visant à protéger les Européens en ligne (enfants et adultes) ne portent pas atteinte à leur droit à la liberté d’expression, ne portent pas atteinte à d’autres traités de l’UE ou n’entraînent pas des mesures excessives. Ils soulignent que toute action entreprise doit être fondée sur des preuves, tandis que le sujet brûlant de la vérification de l’âge devrait cibler en priorité les plateformes qui se concentrent principalement sur des produits, des services et des contenus déjà illégaux pour les enfants. hors ligne.

Un doux rappel sur la liberté d’expression

Les articles 12 et 18 des recommandations le disent haut et fort : même si la liberté d’expression peut déranger, offenser ou scandaliser une partie de la population, cela ne justifie pas l’adoption de mesures qui la restreignent et considèrent que ceux qui remettent en question le statu quo sont, en fait, bénéfiques pour les sociétés démocratiques.

Par la suite, l’article 18 établit que tous les risques en ligne ne nécessitent pas de mesures restrictives susceptibles de porter atteinte au droit à la liberté d’expression. Les articles 38, 44, 54 et 55 appellent les États membres de l’UE à ne pas exercer de pression excessive sur les intermédiaires Internet et les créateurs de contenu, car cela pourrait « les obliger à agir comme censeurs d’expression au nom des autorités de l’État » (Article 54).

En outre, les intermédiaires Internet (y compris les plateformes) ne devraient pas être tenus responsables des contenus de tiers auxquels ils « donnent simplement accès, transmettent ou stockent », à moins qu’ils n’évitent de prendre des mesures proactives après avoir pris conscience que le contenu est illégal.

L’article 44 résume simplement et clairement la portée du type de contenu qui doit être considéré comme légal : « le contenu qui est licite hors ligne devrait être licite en ligne ».

Que peuvent faire les États membres, à part imposer des interdictions ?

Les recommandations aboutissent à la conclusion logique que, pour garantir la sécurité en ligne, une combinaison de mesures proactives (à la fois en ligne et hors ligne) est essentielle (article 9) ; c’est-à-dire, Les utilisateurs doivent non seulement être protégés mais également avoir les moyens de se protéger eux-mêmes.

L’article 21 stipule que les mesures liées à l’espace en ligne doivent compléter et s’appuyer sur « des actions plus larges prises dans la sphère hors ligne ». Il explique en outre que les États membres de l’UE ont besoin d’une stratégie globale et coordonnée qui s’attaque aux causes sous-jacentes des abus en ligne, qu’elles soient ancrées dans les conditions sociales ou les inégalités. Les exemples suggérés de telles stratégies incluent des initiatives éducatives visant à favoriser la citoyenneté numérique, le renforcement de la maîtrise des médias et de l’information, les « initiatives d’autonomisation des communautés », et bien plus encore.

Ils soutiennent en outre que l’environnement en ligne doit être sécurisé, fiable et pluraliste, tout en restant exempt de « ingérences injustifiées » et garantissant « une autonomie maximale » aux utilisateurs (article 2). Ils développent ce point dans l’article 5, déclarant qu’en plus d’améliorer la transparence et la responsabilité des plateformes, les décideurs politiques doivent également promouvoir « l’autonomisation de la société » et renforcer la sensibilisation et la connaissance des utilisateurs sur les risques en ligne.

Enfin, l’article 66 stipule que l’autonomisation des utilisateurs en ligne devrait être obtenue grâce à des obligations fondées sur des preuves pour les plateformes, notamment : 1) des expériences de conception personnalisées (article 66 (a)), réitérées plus tard dans l’article 71 ; 2) la transparence (article 66(b)) et 3) des procédures équitables dans des domaines tels que la modération du contenu (article 66(c)).

Évitez les actions qui pourraient compromettre la sécurité en ligne

Un point important est souligné dans l’article 22, qui stipule que les États membres de l’UE doivent s’abstenir de toute action susceptible de compromettre la sécurité des utilisateurs en ligne et de réduire les possibilités de protection et d’autonomisation.

À mon avis, cela est pertinent non seulement pour les interdictions de réseaux sociaux liées à l’âge (qui peuvent pousser les enfants à contourner les règles ou à visiter des sites Web marginaux et moins sûrs), mais aussi pour des mesures telles que l’analyse massive des messages privés en vertu du règlement CSAM, ou « Contrôle du chat 2.0 » ce qui pourrait effectivement mettre un terme aux communications en ligne cryptées.

Recommandations relatives aux enfants : les restrictions basées sur l’âge ne devraient s’appliquer qu’aux contenus déjà illégaux hors ligne.

L’article 24 réitère l’ambition plus large de l’UE d’évaluer, de traiter et d’atténuer les risques affectant les enfants, et maintient l’idée que les plateformes devraient faire davantage. Parallèlement, il précise que toute mesure doit tenir compte de l’âge des enfants, des situations de vulnérabilité et de l’évolution de leurs capacités. De plus, ces mesures doivent défendre votre droit à la liberté d’expression. Encore une fois, cela suggère clairement qu’interdire aux enfants d’accéder aux plateformes en soi Ce n’est pas une approche intelligente.

“24. Les mesures visant à évaluer et à répondre aux risques auxquels sont exposés les enfants, à atténuer les préjudices, à les responsabiliser et à les protéger doivent accorder la priorité à l’intérêt supérieur de l’enfant et tenir compte de son âge, de sa situation de vulnérabilité et de l’évolution de ses capacités. Toute mesure de ce type doit respecter ses droits, y compris les droits à la liberté d’expression et à la vie privée.”

La partie la plus intéressante se cache dans les articles 75 et 76, où les représentants du Conseil de l’Europe déclarent essentiellement que les plateformes doivent disposer d’outils pour atténuer les risques pour les enfants en ligne, et que ces outils doivent être mis à jour régulièrement. Toutefois, des mesures telles que la vérification de l’âge devraient avant tout être utilisées pour protéger les enfants contre les produits, services et contenus qui leur sont déjà légalement réservés hors ligne, plutôt que “protéger” les empêcher d’être en ligne. Ces outils devraient principalement faire référence à des plateformes qui « fournissent principalement des services ou des contenus qui sont légalement restreints pour protéger les enfants ».

Dans l’ensemble, cette partie n’exclut pas l’idée d’une introduction d’outils de vérification de l’âge à l’échelle européenne, mais indique clairement qu’ils ne devraient être utilisés que pour protéger les enfants des choses auxquelles ils ne devraient pas avoir accès, tant en ligne que hors ligne, et ne les empêchent pas du tout d’utiliser les plateformes.

« 75. Outre d’autres mesures appropriées d’atténuation des risques qui peuvent être adoptées par les plateformes et conformément à la Recommandation CM/Rec(2018)7 sur les lignes directrices visant à respecter, protéger et réaliser les droits de l’enfant dans l’environnement numérique, les États devraient exiger l’utilisation de systèmes efficaces de garantie de l’âge pour garantir que les enfants sont protégés contre les produits, services et contenus dans l’environnement numérique qui sont légalement restreints en référence à des âges spécifiques. De tels systèmes devraient en particulier être nécessaires pour les plateformes qui proposent principalement des services ou des contenus légalement restreints afin de protéger les enfants. Ces systèmes doivent respecter les droits de l’homme et utiliser des méthodes qui respectent la liberté d’expression ainsi que la protection des données personnelles et de la vie privée et qui sont compatibles avec l’intérêt supérieur de l’enfant. Lorsqu’ils exigent la mise en œuvre de tels systèmes, les États doivent prévoir des garanties pour garantir qu’ils n’excluent pas de manière disproportionnée les enfants des espaces en ligne et ne restreignent pas leur droit de participer aux débats sur des questions d’intérêt public. Des garanties doivent également être prévues pour garantir que ces systèmes ne créent pas ou n’aggravent pas l’exclusion de l’espace en ligne de personnes en situation de vulnérabilité et de risque de discrimination.

« 76. Les États devraient exiger que les plateformes développent, produisent et mettent à jour régulièrement d’autres outils efficaces et adaptés à l’âge pour atténuer les risques auxquels les enfants sont exposés dans l’environnement en ligne.

Cette histoire a été initialement publiée sur Boucle technologique de l’UE et a été partagé sur Euronews dans le cadre d’un accord.

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Most Popular

Recent Comments