Le 26 janvier 2026, l’Assemblée nationale a adopté en première lecture une proposition de loi interdisant l’accès aux réseaux sociaux aux mineurs de moins de 15 ans.
Présentée comme une mesure de protection face aux effets documentés sur la santé mentale des adolescents, cette loi marque un tournant dans la régulation du numérique en France. Mais derrière l’affichage politique, de sérieuses zones d’ombre persistent…
Une loi née dans l’urgence… et le flou juridique
Ce texte, porté par la députée Laure Miller, est l’aboutissement d’une prise de conscience amorcée dès 2023 avec la loi sur la majorité numérique, restée largement inappliquée faute de décrets et de validation européenne. Le projet de 2026, soutenu par une procédure accélérée, durcit le ton en réaction aux rapports alarmants sur les risques systémiques (santé mentale, cyberharcèlement), liés notamment à l’usage intensif de plateformes comme TikTok.
L’intention est louable : protéger nos enfants d’un environnement toxique. Mais comment ?
Les 4 piliers de la loi
- Majorité numérique à 15 ans :
l’accès aux réseaux sociaux est interdit aux mineurs de moins de 15 ans, avec des exceptions pour les outils éducatifs ou encyclopédiques. - Responsabilité des plateformes :
les réseaux sociaux perdent leur statut de simple hébergeur et deviennent responsables en tant qu’éditeurs dès lors qu’ils utilisent des algorithmes de profilage pour recommander des contenus à des mineurs. - Régulation publicitaire :
interdiction de la pression commerciale excessive et de la promotion de produits dangereux (tabac, régimes, etc.), avec obligation pour les influenceurs d’afficher des messages de prévention. - Usage encadré au lycée :
les téléphones portables restent interdits par défaut pendant les cours et dans les couloirs, selon le règlement intérieur de chaque établissement.
Des failles juridiques et pratiques inquiétantes
Sous le vernis de la protection de l’enfance, plusieurs fragilités juridiques menacent la survie ou l’efficacité du texte.
La conformité avec l’Europe
La principale difficulté réside dans l’obligation de conformité avec le Digital Services Act (DSA). Malgré les ajustements annoncés par le gouvernement, la Commission européenne pourrait engager une procédure de manquement si elle estime que la France sur-réglemente.
Plus préoccupant encore, un amendement fait peser sur les plateformes une responsabilité d’éditeur dès lors qu’elles utilisent des algorithmes de recommandation pour les mineurs, en contradiction directe avec le cadre européen protégeant le statut d’hébergeur.
L’applicabilité
La loi repose sur un « tiers de confiance » ou un « mini-wallet » européen pour vérifier l’âge sans collecter massivement de données personnelles. Or, ce système n’existe pas encore.
Trop intrusif, il serait rejeté par la CNIL ; trop permissif, il serait facilement contourné par les mineurs via des VPN ou de fausses déclarations. Ce scénario rappelle l’impasse rencontrée par l’Australie, pionnière en la matière, dont la législation est aujourd’hui largement contournable.
Le sort des comptes existants
Le texte prévoit un délai de quatre mois pour mettre en conformité ou supprimer les comptes existants de mineurs de moins de 15 ans. Mais que deviendront les millions de comptes déjà actifs sur Instagram, TikTok ou Snapchat ?
La vérification rétroactive à grande échelle que cela impliquerait soulève d’importants défis techniques et logistiques, encore largement flous à ce stade.
Prêts à envoyer vos données aux GAFAM ?
C’est l’effet boomerang redouté par l’OPEN : pour filtrer efficacement les mineurs, il faudrait vérifier l’âge de tous les utilisateurs, adultes compris.
Dans un contexte de multiplication des cyberattaques visant des institutions majeures, les Français sont-ils prêts à confier leur pièce d’identité à des systèmes opaques ou directement aux GAFAM ? Rien n’est moins sûr.
La vraie question : pourquoi interdire plutôt que réguler ?
Pourquoi ne pas exiger des plateformes qu’elles conçoivent des espaces « safe by design » au lieu d’exclure les adolescents ? Pourquoi ne pas renforcer massivement l’éducation aux médias numériques à l’école ?
Pour l’OPEN, cette loi envoie un signal politique fort, mais son efficacité réelle reste incertaine. Nous défendons une approche fondée sur la responsabilisation partagée :
- Réguler les plateformes :
imposer des algorithmes éthiques, des interfaces non addictives et des modèles économiques qui ne reposent pas sur la captation de l’attention. - Soutenir les familles :
outiller les parents pour accompagner les usages numériques, plutôt que les laisser seuls face à une interdiction inapplicable. - Former les professionnels :
renforcer la formation des acteurs de l’enfance et de l’éducation pour guider les jeunes dans leurs usages. - Renforcer l’éducation aux médias :
dès le primaire, en faire une matière à part entière avec des enseignants formés.
Les adolescents ne vivent pas hors du numérique : ils y grandissent. Notre responsabilité n’est pas de les en exclure, mais de sécuriser l’écosystème dans lequel ils évoluent déjà.
L’interdiction seule ne protège personne. L’accompagnement, si.