Opinione
OPINIONE
9 min di lettura
Chi dovrebbe pagare per i danni causati dall'uso dei social media da parte dei bambini?
Nei paesi dalla Türkiye all'Australia, un nuovo cambiamento nelle normative riflette una visione condivisa secondo cui la sola supervisione dei genitori non può prevenire i danni dei social media sui bambini.
Chi dovrebbe pagare per i danni causati dall'uso dei social media da parte dei bambini?
In tutto il mondo, i governi adottano misure per regolamentare l'uso dei social media da parte dei minori. / AP
9 ore fa

La spinta globale a regolamentare l’uso dei social media da parte dei minori sta spostando la responsabilità dal controllo parentale verso le piattaforme progettate per trarre profitto dall’attenzione dei bambini.

In tutto il mondo, mentre i governi prendono provvedimenti per regolamentare l’uso dei social media da parte dei minori, il dibattito sui danni digitali è in una fase di trasformazione fondamentale.

Dall’Australia al Regno Unito e dalla Norvegia alla Türkiye, le normative che si stanno sviluppando in molti Paesi convergono su un punto comune: i danni derivanti dall’uso dei social media da parte dei minori non possono essere evitati esclusivamente con la supervisione dei genitori.

La responsabilità deve essere condivisa con le piattaforme digitali che progettano, gestiscono e traggono profitto dagli ambienti online.

Questo spostamento non esonera né i genitori né le autorità pubbliche dalle loro responsabilità. Famiglie e Stati restano attori centrali nella protezione dell’infanzia.

Tuttavia, i governi stanno ora assumendo una posizione più chiara e insistente: la responsabilità dovrebbe essere estesa alle piattaforme che progettano, ottimizzano e commercializzano gli ambienti digitali.

Come altri utenti, i bambini non si limitano a “usare” i social media; sono continuamente indirizzati, incentivati e trattenuti sulle piattaforme da infrastrutture ottimizzate per la massimizzazione del profitto.

I meccanismi di scorrimento infinito, i sistemi di raccomandazione algoritmica e i circuiti di ricompensa sono deliberatamente progettati per sostenere l’economia dell’attenzione.

In queste condizioni, aspettarsi che i genitori siano l’unica forza di contrasto e che affrontino macchine dell’economia dell’attenzione che valgono trilioni non è né realistico né equo.

Un consistente corpo di ricerche accademiche multidisciplinari sugli bambini e gli adolescenti mostra che l’uso eccessivo dei social media è strettamente legato a disturbi d’ansia, depressione, problemi del sonno, deficit di attenzione, dismorfofobia legata a contenuti visivi filtrati e disturbi alimentari.

Capitalismo della sorveglianza

Il concetto di Shoshana Zuboff del "capitalismo della sorveglianza" fornisce un quadro potente per comprendere perché la responsabilità si stia spostando verso l’alto.

Le piattaforme di social media raccolgono e analizzano sistematicamente i comportamenti degli utenti, prevedono azioni future e monetizzano queste conoscenze attraverso pubblicità mirata e indirizzamento comportamentale.

All’interno di questo sistema, i bambini non sono solo utenti vulnerabili, ma anche soggetti di dati di grande valore.

Ogni swipe, pausa, like e reazione emotiva genera un surplus comportamentale.

Per i bambini il cui sviluppo cognitivo ed emotivo è ancora in corso, questa estrazione di dati produce conseguenze più profonde e di lungo periodo.

Gli algoritmi non si limitano a imparare cosa piace ai bambini; modellano anche ciò che finiranno per desiderare.

Per questo motivo, le normative attuali mirano sempre più a imporre limiti alla raccolta di dati sui minori, vietare la pubblicità mirata, richiedere trasparenza nei sistemi di raccomandazione e sanzionare progettazioni architetturali che massimizzano l’ingaggio.

Tecnofeudalesimo

L’idea di Yanis Varoufakis del "tecnofeudalesimo" offre una prospettiva complementare per comprendere questa asimmetria di potere.

Le piattaforme digitali assomigliano sempre più a possedimenti feudali piuttosto che a imprese capitalistiche tradizionali.

Gli utenti non possiedono questi spazi digitali; ottengono invece un accesso condizionato secondo regole determinate unilateralmente dai proprietari delle piattaforme.

I bambini crescono all’interno di questi ecosistemi governati privatamente. La loro socializzazione, il tempo libero e sempre più spesso le esperienze educative sono plasmate da sistemi in gran parte opachi governati da algoritmi piuttosto che da controlli democratici.

In questo contesto, l’autorità genitoriale è strutturalmente svantaggiata nel competere con un’autorità algoritmica continua, invisibile e scalabile.

Da questa prospettiva, incolpare i genitori è come rendere responsabili i contadini vincolati alla terra per le condizioni di proprietà di un feudo.

Gli Stati che riconoscono questa asimmetria di potere stanno sempre più spostando il loro focus dai “soggetti” ai “signori”.

Il divieto australiano sull’uso dei social media per chi ha meno di 16 anni, entrato in vigore il 10 dicembre 2025, è uno degli esempi più visibili di questa trasformazione.

Con limitate eccezioni, come YouTube Kids, le piattaforme sono tenute a implementare rigorosi sistemi di verifica dell’età; il mancato rispetto espone a multe fino a 32 milioni di dollari.

L’osservazione dell’ex dirigente di Meta Stephen Scheeler, secondo cui l’azienda potrebbe guadagnare tale somma in meno di due ore, ha sollevato seri interrogativi sull’effetto deterrente di tali sanzioni.

Nel Regno Unito, l’Online Safety Act conferisce al regolatore dei media Ofcom l’autorità di multare le società fino al 10 percento del loro fatturato globale.

Il primo ministro Keir Starmer, tra molti altri attori politici, ha dichiarato apertamente che il tempo eccessivo davanti allo schermo mette a rischio il benessere dei bambini.

Decisioni del Parlamento europeo che fissano un’età minima di 16 anni per l’uso dei social media e di 13 anni per strumenti di intelligenza artificiale e piattaforme video riflettono anch’esse questa tendenza.

Mentre la Francia dibatte un divieto totale per gli under 15 e una sorta di “coprifuoco digitale”, la Spagna sta preparando norme che richiedono il consenso dei genitori per gli utenti sotto i 16 anni.

La Norvegia, intanto, ha riconosciuto l’inefficacia delle restrizioni attuali e sta sviluppando meccanismi di supervisione più efficaci.

Negli Stati Uniti, la soglia di età centrata sulla privacy dei dati a 13 anni resta in vigore, ma restrizioni statali più severe affrontano sfide legali per motivi di libertà di espressione.

La Cina applica uno dei controlli digitali più stringenti per i bambini. Mentre ai minori di 14 anni è imposto un limite di 40 minuti di tempo davanti allo schermo al giorno, l’accesso digitale è completamente vietato tra le 22:00 e le 6:00 ora locale.

Sebbene TikTok abbia più di mezzo miliardo di utenti a livello globale, in Cina opera con una versione separata chiamata Douyin, che utilizza algoritmi diversi e dà maggiore enfasi ai contenuti educativi.

Il presidente francese Emmanuel Macron ha dichiarato apertamente che mentre la Cina usa TikTok per indebolire la capacità di attenzione dei bambini a livello globale, guida i propri figli tramite Douyin con contenuti più disciplinati e educativi.

Questa distinzione dimostra che le piattaforme di social media funzionano non solo come entità commerciali, ma anche come strumenti di soft power culturale.

Il fatto che le piattaforme social occidentali siano vietate in Cina dimostra inoltre che gli Stati vedono sempre più le piattaforme digitali non come attori del libero mercato, ma come infrastrutture strategiche.

Big Tech e l’etica di facciata

Sebbene le grandi aziende tecnologiche comunemente indicate come Big Tech abbiano adottato alcune misure, rimangono in larga misura contrarie a tali restrizioni.

A seguito dell’introduzione del divieto, il primo ministro australiano Anthony Albanese ha dichiarato che più di 4,7 milioni di account social appartenenti a utenti sotto i 16 anni sono stati disattivati, cancellati o limitati.

I rappresentanti delle Big Tech sostengono che le tecnologie di verifica dell’età minacciano la privacy, violano i diritti dei minori e possono persino ridurre la sicurezza online.

Tuttavia, queste obiezioni spesso nascondono una preoccupazione più profonda: il rischio di perdere una base di utenti estremamente redditizia che genera dati e contenuti gratuiti.

Il CEO di Meta Mark Zuckerberg, il responsabile di Instagram Adam Mosseri e il CEO di Snapchat Evan Spiegel dovranno affrontare processi legali che sostengono che abbiano progettato prodotti dipendenti pur avendo prove di danni agli utenti giovani.

Nel frattempo, gli impegni volontari su etica e sicurezza assomigliano sempre più a quanto si può definire "etica di facciata": la diffusione della responsabilità senza modificare i modelli di business sottostanti.

Le politiche di tutela dei minori in Türkiye

I dibattiti sulla presenza dei minori negli ambienti digitali in Türkiye riflettono sensibilità locali ma si allineano in larga misura alle tendenze regolatorie globali.

Un rapporto preliminare intitolato "Minacce e rischi che attendono i nostri bambini negli ambienti digitali", preparato dalla Sottocommissione per i Diritti dell’Infanzia della Commissione d’Inchiesta sui Diritti Umani dell’Assemblea Nazionale della Türkiye, delinea il quadro di questo approccio.

Il rapporto include proposte come restrizioni di accesso notturno per i minori di 18 anni, divieto dei social media per gli under 15, limiti sui dispositivi digitali nelle scuole, rafforzamento dei servizi di consulenza e applicazioni speciali di schede SIM per i bambini.

La ministra della Famiglia e dei Servizi Sociali Mahinur Ozdemir Goktas ha annunciato che le preparazioni legislative per una regolamentazione dei social media che copra i minori di 15 anni saranno presto presentate al Parlamento.

La motivazione alla base della regolamentazione include l’aumento dei livelli di depressione, ansia, disturbi del comportamento e il rischio di contatti con reti criminali attraverso le piattaforme digitali.

La ministra Goktas ha affermato che i bambini non saranno trattati come risorse commerciali o bacini di dati dalle piattaforme social. Piuttosto che costituire un intervento contro la libertà di espressione, queste misure sono presentate come una politica pubblica strategica volta a proteggere i minori dai rischi strutturali dell’ecosistema digitale.

All’interno di questo quadro, la piattaforma digitale "Cocuklar Guvende" (I bambini sono al sicuro) fornisce orientamenti e meccanismi di segnalazione per bambini e genitori.

Le autorità sottolineano in particolare che la lotta ai contenuti dannosi deve essere proattiva ed effettuata dalle piattaforme stesse, piuttosto che affidarsi a interventi reattivi.

I bambini non sono l’unico gruppo esposto ai danni digitali. Gli adulti con bassa alfabetizzazione digitale, e in particolare le persone anziane, diventano sempre più vulnerabili alla disinformazione, alla polarizzazione emotiva e alle pratiche manipolative plasmate dall’indirizzamento algoritmico.

Di conseguenza, la regolamentazione delle piattaforme non è semplicemente una misura pedagogica di protezione dell’infanzia.

È anche una lotta per rafforzare la sfera pubblica digitalizzata contro la disinformazione, liberare i processi democratici dalla cattura algoritmica e preservare la coesione sociale.

Se le piattaforme progettano gli ambienti digitali, addestrano algoritmi e traggono sistematicamente profitto dall’economia dell’attenzione, la responsabilità non può essere posta unicamente sugli individui, sulle famiglie o sulle preferenze degli utenti.

La responsabilità deve essere condivisa e il potere portato sotto la supervisione pubblica.