Il giorno in cui la dipendenza digitale è diventata reato.
(tra Meta, Google, piattaforme e persone)
Kaley aveva sei anni quando ha aperto YouTube per la prima volta. Quattordici anni dopo, un tribunale di Los Angeles ha stabilito che quell’architettura di prodotto aveva causato danni reali, condannando Meta e Google per aver progettato deliberatamente piattaforme che creano dipendenza. E anche se i ricorsi sono già annunciati, il precedente legale da oggi esiste.
Dopo nove giorni di deliberazione e più di quaranta ore di camera di consiglio, la giuria ha creduto alla testimonianza di Kaley G.M., oggi ventenne: YouTube a sei anni e Instagram a nove avevano alimentato la sua depressione e i suoi pensieri suicidi. Il risarcimento riconosciuto è di 3 milioni di dollari, il 70% a carico di Meta.
Come ci siamo arrivati
Per capire come si è arrivati a un’aula di Los Angeles vale la pena fare un passo indietro, perché la traiettoria è più lineare di quanto sembri e conoscerla cambia il modo in cui si legge la sentenza.
I social network nascono, almeno nella narrazione ufficiale, come strumenti di connessione. Facebook nel 2004 era una bacheca universitaria. YouTube nel 2005 era un posto dove caricare video amatoriali. Instagram nel 2010 era un’app per condividere fotografie con un filtro vintage. L’idea di fondo era orizzontale: le persone si connettono, si trovano, si parlano e la piattaforma è strumento che facilita.
Quel modello aveva però un problema strutturale: non produceva abbastanza denaro. La svolta arriva quando le piattaforme abbandonano l’idea di infrastrutture di connessione per riposizionarsi come mercati dell’attenzione. Il passaggio avviene senza annunci pubblici o discussioni collettive, dentro le stanze degli ingegneri guidato da una logica molto semplice: più tempo l’utente passa sulla piattaforma e più annunci vede, più soldi genera.
La permanenza dell’utente sostituisce la connessione come obiettivo centrale del sistema.
Da quel momento ogni scelta di design serve a impedire che l’utente se ne vada. Lo scroll infinito elimina i punti di arresto naturali, quei momenti in cui il libro finisce il capitolo, il programma TV si chiude, la pagina termina e il cervello riceve il segnale che è il momento di decidere se continuare o smettere. Quel momento di interruzione decisionale è stato rimosso di proposito, perché ogni pausa costa impression pubblicitarie. L’autoplay carica il contenuto successivo prima ancora che si possa decidere di fermarsi. Le notifiche creano un’ansia sottile che si allevia solo aprendo l’app. Il feed abbandona così la cronologia perché la cronologia è neutrale, e la neutralità non massimizza l’engagement e la monetizzazione.
Il punto di non ritorno arriva quando le piattaforme scoprono che le emozioni forti trattengono più delle emozioni piacevoli. La rabbia, l’indignazione, l’ansia da confronto sociale producono più tempo sulla piattaforma della gioia o della curiosità. Così il sistema abbandona qualsiasi orientamento al benessere dell’utente e punta a tenerlo agitato quanto basta da non riuscire a smettere. Tenerlo agitato diventa il modello e non una sua conseguenza imprevista.
Shoshana Zuboff chiama questo meccanismo capitalismo della sorveglianza: l’esperienza umana trattata come materia prima gratuita, estratta e venduta sotto forma di previsioni comportamentali. La descrizione tecnica di come funziona il sistema, molto più che una metafora.
C’è però un punto che il dibattito sulla dipendenza digitale tende a eludere, perché è il meno facile da affrontare: finché il modello di business delle piattaforme si basa sulla vendita di attenzione agli inserzionisti, qualsiasi intervento sul design è un cerotto su una ferita strutturale.
Lo scroll infinito può essere vietato, l’autoplay disattivato e le notifiche limitate ma se il ricavo dell’azienda dipende ancora dal tempo che l’utente trascorre sulla piattaforma, il sistema troverà sempre nuovi meccanismi per ottenerlo. Nessun legislatore ha ancora proposto seriamente di cambiare questo: i regolamenti intervengono sul come, lasciando intatto il perché.
A rendere lo scenario (se possibile) più urgente è l’intelligenza artificiale. Gli algoritmi di oggi non sono quelli del 2015: sono sistemi che apprendono in tempo reale cosa tiene l’utente incollato allo schermo, con una precisione che i sistemi precedenti non avevano nemmeno come obiettivo. Un algoritmo di dieci anni fa ottimizzava per categorie predefinite. Un sistema basato sull’IA generativa ottimizza per il profilo comportamentale specifico di ogni singolo utente, aggiornandosi continuamente. La capacità di catturare l’attenzione non sta diminuendo con la regolamentazione ma, peggio, sta crescendo con la tecnologia.
La rete che non avevamo immaginato
Chi ha iniziato a frequentare internet negli anni Novanta o nei primi anni Duemila porta con sé un’immagine che non corrisponde più a nulla di esistente. La rete che avevamo in testa era un luogo aperto, orizzontale, tendenzialmente democratico, dove l’informazione circolava senza filtri e le persone si connettevano liberamente. Un posto dove il potere si distribuiva invece di concentrarsi. Molti di noi ci hanno creduto davvero, e quella convinzione ha plasmato il modo in cui noi “vecchi” guardiamo ancora oggi a quello che succede online, compresi i ragazzi che ci vivono dentro.
Il problema è che stiamo usando una mappa vecchia per leggere un territorio che non esiste più.
La rete di oggi ha poco a che fare con quella che avevamo immaginato. Un sistema di infrastrutture private, ciascuna con le proprie regole opache, i propri algoritmi, i propri incentivi economici. Uno spazio strutturato come una serie di centri commerciali in cui l’accesso è gratuito perché, come ha detto qualcuno più capace di me, il prodotto sei tu. Le conversazioni non fluiscono liberamente: vengono filtrate, amplificate o soppresse in base a criteri che le aziende non rendono pubblici e che cambiano senza preavviso.
La promessa della connessione si è trasformata in un sistema di sorveglianza continua dell’attenzione.
Questo divario tra l’immagine che abbiamo della rete e la rete reale è il punto cieco più grande nel dibattito sui giovani e i social. Perché quando parliamo degli adolescenti online, lo facciamo con categorie che non appartengono alla loro esperienza. Noi abbiamo imparato a vivere la rete quando era ancora relativamente giovane e meno ottimizzata, loro ci sono nati dentro quando il sistema era già stato affinato per catturare esattamente la loro psicologia.
E qui sta il paradosso: pensiamo di sapere cosa vivono, ma la nostra visione è distorta in due direzioni opposte. Da un lato tendiamo a drammatizzare, proiettando sugli adolescenti i nostri timori da adulti su una tecnologia che conosciamo solo in parte. Dall’altro la minimizziamo, ricordando che anche noi siamo sopravvissuti alle televisioni accese tutto il giorno, ai videogiochi “violenti e alienanti”, ai fumetti che “corrompevano le menti”. Nessuno dei due atteggiamenti corrisponde a quello che i ragazzi effettivamente vivono.
Quello che i ragazzi vivono è parecchio più complicato di entrambe le narrazioni. Secondo una ricerca condotta su ragazzi italiani tra i 12 e i 17 anni, circa la metà dichiara di sognare una vita più analogica, con sport, amici dal vivo, tempo libero vero. Il 34% ammette di sentirsi peggio dopo un uso prolungato dei social, soprattutto tra le ragazze. Eppure continuano a usarli, non perché siano stupidi o ingenui, ma perché il costo di uscire da quegli ambienti è reale: significa perdere le conversazioni del gruppo, uscire dal flusso informativo dei coetanei, diventare invisibili in spazi che per loro sono socialmente rilevanti quanto il cortile della scuola o il campetto lo erano per noi.
Questa lucidità degli adolescenti sul proprio consumo è la cosa che gli adulti tendono a ignorare di più. I ragazzi spesso capiscono il sistema meglio di molti adulti, semplicemente perché ci vivono dentro tutto il giorno. La consapevolezza però, da sola, rimane insufficiente a uscire da un sistema progettato per rendere l’uscita psicologicamente costosa.
C’è però una parte di quello che vivono che gli adulti tendono a sottovalutare in modo sistematico, e riguarda la qualità dei contenuti a cui sono esposti ogni giorno. Quando parliamo di dipendenza digitale pensiamo quasi sempre al tempo: quante ore passano sullo schermo, quando si addormentano, quando si alzano e raramente parliamo di cosa scorre in quello schermo.
L’algoritmo che abbiamo descritto sopra, quello che premia le emozioni forti perché le emozioni forti trattengono, non distingue tra emozioni costruttive e emozioni distruttive. Premia la violenza, la sessualizzazione, l’umiliazione pubblica e il conflitto con la stessa logica con cui premia qualsiasi altro contenuto che genera reazione intensa. Il risultato è che i ragazzi sono immersi quotidianamente in un flusso di contenuti che nessun adulto ha selezionato, che nessun genitore ha visto prima, e che il sistema propone attivamente perché funzionano per i suoi obiettivi di business, non per quelli dello sviluppo psicologico di un quattordicenne.
I dati raccontano qualcosa che merita di essere detto senza eufemismi. Le ricerche italiane più recenti fotografano un panorama in cui la maggioranza dei giovani tra gli 11 e i 19 anni ha subito almeno una forma di comportamento offensivo o denigratorio online o offline. Una quota significativa ha sperimentato cyberbullismo, violenza nelle relazioni, pressioni sessuali, condivisione non consensuale di immagini intime. Siamo purtroppo dentro la normalità statistica dell’adolescenza italiana nel 2025, lontani dai casi limite.
Il problema più profondo però non è la frequenza dei comportamenti, ma la loro progressiva normalizzazione. I ragazzi vedono così tanto contenuto violento, sessualizzato, umiliante da perdere gradualmente la capacità di riconoscerlo come tale. Ricerche recenti sugli stereotipi di genere tra i giovani italiani mostrano che una quota significativa di adolescenti considera accettabile che un partner controlli abitualmente il telefono o i social dell’altro. Si tratta dell’effetto di un’esposizione prolungata a modelli relazionali distorti presentati come normali, attraenti, desiderabili. Il culto del corpo fisico perfetto, alimentato da un sistema che premia l’immagine sessualizzata e punisce l’imperfezione con l’invisibilità, è un prodotto diretto della dipendenza, prima ancora che un fenomeno separato. Una quota rilevante di ragazze dichiara che i social condizionano il modo in cui percepisce il proprio corpo. I documenti interni di Meta mostravano esattamente questo effetto su Instagram, e l’azienda ha scelto di non intervenire.
Il bullismo digitale ha poi una caratteristica che lo rende qualitativamente diverso da quello che molti adulti hanno vissuto da adolescenti. L’umiliazione offline aveva confini fisici: finiva con la fine della giornata scolastica, restava circoscritta a un gruppo. Quella online è permanente, pubblica e soprattutto senza spazio di fuga. Un video umiliante caricato su una piattaforma può essere visto da migliaia di persone, rimane accessibile nel tempo, e raggiunge la vittima anche quando è a casa, a letto, da sola. L’adolescente che veniva preso in giro a scuola poteva almeno chiudere la porta di casa. L’adolescente di oggi non ha e non può avere quel confine.
Tutto questo scorre in background mentre discutiamo di sentenze, regolamenti e età minime. Capire cosa si sta cercando di proteggere, e perché farlo con urgenza vera, richiede di tenere questo piano sempre in vista, anche quando si parla di leggi.
E noi adulti, che dovremmo accompagnarli, spesso non siamo attrezzati per farlo, perché stiamo ancora cercando di leggere la loro esperienza con gli occhi di una rete che non esiste più.
È in questo contesto che va letta la sentenza di Los Angeles: il punto in cui una traiettoria lunga vent’anni ha incontrato una giuria disposta a chiamare le cose con il loro nome.
Cosa dice davvero la sentenza
Quando si parla di dipendenza digitale salta fuori il paragone con il tabacco e ogni volta si ritiene che sia esagerato. Stavolta però quel paragone ha trovato una forma giuridica concreta, e questo cambia parecchio il peso della cosa. Come i produttori di sigarette vennero accusati di aver venduto dipendenza pur conoscendo gli effetti cancerogeni, oggi le piattaforme vengono accusate di aver costruito architetture di cattura dell’attenzione sapendo degli effetti psicologici sugli utenti più fragili. I documenti interni di Meta emersi in questi anni di processi confermano che l’azienda conosceva gli effetti di Instagram sulle adolescenti, in particolare sul rapporto con il proprio corpo, e ha scelto per questioni biecamente economiche di lasciare le cose come stavano.
La differenza con il tabacco è che la nicotina lascia tracce biologiche misurabili, mentre il danno psicologico da dipendenza digitale è più scivoloso da isolare causalmente. Ed è su questo punto che probabilmente si giocherà la partita in appello.
Il punto più interessante della sentenza, però, non riguarda i contenuti pubblicati dagli utenti ma il design dei prodotti stessi. La giuria ha ritenuto lo scorrimento infinito e i sistemi algoritmici di raccomandazione meccanismi di cattura dell’attenzione progettati per massimizzare il tempo sulla piattaforma, a prescindere dagli effetti sull’utente.
Il meccanismo della ricompensa variabile (a volte un contenuto interessante, a volte un like, a volte nulla) è lo stesso principio su cui funziona una slot machine. B.F. Skinner lo aveva dimostrato negli anni Cinquanta: il rinforzo intermittente produce compulsione ossessiva molto più efficacemente della ricompensa continua. Diversi tra i fondatori delle piattaforme che stiamo analizzando hanno frequentato i laboratori che studiavano queste vulnerabilità della psiche umana, e il design persuasivo è lo strumento e l’intenzione principale del modello pubblicitario, prima ancora che un suo effetto collaterale.
Un dettaglio che spesso sfugge: questi algoritmi premiano i contenuti che generano reazione emotiva intensa, perché la reazione emotiva trattiene l’utente sulla piattaforma più a lungo. La moderazione non vende annunci, la polarizzazione sì.
TikTok e Snapchat avevano scelto l’accordo extragiudiziale prima che il processo iniziasse, con una cifra rimasta riservata, perché nel calcolo del rischio legale evitare un precedente pubblico vale molto più della somma del patteggiamento dato che un accordo non crea giurisprudenza come una condanna.
Le distorsioni
Guardare le questioni meno evidenti di questa storia è però necessario, perché sono significative quanto la sentenza stessa, facendo la tara alle emozioni che nascono quando un Davide vince contro addirittura due Golia.
La salute mentale degli adolescenti ha radici familiari, scolastiche, biologiche, socioeconomiche, e ricondurla integralmente alle piattaforme serve al racconto processuale ma molto meno alla comprensione del problema nella sua complessità. Il rischio è che una vittoria giuridica diventi un paravento comodo, come se bastasse regolamentare lo scrolling per chiudere una crisi che ha radici molto più distribuite e profonde.
C’è anche da ricordare che le due condanne non sono equivalenti. YouTube non replica le dinamiche di confronto identitario tra pari che caratterizzano Instagram, non amplifica lo stesso tipo di pressione sociale sugli adolescenti. Che il meccanismo di raccomandazione algoritmica possa creare dipendenza è reale, ma equiparare le due piattaforme in termini di design orientato alla dipendenza è una forzatura che Google ha già annunciato di voler contestare in appello, e non del tutto a torto.
La distorsione più fastidiosa riguarda comunque noi. La storia di una bambina di sei anni con il tablet in mano è reale, anche commovente e solleva una domanda che il racconto mediatico tende a glissare: chi le ha dato quel tablet, e perché.
Quella figura “misteriosa” scompare ogni volta che conviene a ciò che è meglio raccontare eppure siamo noi adulti a fare o a desiderare di non fare cultura dentro questi spazi, siamo sempre noi a scrollare con l’ansia addosso mentre discutiamo dei danni dello scrolling. Ancora noi quelli che usano gli stessi meccanismi che critichiamo, spesso sperando che la nostra invettiva raccolga engagement, confermando così, involontariamente, che il sistema funziona esattamente come è stato progettato.
Questa cosa a me pesa ogni volta che ci penso, perché i dati sui danni dei social esistono e sono sufficienti per smettere di fingere di non saperlo. Il punto è che continuiamo a separare la nostra esperienza quotidiana dall’analisi che facciamo, come se il soggetto che scrolla e quello che ragiona fossero due persone diverse. Una schizofrenia tipica di chi guarda il dito e non vede la luna e ne siamo coinvolti tutti.
Cosa si può fare
Prendere atto della distorsione non significa però rassegnarsi. Qualcosa si sta muovendo, su piani diversi e con velocità diverse, e vale la pena guardarlo con onestà.
Ho fatto e faccio ancora parte del progetto Parole O_Stili, un progetto nato a Trieste nel 2016 che lavora sul piano dell’educazione consapevole all’uso del digitale (il più lento e faticoso di tutti, e probabilmente l’unico che produce cambiamento reale nelle persone). Il Manifesto della comunicazione non ostile, costruito con oltre 300 tra giornalisti, comunicatori, docenti e professionisti, è diventato un riferimento per le scuole di ogni ordine e grado, con schede didattiche, percorsi di educazione civica e formazioni rivolte agli studenti ma anche ai docenti e ai genitori. Lavorare infatti solo sui ragazzi senza che gli adulti intorno a loro capiscano le dinamiche degli ambienti digitali che abitano ogni giorno produce poco: è questa la premessa su cui il progetto è costruito, e regge.
L’educazione digitale che funziona ha un’architettura precisa: invece di dire “stai meno al telefono” si comincia a chiedere cosa ci fai lì dentro, si accompagna invece di controllare, si mostra come si fa piuttosto che limitarsi a dire cosa non si deve fare. È una rincorsa difficile con la velocità con cui le piattaforme evolvono, e sarebbe disonesto presentarla come risolta ma rimane l’unica che produce cambiamento nelle persone, non solo nelle leggi.
La scuola è l’istituzione che più di tutte dovrebbe essere al centro di questo cambiamento, e invece è ancora abbastanza ferma in mezzo al guado. Il dibattito sull’uso degli smartphone in classe riflette esattamente la confusione descritta finora: da un lato chi vuole il divieto totale, dall’altro chi sostiene che vietare significa ignorare la realtà. Entrambe le posizioni hanno una logica, nessuna delle due affronta il problema vero, che non è se portare il telefono a scuola ma cosa si fa con il telefono a scuola, e chi insegna a farlo. Una scuola che proibisce lo smartphone senza spiegare perché e senza offrire un’alternativa smette di educare e rimanda il problema di qualche ora. Una scuola che lo permette senza ragionamento consapevole non è innovatrice ma sta abdicando dal ruolo per comodità. Quello che manca, in entrambi i casi, è la stessa cosa che manca nel dibattito pubblico più ampio: una visione adulta coerente di cosa vogliamo che i ragazzi facciano in questi ambienti, e soprattutto perché.
Le leggi però servono, e qui il discorso si fa più complesso. L’educazione da sola è insufficiente: aspettarsi che formi gli utenti più velocemente di quanto le piattaforme li condizionino è un ottimismo che i dati non supportano. Servono anche le leggi.
La soluzione più dibattuta è quella dell’età minima. Il Parlamento europeo ha approvato a novembre 2025 una risoluzione che chiede di fissare a 16 anni l’età minima per l’accesso ai social, con la possibilità di scendere a 13 con consenso esplicito dei genitori. L’Australia ha già legiferato in questo senso da dicembre 2025. La Francia punta a vietare l’accesso agli under 15 a partire da settembre 2026. In Italia un disegno di legge bipartisan si muove nella stessa direzione, con un’architettura che obbliga le piattaforme a verificare l’età tramite un mini-portafoglio nazionale digitale, disponibile entro giugno 2026.
Il problema di questa strada è sostanziale: la verifica dell’età su internet è tecnicamente aggirabile in pochi minuti da qualsiasi ragazzino di dodici anni con un minimo di curiosità.
La strada più interessante riguarda il design stesso. Il Parlamento europeo nella stessa risoluzione chiede di vietare per legge lo scroll infinito, l’autoplay e i cicli di ricompensa per i minori, imponendo alle piattaforme di disattivarli per impostazione predefinita. Questa è la misura che cambia davvero la struttura del prodotto. Se lo scroll infinito fosse illegale per gli under 16, le piattaforme sarebbero costrette a riprogettare il cuore del loro meccanismo di cattura dell’attenzione. Ed è difficile costruire una versione del prodotto con i freni e una senza, senza che i freni si diffondano anche agli adulti.
C’è poi la responsabilità personale dei manager: se l’alta dirigenza delle piattaforme può essere chiamata a rispondere personalmente in caso di grave inosservanza delle norme sulla protezione dei minori, il calcolo del rischio cambia radicalmente. Una multa all’azienda viene assorbita nel bilancio, la responsabilità personale è decisamente un’altra cosa.
Il vero limite di tutte queste misure è la loro applicazione: le istruttorie si misurano in anni mentre le piattaforme cambiano algoritmo in settimane. La sentenza americana è interessante proprio perché la responsabilità civile in aula ha una velocità diversa dalla regolamentazione amministrativa e costringe le aziende a difendersi caso per caso, in modo pubblico (e con i media affamati di storie), davanti a una giuria. E nel frattempo chiunque costruisca la propria comunicazione esclusivamente dentro queste piattaforme deve essere consapevole di edificare casa su terreno altrui, delegando la gestione della propria relazione con il pubblico a infrastrutture private il cui interesse dichiarato è trattenere e monetizzare l’utente.
Probabilmente serve un mix delle tre leve insieme: la verifica dell’età (non il vietare per l’età) come deterrente, il divieto di design predatorio come intervento strutturale, e la responsabilità civile come pressione continuativa. Applicate con continuità, spostano il terreno su cui le piattaforme operano.
Quello che rimane
Le piattaforme devono cambiare, i precedenti giuridici contano e le leggi servono anche se tuttavia nessuna sentenza, nessuna risoluzione europea, nessun disegno di legge risolve il fatto che abitiamo questi ambienti ogni giorno, che li usiamo per comunicare, per lavorare, per svago, per compagnia o per ragionare ad alta voce, come anche io sto facendo con voi adesso.
Finché useremo il verdetto contro Meta e Google come conferma che la questione non riguarda anche noi, continueremo a guardare nella direzione sbagliata. Kaley oggi ha vent’anni e un verdetto con il suo nome: la bambina di sei anni con il tablet in mano porta con sé le scelte di design di un’azienda californiana, e insieme porta il risultato di un sistema di adulti che su questi temi ha ancora molto da decidere e crescere, a partire da quello che fa con il proprio pollice ogni sera sul divano.
Perché la colpa, in fondo, è sempre dello scegliere il compromesso più comodo e non quello più giusto sacrificando una parte del nostro presente per costruire il futuro di tutti.



11 anni fa scrissi un post sul mitico "Hic Rhodus" intitolato "Smettetela di mettere le foto dei bambini su Facebook". Era un tema 'caldo' ed era ben documentato, ma il post ricevette un numero incredibile di commenti, molti dei quali contrari e dubbiosi verso il mio allarme. Tu ci spieghi bene come le cose siano cambiate, assolutamente in peggio. Nel panorama urbano quotidiano (in autobus, nella sala d'attesa di un medico...) vedo continuamente adulti scrollare compulsivamente video con le musichine a palla, affiancati dai loro figli che guardano quel gesto, quel tipo di comportamento sociale. È un modo per passare il tempo, ingannare la noia, che è molto correlato alla classe sociale, all'istruzione e alla cultura, e mi sembra facile immaginare un prossimo futuro dove le élite più colte utilizzano con moderazione i social (o quel che di peggio ci riserva il futuro, ora con l'AI) mentre un'ampia base popolare ne rimarrà succube, nelle nuove forme che gli ingegneri del Web studieranno. Questo, in sostanza, dice anche la tua conclusione: la scuola, gli adulti... Soluzioni per una minoranza. Shoshana Zuboff - che tu citi - ha scritto il suo libro spaventoso nel 2019; è già roba vecchia, tutto è assai peggio. La mia personale forma di resistenza ai social è la ritirata; 2-3 anni fa li ho abbandonati tutti, senza eccezione, e sono approdato a Substack (unico social che frequento) solo da poco. Ma questa, ovviamente, può essere la mia risposta, non la soluzione. Vedo mio nipote di 14 ani e tremo. Grazie per l'ottimo articolo.
Rendere la dipendenza digitale un reato è il modo perfetto per non affrontare il problema vero: chi progetta quei sistemi sa esattamente cosa sta facendo. È come multare chi beve troppo senza toccare chi gli vende l’alcol sapendo che è un minorenne. Il reato non è essere dipendenti. Il reato è costruire macchine progettate per creare dipendenza e poi fare finta di niente.