Social media e minori: nel 2026 iniziano i processi sulla responsabilità delle piattaforme

26 views

Vi ricordate quando Instagram aggiunse il pulsante per segnalare i contenuti pericolosi? O quando Facebook e TikTok implementarono le funzioni di parental control per i…

Panda SecurityFeb 16, 20269 min read

Vi ricordate quando Instagram aggiunse il pulsante per segnalare i contenuti pericolosi? O quando Facebook e TikTok implementarono le funzioni di parental control per i genitori? O tutti i post e le guide sul benessere digitale pubblicate dai vari social media?

Tutte queste “soluzioni” non fanno altro che spostare la responsabilità sull’utente e mettere dei cerotti su ferite aperte, dopo anni di progettazione il cui obiettivo principale è stato proprio creare dipendenza.

Oggi, però, le cose potrebbero finalmente cambiare: negli USA sono iniziati i bellwether trial sulla responsabilità legale delle aziende dei social, ovvero dei processi campione pensati per testare, davanti a una giuria, la solidità delle accuse e delle difese.

Il primo processo di prova riunisce 1600 querelanti, tra famiglie e individui, ed è iniziato il 9 febbraio presso la Los Angeles County Superior Court, in California.

In questo articolo vedremo:

  • Cosa sono i processi campione degli USA contro i social media?
  • Di cosa si discute? Di cosa sono accusate le Big Tech?
  • Cosa potrebbe succedere?
  • Quali saranno le conseguenze per l’Italia e l’Europa?
  • Qual è il vero problema dei social media?
  • E tu, cosa puoi fare come utente e genitore?

Buona lettura!

Sicurezza online minori: cosa sta succedendo nei tribunali USA?

Quest’anno, negli Stati Uniti, inizieranno alcuni bellwether trial sugli effetti dei social media sui minori, ovvero dei processi di prova per saggiare la risposta di giudici e giurie, prima di portare in tribunale migliaia di altri casi e azioni collettive.

I bellwether trial sono uno strumento giuridico specifico degli USA e servono agli avvocati per capire se ha senso andare avanti con le accuse e le denunce (che comportano grandi spese per i clienti).

Per la prima volta, le aziende di social media sono accusate di aver progettato le proprie piattaforme in modo da creare dipendenza e non proteggere gli utenti più giovani. Finora sono riuscite a far cadere le accuse adducendo che la responsabilità dell’esposizione dipende dall’utente, ma ora potrebbero essere ritenute colpevoli perché l’attenzione si sposta proprio su come funzionano le app e i siti.

“16 ore di Instagram? Non è dipendenza, direi un uso problematico.” Adam Mosseri, Responsabile di Instagram

Rischi dei social media: cos’è successo in venti anni di denunce e studi scientifici

La comunità scientifica ha dimostrato che l’uso dei social può avere effetti negativi sui giovani, come dipendenza, ansia, depressione, isolamento sociale e problemi scolastici.

Uno dei casi più famosi è quello di una donna di 20 anni identificata come Kiley G.M., che ha denunciato Meta per gravi danni psichici e psicologici e il cui esito giuridico potrebbe influenzare migliaia di cause analoghe in tutto il mondo. Per inquadrare meglio la situazione, recentemente Adam Mosseri, responsabile di Instagram, ha dichiarato che “16 ore di Instagram al giorno non sono dipendenza, ma un uso problematico”.

Nel corso degli anni, molte famiglie statunitensi hanno denunciato aziende come Meta o ByteDance (TikTok), ma queste si sono difese dicendo che dipende dall’utente controllare l’esposizione ai contenuti.

Ora però, gli avvocati provano ad affrontare la questione da un’altra angolazione: la progettazione delle interazioni app-utente e i loro effetti psicologici. L’accusa è questa, semplificando: le aziende dei social sanno perfettamente che effetti hanno le loro piattaforme su bambini e ragazzi.

Non solo ne sono consapevoli, ma hanno progettato piattaforme che tendono ad amplificare questi meccanismi e, in ultima istanza, aumentare l’esposizione alla pubblicità.

Se questi processi campione dovessero avere un esito positivo, il 2026 potrebbe confermarsi come l’anno di svolta per la responsabilità legale dei social media, e forse qualcosa potrebbe finalmente cambiare.

Differenze rispetto agli USA e conseguenze per l’Europa

I Paesi anglosassoni e la maggior parte di quelli europei hanno due sistemi giuridici diversi: il primo, chiamato Common Law, si basa sui giudici e sulle sentenze passate, mentre il secondo, chiamato Civil Law, si basa su codici scritti e norme astratte e dettagliate.

Da un punto di vista pratico, questi due sistemi si traducono in due approcci diversi: gli USA processano e condannano, l’Europa emette leggi e poi multa. Nonostante le differenze, però, questi sistemi comunicano e si arricchiscono a vicenda: in questo caso, se i processi degli USA dovessero andare a buon fine, è molto probabile che anche in Italia e in Europa inizieranno le cause e le class action.

In particolare, le conseguenze nell’UE potrebbero essere queste:

  • Violazioni del DSA (Digital Services Act) e conseguenti sanzioni economiche e penali.
  • Avvio di cause collettive e individuali da parte di famiglie in cui i social media hanno causato problemi di salute mentale nei figli minorenni.
  • Adeguamento delle normative per obbligare le aziende a considerare la sicurezza in fase di progettazione.

Non ci resta che aspettare, perché per il momento l’utente può solo limitare i danni: l’unica vera soluzione sarebbe riprogettare i social media in modo che non creino dipendenza.

Il vero problema dei social media: progettazione e sicurezza percepita

Quello che hanno fatto finora le aziende di social media è stato dichiarare di avere a cuore il benessere degli utenti, offrire strumenti e soluzioni parziali a un problema che hanno creato loro e far ricadere la responsabilità sull’utente finale.

In pratica è come se dicessero: noi moderiamo i contenuti, ma gli effetti sui tuoi figli dipendono da come tu li lasci usare la nostra piattaforma. Se hanno dei problemi, è perché tu non hai saputo controllarli e limitarli.

Invece, la realtà è un’altra:

  • I social media creano dipendenza tramite i meccanismi di ricompensa rapida e rilascio di dopamina (per approfondire, leggi questo articolo su dopamina e ricompensa)
  • L’effetto dipende da come sono progettate, ad esempio dalle pagine a scorrimento infinito, e non dalla qualità dei contenuti.
  • Alle aziende interessa, perché gli utenti rimangono più tempo e quindi guardano più annunci pubblicitari, che sono la prima fonte di entrate di questo tipo di business.
  • Le impostazioni di sicurezza aumentano solo la sicurezza percepita, abbassando ancora di più quella reale: l’utente smette di preoccuparsi e non tiene presente la connessione reale che si crea tra la sua mente e la piattaforma online.
  • Spostano la responsabilità sull’utente, come dire “io ti metto in mano una pistola, ma se la usi e come la usi sono fatti tuoi”.

Alla fine, il genitore o il singolo utente finale si chiede: “ma quindi la responsabilità di chi è? È colpa mia o delle grandi aziende?” e soprattutto, “Cosa posso fare per proteggere la sicurezza digitale della mia famiglia?

Di chi è la responsabilità?

Diciamolo chiaramente, i genitori devono controllare l’uso delle tecnologie da parte dei figli, ma la responsabilità vera e propria è di chi offre il servizio. Se ogni volta che dai il telefono a tua figlia, dopo un’ora ti chiede di più o ha poca voglia di dedicarsi ad altre cose, è perché il suo cervello ha sperimentato continue scariche di dopamina e si è staccato dalla realtà circostante (come succede anche agli adulti con il doom scrolling).

Questa è la parte difficile: non puoi risolvere il problema, a meno che tu non prenda in considerazione la possibilità di vietare i social media ai tuoi figli. Attenzione, può sembrare una misura drastica, ma la comunità scientifica ha molti dati a favore di questo approccio, e ci sono interi Paesi che, come l’Australia, hanno vietato i social media ai minori di 16 anni.

Cosa fare per ridurre gli effetti dannosi dei social media

Finché le aziende di social media non riprogetteranno le loro app, l’unica cosa che puoi fare è limitare i danni (e non sentirti colpevole):

  • Spiega il funzionamento e i rischi intrinseci dei social ai tuoi figli. Fai capire loro quali sono i problemi e spiega perché bisogna limitarne l’uso. Spiegare e decidere insieme fa sentire i ragazzi coinvolti e non le vittime di un’imposizione dall’alto.
  • Usa strumenti esterni, come app di parental control, monitor del traffico web e così via, visto che le funzioni interne dei social non sono efficaci.
  • Fai attenzione al tempo e al modo con cui interagite con i social (e non solo ai contenuti). Una buona idea, ad esempio, può essere ripartire il tempo che dedicate ai social in diversi momenti della giornata, invece di concentrarlo tutto in una volta.
  • Prova alternative più specifiche e trasparenti. Esistono social e canali più rispettosi degli utenti. Probabilmente ti sembreranno meno attraenti, ma vale la pena provarli. Ad esempio, un ragazzo appassionato di gaming potrebbe partecipare a una chat di Discord, dove può conoscere altre persone con passioni simili. Oppure potete provare social etici e di nicchia, come BeReal.
  • Usa un blocco annunci. Infine, è importante limitare gli effetti diretti dell’esposizione sui social media, ovvero sui nostri comportamenti di acquisto. Un software di blocco annunci aiuterà tutta la famiglia a comprare di meno e in modo meno impulsivo.

In qualità di esperti di cybersecurity, crediamo che il benessere digitale sia una parte importante della sicurezza online dei minori (ma anche degli adulti).

Per questo, oltre a tutti i consigli che condividiamo spesso per navigare sicuri online – come usare password robuste e non fare clic su link sospetti – è necessario usare le piattaforme digitali in modo sicuro e controllato.

Per anni abbiamo discusso di contenuti tossici e tempo di utilizzo. Il 2026 potrebbe spostare l’attenzione su qualcosa di più profondo: l’architettura stessa delle piattaforme e la responsabilità di chi le progetta.

CONTINUA A LEGGERE: Che fine ha fatto Piracy Shield?

Buona navigazione e buon uso sicuro dei social media!