Site icon Panda Security Mediacenter

Aggiornamento TikTok: le nuove linee guida

TikTok ha aggiornato le linee guida della community per potenziare la moderazione dei contenuti e regolare l’uso dei deepfake. Scopri di più!

TikTok è utilizzata da miliardi di persone in tutto il mondo, per cui ha una grossa responsabilità nei confronti della sua community di utenti. Per questo motivo, l’app di ByteDance pubblica delle linee guida per la community, ovvero una serie di regole e standard per l’utilizzo di TikTok, sia da parte degli utenti sia da parte dell’app stessa.

Queste linee guida vengono aggiornate periodicamente per stare al passo coi tempi, e proprio a marzo del 2023 sono state aggiunte alcune novità, tra cui le più importanti riguardano l’uso e la condivisione dei media elaborati con AI.

In questo post vediamo quali sono le nuove norme di TikTok per i media sintetici e deepfake, quali sono i principi su cui si basa l’attività dell’app e come utilizzarla in sicurezza. Continua a leggere!

Linee guida della community di TikTok

TikTok ha sviluppato un ricco elenco di linee guida “definite sulla base di quadri giuridici internazionali, sulle best practice del settore, sui suggerimenti della nostra community, degli esperti di sicurezza e salute pubblica e dei nostri consigli consultivi regionali. Le adeguiamo per affrontare i rischi emergenti e i danni potenziali che possono derivare da nuovi comportamenti.”

È importante sottolineare che non si tratta di decisioni arbitrarie, ma di principi e regole basate sulla prassi internazionale e il parere di esperti, nonché sulle esperienze e segnalazioni della community, che alla fine è il punto di riferimento più importante per quanto riguarda le sue stesse necessità di privacy e moderazione dei contenuti.

In particolare, quest’ultimo aspetto è diventato importantissimo per TikTok e molte altre app: contrassegnare chiaramente determinati contenuti, rimuovere quelli dannosi e dare la possibilità all’utente di decidere cosa vedere e cosa no, proteggendo i minori.

L’AI può rendere più difficile distinguere tra realtà e finzione, comportando rischi sia sociali che individuali.

Aggiornamento di marzo 2023

L’ultimo aggiornamento è incentrato sui media sintetici, ovvero i video realizzati o modificati tramite applicazioni di AI (intelligenza artificiale). Questo è il termine tecnico che ingloba tutti i media elaborati con app basate su AI, ma che fino a poco tempo fa chiamavamo deepfake e che rappresentano il problema principale per le piattaforme come TikTok.

Le norme andavano aggiornate perché:

Nella nuova sezione Media sintetici e manipolati, TikTok afferma che “l’AI può rendere più difficile distinguere tra realtà e finzione, comportando rischi sia sociali che individuali. I supporti sintetici o manipolati che mostrano scene realistiche devono essere chiaramente segnalati.

Inoltre, “Non sono ammessi supporti sintetici che contengano le sembianze di figure private reali. Pur concedendo maggiore libertà ai personaggi pubblici, non vogliamo che siano oggetto di abusi o che le persone siano fuorviate su questioni politiche o finanziarie. Non permettiamo l’uso di media sintetici di personaggi pubblici se il contenuto viene usato per sponsorizzazioni o se viola qualsiasi altra politica.

Le politiche più importanti a cui si fa riferimento sono quelle che proteggono i minori e, più in generale, gli utenti da incitamento all’odio, discriminazione, abusi, sfruttamento sessuale, bullismo e qualsiasi altro tipo di molestia o contenuto dannoso.

Da qualche anno le Big Tech hanno dovuto assumersi la responsabilità di controllare in modo più efficiente ed efficace ciò che viene pubblicato sulle loro piattaforme online e, cosa ancora più importante, migliorare la trasparenza e il controllo per gli utenti finali.

LEGGI ANCHE: Abbiamo bisogno di una legge sulla moderazione dei contenuti online?

La moderazione dei contenuti di TikTok

L’approccio di TikTok alla moderazione dei contenuti si basa su 4 principi fondamentali:

  1. Rimozione dalla piattaforma dei contenuti inappropriati che violano le regole.
  2. Contenuti per un pubblico maturo con limitazioni di età, in modo che siano visualizzati solo da adulti (almeno 18 anni).
  3. Controllo degli standard di idoneità della pagina Per Te, per avere la certezza che qualsiasi contenuto promosso in base al sistema di raccomandazioni sia adatto a un pubblico più ampio.
  4. Fornire alla community informazioni, strumenti e risorse.

La rimozione dei contenuti inappropriati è la soluzione con il maggiore impatto sull’app e sull’ecosistema digitale in generale. TikTok, Google e tutte le altre grandi piattaforme utilizzano algoritmi di AI per riconoscere i contenuti inappropriati e rimuoverli, oltre alla segnalazione manuale da parte degli utenti.

Infatti, la partecipazione della community è fondamentale per mantenere un ambiente online sano e rispettoso. A questo scopo, i contenuti devono anche essere categorizzati e divisi in base a limitazioni di età, soprattutto nel caso di TikTok che ha un pubblico minorenne molto ampio.

Il principio di adeguatezza dei contenuti si applica in special modo alla pagina Per te, quella con i contenuti consigliati in base ai gusti e all’attività dell’utente. Si tratta di un approccio prudente, affinché questa sezione contenga materiali destinati a un pubblico più ampio, in modo da ridurre al minimo le possibilità di esporre persone fragili a contenuti dannosi.

Infine, come abbiamo accennato, TikTok punta molto sull’emancipazione del pubblico, che promuove fornendo informazioni e strumenti per controllare la propria esperienza di utilizzo.

Le parole d’ordine sono rispetto, privacy, inclusione e trasparenza, ma quanto sono effettivi questi diritti in una piattaforma come TikTok?

I principi della community di TikTok

Oltre a questi 4 pilastri per la moderazione dei contenuti, TikTok ha stabilito 8 principi fondamentali a cui si ispira l’attività della community e che regolano il modo in cui l’app si impegna a rispettare e far rispettare i diritti umani:

Oggettività

Dignità

Equità

Le parole d’ordine, quindi, sono sempre di più rispetto, privacy, inclusione e trasparenza, ma quanto sono effettivi questi diritti in una piattaforma come TikTok?

Problemi di sicurezza, disinformazione e abusi online

Le app come TikTok e Instagram sono difficili da controllare perché si basano sui contenuti generati dagli utenti. La moderazione ha un ruolo fondamentale, ma può arrivare fino a un certo punto, per cui è normale che certi contenuti pericolosi o, ad esempio, un commento offensivo possano passare inosservati.

Il dilemma etico è tutto qui: la responsabilità è dell’app o è condivisa tra l’azienda e la community? Fino a che punto si può dare la colpa a un’app come TikTok quando un utente pubblica un deepfake per fare revenge porn o un commento che incita all’odio contro una persona?

Inoltre, questo tipo di comportamenti non tocca solo la sfera personale della privacy e del benessere psicologico delle persone, ma può avere ripercussioni anche a livello sociale e politico, basti pensare all’influenza della disinformazione sulle campagne elettorali.

Dal nostro punto di vista, l’approccio di TikTok è quello giusto:

A tutto questo, aggiungeremmo un’autolimitazione del tempo di utilizzo di TikTok e altre app mobile, che sono sviluppate in modo da creare dipendenza negli utenti. Inoltre, è necessario informarsi regolarmente sui risultati degli studi scientifici relativi agli effetti delle tecnologie digitali, per capire come funzionano davvero, come interagiscono con il nostro cervello e quali sono i pericoli.

Pretendere da TikTok e dalle app di social media di fare tutto il lavoro sporco non è sufficiente: se vogliamo dei risultati concreti, dobbiamo imparare a riconoscere i contenuti inappropriati, segnalarli e controllare la nostra attività in-app.

CONTINUA A LEGGERE: ChatGPT è pericoloso? L’abbiamo chiesto a ChatGPT

Buona navigazione e buon utilizzo responsabile di TikTok!

Exit mobile version