TikTok sbaglia algoritmo ed è subito polemica

Negli ultimi due anni, nessun social ha registrato una crescita mediatica pari a quella di TikTok. Nello specifico, non esiste alcuna applicazione in grado di coinvolgere una fascia di pubblico giovanile così ampia ed in maniera tanto intensa.
Un grande traffico di utenti però comporta anche molte responsabilità dal punto di vista della community. Troll, contenuti espliciti e minacce di bullismo sono questioni all’ordine del giorno. Problemi da risolvere in tempi brevi, che a volte non vengono affrontati nel modo migliore. Dopo YouTube, anche TikTok sbaglia algoritmo, facendo esplodere una grande polemica.
La polemica
Una fonte anonima si è confessata a Netzpolitik.org svelando un dettaglio che getta ombre sul funzionamento dell’algoritmo della piattaforma. La policy di TikTok, da sempre prodiga a combattere i contenuti negativi che potrebbero creare problemi, avrebbe sviluppato un sistema decisamente non politically correct per evitare questi inconvenienti.
Discriminare per non discriminare?
La moderazione dei contenuti di TikTok si snoda anche grazie ad una rete di moderatori che ne controllano la qualità ed aiutano il machine learning a filtrarli. Il problema è che sembrerebbe che lo staff sia stato istruito per depotenziare la portata mediatica dei contenuti pubblicati da alcune tipologie di utenti. In poche parole, il social mostrerebbe meno i contenuti di alcuni iscritti.
Di chi in particolare?
Soggetti in sovrappeso, diversamente abili o apertamente manifestanti tematiche LGBTQ. TikTok, dimezzando la visibilità dei contenuti postati da questi utenti, pensa di poter evitare possibili commenti di scherno e derisione ad essi associati.
Ma a che prezzo? Così facendo, il social penalizza la qualità e la possibile viralità degli elaborati pubblicati. Inoltre, discrimina proprio gli utenti più facilmente vittime di episodi di bullismo e scherno, non risolvendo realmente il problema. Una soluzione quindi poco efficace, che si scontra con i principi base dell’uguaglianza.
La replica dello staff di TikTok
Se la vicenda fosse stata una semplice voce di corridoio, sicuramente se ne sarebbe parlato di meno. Purtroppo un rappresentante del social ha parzialmente confermato l’insider, affermando che tale policy sia stata utilizzata sul serio, ma solo per un breve periodo di tempo.
A questa ammissione ha nuovamente risposto Netzpolitik. Il sito ha infatti affermato di avere prove che tale sistema sia rimasto attivo sulla piattaforma per molto più tempo, almeno fino a questo Settembre.
Un segnale negativo
Non importa il periodo preciso per cui sia stato messo in atto tale meccanismo. Il fatto è che un sistema del genere dovrebbe essere inapplicabile a prescindere. Non solo perché non risolve nulla, ma perché finisce addirittura per discriminare i soggetti più vulnerabili, a cui la piattaforma dovrebbe prestare maggior attenzione e protezione.
Da questo episodio risulta evidente che per contrastare il cyberbullismo (e la violenza sul web, in generale), c’è ancora bisogno di capitale umano.
Un team più capillare di moderatori in ogni piattaforma potrebbe davvero alzare la qualità di ciò che leggiamo online. Oltre ovviamente a diffondere una sana educazione digitale direttamente “sul campo”.