Home / Comunicazione / TikTok, Garante Privacy, blocco all’uso dei dati personali dei minori e challenge pericolose

TikTok, Garante Privacy, blocco all'uso dei dati personali dei minori e challenge pericolose

Garante Privacy blocca TikTok in Italia: cos'è successo davvero

Non c'è alcun ban dell'app in Italia dopo la morte di una bambina palermitana di dieci anni che avrebbe partecipato a una sfida social. Il Garante Privacy ha però chiesto a TikTok più vigilanza sui minori di 13 anni che frequentano indebitamente la piattaforma e più trasparenza sull'uso, specie se a scopo commerciale, dei loro dati.

Cosa c’è di vero nella notizia, così come circolata in queste ore, che il Garante Privacy blocca TikTok in Italia a seguito della morte di una bambina di dieci anni a causa, forse poiché dagli inquirenti palermitani non c’è infatti alcuna conferma, di una challenge virale sull’app? E, a patto che di questo si possa parlare realmente, il “ban” italiano di TikTok somiglierà a quello disposto in America dall’ex amministrazione Trump?

Cosa significa che il Garante Privacy blocca TikTok in ItaliA

Andando con ordine, quello che è successo il 22 gennaio 2021, a poche ore dalla notizia di una bambina di dieci anni morta per soffocamento dopo aver partecipato a detta dei familiari a una challenge social, è che il Garante per la protezione dei dati personali ha bloccato la possibilità di utilizzo da parte di TikTok di dati personali di utenti italiani di cui sia impossibile verificare l’età anagrafica. La ratio del provvedimento l’ha spiegata, in un’intervista ad Anna Masera su La Stampa, Guido Scorza, membro dell’authority italiana per la privacy: la piattaforma o, meglio ancora l’azienda madre, tratta dati personali dei propri utenti sulla base di un contratto stipulato con ciascuno di questi al momento dell’iscrizione, ma lo stesso contratto non si può considerare «validamente concluso […] e/o validamente acquisito» se viene meno un requisito fondamentale come il limite d’età minimo fissato a 13 anni per l’iscrizione. Molto più pragmaticamente, quello che è stato chiesto all’app cinese dei lip sync, dei balletti e delle challenge è di accertarsi preventivamente che i dati personali che utilizza, anche a scopo commerciale, siano effettivamente di bambini e ragazzi con più di 13 anni, che questi ultimi non abbiano utilizzato una data di nascita o delle informazioni fittizie al momento dell’iscrizione e, se così non fosse, di smettere immediatamente di utilizzarla.

perché non ci si dovrebbe aspettare un ban dell’app ma più attenzione alla presenza di minori su TikTok

Dire che il Garante Privacy blocca TikTok in Italia è, insomma, eccessivamente semplificatorio e rischia, peraltro, di essere immediatamente smentito dall’evidenza che l’app è ancora disponibile per il download in tutti i marketplace e regolarmente operativa per gli utenti italiani già iscritti e sui device su cui era già installata. C’entra in parte il fatto che, come prescrive il Regolamento Generale sulla Protezione dei Dati in uso in Europa, dovrà essere – e non è ancora avvenuto – la corrispondente autorità irlandese a esprimersi sulla questione: è qui, infatti, che ByteDance ha recentemente dichiarato di avere il proprio database europeo. Se anche dall’Irlanda si diranno d’accordo con l’authority italiana, comunque, questo potrebbe non tradursi affatto nel ban totale dell’app nel nostro Paese: «starà a TikTok valutare se e in che termini riuscirà a dare un’esecuzione selettiva, ovvero limitata solo ad alcuni utenti, al provvedimento», ha continuato Guido Scorza. Anche nella peggiore delle ipotesi, comunque, se TikTok e ByteDance non riusciranno cioè a garantire un’adeguata verifica dell’età degli utenti, il provvedimento del Garante – o, meglio, dei Garanti perché anche in questo caso l’ultima parola sarà dell’authority competente, quella irlandese, su richiesta di quella italiana – non si tradurrà affatto nell’oscuramento dei server, ma semplicemente, come da previsioni del GDPR, potranno essere comminate a ByteDance sanzioni amministrative fino a un valore pari al 4% del fatturato globale.

La notizia che il Garante Privacy blocca TikTok in Italia dal trattare dati personali di utenti di cui non sia possibile verificare con esattezza l’età sembra ritirare fuori questioni forse davvero mai risolte come l’age verification e la real-name policy. Le piattaforme digitali dovrebbero avere specifici obblighi di sorveglianza rispetto alla possibilità che ci siano tra i propri iscritti utenti con un’età inferiore a quella stabilita come limite per usufruire del servizio e, se sì, ciò potrebbe giustificare persino il condizionare l’iscrizione, per esempio, alla fornitura di un documento di identità? Come in altre parole TikTok potrà davvero accertarsi che utenti under 13 (è questa la soglia minima d’età fissata dalla maggior parte delle big tech) non abbiano mentito o fornito dei dati fittizi al momento dell’iscrizione pur di potere procedere con la stessa? C’è chi sostiene che il nuovo provvedimento dell’authority italiana per la privacy e la protezione dei dati personali contro TikTok potrebbe non funzionare proprio per questa ragione, come in passato non hanno funzionato del resto altre proposte – di legge, addirittura – per l’identificazione certa degli utenti dei social media. Come ha sottolineato Scorza, l’aggravio di responsabilità nei confronti di TikTok o di altre piattaforme simili è davvero un “aggravio” solo se si ragiona secondo logiche puramente commerciali: TikTok e altre piattaforme simili, e i loro gestori, dispongono «di una quantità tale di informazioni sui loro utenti che attraverso soluzioni di big data e intelligenza artificiale potrebbero essere in grado se non di dire se un utente ha 13 o 14 anni, certamente di dire se ne ha 10 o 14, 10 o 50 […] penso semplicemente al fatto che un utente di dieci anni fruisce in maniera più ricorrente di contenuti diversi da quelli di un utente che ne ha 14 o 15, interagisce con lo smartphone, con lo schermo e con le interfacce in maniera a sua volta diversa, fa tap sullo schermo in modo differente o si sofferma di più su questo o quel particolare». La grande cornice in cui inquadrare la decisione del Garante sembra, insomma, quella delle responsabilità delle piattaforme, soprattutto quando si tratta di tutelare i minori in Rete.

Quello che si può escludere immediatamente è che il “blocco” di TikTok in Italia sia un’azione «di geopolitica» – per usare ancora le parole del membro del collegio dell’authority – come lo è stato nell’estate 2020 il ban di TikTok in America da parte di Trump. Qui non ci sono spionaggi, incursioni di attori esteri sulla vita politica del Paese, guerre d’informazione pilotate da Pechino da schivare (queste le accuse dell’ex presidente repubblicano a ByteDance che costarono all’azienda cinese oltre al blocco dell’app anche delle interminabili trattative per l’acquisto della branca americana di TikTok), ma c’è da tenere «i bambini fuori dai social per adulti», come ha titolato ancora Guido Scorza sul proprio blog su L’Espresso. Il tema non è meno complesso, né privo di implicazioni a largo spettro. La responsabilità di costruire un web a misura di bambini è certamente «condivisa: appartiene alla famiglia innanzitutto, alla scuola poi, allo Stato in tutte le sue articolazioni educative, assistenziali e, nei casi più gravi, sanitarie ma anche e soprattutto ai gestori di questi social network che macinano profitti miliardari accettando il rischio che episodi del genere si verifichino». È giusto considerare, insomma, provvedimenti come quello del Garante Privacy che blocca TikTok in Italia dall’usare dati personali di utenti non chiaramente identificabili come over 13 solo la punta dell’iceberg ed è possibile che gli stessi continueranno a essere poco efficaci se non si investirà anche in una buona e diffusa educazione civica digitale. La stessa educazione civica digitale che servirà per evitare che «ogni volta che si affronta un caso di autolesionismo fra i giovani» scatti «il panico morale intorno alle tecnologie», come scrive in un post su Facebook Arianna Ciccone.

Come già si accennava, infatti, la decisione del Garante è arrivata a poche ore dalla prima presunta vittima italiana della cosiddetta “blackout challenge”: una sfida a resistere quanto più possibile senza respirare dopo aver stretto al collo una corda che, però, prima ancora che su TikTok, circolerebbe da anni su altri social network e di cui addirittura, secondo altre ricostruzioni, si parlava già negli anni Novanta, molto prima della popolarità di qualsiasi piattaforma digitale.

I precedenti di TikTok con il Garante italiano per la privacy

Se di fronte a casi di cronaca come quello palermitano accusare la Rete è, ha proseguito la giornalista, «una scorciatoia per darsi spiegazioni facili e quasi indolori», anche legare la decisione del Garante a una logica causa effetto rispetto a quanto successo a Palermo può risultare alquanto approssimativo. Tanto più che quello dello scorso 22 gennaio 2021 è – precisano i documenti – un provvedimento «d’urgenza», adottato attenendosi alle previsioni del GDPR nonostante fosse la prima volta che qualcosa di simile accadeva, temporaneo e da considerare valido solo fino al prossimo 15 febbraio 2021. A dicembre 2020, infatti, lo stesso Garante aveva aperto un’istruttoria contro TikTok per cui si attende che la piattaforma presenti memorie difensive o chieda di essere ascoltata. A essere contestate erano, già allora, la facilità con cui era possibile aggirare il limite di 13 anni di età per l’iscrizione, ma anche un’informativa sulla privacy eccessivamente standardizzata e che non teneva conto della necessità di adeguare il linguaggio o di inserire degli appositi alert che la rendessero più facilmente comprensibile in ragione della giovane età della maggior parte di chi frequenta la piattaforma e, ancora, dei tempi di conservazione dei dati, delle modalità di anonimizzazione e dei trasferimenti degli stessi verso paesi extra UE non chiaramente definiti. L’app aveva in parte risposto rendendo i profili TikTok under 16 privati automaticamente e adottando altre misure a protezione della privacy dei propri utenti più piccoli. Evidentemente non quanto basta per potersi dire “compliant” in materia di protezione dei dati e riservatezza dei minori, né per potersi considerare di fatto un’app a prova di bambini. Come sembrano non esserlo, del resto, neanche Facebook o Instagram (la seconda addirittura più volte accusata di essere il social più usato per l’adescamento di minori).

Anche Facebook e Instagram osservati speciali dal Garante Privacy per LA gestione della presenza di minori sulle piattaforme

A pochi giorni dal provvedimento contro TikTok, l’authority italiana ha aperto, il 27 gennaio 2021, un fascicolo proprio su Facebook e Instagram. Più nello specifico, il Garante per la Privacy ha chiesto a Facebook Inc. di fornire indicazioni più precise sulle modalità di iscrizione ai due social e su come avvenga di prassi la verifica del rispetto da parte degli utenti dell’età minima. Ancora una volta i fatti di cronaca sembrano aver fatto da propulsore: sempre riferendosi al caso della bambina palermitana – a cui si sarebbe aggiunto nelle ultime ore anche quello del bambino trovato soffocato a Bari con modalità simili – il Garante cita «articoli di stampa [che] hanno riportato la notizia che la minore avrebbe diversi profili aperti sui due social network» e, per questo, oltre a quanto già visto, avrebbe chiesto più nel dettaglio «a Facebook, che controlla anche Instagram, di fornire una serie di informazioni, a partire da quanti e quali profili avesse la minore e, qualora questa circostanza venisse confermata, su come sia stato possibile, per una minore di 10 anni, iscriversi alle due piattaforme». Da Menlo Park hanno 15 giorni per rispondere alle richieste del Garante.

Altre notizie su:

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI