Home / Macroambiente / Elezioni europee 2019: l’AGCOM ratifica gli impegni delle piattaforme social

Elezioni europee 2019: l'AGCOM ratifica gli impegni delle piattaforme social

Elezioni europee 2019: AGCOM ratifica gli impegni delle piattaforme social

L'AGCOM e le piattaforme social hanno definito le misure per le prossime elezioni europee 2019 a tutela di pluralismo e trasparenza.

Le elezioni europee 2019 sono oramai alle porte e, sulla scorta dei gravissimi precedenti legati allo scandalo Cambridge Analityca e alla proliferazione delle fake news sul web, gli organi regolatori nazionali e dell’Unione hanno finalmente deciso di considerare una pressante priorità quella della irreggimentazione di tutte quelle pubblicazioni sulle piattaforme social che, per la loro ingannevolezza o mancanza di trasparenza, sono idonee a condizionare la formazione del libero convincimento degli elettori, inducendoli a determinarsi al voto in forza di presupposti distorti. In verità, preso atto dell’assenza di strumenti di hard law adeguati, la strada intrapresa dalla Commissione Europea e dall’AGCOM è stata quella del ricorso a codici di autoregolamentazione, ovverosia a impegni volontariamente assunti dalle piattaforme social in ordine alle azioni da intraprendere per garantire un corretto svolgimento della competizione elettorale. Ebbene, il 15 maggio 2019 si è realizzato l’ultimo step di questo lungo e tortuoso percorso, vale a dire la formalizzazione, da parte dei gestori di piattaforme digitali e dinanzi all’AGCOM, delle misure specifiche e puntuali ritenute necessarie.

L’azione della Commissione Europea e dell’agcom in vista delle elezioni europee 2019

Prima di analizzare nel dettaglio gli impegni assunti da ultimo dalle piattaforme digitali in vista delle elezioni europee 2019, è opportuno dar conto rapidamente di come si è giunti a tale risultato. In particolare, occorre far riferimento, per quanto concerne l’azione della Commissione Europea, all’adozione, nell’ottobre 2018, di un Codice di autoregolamentazione (più precisamente, “Codice di buone pratiche dell’UE sulla disiformazione“) con il quale i gestori delle piattaforme digitali finalmente hanno riconosciuto il loro ruolo (e quindi il loro onere) nel contribuire a trovare soluzioni alle sfide poste dalla disinformazione.

È anzitutto importante sottolineare, in proposito, come il Codice fornisca una definizione analitica del concetto di disinformazione, inquadrando la stessa come «un’informazione rivelatasi falsa o fuorviante, cumulativamente 

a) concepita, presentata e diffusa a scopo di lucro o per ingannare intenzionalmente il pubblico e

b) che può arrecare un pregiudizio pubblico, inteso come minacce ai processi politici democratici e di elaborazione delle politiche e a beni pubblici quali la tutela della salute dei cittadini, dell’ambiente e della sicurezza dell’UE».

Tra gli scopi perseguiti, è particolarmente importante sottolineare la acquisita consapevolezza della necessità di adottare un metodo che, con un parallelismo ardito (ma forse neppure troppo), potremmo definire analogo a quello sperimentato nel contrasto alla criminalità organizzata, vale a dire l’aggressione delle fonti reddituali dei soggetti che generano disinformazione, essenzialmente attraverso la riduzione della remunerazione da costoro percepita mediante le inserzioni pubblicitarie. Ecco quindi che «tutte le parti coinvolte nell’acquisto e nella vendita di pubblicità online e nella fornitura di servizi connessi alla pubblicità devono collaborare per migliorare la trasparenza in tutto l’ecosistema pubblicitario online e quindi per vagliare, controllare e limitare efficacemente le inserzioni pubblicitarie sui profili e sui siti web appartenenti ai vettori di disinformazione».
Il Codice, poi, contempla impegni relativi a messaggi pubblicitari campagne di sensibilizzazione (II.B), integrità dei servizi (ossia contrasto ai profili falsi e ai bot – II.C), responsabilizzazione dei consumatori (II.D), responsabilizzazione della comunità dei ricercatori (II.E). Il grado di attuazione e i risultati raggiunti con le norme di autodisciplina, poi, sono stati oggetto di una verifica operata dalla Commissione Europea nel gennaio 2019.

Per quanto riguarda l’azione dell’Authority nazionale, l’AGCOM, occorre dar conto dell’istituzione, con la delibera n. 423/17/CONS, del “Tavolo Tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali” con l’obiettivo di promuovere l’autoregolamentazione delle piattaforme e lo scambio di buone prassi per l’individuazione e il contrasto dei fenomeni di disinformazione online frutto di strategie mirate, anche se in verità già con la Delibera n. 309/16/CONS del 21 giugno 2016 si era dato avvio a una indagine conoscitiva su “Piattaforme digitali e sistema dell’informazione”. Anche l’AGCOM, in ogni caso, rilevava tra l’altro «l’esigenza di un confronto con i principali stakeholder delle piattaforme digitali circa le metodologie da utilizzare per l’analisi e il monitoraggio dell’informazione diffusa online e, in particolare, per l’accertamento delle fattispecie potenzialmente lesive dei principi del pluralismo e correttezza dell’informazione» e che, pur in presenza di un quadro normativo che non contempla esplicite previsioni, la funzione istituzionale dell’Autorità sottenda e imponga «l’esercizio di un ruolo di impulso e di coordinamento tra i diversi attori operanti nel settore dell’informazione online per favorire l’autoregolamentazione su base volontaria ai fini di contrasto dei fenomeni di disinformazione online in generale e, nello specifico, della lesione della correttezza, dell’imparzialità e del pluralismo dell’informazione».

Assolutamente degna di nota e di essere rimarcata, poi, è la Delibera 94/19/CONS che, nel dettare le disposizioni di attuazione della disciplina in materia di comunicazione politica e di parità di accesso ai mezzi di informazione relative alle elezioni europee 2019, ha innovativamente introdotto un Titolo VI rubricato “Piattaforme per la condivisione di video e social network” a mente del quale «l’’Autorità promuove, mediante procedure di autoregolamentazione, l’adozione da parte dei fornitori di piattaforme di condivisione di video di misure volte a contrastare la diffusione in rete, e in particolare sui social media, di contenuti in violazione dei principi sanciti a tutela del pluralismo dell’informazione e della correttezza e trasparenza delle notizie e dei messaggi veicolati» (art. 28), confermando quindi l’assoluta centralità del medium rappresentato dalle piattaforme digitali per assicurare l’effettività della par condicio elettorale.

Gli impegni delle piattaforme social accettati dall’Agcom

Ciò detto con riferimento alle azioni compiute in precedenza dagli enti regolatori, vediamo come gli obblighi in predicato sono stati concretizzati e specificati con riferimento alle elezioni europee 2019 dinanzi all’AGCOM il 15 maggio. Occorre sottolineare che gli impegni in questione costituiscono attuazione del percorso di cooperazione con gli operatori delle piattaforme digitali inaugurato con il Codice di autodisciplina e con la già richiamata Delibera 423/2017 che, già in occasione della campagna elettorale per le elezioni politiche del 2018, aveva prodotto l’adozione di apposite linee guida.
Il nuovo testo relativo alle elezioni europee 2019, in ogni caso, partendo dal presupposto per cui si rende necessaria assicurare l’effettività della tutela del pluralismo anche sulle piattaforme digitali in ragione di un utilizzo a fini informativi ormai consolidato, mette al primo posto gli impegni relativi alla parità di accesso. In particolare, proprio muovendo dalle previsioni dettate dalla legge n. 28/2000 (“Disposizioni per la parità di accesso ai mezzi di informazione durante le campagne elettorali e referendarie e per la comunicazione politica “) per i media offline, sebbene le stesse non siano applicabili alle piattaforme digitali per ovvie e incolmabili differenze tecniche, l’AGCOM ritiene che possano comunque esserne mutuati i principi ispiratori, così da richiedere ai gestori delle piattaforme social di assicurare e garantire a tutti i soggetti politici, «con imparzialità ed equità e alle medesime condizioni», l’accesso agli strumenti di informazione e comunicazione politica, soprattutto assicurando che tali canali siano fruibili con «modalità trasparenti e non discriminatorie».
La trasparenza, del resto, è davvero il cardine del sistema di autoregolamentazione promosso dalle Authorities, tant’è che a essa è dedicato l’articolo due dell’atto di ratifica degli impegni, in seno al quale sono dettate plurime importantissime disposizioni. Anzitutto, i messaggi pubblicitari di natura elettorale, se l’inserzionista è un soggetto politico, devono poter essere immediatamente chiaramente riconosciuti come tali. Ciò comporta che la natura del messaggio e il relativo committente dovranno essere ben visibili all’utente durante la riproduzione del video. In buona sostanza, vengono banditi i messaggi elettorali a sorpresa o, peggio, occulti.

Ma non è tutto e, anzi, i profili di maggior rilievo delle disposizioni in materia di trasparenza riguardano gli utenti. Costoro, infatti, «nei limiti di quanto tecnicamente possibile» devono poter aver accesso e comprendere:

  • criteri di profilazione utilizzati dalla piattaforma, nonché gli altri fattori che determinano la visualizzazione dell’inserzione;
  • le tipologie di dati personali non personali che influiscono sulle inserzioni ricevute o visualizzate;
  • l’incidenza dei fattori demografici che li caratterizzano, dei loro interessi, delle loro visite ai siti web e delle liste di contatti caricate dagli inserzionisti.

Viene previsto, poi, un impegno delle piattaforme a «prendere in esame in via prioritaria e tempestiva le segnalazioni inviate dall’Autorità […] ai fini della rimozione di specifici contenuti che violano la par condicio elettorale». Ovviamente, ciò si affianca alla messa a disposizione degli utenti di appositi strumenti per la segnalazione dei contenuti “elettoralmente inappropriati”.

Ancora, si insiste su di un profilo centrale nel contrasto alle fake news, ovverosia il recupero dell’intermediazione dell’informazione, anche se solo in via “postuma”, attraverso i programmi di fact-checking. È infatti importante sottolineare come l’AGCOM parli esplicitamente di «strategie di disinformazione online che potranno essere condotte durante la campagna per le elezioni europee 2019», mostrando quindi piena consapevolezza del carattere organizzato specializzato delle campagne di inquinamento del dibattito elettorale. A tal proposito, allora, al fine di assicurare una «tempestiva ed efficace tutela», l’AGCOM raccomanda per un verso lo sviluppo di servizi e strumenti di fact-checking, per altro verso l’adozione di criteri trasparenti rigorosi nella scelta delle organizzazioni partner di cui le piattaforme a tale scopo si avvalgano, consigliando di «sviluppare collaborazioni con soggetti impegnati nella promozione di attività di fact-checking collaborativo/partecipativo tra più organizzazioni editoriali a livello nazionale o europeo».

Altro profilo sul quale l’AGCOM si sofferma è quello del contrasto agli account falsi, impegnando le piattaforme a porre in essere (e comunicare all’Authority) degli strumenti volti alla verifica preventiva (e non solo successiva) degli account degli inserzionisti di messaggi elettorali, come pure volti al contrasto degli abusi realizzati attraverso i bot.

Richiamando poi una recente Circolare della Presidenza del Consiglio dei Ministri, ovverosia quella del 27 marzo 2019, l’AGCOM sottolinea che il divieto di comunicazione istituzionale in periodo elettorale (previsto dall’art. 9 della già richiamata Legge 28/2000) vada esteso anche all’utilizzo degli account social degli enti pubblici, con la conseguenza che le piattaforme social dovranno segnalare all’AGCOM eventuali utilizzi abusivi dei profili social istituzionali. Ancora, le piattaforme social sono chiamate a contribuire al rispetto dell’art. 8 della Legge 28/2000, che stabilisce il divieto di diffusione dei sondaggi politico elettorali nei 15 giorni anteriori alla data delle votazioni, individuando procedure che consentano all’AGCOM di segnalare contenuti illeciti e ottenerne la pronta rimozione. Si richiama, infine, l’attenzione delle piattaforme sul rispetto di un’ulteriore previsione in materia, vale a dire il cd. silenzio elettorale (Legge 4 aprile 1956, n. 212, Norme per la disciplina della propaganda elettorale – art. 9), operante per il giorno delle votazioni e per quello precedente, trattandosi di norme valide per ogni media.

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI