Home / Macroambiente / L’AGCOM approva il Regolamento sull’hate speech: cosa c’è di nuovo?

L'AGCOM approva il Regolamento sull'hate speech: cosa c'è di nuovo?

Regolamento sull'hate speech approvato dall'AGCOM

Approvato dall'AGCOM il nuovo Regolamento sull'hate speech finalizzato a contrastare il fenomeno sia sui media tradizionali che sui social.

Con la Delibera n. 157/19/CONS del 15 maggio 2019 l’Autorità per le Garanzie delle Comunicazioni (AGCOM) ha adottato il nuovo Regolamento sull’ hate speech (più precisamente, il provvedimento è intitolato “Regolamento recante disposizioni in materia di rispetto della dignità umana e del principio di non discriminazione e di contrasto all’hate speech“). Il punto di partenza della nuova regolamentazione amministrativa è rappresentato dal combinato disposto degli artt. 10 co. I e 32 co. V del “Testo unico dei servizi di media audiovisivi e radiofonici” (D. Lgs. 177/2005) a mente dei quali, rispettivamente:

  • «L’Autorità, nell’esercizio dei compiti ad essa affidati dalla legge, assicura il rispetto dei diritti fondamentali della persona nel settore delle comunicazioni, anche mediante servizi di media audiovisivi o radiofonici»;
  • «I servizi di media audiovisivi prestati dai fornitori di servizi di media soggetti alla giurisdizione italiana rispettano la dignità umana e non contengono alcun incitamento all’odio basato su razza, sesso, religione o nazionalità».

Diventa allora opportuno cercare di capire in che modo l’AGCOM ha inquadrato il fenomeno in questione e, quindi, quali scelte abbia compiuto nel dettare una normativa che ne contrasti la diffusione.

L’inquadramento del fenomeno

Per comprendere la necessità del recente intervento, infatti, va sottolineato come già con la sua precedente delibera n. 46/18/CONS, del 6 febbraio 2018 (“Richiamo al rispetto della dignità umana e alla prevenzione dell’incitamento all’odio) l’AGCOM aveva sollecitato «i fornitori di servizi media audiovisivi a garantire nei programmi di informazione e comunicazione il rispetto della dignità umana e a prevenire forme dirette o indirette di incitamento all’odio […]», e ciò alla luce dei dati di monitoraggio sul pluralismo politico/istituzionale relativi al periodo 29 gennaio-4 febbraio 2018 dai quali era emerso come la trattazione di casi di cronaca relativi a reati commessi da immigrati appariva «orientata, in maniera strumentale, a evidenziare un nesso di causalità tra immigrazione, criminalità e situazioni di disagio sociale e ad alimentare forme di pregiudizio razziale nei confronti dei cittadini stranieri immigrati in Italia». 

Sulla scorta di queste premesse, allora, e tenuto anche conto che il fenomeno dell’hate speech aveva nel frattempo assunto connotati nuovi e più urgenti, atteso che le piattaforme social si sono rivelate esserne un temibile terreno di coltura, l’AGCOM aveva avviato un procedimento finalizzato all’adozione di misure amministrative tali da indurre un netto cambio di rotta. La regolamentazione della materia, tuttavia, non poteva prescindere dal prendere atto di come, sebbene «una quota significativa dei contenuti messi a disposizione sui servizi di piattaforma per la condivisione di video non è sotto la responsabilità editoriale del fornitore di piattaforme per la condivisione di video», tuttavia «tali fornitori, in genere determinano l’organizzazione dei contenuti, ossia programmi, video generati dagli utenti e comunicazioni commerciali audiovisive, anche in modo automatizzato o con algoritmi», con la conseguenza che essi – a condivisibile giudizio dell’AGCOM – «dovrebbero essere tenuti ad adottare le misure appropriate per tutelare il grande pubblico dai contenuti che istigano alla violenza o all’odio nei confronti di un gruppo o di un membro di un gruppo». In altri termini, i gestori delle piattaforme online non possono più chiamarsi fuori da un serio faccia a faccia con il problema dell’hate speech.

Che cos’è l’hate speech

Per poter dettare una regolamentazione efficace di un fenomeno, tuttavia, occorre prima di tutto perimetrarlo in maniera corretta. L’AGCOM non si sottrae a tale incombente, precisando che, in prima approssimazione e come spunto di lavoro, per hate speech intende «l’utilizzo strategico di contenuti o espressioni mirati a diffondere, propagandare o fomentare l’odio, la discriminazione e la violenza per motivi etnici, nazionali, religiosi, ovvero fondati sull’identità di genere, sull’orientamento sessuale, sulla disabilità o sulle condizioni personali e sociali, attraverso la diffusione e la distribuzione di scritti, immagini o altro materiale anche mediante la rete Internet, i social network o altre piattaforme telematiche».

Quel che occorre mettere in rilievo, allora, è che l’AGCOM non intende rivolgersi genericamente alle pubblicazioni “ingiuriose” o “diffamatorie”, bensì a quelle attività in cui il carattere dell’offesa o dell’incitamento all’odio sia parte di un preciso programma (cfr. “utilizzo strategico”) connotato da finalità in ultima istanza istigatorie. Del resto, di tale – più complessa – connotazione del fenomeno era già consapevole l’OSCE nel 2009, allorché con la Decisione 9/09 invitava gli Stati membri verificare l’esistenza di legami tra Internet e la diffusione di contenuti che potessero costituire un incitamento, motivato da pregiudizio, alla violenza o a crimini generati dall’odio (cdd. “hate crimes”). La stessa AGCOM, del resto, in un altro passaggio del suo provvedimento stigmatizza in maniera ancora più netta il fenomeno, parlando apertamente di «artate strategie di disinformazione finalizzate a sostenere discorsi d’odio o comunque a diffondere rappresentazioni strumentali, falsate e discriminatorie dei complessi fenomeni osservati».

Per quanto riguarda la portata del fenomeno, poi, i dati sono davvero preoccupanti: secondo quanto riportato dall’AGCOM nella sua relazione introduttiva al Regolamento sull’hate speech, in Italia gli hate crimes risultano cresciuti del 112% dall’1 gennaio 2013 al 31 dicembre 2017 (dai OSCAD – Osservatorio per la sicurezza contro gli atti discriminatori del Dipartimento della Pubblica Sicurezza-Direzione Centrale della Polizia Criminale) e, sul totale degli episodi di reati d’odio considerati, oltre il 60% presenta una matrice discriminatoria connessa all’origine etnica o alla provenienza geografica della vittima.

Il legislatore italiano, peraltro, sul punto è anche intervenuto direttamente sul terreno del diritto penale, configurando una particolare figura di delitto nonché una aggravante a effetto speciale. Più nello specifico, l’attuale art. 604-bis del codice penale (norma già contenuta nell’art. 3 della L. 654/75) punisce, salvo che il fatto costituisca più grave reato,

«a) con la reclusione fino a un anno e sei mesi o con la multa fino a 6.000 euro chi propaganda idee fondate sulla superiorità o sull’odio razziale o etnico, ovvero istiga a commettere o commette atti di discriminazione per motivi razziali, etnici, nazionali o religiosi;

b) con la reclusione da sei mesi a quattro anni chi, in qualsiasi modo, istiga a commettere o commette violenza o atti di provocazione alla violenza per motivi razziali, etnici, nazionali o religiosi».

In aggiunta a ciò, poi, per la commissione di un qualunque reato punito con pena diversa dall’ergastolo, si prevede un aumento fino alla metà della pena comminata per il reato medesimo, se l’agire del soggetto attivo è connotato dalla finalità di discriminazione o di odio etnico, razziale o religioso, ovvero dal fine di agevolare l’attività di organizzazioni, associazioni, movimenti o gruppi che hanno tra i loro scopi le medesime finalità (art. 604-ter – già art. 3 D.L. 122/93).

Tuttavia, il Consiglio d’Europa nel suo rapporto del 14 gennaio 2019 ha giudicato i progressi dell’Italia come insufficienti (anzi, a ben vedere ha riscontrato un’assenza di progressi), evidenziando come «la società italiana abbia registrato una crescita delle attitudini razziste, della xenofobia e dell’anti-Gypsism nel discorso pubblico, specialmente nei media e su Internet», dando atto soprattutto di accadimenti particolarmente gravi come «attacchi verbali e di violenza fisica perpetrati nei confronti dei centri per i richiedenti asilo», nonché di comportamenti discriminatori assunti nei confronti della popolazione Rom, Sinti e Caminanti (cfr. par. 59-61 del Rapporto).

I contenuti del nuovo regolamento sull’hate speech

Prima di analizzare, quindi, più nel dettaglio i contenuti del nuovo Regolamento sull’hate speech, occorre sottolineare come la procedura di consultazione espletata dall’AGCOM abbia fatto emergere un convincimento comune da parte dei soggetti intervenuti, ovverosia quella per cui «le espressioni o discorsi d’odio (hate speech) sono di regola diffuse non sui media tradizionali (tv, radio, carta stampata), ma tramite il web, spesso a causa di notizie diffuse senza la intermediazione operata dai giornalisti (il pubblico è raggiunto da ogni genere di notizia attraverso social, blog e siti). In quest’ottica è stato evidenziato come alcune norme risultino eccessivamente gravose per i fornitori di servizi di media audiovisivi, mentre nessuna disposizione cogente viene rivolta alle piattaforme o ai social e, in generale, a quanto diffuso online». Si ripropone, in altri termini, l’annosa questione del “ruolo” dei gestori delle piattaforme social all’interno della società contemporanea, ruolo che non più più essere di fumosa neutralità, come del resto già plasticamente evidenziatosi, solo per citare qualche esempio  con le vicende relative alla chiusura delle pagine fasciste su Facebook, all’aspro dibattito che ha accompagnato la nuova direttiva sul copyright online o ai recentissimi tentativi di contrastare i fenomeni di manipolazione del consenso in occasione delle elezioni europee 2019.

Non a caso, come accennato, l’AGCOM ha ritenuto opportuno ricomprendere tra i destinatari del Regolamento sull’hate speech anche i fornitori di piattaforme per la condivisione di video e, del resto, nello stesso senso si è mosso anche il Legislatore UE. Va segnalato, infatti, che la Direttiva 2018/1808 del Parlamento europeo e del Consiglio, del 14 novembre 2018 (con termine di recepimento fissato al 19 settembre 2020), ha modificato la precedente Direttiva 2010/13/UE (Direttiva sui servizi di media audiovisivi – nuovo art. 28-ter) statuendo che tali soggetti siano tenuti, tra l’altro, ad adottare misure adeguate che tutelino «il grande pubblico da programmi, video generati dagli utenti e comunicazioni commerciali audiovisive che istighino alla violenza o all’odio nei confronti di un gruppo di persone o un membro di un gruppo».

A parte questa complessa problematica, poi, il Regolamento sull’hate speech persegue la finalità ultima di cristallizzare e rendere vincolanti indirizzi che in passato erano già più volte stati formulati in relazione al trattamento mediatico di determinati fenomeni, con l’obiettivo di sradicare quello che l’AGCOM efficacemente definisce il “pregiudizio da sineddoche“, cioè la tendenza a confondere la parte con il tutto o, meglio, a estendere a un’intera cerchia di soggetti (classificati per razza, religione, condizioni economiche o abitudini di vita) fatti – molto spesso odiosi e aberranti, come gravi delitti o addirittura attacchi terroristici – commessi da taluno dei componenti, evocando una sorta di responsabilità del gruppo in quanto tale, quasi che la commissione del fatto da parte di uno specifico individuo non sia altro che la manifestazione di un modo di essere che non può non essere presente in ognuno degli altri suoi “simili”. Si pensi, ad esempio, all’enfasi attribuita alla nazionalità (o meglio, ad alcune nazionalità) degli autori di taluni reati.

Se a ciò aggiungiamo poi l’abnorme enfasi mediatica attribuita ad alcuni complessi fenomeni come quello migratorio, ben si comprende come, una volta instillato negli spettatori il fallace automatismo o nesso di derivazione tra immigrazione e criminalità, l’hate speech possa ulteriormente essere fomentato, seppure in maniera indiretta. Si pensi, ad esempio, all’abusata espressione “invasione” o “allarme migranti”, che ha senz’altro contribuito ad alimentare una percezione assolutamente erronea delle dimensioni del fenomeno migratorio: risulta, infatti, che a fronte di una presenza di stranieri che si attesta al 7%, la percezione comune sia di oltre il 400% superiore, ovverosia del 25% (Dati EUROSTAT – giugno 2018).

Il fenomeno, peraltro, è più grave in Italia rispetto agli altri stati UE, in quanto nel nostro paese si riscontra il più alto scarto tra il tasso percepito e quello reale, a riprova di quanta presa abbiano avuto sugli spettatori le esasperazioni mediatiche.

Sulla scorta di queste premesse e dettati queste finalità, l’AGCOM nel nuovo Regolamento sull’hate speech anzitutto provvede a fornire una definizione della nozione di “espressioni o discorso d’odio“, qualificandolo, conclusivamente, come «l’utilizzo di contenuti o espressioni suscettibili di diffondere, propagandare o fomentare l’odio e la discriminazione e istigare alla violenza nei confronti di un determinato insieme di persone ‘ target ’, attraverso stereotipi relativi a caratteristiche di gruppo, etniche, di provenienza territoriale, di credo religioso, d’identità di genere, di orientamento sessuale, di disabilità, di condizioni personali e sociali, attraverso la diffusione e la distribuzione di scritti, immagini o altro materiale, anche mediante la rete Internet, i social network o altre piattaforme telematiche (art. 1 lett. n)». La definizione, quindi, tiene conto dell’evoluzione e della complessità del fenomeno includendo sia il profilo relativo al “pregiudizio da sineddoche” sia quello relativo al proliferare dei contenuti d’odio sulle piattaforme social.

Particolarmente importante, rispetto a quest’ultimo punto, il disposto dell’art. 2 co. III, ove si chiarisce che l’Autorità, oltre a promuovere, coordinare e indirizzare l’elaborazione di codici di condotta, «con riferimento ai fornitori di piattaforme per la condivisione di video di cui all’art. 1, lett. g), individua forme di co-regolazione, nonché campagne di sensibilizzazione sul tema». Ebbene, proprio con riferimento alla co-regolazione relativa alle piattaforme online, l’art. 9 stabilisce che l’Autorità promuove la sottoscrizione di codici di condotta che contengano, tra l’altro, efficaci sistemi di individuazione segnalazione degli contenuti d’odio e dei loro responsabili. Inoltre, i soggetti in questione dovranno trasmettere all’AGCOM un report trimestrale sul monitoraggio effettuato per l’individuazione dei contenuti d’odio, indicando le modalità operative e i sistemi di verifica impiegati.

L’articolo 4, invece, si occupa degli obblighi da imporre ai fornitori di servizi di media audiovisivi e radiofonici, chiamandoli ad osservare cautele ed indirizzi che consentano di trasmettere agli utenti notizie correttamente calibrate «ponendo particolare attenzione alla identificazione del contesto specifico di riferimento rispetto a possibili rappresentazioni stereotipate e generalizzazioni che, attraverso il ricorso a espressioni di odio, possano generare pregiudizio nei confronti di persone che vengano associate a una determinata categoria o gruppo oggetto di discriminazione, offendendo così la dignità umana e generando una lesione dei diritti della persona». Ancora più nello specifico scende poi il secondo comma dell’articolo in predicato che, dopo aver ribadito come anche gli elementi grafici possano generare hate speechprecisa come titoli, sottopancia affermazioni virgolettate possano produrre il pregiudizio da sineddoche, generalizzando o conferendo natura sistematica ad episodi particolari oppure, in assenza di precisazioni rispetto al contesto in cui la vicenda si colloca, generando dubbi sulla natura episodica dell’accadimento.

I risvolti sanzionatori del Regolamento sull’hate speech

Come per ogni regula iuris che non voglia risultare imperfecta, tuttavia, la parte precettiva deve accompagnarsi a quella sanzionatoria. E in effetti l’AGCOM delinea i termini dei procedimenti di accertamento delle infrazioni agli obblighi nascenti dal Regolamento, chiarendo che si avvarrà all’uopo della Guardia di Finanza, della Polizia postale e delle telecomunicazioni nonché, eventualmente, del Co.re.com., vagliando le segnalazioni di violazioni provenienti da associazioni o altre organizzazioni rappresentative degli interessi degli utenti e da associazioni ed enti statutariamente impegnate nella lotta alla discriminazione, precisando anche il contenuto che le segnalazioni dovranno possedere.

Dal punto di vista sanzionatorio-repressivo, poi, l’AGCOM distingue tra violazioni episodiche e violazioni sistematiche. Nel primo caso, infatti, all’accertamento in contraddittorio seguirà una mera “segnalazione” (l’art. 7 parla, invero, di una più generica “comunicazione”) con pubblicazione del provvedimento sul sito AGCOM. Nel caso di violazioni sistematiche, cui vengono peraltro assimilate quelle particolarmente gravi, invece, il procedimento risulta strutturato in maniera più articolata, prevedendo un atto di contestazione formale e un termine a difesa per il soggetto nei cui confronti è avviato il procedimento.

Nell’ipotesi in cui la violazione coinvolga giornalisti iscritti all’albo, l’Autorità provvederà a darne notizia all’Ordine (evidentemente per eventuali risvolti disciplinari della condotta). La collaborazione con l’O.d.G., peraltro, è valorizzata fin dalla ricezione degli esposti. All’esito dell’istruttoria, se l’AGCOM ritenesse la violazione accertata, invierà una diffida al fornitore, invitandolo a non reiterare la condotta illecita. In caso di inottemperanza alla diffida emessa ai sensi del nuovo Regolamento sull’hate speech, da ultimo, l’AGCOM potrà irrogare, in base all’art. 1 co. XXXI della L. 249/1997, una sanzione amministrativa pecuniaria che va da un minimo di 120.000 €  fino a un massimo di 2.500.000 € oppure, in caso di imprese aventi significativo potere di mercato, una sanzione non inferiore al 2% e non superiore al 5% del fatturato dell’anno precedente alla notificazione della contestazione. La sanzione sarà poi quantificata tenuto conto: a) della gravità della violazione; b) dell’opera svolta dall’agente per l’eventuale eliminazione o attenuazione delle conseguenze della violazione; c) della personalità dello stesso; d) delle sue condizioni economiche (art. 8 nuovo Regolamento sull’hate speech – art. 98, comma XI Codice delle Comunicazioni elettroniche, D.lgs. n. 259/03).

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI