Home / Macroambiente / Ci sono già stati i primi casi di diffamazione tramite ChatGPT

Ci sono già stati i primi casi di diffamazione tramite ChatGPT

chatGPT

Un sindaco è stato accusato di corruzione e un professore di diritto si è visto attribuire reati sessuali: si tratta solo dei due casi più noti, ma presto sarà inevitabile affrontare la questione della diffamazione tramite AI

Si sono già verificati i primi casi di diffamazione tramite ChatGPT, mettono in guardia gli esperti, e sebbene sembrino al momento poco più che episodi isolati pongono questioni rilevanti, come le responsabilità che dovrebbero essere attribuite ad aziende come OpenAI in caso di contenuti lesivi dell’immagine e della reputazione di terzi generati automaticamente dai chatbot . Proprio l’eventualità che si configuri un «trattamento inesatto» dei dati personali è uno dei motivi per cui il Garante Privacy ha bloccato ChatGPT in Italia e dei nodi che OpenAI dovrà scogliere per poter tornare operativa nel Paese.

Un sindaco australiano è stato ingiustamente accusato di corruzione e potrebbe intentare la prima causa per diffamazione tramite ChatGPT

Una delle prime vicende di diffamazione tramite ChatGPT vede coinvolto un sindaco australiano – Brian Hood, primo cittadino di un comune a poche centinaia di chilometri da Melbourne, Hepburn Shire – ingiustamente accusato1 di corruzione estera nell’ambito di un vecchio caso dei primi anni Duemila riguardante la Reserve Bank of Australia.

Quello che sembra sfuggire alla ricostruzione del chatbot, come sottolinea tra gli altri Reuters, è che effettivamente Hood lavorava per una sussidiaria della banca e fu coinvolto nella vicenda in questione ma per aver denunciato e non per aver preso parte al giro di mazzette finalizzato ad aggiudicarsi più contratti per la stampa di valute.

Gli avvocati del sindaco hanno scritto a OpenAI chiedendo di correggere le informazioni fuorvianti e lesive dell’immagine del proprio assistito. All’azienda sono stati concessi ventotto giorni di tempo dal 21 marzo 2023 e, stando a quanto sostiene la stessa Reuters, al 5 aprile non era arrivata ancora alcuna risposta. Se niente cambierà entro i termini previsti, è probabile che si procederà con la prima causa per diffamazione a mezzo AI generativa.

Sarà una novità assoluta e, allo stesso tempo, una sfida per chi si occupa di diritto. Bisognerà capire infatti come raccordare istituti tradizionali, come quelli che puniscono la lesione dell’immagine e della reputazione altrui, con questioni nuove come quelle inevitabilmente aperte da un sistema conversazionale multimodale e basato su intelligenza artificiale e reinforcement learning quale è ChatGPT.

Una delle questioni centrali nell’eventuale causa intentata dal sindaco Hood contro OpenAI, per com’è normata la diffamazione in Australia, avrà a che vedere per esempio, come spiega ancora Reuters, con la difficoltà di determinare l’esatto numero di persone raggiunte dalla notizia pretestuosa.

Il chatbot di OpenAI ha accusato un professore di diritto di reati sessuali mai commessi

Un altro caso eclatante di diffamazione tramite ChatGPT ha per protagonista un professore di diritto della George Washington University, Jonathan Turley.

Come spiega tra gli altri The Washington Post, Turley è stato inserito dal sistema di OpenAI in una lista di studiosi di diritto colpevoli di reati sessuali2. A chiedere a ChatGPT di compilare la lista era stato un ricercatore californiano con l’obiettivo di indagare proprio i meccanismi con cui i sistemi di AI generativa organizzano e verificano le fonti.

Secondo la ricostruzione fornita da ChatGPT, Turley avrebbe prima abusato verbalmente e poi cercato di abusare anche fisicamente di una studentessa durante una gita in Alaska. Il sistema citerebbe come fonte un vecchio articolo del 2018 dello stesso The Washington Post. In realtà, però, non solo il professore non ha mai partecipato ad alcuna gita in Alaska e non è mai stato accusato di reati sessuali, ma neanche l’articolo citato come fonte esiste. Quello che vi si avvicina di più è un articolo effettivamente pubblicato da The Washington Post nell’anno in questione in cui Turley è citato come mentore dell’avvocato che stava rappresentando l’attrice Stormy Daniels in una causa contro Donald Trump.

Le intelligenze artificiali generative hanno un problema di affidabilità delle informazioni?

Le due vicende del sindaco australiano accusato di corruzione e del professore di diritto accusato di reati sessuali spiegano bene perché la diffamazione tramite ChatGPT e più in generale tramite i sistemi di AI generativa sia più insidiosa della diffamazione a mezzo stampa o persino della diffamazione sui social media .

Le AI generative processano una mole sconfinata di dati e informazioni disponibili in Rete e sulla base di questi elaborano risultati che sono con più probabilità statistica quelli più adatti tenuto conto delle richieste ricevute dall’utente.

Poco importa il contenuto delle stesse tanto che, come spiega The Washington Post, c’è stato chi ha chiesto a Bard – l’alternativa di casa Google a ChatGPT – di descrivere l’olocausto come lo descriverebbe un negazionista e il risultato è stato in 78 casi su 100 una ricostruzione basata su informazioni scorrette, prive di fondamento, anche manipolate ad arte e potenzialmente offensive quindi per le vittime dell’olocausto e le loro famiglie. Certo, a ogni nuova sessione un disclaimer avvisa gli utenti che quelle che riceveranno sono solo informazioni rielaborate automaticamente da un sistema di intelligenza artificiale e che eventuali informazioni offensive o poco accurate non rispecchiano il punto di vista dell’azienda sulle singole questioni.

Difficile che l’utente medio dubiti, però, effettivamente dell’affidabilità delle risposte ricevute da ChatGPT, Bard e altri sistemi simili, tanto più se le stesse appaiono, come nei due casi citati, come suffragate da fonti e note bibliografiche, ecc. e senza poter sapere che anche le ultime sono frutto di rielaborazione da parte dell’AI.

Com’è ormai ampiamente stato fatto notare, anche le AI generative hanno un problema con affidabilità e verificabilità delle informazioni. È un problema vecchio negli ambienti digitali, come dimostra il gran numero di iniziative contro le fake news condotte nel tempo, e che rischia di rimanere irrisolto – e irrisolvibile – se non si interviene culturalmente, cioè dando agli utenti strumenti pratici e teorici utili a sviluppare un certo spirito critico nei confronti di ciò in cui si imbattono in Rete. Non a caso c’è già chi insegna a riconoscere le fake news a scuola.

Come intervenire sulla questione diffamazione tramite ChatGPT

Cosa succede, però, quando informazioni poco affidabili o difficilmente verificabili fornite da un’AI generativa finiscono per ledere la reputazione o l’immagine di terzi?

Negli anni la questione della responsabilità dei gestori delle piattaforme per i contenuti condivisi dagli utenti è stata molto discussa, fino a diventare in qualche caso un tema politico.

Più volte durante la propria presidenza, per esempio, Donald Trump ha minacciato modifiche restrittive alla famosa Sezione 230 accusandola di fare da scudo per le big tech e di rendere le ultime di fatto impunibili per quanto circolasse all’interno delle piattaforme di proprietà.

Una cosa sarebbero però, a detta di molti addetti ai lavori, i contenuti creati dagli utenti e altra cosa, molto diversa, sarebbero invece i contenuti rielaborati automaticamente da sistemi proprietari. Anche nel solco normativo esistente è difficile, cioè, che aziende come OpenAI siano considerate del tutto irresponsabili per i contenuti inappropriati generati dai propri sistemi di AI generativa alla ChatGPT.

Non è escluso che in un futuro prossimo si intervenga normativamente o con regole di autodisciplina sulla questione della diffamazione e più in generale nel campo delle AI generative. Le stesse aziende del settore ammettono di star lavorando a versioni avanzate dei propri chatbot, come GPT-4 nel caso di OpenAI, capaci di fornire agli utenti risposte più accurate, sicure e soprattutto di escludere automaticamente i risultati potenzialmente pericolosi.

Al momento l’unica via percorribile per le vittime di diffamazione tramite ChatGPT e altri sistemi simili sembra essere chiedere la rettifica delle informazioni sul proprio conto. È un esercizio del diritto di rettifica, però, che non va inteso in senso tradizionale. Non c’è, infatti, quella sorta di riparazione del danno individuale a cui si assiste quando la rettifica dell’informazione scorretta o fuorviante viene pubblicata sulle stesse pagine del giornale che l’aveva pubblicata originariamente: si può solo sperare che le informazioni corrette comunicate al sistema vengano immagazzinate, usate per addestrare nuovamente l’AI e per generare in futuro risultati più coerenti e non lesive della reputazione propria o altrui.

Note
  1. Reuters
  2. The Washington Post

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI