Mercoledì 30 Settembre 2020
MacroambienteIBM si oppone all’uso del riconoscimento facciale per sorveglianza di massa e profilazione razziale. Novità anche da Amazon e Microsoft

IBM si oppone all'uso del riconoscimento facciale per sorveglianza di massa e profilazione razziale. Novità anche da Amazon e Microsoft

L'azienda IBM si oppone all'uso del riconoscimento facciale per scopi non etici. Amazon blocca alla polizia il proprio sistema, Rekognition.


Raquel Baptista
A cura di: Raquel Baptista Autore
IBM si oppone all'uso del riconoscimento facciale per sorveglianza di massa e profilazione razziale. Novità anche da Amazon e Microsoft

Tra le varie notizie che hanno segnato i primi giorni di giugno ci sono sicuramente quelle relative a George Floyd, afroamericano ucciso da un poliziotto negli Stati Uniti, e quelle relative alle conseguenti proteste anti-razziste, verificatesi un po’ ovunque nel mondo. Sulla scia di queste manifestazioni, promuovendo l’uguaglianza di opportunità e diritti per tutti i cittadini, in una lettera rivolta al Congresso statunitense IBM si oppone all’uso del riconoscimento facciale per fini di «sorveglianza di massa, profilazione razziale, violazione delle libertà e dei diritti umani».

Ibm si oppone all’uso del riconoscimento facciale per fini che violino i diritti dei cittadini

Diversi brand , come Nike per esempio, hanno reagito schierandosi a favore del movimento nato in seguito al drammatico episodio menzionato, lanciando delle campagne pubblicitarie contro il razzismo. Nel caso di IBM, che da molto lavora allo sviluppo di tecnologie di riconoscimento facciale, la presa di posizione però è andata oltre, anche perché l’uccisione di George Floyd ha riacceso un dibattito, già vivo nel settore, relativo alla vendita di questi sistemi da parte dei giganti tech alle forze dell’ordine. In effetti, l’azienda ha annunciato la propria uscita dal mercato delle tecnologie per il riconoscimento facciale, sottolineando la propria opposizione al loro uso per fini ritenuti non etici e sottolineando inoltre la responsabilità dei venditori – e di chi fa uso di sistemi di intelligenza artificiale – nel garantire di non promuovere, in alcun modo, discriminazioni all’interno della società.

Così, il CEO dell’azienda, Arvind Krishna, ha dichiarato: «crediamo che sia giunta l’ora di aprire un dialogo nazionale sul se e sul come la tecnologia di riconoscimento facciale debba essere impiegata dalle forze dell’ordine».

Anche amazon e microsoft reagiscono agli ultimi episodi

Il gigante dell’eCommerce ha deciso di bloccare per un anno l’utilizzo da parte della polizia del proprio sistema di riconoscimento facciale. È quanto si apprende da un comunicato pubblicato sul blog di Amazon relativo a una moratoria per l’uso di Rekognition – il sistema di riconoscimento facciale dell’azienda – da parte delle forze di polizia americane.

Il software in questione consente agli utenti di trovare corrispondenze, in tempo reale, tra i volti presenti in foto e video di persone e quelli contenuti in enormi database, contenenti volti di criminali, per esempio. Dal suo lancio, questa tecnologia è stata testata dai dipartimenti di polizia dell’Oregon e di Orlando (Florida) ma attualmente, come si legge nel blog post dell’azienda, Amazon ha dichiarato: «Sosteniamo che i governi debbano mettere in atto norme più severe per gestire un utilizzo etico della tecnologia di riconoscimento facciale e, in questi giorni, il Congresso sembra pronto ad affrontare questa sfida. Speriamo che questa moratoria di un anno possa dare al Congresso abbastanza tempo per attuare le normative appropriate e noi saremo pronti a fornire il nostro aiuto, qualora richiesto».

Il sistema di riconoscimento facciale di Amazon, comunque, continuerà a essere messo a servizio di diverse organizzazioni in supporto delle vittime della tratta di esseri umani e per aiutare a riunire bambini scomparsi con le loro famiglie.

IBM e Amazon non sono state però le uniche aziende a rispondere al movimento anti-razzista nato nelle ultime settimane. Infatti, l’11 giugno 2020 il presidente di Microsoft, Brad Smith, ha annunciato che l’azienda non venderà «tecnologie per il riconoscimento facciale ai dipartimenti di polizia negli Stati Uniti finché non ci sarà una legge nazionale in atto, basata sui diritti umani, per governare questa tecnologia». In un’intervista a The Washington Post, il presidente ha spiegato, con un chiaro riferimento agli incidenti che hanno segnato le ultime settimane negli Stati Uniti, che il momento presente «ci chiama ad ascoltare di più, a imparare di più e, cosa più importante, a fare di più»sottolineando l’importante ruolo non solo delle aziende tech ma anche del governo nel garantire un uso sicuro di questa tecnologia.

Le problematiche legate al riconoscimento facciale: tra discriminazione e violazione della privacy

La tecnologia di riconoscimento facciale è sempre più utilizzata nella nostra società, per diversi scopi. Anche in Italia sembra crescere l’interesse da parte delle autorità per questo tipo di tecnologia per funzioni di sorveglianza e di tutela dei cittadini. Non mancano, però, le critiche e persino le soluzioni che mirano a “ingannare” i suddetti software, attualmente utilizzati da diversi enti e organi, pubblici e privati, in molti paesi.

Una delle più grandi problematiche relative all’uso di questa tecnologia riguarda il fatto che questi sistemi non sono stati ancora perfezionati, cosa che non li rende ancora privi di “bias”, come dimostrato da una ricerca risalente al 2018, condotta da Joy Buolamwini e Timnit Gebru. I ricercatori hanno riscontrato diversi problemi all’interno dei software per il riconoscimento facciale allora in commercio (compresi quelli di IBM). In effetti, il grado di accuratezza di questi sistemi dipende dai database usati per “allenare” gli algoritmi, i quali devono poter contare su una vasta copertura di immagini facciali e una distribuzione bilanciata, in modo tale da rispecchiare la grande diversità di volti e di caratteristiche dei visi umani.

A questo proposito, una ricerca pubblicata a dicembre 2019 dal National Institute of Standards and Technology ha rivelato come gli algoritmi attualmente presenti sul mercato tendano a sbagliare, con una frequenza maggiore, nell’identificazione di volti appartenenti a determinati gruppi demografici rispetto ad altri (a seconda dell’età o dell’etnia degli individui). In particolare, il NIST ha riscontrato che il riconoscimento erroneo potesse essere nel caso di individui asioamericani o afroamericani fino a cento volte superiore rispetto a soggetti caucasici, mentre nel caso di nativi americani si registrava il più alto tasso di falsi positivi tra tutte le etnie.

Negli ultimi anni, IBM ha cercato di ottimizzare questa tecnologia e di superare i suddetti ostacoli, cercando di rendere i sistemi di riconoscimento sempre più accurati, ma non senza essere coinvolta in polemiche: infatti, nel 2019 per “addestrare” gli algoritmi di riconoscimento facciale IBM avrebbe sfruttato oltre 99 milioni di foto presenti su Flickr. Poiché si trattava di foto con licenza Creative Commons (che consente la possibilità d’uso purché non a fini di lucro), legalmente non sarebbe stata infranta alcuna legge, ma il fatto di non aver notificato ciò agli utenti presenti nelle foto ha portato l’azienda a ricevere numerose critiche.

Anche altre aziende sono state al centro di dibattiti relativi all’uso di queste tecnologie: per esempio, attualmente Clearview AI ha in atto numerose cause per violazione della privacy, dopo aver utilizzato oltre tre miliardi di foto, riprese dai social network, per vendere servizi di riconoscimento facciale alle forze dell’ordine in tutto il mondo.

È opportuno menzionare anche Rekognition di Amazon, ugualmente travolto dalle critiche sin dal suo debutto con le accuse di diverse organizzazioni per i diritti civili, che hanno manifestato preoccupazione circa l’eventuale utilizzo di questo strumento per altri fini oltre quelli strettamente legati alla sorveglianza da parte dello Stato.

Al di là di tutte le questioni relative alla privacy, che possono nascere da un utilizzo massivo di questi sistemi, come ha ricordato la CEO di IBM, se da un se da un lato la tecnologia in questione può aiutare la polizia a proteggere le comunità, dall’altro per essere davvero utile essa «non deve promuovere discriminazioni o ingiustizie razziali».

È per le ragioni menzionate sopra che Arvind Krishna ora esorta il Congresso statunitense a focalizzarsi su questi problemi, comunicando la volontà di IBM di lavorare insieme a favore della «giustizia e dell’equità etnica» e verso un uso responsabile e trasparente della tecnologia. Allo stesso modo anche altri giganti tech – come si evince dalla volontà di Amazon – stanno monitorando la situazione, prendendo alcuni provvedimenti.

© RIPRODUZIONE RISERVATA E' vietata la ripubblicazione integrale dei contenuti

Iscriviti alla newsletter! Ricevi gli aggiornamenti settimanali delle notizie più importanti tra cui: articoli, video, eventi, corsi di formazione e recensione libri
Potrai anche usufruire di offerte esclusive per libri, eventi e corsi.

Iscriviti

Altre notizie

© Inside Marketing 2013 - 2020 è un marchio registrato ® P.iva 07142251219
×

Informativa

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy.
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.

loading
MOSTRA ALTRI