AI, Etica e Legge sulle Facce Umane Create Artificialmente

GDPR Specialist / Digital Law Consultant

AI, Etica e Legge sulle Facce Umane Create Artificialmente

Duemila diciannove.

La tecnologia è in grado di creare copie virtualmente identiche agli essere umani.

Suona familiare? Esatto, Blade Runner.

artursadlos

Credit: Artur Sadlos (source: artursadlos.com)

Il punto è che non stavo parlando di un film. Qualcosa di molto simile sta succedendo nella realtà, in questo momento. Nel nostro mondo.

Se nel film i replicanti avevano i loro corpi fisici ed erano dotati di coscienza, nel nostro 2019 noi possiamo creare solo dei perfetti ritratti di uomini, donne, bambini.
Quanti se ne vuole.

Basta dare un’occhiata al sito thispersondoesnotexist.com e continuare ad aggiornare la pagina. Come probabilmente si può desumere dal dominio del sito web, tutte quelle persone non esistono veramente nel nostro mondo.

Neanche.
Una.

Com’è possibile? Tutto inizia con un grandissimo download di immagini in HD da Flickr, qualcosa come 70.000 persone di qualsiasi età, sesso ed etnia. Dopo una fase introduttiva dove queste immagini sono automaticamente allineate e ritagliate utilizzando appositi tool e in seguito scartate le immagini ritraenti statue, dipinti e fotografie di fotografie – ecco che entra in scena la magia. Sostanzialmente una machine learning legge le diverse caratteristiche in ciascuna foto e, a partire da queste, automaticamente crea una nuova immagine – una nuova persona, totalmente inventata.

Il creatore del sito, nonché sviluppatore software, Philip Wang, ha affermato che questo è un grande esempio per mostrare al pubblico il livello di potenza a cui è arrivata l’intelligenza artificiale. Non posso che essere d’accordo con lui: tecnicamente si tratta di un progetto incredibile, con un enorme potenziale.

D’altro canto, io credo che allo stesso tempo questo sia un grande esempio di come l’intelligenza artificiale non debba operare, né ora né in futuro.
Con uno sguardo più approfondito, infatti, emergono diverse potenziali violazioni di carattere legale.

Innanzitutto, prendiamo in considerazione la protezione dei dati personali.

Avete mai domandato ad una persona che sa disegnare molto bene come abbia imparato a saper usare la matita in quel modo? La stessa domanda può spontaneamente essere posta anche nel nostro caso: come ha fatto StyleGAN (questo il nome del progetto) ad imparare a creare delle facce umane finte, eppure così perfettamente realistiche?

L’intelligenza artificiale, per quanto tecnicamente sofisticata, altro non è che una collezione di algoritmi. Di per sé, all’inizio non ha ovviamente nessuna conoscenza del nostro mondo. Per poter essere utile, ha bisogno solitamente di essere allenata con dei dati. Nel nostro caso, il training set che serviva da punto di partenza per questo allenamento era costituito da 70.000 immagini scaricate e ritagliate da Flickr. Nutrita con tutti quei ritratti, StyleGAN ha imparato com’è fatto un volto di un essere umano. Gli autori del progetto probabilmente avranno pensato che non c’era nulla di male: nella loro pagina di GitHub, loro hanno scritto “che le singole immagini sono state pubblicate in Flickr dai loro rispettivi autori” sotto licenze permissive, quindi sostanzialmente avranno pensato che avrebbero potuto fare qualunque cosa con quelle immagini.

C’è qualcosa che, però, non torna in questo ragionamento.

A ben vedere, infatti, StyleGAN è stata nutrita con 70.000 immagini non perché potesse comprendere che caratteristiche visive ha un’immagine con una licenza permissiva.
È stata allenata con 70.000 ritratti di facce di esseri umani perché potesse apprendere come appaiono e come sono fatti nel nostro mondo.

E sotto il GDPR qui in Europa, la raccolta di quel tipo di dati tra le persone europee (in linguaggio legale suona come “trattamento di speciali categorie di dati personali” – sì, il volto umano rientra, in quanto dato biometrico, in questa categoria di dati personali speciale) richiede un’appropriata attenzione, maggiore rispetto ad altri dati personali.

Ci sono facce di persone europee in quel training set? Certamente. Nella pagina di GitHub del progetto sono mostrate alcune statistiche.

Il paese rimane sconosciuto/non definito per l’85% delle immagini e il 5,7% rientra nella categoria “altri paesi”. Più di 1100 immagini provengono dal Regno Unito (appartenente, finora, all’Unione Europea), più di 400 immagini nel training set provengono dall’Italia, più o meno la stessa cifra per le immagini dalla Spagna.

Nel caso ve lo stesse chiedendo, sì – ci sono anche ritratti di europei minorenni. Qui sotto (il file “21695.png”) c’è un esempio di un festival dedicato ai bambini e ai ragazzi a Montalto delle Marche, qui di seguito il link a Flickr: https://www.flickr.com/photos/41171029@N02/36011750773

one

Cartella Drive “in-the-wild-images” con le immagini originali prese da Flickr (source: https://drive.google.com/open?id=1YyuocbwILsHAjTusSUG-_zL343jlVBhf)

two

Cartella Drive “images1024x1024” con immagini allineate e ritagliate, a.k.a. training set (source: https://drive.google.com/open?id=1u3Hbfn3Q6jsTlte3BY85CGwId77H-OOu)

È richiesto il consenso per poter trattare questa categoria speciale di dati personali? In generale sì – assolutamente! Ma ci sono anche alcune eccezioni, e questo potrebbe essere uno di quei casi.

Infatti il GDPR (art.89) per ricerche a scopo scientifico dà la possibilità di poter trattare dati personali (anche speciali) senza richiedere il consenso. Anche se non è sempre chiaro se un progetto abbia o meno quel tipo di obbiettivo, l’articolo di StyleGAN è pubblicato sulla pagina della Cornell University – quindi è probabile che sia stato fatto per scopi di ricerca scientifica.

Quindi, con quel tipo di progetti come base, i ricercatori possono fare qualsiasi cosa vogliono? No, il GDPR non è così machiavellico.

Preoccupato riguardo a possibili abusi, il Supervisore Europeo della Protezione dei Dati (EDPS), e in alcuni casi anche gli stati membri come l’Italia, hanno impostato limiti legali e regole etiche per poter trattare i dati personali a scopi statistici e di ricerca scientifica. Un esempio di ciò è il condurre ricerche nel rispetto dei principi del GDPR, specificando le misure prese per poter trattare i dati personali.

Ho chiesto (alla Tyrrel Corporation) al team di StyleGAN se fossero stati rispettosi di queste regole etiche nel loro progetto.

Nessuno mi ha risposto.

Io non voglio essere come Rick Deckard. Non sono contro il progetto StyleGAN in sé e non voglio che venga ritirato, ma ci sono delle prove che in alcune parti è stato sviluppato non nel modo giusto. Sembra che abbiano trattato i volti umani come automobili.

Come scritto da Daniel Kolitz nel suo articolo, sta a noi gestire le conseguenze. Siamo ancora in tempo per poter cambiare il modo in cui l’intelligenza artificiale è pensata e sviluppata.

Tags: , , , ,