approfondimento
-
Tempo medio di lettura 12'

Dal plagio al rischio di manipolazione del pubblico: i “deep fake”

Pubblicato in: Proprietà Intellettuale
di Arlo Canella
Home > Dal plagio al rischio di manipolazione del pubblico: i “deep fake”

I deep fake, alimentati dall’intelligenza artificiale, rappresentano una delle minacce più insidiose del web. Capaci di ingannare e manipolare l’opinione pubblica, questi contenuti sollevano seri interrogativi etici e legali.

Deep fake: significato ed evoluzione del fenomeno

Il deep fake è un fenomeno reso possibile soprattutto dall’avvento di tecnologie come l’intelligenza artificiale. Consiste nella creazione di contenuti audiovisivi – come immagini, clip e video – ingannevoli perché estremamente realistici, includendo i ritratti di persone reali, più o meno note.

Inizialmente sviluppata per scopi accademici e di ricerca, questa tecnologia si basa su reti antagoniste generative (GAN), che imparano a generare immagini e video “artificiali” attraverso il concorso di due reti neurali. 

I primi progetti in questo settore avevano per oggetto la modifica di video esistenti di persone per farle apparire mentre pronunciavano parole diverse da quelle originali. Il primo progetto in assoluto è “Video Rewrite” risalente addirittura al 1997. Molto dopo è venuto il progetto molto più conosciuto denominato “Synthesizing Obama” del 2017 in cui si rendeva possibile realizzare clip video in cui l’ex presidente americano pronunciava le frasi desiderate.

Tuttavia, il termine deep fake – che deriva dalla combinazione di “deep learning” e “fake” – è stato coniato sui social media e precisamente su Reddit

Deepfakes”, per l’appunto, era il nome di un utente di Reddit che ha iniziato a condividere video manipolati, essenzialmente di natura pornografica, sostituendo a quello degli attori quello di alcune star del cinema, tra cui Gal Gadot (per approfondire, si v. l’articolo “AI-Assisted Fake Porn Is Here and We’re All Fucked” risalente all’11 dicembre 2017 su Vice). 

Le autorità e le piattaforme social sono intervenute per arginare il fenomeno poiché volti di celebrità e di politici venivano diffusi sul Web con frequenza sempre maggiore e condivisi creando un effetto esponenziale

Per via delle dimensioni preoccupanti della diffusione dei deep fake, perfino Google interviene per contrastare il fenomeno inserendo espressamente le “immagini pornografiche sintetiche e involontarie” nella lista di contenuti che possono essere eliminati con facilità dai risultati delle ricerche (per approfondire, si v. l’articolo del  Washington Post “Fake-porn videos are being weaponized to harass and humiliate women: ‘Everybody is a potential target” risalente al 30 dicembre 2018).

Tuttavia, il deep fake non riguarda solo il porno, il pubblico è molto divertito dai meme satirici che riguardano star e personaggi politici. Inoltre, la possibilità di vedere il proprio volto all’interno di videoclip musicali, sfruttando app basate sull’AI. come FakeApp esalta gli utenti dei social media. Lanciata nel gennaio 2018, questa app permette all’utente di diventare protagonista, scambiare e sostituire i volti nelle clip. La creazione di deepfake è stata poi resa accessibile a chiunque mediante applicazione a pagamento ed open-source come DeepFaceLab, FaceSwap e myFakeApp (Si v. “Software per il deepfake” su Wikpedia)”.

Solo il 28 dicembre del 2020, tre anni dopo, la diffusione del fenomeno porta il Garante Privacy italiano pubblicare un comunicato stampa e una una scheda informativa dedicata ai rischi dell’uso malevolo di questa nuova tecnologia, consigliando di limitare la diffusione di immagini personali online, segnalando i contenuti sospetti alle piattaforme e alle autorità competenti.

In linea con quanto detto, il testo del nuovo ddl italiano sull’intelligenza artificiale propone, all’art. 25,  l’introduzione dell’art. 612-quater del codice penale in merito alla “Illecita diffusione di contenuti generati o manipolati artificialmente”. Insomma, il rapido avanzamento e la diffusione dei deep fake ci hanno costretto a rivedere il nostro rapporto con i contenuti visivi online. 

Non possiamo più fidarci di ciò che vediamo: le immagini e i video oggi possono essere facilmente manipolati e le piattaforme sono tenute a una sorveglianza più attenta e mirata. I deepfake, apparentemente innocui, possono rappresentare una grave minaccia per la privacy e la dignità delle persone. Inoltre, possono essere utilizzati per il furto d’identità, revenge porn, cyberbullismo, disinformazione e crimini informatici. Vediamo più in dettaglio queste conseguenze e gli illeciti correlati.

Quali sono le conseguenze etiche e legali del Deepfake?

Tra i tanti effetti, i deepfake hanno il potenziale di ingannare, frodare e manipolare l’opinione pubblica, soprattutto sui social media. La capacità di creare contenuti audiovisivi falsi ma estremamente realistici consente di diffondere informazioni pretestuose in modo molto convincente, influenzando la percezione e le decisioni delle persone. Chi opera nel settore della proprietà intellettuale sa quanto è difficile modificare l’opinione del pubblico intorno a una certa notizia, anche se falsa, dopo la sua uscita.

Il caso “Cambridge Analytica” ci ricorda che l’uso di tecniche manipolative può avere un impatto soprattutto in sede politica, influenzando l’opinione pubblica e, quindi, anche le elezioni mediante lo studio e l’analisi di grandi quantità di dati, per creare messaggi mirati.

Cos’era Cambridge Analytica? Era una società britannica che combinava data mining, brokeraggio e analisi dei dati, per applicarli alle strategie di comunicazione. È diventata famosa nel 2018 per il suo coinvolgimento nello scandalo relativo all’uso improprio dei dati personali degli utenti di Facebook. Nel 2014, infatti, Cambridge Analytica aveva ottenuto i dati di circa 87 milioni di utenti di Facebook attraverso un’app chiamata “This Is Your Digital Life“. L’app era presentata come un quiz sulla personalità, ma raccoglieva informazioni sui soggetti che la utilizzavano e sui loro amici. Poiché i dati raccolti includevano like, interessi e connessioni, questi dati erano perfetti per creare profili psicografici degli utenti, nonché ideali anche per creare indicazioni di voto altamente mirate e personalizzate. Cambridge Analytica è risultata coinvolta nella campagna presidenziale di Donald Trump negli Stati Uniti del 2016 e in quella per il referendum sulla Brexit nel Regno Unito. Nel maggio 2018, Cambridge Analytica ha dichiarato bancarotta e ha cessato le operazioni a seguito dello scandalo e delle indagini. Nel luglio 2019, la FTC degli Stati Uniti ha multato Facebook per 5 miliardi di dollari per violazioni della privacy legate allo scandalo Cambridge Analytica. Si tratta di una delle più grandi multe mai inflitte dalla FTC. Inoltre, l’Information Commissioner’s Office (ICO) del Regno Unito ha multato Facebook per 500.000 sterline per aver consentito la raccolta impropria dei dati degli utenti (per approfondire, si v. l’articolo “Il caso Cambridge Analytica” su Dirittoconsenso.it)

Il caso Cambridge Analytica, indipendentemente dal suo esito giudiziario, ha dimostrato quanto potenti possano essere i dati personali quando vengono utilizzati per influenzare comportamenti e decisioni. Ha anche portato a una maggiore consapevolezza pubblica e regolamentazione sulla privacy dei dati e sulla necessità di proteggere le informazioni personali degli utenti online.

Giuridicamente, tornando ai deepfake, questi possono senza dubbio costituire violazione del:

  • diritto d’autore (con riferimento alle opere altrui sfruttate senza autorizzazione)
  • diritto d’immagine (con riferimento al diritto all’identità, al nome e all’immagine delle persone coinvolte) 

La creazione e diffusione di contenuti falsi che danneggiano la reputazione o sfruttano l’immagine di una persona senza consenso possono portare a significative conseguenze legali, anche di natura penale. Ma più che di “plagio autoriale”, ciò che preoccupa maggiormente in questi casi è un altro tipo di condizionamento plagiario, reso possibile proprio dalla comunicazione di contenuti falsi, fraudolenti e speculativi, in grado di minare la libertà di autodeterminazione degli individui.

Per il vero, ci sono anche usi legittimi dei deepfake, come nell’ipotesi di satira o di parodia, peraltro costituzionalmente garantita in nome della libertà di espressione (art. 21 Costrituzione italiana). Anche in questi casi, però, ciò che più conta sembra essere la trasparenza. Se l’utente è messo nella condizione di distinguere un contenuto falso da uno artificiale, potrà riconoscere tale contenuto e attribuirgli il valore che merita, nel bene e nel male, sia dal punto di vista creativo che, soprattutto, informativo. Viene da domandarsi quindi “Un bollino ci salverà?”. Vi invito a leggere l’articolo del 3 giugno 2023 di Alberto Puliafito, giornalista di Internazionale. Il bollino è “Made with AI” è stato introdotto da Meta per riconoscere le clip e immagini generate mediante AI. Sempre Puliafito riporta che tale attenzione ai contenuti generati mediante AI era stata introdotta anche su Youtube: “anche nella guida di YouTube si parla di sanzioni, ‘tra cui la rimozione dei contenuti o la sospensione dal Programma partner di YouTube’, cioè dal programma che consente a chi crea video di guadagnare attraverso la pubblicità”.

Quindi, a mio giudizio, il rischio più grave dei deepfake è proprio la manipolazione dell’opinione pubblica, motivo per cui il regolamento sull’IA è fortemente focalizzato sulla trasparenza. Garantire che i contenuti generati artificialmente siano chiaramente riconoscibili è essenziale, ma se si scegliesse di accontentarsi del bollino, potrebbe generarsi un “effetto boomerang”, per cui tutto ciò che risultasse sprovvisto di detto bollino potrebbe risultare per contro ingiustamente attendibile. Vediamo però cosa prevede esattamente l’AI Act. Quello europeo, infatti, è il primo regolamento al mondo sulla regolamentazione dell’Intelligenza Artificiale.

Come l’AI Act europeo disciplina i deep fake?

Il termine deep fake è contenuto tra le definizione dell’AI Act. L’articolo 2 lo definisce come “un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona”.

Il regolamento introduce un obbligo di trasparenza estensivo. Il considerando 134 del regolamento precisa che i fornitori di IA dovranno adottare soluzioni tecniche relativamente ai deep fake e i deployer – ossia chiunque utilizzi un sistema di IA in europa – dovrebbero rendere noto in modo chiaro e distinto che il contenuto è stato creato o manipolato artificialmente etichettando di conseguenza gli output dell’IA e rivelandone l’origine artificiale

Abbiamo già visto nel paragrafo precedente come Meta si sia “portata avanti” con il bollino “made with AI”. 

Tuttavia, si precisa che tale obbligo di trasparenza non deve ostacolare il diritto alla libertà di espressione e il diritto alla libertà delle arti e delle scienze garantito dalla Carta. Abbiamo già visto come satira, parodia o legittima rielaborazione umana possano prevedere l’impiego dell’AI. In sostanza, l’obbligo di trasparenza per i deep fake non deve ostacolare l’esposizione o il godimento dell’opera, compresi il suo normale sfruttamento.  Per i testi, tale obbligo di segnalazione viene meno in caso di controllo e chiara responsabilità editoriale degli stessi.

Il considerando, poi, trova applicazione concreta nel comma 4 dell’art. 50 dell’AI Act. Il mancato rispetto degli obblighi di trasparenza per i fornitori e i deployers a norma dell’articolo 50 (come previsto dall’art. 99 comma 4 del regolamento) prevede sanzioni amministrative pecuniarie fino a 15 000 000 EUR o, se l’autore del reato è un’impresa, fino al 3 % del fatturato mondiale totale annuo dell’esercizio precedente, se superiore.

Le sanzioni sono ancora più elevate se le condotte rientrano nelle pratiche tassativamente vietate di cui all’art. 5 del regolamento. L’AI Act è stato approvato il 13 marzo 2024 e, nel momento in cui si scrive, si attende la pubblicazione in Gazzetta Ufficiale UE. Il regolamento entrerà in vigore 20 giorni dopo la pubblicazione e raggiungerà la sua piena applicabilità 24 mesi dopo l’entrata in vigore generale, ovvero tendenzialmente a partire da giugno 2026.

Tuttavia, il divieto delle c.d. pratiche proibite entrerà in vigore già tra sei mesi. L’AI Act vieta tassativamente sistemi di manipolazione cognitiva, raccolta non mirata di immagini facciali, riconoscimento delle emozioni, “punteggio sociale”, categorizzazione biometrica per dati sensibili e polizia predittiva individuale, a tutela dei diritti fondamentali e della privacy.

I codici di condotta entreranno in vigore tra 9 mesi mentre le norme generali sull’IA (inclusa la governance) saranno applicabili tra 12 mesi.

Da notare che, considerati i tempi di entrata in vigore del Regolamento e l’impatto dell’AI sulle elezioni europee di giugno 2024, a metà novembre 2023 era stato lanciato il Patto Europeo sull’Intelligenza Artificiale cui molte aziende avevano già aderito su base volontaria (per approfondire: “Lanciato il Patto Ue sull’intelligenza artificiale per anticipare volontariamente i requisiti della futura legge Ue”).

© Canella Camaiora Sta. Tutti i diritti riservati.
Data di pubblicazione: 5 Giugno 2024
Ultimo aggiornamento: 6 Giugno 2024

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.
Avv. Arlo Cannela

Avvocato Arlo Canella

Managing Partner dello studio legale Canella Camaiora, iscritto all’Ordine degli Avvocati di Milano, appassionato di Branding, Comunicazione e Design.
Leggi la bio