approfondimento
-
Tempo medio di lettura 15'

L’AI Act ha ucciso il Copyright? Riflessioni sul plagio nell’era dell’AI

Pubblicato in: Proprietà Intellettuale
di Arlo Canella
Home > L’AI Act ha ucciso il Copyright? Riflessioni sul plagio nell’era dell’AI

L’intelligenza artificiale sta riscrivendo le regole del gioco per la creatività e il diritto d’autore, sollevando dubbi su quanto le normative attuali possano davvero proteggere autori e artisti. L’AI Act, il primo regolamento vincolante dell’Unione Europea sull’intelligenza artificiale, introduce obblighi di trasparenza e supervisione, ma lascia aperte questioni centrali: chi possiede i diritti sulle opere generate dall’IA? E come si configura il plagio quando a intervenire nei processi creativi è un algoritmo? Questo articolo esplora le implicazioni normative, le zone grigie del plagio assistito dall’IA e il rischio di uno svuotamento del concetto stesso di creatività autoriale, proponendo una riflessione critica sull’equilibrio tra innovazione e tutela dei diritti.

Il Regolamento sull’Intelligenza Artificiale e la sua entrata in vigore

Il Regolamento sull’Intelligenza Artificiale (AI Act), approvato il 13 giugno 2024 e pubblicato nella Gazzetta Ufficiale dell’UE il 12 luglio 2024, è il primo quadro normativo vincolante a livello globale che disciplina lo sviluppo, l’uso e la distribuzione dei sistemi di IA. Con l’obiettivo di conciliare innovazione tecnologica e rispetto dei diritti fondamentali, il regolamento introduce un approccio basato sul rischio, classificando i sistemi di IA in tre categorie principali delineate negli articoli 5-9.

I sistemi vietati (Art. 5) comprendono applicazioni che l’Unione Europea considera incompatibili con i suoi valori fondamentali. Tra questi figurano:

  • La sorveglianza biometrica in tempo reale in spazi pubblici, con eccezioni limitate autorizzate solo in caso di minacce gravi alla sicurezza pubblica.
  • Sistemi progettati per manipolare il comportamento umano sfruttando vulnerabilità specifiche, come quelle di minori o persone in condizioni di fragilità.
  • Social scoring, ovvero la classificazione degli individui basata su comportamenti personali o sociali per finalità discriminatorie.
  • Sistemi predittivi basati su dati biometrici che mancano di giustificazioni solide o garanzie sufficienti.

Per questi sistemi, l’Unione Europea ha fissato il termine del 2 febbraio 2025 per la loro eliminazione obbligatoria, lasciando alle imprese sei mesi per adeguarsi.

I sistemi ad alto rischio (Art. 6 e Allegato III) comprendono applicazioni che possono avere un impatto significativo sui diritti fondamentali, come:

  • Sistemi per la selezione del personale;
  • Applicazioni per l’accesso al credito al consumo;
  • Dispositivi e sistemi impiegati nella diagnosi medica o nel settore giudiziario.

Questi sistemi devono rispettare rigorosi requisiti, tra cui:

  • Tracciabilità dei dati utilizzati per l’addestramento;
  • Audit periodici di sicurezza;
  • Registrazione in un registro pubblico europeo (Articolo 60).

Le aziende che utilizzano sistemi ad alto rischio devono risultare pienamente conformi entro il 2 agosto 2026, due anni dopo l’entrata in vigore del regolamento.

I sistemi a rischio minimo o basso, come chatbot e assistenti virtuali, non sono soggetti agli stessi obblighi rigorosi. Tuttavia, l’articolo 53 richiede che anche per questi sistemi venga garantita una minima trasparenza sull’interazione uomo-macchina, in modo che gli utenti siano consapevoli di interagire con un sistema automatizzato.

Il regolamento stabilisce inoltre una serie di obblighi che le aziende devono rispettare per garantire la conformità. Tra questi:

  • Trasparenza degli algoritmi (Articolo 13): le imprese devono documentare chiaramente il funzionamento del sistema e rendere comprensibili i processi decisionali.
  • Tracciabilità dei dati (Articolo 18): i fornitori devono identificare le fonti e verificare la qualità dei dataset utilizzati per addestrare i sistemi di IA.
  • Valutazioni di conformità (Articolo 43): i sistemi di IA devono essere sottoposti a controlli di sicurezza, sistemi di certificazione esterna e audit periodici per garantire che rispettino gli standard richiesti.
  • Obblighi specifici per i modelli generativi (Articolo 53): per i modelli di IA generativa, è necessario pubblicare una sintesi dei dati utilizzati per l’addestramento e assicurare la conformità con le normative sul diritto d’autore.

Il Capo XII, e in particolare l’articolo 99 e seguenti, stabilisce le sanzioni per le violazioni. Queste includono:

  • Per la violazione dell’articolo 5 (sistemi vietati), sanzioni fino a 35 milioni di euro o al 7% del fatturato mondiale totale annuo.
  • Per il mancato rispetto di obblighi meno gravi, come quelli relativi ai fornitori o distributori di sistemi di IA (articoli 16, 22, 23, 24 e 26), sanzioni fino a 15 milioni di euro o al 3% del fatturato mondiale totale annuo.
  • Per la fornitura di informazioni false, incomplete o fuorvianti alle autorità competenti, sanzioni fino a 7,5 milioni di euro o al 1% del fatturato mondiale totale annuo.

Nel caso di PMI e startup, il regolamento prevede che le sanzioni siano proporzionate alla sostenibilità economica dell’azienda, garantendo che non compromettano la loro operatività. Inoltre, le autorità nazionali devono considerare circostanze attenuanti o aggravanti, come la gravità della violazione, il livello di danno causato e il grado di cooperazione del responsabile. Anche l’Italia, si accinge ad introdurre le sue regole (per approfondire: “Il DDL italiano sull’IA e la tutelabilità della “creatività artificiale” – Canella Camaiora”).

AI Pact vs AI Act: quali differenze?

Le regole stanno per cambiare radicalmente, e il successo dipenderà dalla capacità delle imprese di adattarsi per tempo. Questo è, in sintesi, il dilemma che le imprese europee hanno affrontato con l’introduzione dell’AI Pact, un’iniziativa della Commissione Europea nata nel 2023 per guidare il mercato verso il nuovo e più vincolante AI Act.

L’AI Pact, in sostanza, è stato pensato come una sorta di preparazione volontaria al regolamento (si v. Intelligenza artificiale, perché il patto europeo rischia di rimanere un manifesto di buone intenzioni | Wired Italia). Le imprese firmatarie si impegnano ad anticipare alcune delle regole previste dall’AI Act, come la trasparenza sull’uso dell’intelligenza artificiale, la supervisione umana nei sistemi ad alto rischio e la conformità ai diritti fondamentali. Perché? La ragione è semplice: aiutare le aziende a familiarizzare con i principi etici e operativi che diventeranno obbligatori progressivamente, a partire dal 2025, fornendo loro un vantaggio competitivo nel lungo termine.

Ma quante imprese hanno davvero risposto a questo appello? Ad oggi, solo circa 130 aziende hanno sottoscritto il Pact, tra cui colossi come Google, Microsoft, IBM e Airbus, accanto a startup europee come la promettente italiana Blimp AI. Tuttavia, la mancanza di adesione di grandi nomi come Meta e TikTok ha sollevato perplessità. Perché due giganti globali dell’IA hanno deciso di rimanere fuori da questo progetto? Secondo Milano Finanza, Meta ha scelto di mantenere una posizione distaccata rispetto alle normative europee, sottolineando la tensione storica tra l’azienda e l’approccio normativo dell’UE in tema di intelligenza artificiale (si v. Meta non aderisce all’AI Pact Ue. Ecco perché sull’intelligenza artificiale resta distante da Bruxelles | MilanoFinanza News).

Questo dato evidenzia una criticità: il Pact, essendo volontario, manca del potere coercitivo per convincere le aziende meno inclini a impegnarsi in percorsi anticipati di conformità. Per molte imprese, aderire potrebbe significare costi senza vantaggi immediati. Allo stesso tempo, l’imminente entrata in vigore dell’AI Act sta portando molte realtà ad attendere il quadro definitivo per avviare investimenti e modifiche strutturali.

E proprio qui sta la differenza cruciale tra i due strumenti. Se il Pact rappresenta un invito al cambiamento, l’AI Act ne decreta l’obbligatorietà. Tutte le aziende che operano nel mercato europeo saranno soggette a regole uniformi, con obblighi vincolanti e sanzioni significative per chi non si adegua (come descritto sopra). Tuttavia, sembra che queste sanzioni non spaventino affatto alcune delle Big Tech, almeno non fino al punto di agire con anticipo accettando l’invito dell’UE.

Ormai, però, ci siamo: le norme del regolamento stanno per diventare cogenti. La vera sfida, per chi ha preferito aspettare, sarà riuscire ad adeguarsi in tempo.

Intelligenza artificiale e diritto d’autore: tra eccezioni, trasparenza e vuoti normativi

L’intelligenza artificiale (IA) sta riscrivendo le regole della creatività, aprendo scenari inediti per il diritto d’autore. In Europa, il Regolamento sull’Intelligenza Artificiale (AI Act) si propone di garantire maggiore trasparenza sui contenuti generati dall’IA e di tutelare i diritti degli autori nelle fasi di addestramento e utilizzo dei modelli. Ma come si è arrivati a consentire l’uso di opere protette da copyright per sviluppare l’IA? E chi detiene i diritti sulle opere create da una macchina?

L’evoluzione normativa e le eccezioni al copyright

In origine, il diritto d’autore europeo era strettamente protettivo verso gli autori, come dimostrano la sentenza Infopaq (C-5/08) e l’articolo 5 della Direttiva InfoSoc (2001/29/CE), che limitano severamente l’uso non autorizzato di opere protette. Tuttavia, con l’ascesa dell’IA e la necessità di enormi quantità di dati per il suo addestramento, si è resa necessaria una revisione delle regole per favorire l’innovazione.

La Direttiva sul diritto d’autore nel mercato unico digitale (2019/790/UE) ha introdotto eccezioni per il text and data mining (TDM), consentendo di utilizzare contenuti protetti per analisi e ricerca, a patto che il materiale sia stato ottenuto legalmente e non sia stato espressamente riservato dal titolare dei diritti (come previsto dall’art. 4, paragrafo 3 della direttiva). Questo approccio, pur rispettando formalmente i diritti degli autori, ha aperto la strada a pratiche come lo “scraping” dei contenuti disponibili online, spesso in assenza di reali garanzie di trasparenza.

I Considerando 105 e 106 dell’AI Act ribadiscono che ogni utilizzo di contenuti protetti deve essere autorizzato o rientrare nelle eccezioni previste. Tuttavia, l’effettivo rispetto di questi principi resta una sfida, specialmente in un contesto di opacità nelle pratiche delle grandi piattaforme tecnologiche.

L’obbligo di trasparenza: una regola aurea?

Per mitigare i rischi e garantire un controllo più stringente, l’articolo 53 dell’AI Act introduce obblighi di trasparenza. I fornitori di modelli generativi devono:

  • Pubblicare una sintesi dettagliata dei dati utilizzati per l’addestramento, specificando se includono contenuti protetti da diritto d’autore.
  • Adottare politiche conformi alla normativa sul copyright, garantendo che l’uso delle opere sia autorizzato o rientri nelle eccezioni.

In teoria, queste regole rappresentano una tutela per gli autori. Tuttavia, la loro applicazione pare francamente inapplicabile. In Italia, ad esempio, la Direttiva Copyright è stata recepita negli articoli 70-ter e 70-quater della Legge sul Diritto d’Autore, che prevedono che l’estrazione di testo e dati sia consentita solo se il titolare non ha espressamente vietato tale utilizzo. Eppure, come osservato, questa riserva viene sistematicamente ignorata, lasciando gli autori vulnerabili a uno sfruttamento silenzioso delle loro opere (si v. Intelligenza Artificiale: il silenzioso sfruttamento delle opere degli autori. – Canella Camaiora).

Chi possiede le opere create dall’IA?

Un ulteriore nodo irrisolto riguarda la titolarità delle opere generate dall’IA. Il regolamento europeo non offre una risposta esplicita, lasciando spazio a interpretazioni. Tradizionalmente, i diritti sono attribuiti a chi utilizza o configura il sistema, ma questa logica potrebbe non reggere con l’aumento dell’autonomia dei modelli generativi.

A livello internazionale, gli approcci variano. Negli Stati Uniti, l’Ufficio Copyright ha escluso la protezione per le opere create esclusivamente da IA (Un’opera prodotta dall’intelligenza artificiale può essere protetta da copyright? su Wired e anche il Report di luglio 2024 dello US Copyright Office: Copyright and Artificial Intelligence, Part 1 Digital Replicas Report), mentre in Cina, il tribunale di Pechino ha riconosciuto una tutela limitata, attribuendo i diritti all’utente dell’IA, considerata alla stregua di uno strumento creativo, come un pennello (si v. Intelligenza Artificiale: una “sentenza esemplare” arriva dal Tribunale di Pechino – Canella Camaiora). Questa interpretazione sembra ripercorrere il ragionamento della Corte di Cassazione italiana sulla digital art (si v. Software e creatività: la Suprema Corte sulla tutelabilità della digital art – Canella Camaiora).

Verso una maggiore fiducia: il “bollino IA”

L’articolo 50 dell’AI Act mira a garantire la trasparenza sull’origine dei contenuti generati da IA. I fornitori devono dichiarare esplicitamente se un contenuto è stato creato o manipolato artificialmente, con particolare attenzione ai deep fake, che pongono seri rischi di manipolazione dell’informazione pubblica. L’introduzione di un bollino identificativo rappresenta uno strumento per bilanciare innovazione e fiducia, un tema dibattuto Un bollino ci salverà? – Alberto Puliafito – Internazionale, ne ho parlato anche io in modo estensivo: Dal plagio al rischio di manipolazione del pubblico: i “deep fake” – Canella Camaiora.

Il rapporto tra intelligenza artificiale e diritto d’autore rimane una “relazione complicata”, in cui la tecnologia continua a sfidare i confini della protezione legale. Mentre l’AI Act introduce misure importanti per responsabilizzare i fornitori e tutelare gli autori, molte domande restano aperte. Chi è davvero il proprietario delle opere create dall’IA? Come garantire che i diritti degli autori siano rispettati in un mondo sempre più automatizzato? Rispondere a queste domande richiederà un equilibrio tra progresso e tutela, con nuovi interventi legislativi capaci di affrontare le sfide in atto.

Esiste ancora il concetto di plagio nell’era dell’IA?

L’avvento dell’intelligenza artificiale ha profondamente modificato il concetto tradizionale di plagio, ponendo nuove sfide al diritto d’autore e alla tutela delle opere creative. Ma cosa significa realmente “plagio”? E come si configura quando è un algoritmo a intervenire nei processi creativi?

Cosa significa plagio? In senso giuridico e culturale, è l’atto di appropriarsi indebitamente delle idee, delle parole o delle espressioni creative di un autore, presentandole come proprie. Nel diritto italiano, pur non essendo esplicitamente definito, il plagio si riconduce alla violazione del diritto d’autore, sancita dalla Legge 633/1941. Per essere considerato tale, il plagio deve riguardare una creazione originale, ossia un’espressione personale dell’autore, che manifesti un sufficiente livello di creatività e novità.

Tuttavia, la nozione di plagio non si limita alla riproduzione letterale di un’opera: comprende anche la parafrasi sostanziale, l’imitazione dello stile e l’appropriazione di idee o strutture concettuali. È una zona grigia, dove il confine tra ispirazione legittima e appropriazione indebita è spesso sottile e oggetto di interpretazione.

Esistono molte zone grigie date dal plagio AI-assistito. I software di intelligenza artificiale sono progettati per evitare il plagio diretto. Gli algoritmi che alimentano modelli generativi, come quelli di elaborazione del linguaggio naturale o di generazione di immagini, utilizzano grandi quantità di dati per addestrarsi, ma producono output nuovi, che non sono una copia letterale dei dati di partenza. Paradossalmente, proprio questa capacità di evitare il plagio esplicito consente agli algoritmi – e agli utenti – di attingere a opere protette senza che vi siano chiari profili di responsabilità.

Il risultato è che le opere degli autori possono essere sistematicamente rielaborate e riproposte sotto una nuova veste, con contenuti sufficientemente diversi da non configurare un plagio diretto, ma che riproducono comunque elementi stilistici, concettuali o narrativi. Questo fenomeno, che potremmo definire “plagio implicito“, pone interrogativi profondi sulla tutela del diritto d’autore nell’era dell’IA.

Un caso emblematico riguarda la possibilità di imitare lo stile di un autore o di un artista. Gli utenti possono istruire i modelli di IA a “scrivere come” o “disegnare come” un determinato autore, sfruttandone il tratto distintivo o il linguaggio (per approfondire: Quando riprodurre lo stile altrui è plagio? – Canella Camaiora). Analogamente, possono richiedere alla macchina di riscrivere concetti già espressi da altri, adattandoli a un nuovo contesto. Queste richieste, pur non generando un plagio diretto, pongono importanti questioni di legittimità (per approfondire: Come tracciare il confine tra ispirazione e plagio? – Canella Camaiora).

In queste situazioni, la valutazione del plagio non può basarsi esclusivamente sull’output, ma dovrebbe prendere in considerazione l’intero processo creativo adottato dall’autore umano o dall’algoritmo. Tuttavia, ispezionare retrospettivamente il processo generativo è, nella maggior parte dei casi, giuridicamente e operativamente inapplicabile, oltre che estremamente costoso per la parte debole, ossia l’autore.

Il Regolamento sull’Intelligenza Artificiale introduce obblighi di supervisione umana (art. 50, comma 4) per i contenuti generati dall’IA, ma si limita a imporre che ci sia un responsabile umano per i contenuti editoriali. Questa disposizione, pur importante, potrebbe rivelarsi insufficiente.

La presenza di un supervisore umano non risolve le problematiche di fondo:

  • Il rischio di appropriazione indebita di stile e concetti rimane elevato, soprattutto per autori e artisti emergenti, che vedono la loro impronta creativa “assorbita” dai sistemi di IA senza alcuna garanzia di riconoscimento.
  • L’assenza di strumenti per verificare i processi generativi rende impossibile distinguere tra contenuti legittimi e contenuti che, pur non essendo plagio diretto, violano la sostanza dei diritti d’autore.
  • Il principio di trasparenza sui dataset utilizzati per l’addestramento, già previsto dal regolamento (articolo 53), non è sufficiente a garantire che gli autori possano effettivamente controllare l’uso delle loro opere.

Nel contesto attuale, parlare di plagio nell’era dell’IA significa confrontarsi con una trasformazione radicale del concetto stesso di originalità. Abbiamo a che fare con un nuovo sistema cognitivo, definito “sistema 0 (zero)” da alcuni ricercatori dell’Università Cattolica (si v. Sistema 0, l’intelligenza artificiale sta già cambiando il cervello umano: cosa ha scoperto una ricerca italiana | Corriere.it).

Ho approfondito l’intelligenza artificiale e il suo funzionamento effettivo in un articolo dedicato: “L’AI funziona davvero come il cervello umano? – Canella Camaiora” ma avevo già cominciato a domandarmi: “Intelligenza Artificiale: strumento oppure “oracolo” tecnologico? – Canella Camaiora”.

Insomma, i modelli di IA non copiano, ma reinterpretano; non plagiano, ma sfruttano. Questo crea un vuoto normativo e di impostazione generale che il Regolamento sull’IA non sembra in grado di colmare, limitandosi a disposizioni minime sulla trasparenza e sulla supervisione umana.

Senza interventi più incisivi, rischiamo di assistere a un progressivo svuotamento del concetto stesso di creazione autoriale, con conseguenze significative non solo per gli autori, ma per l’intero ecosistema culturale e artistico. La vera domanda, quindi, non è se il plagio esista ancora nell’era dell’IA, ma piuttosto se siamo disposti a ridefinirlo per adattarlo a un mondo digitale – reso opaco dalla complessità – in cui la linea tra ispirazione e appropriazione viene attraversata dietro le quinte.

© Canella Camaiora Sta. Tutti i diritti riservati.
Data di pubblicazione: 14 Novembre 2024
Ultimo aggiornamento: 20 Novembre 2024

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.
Avv. Arlo Cannela

Avvocato Arlo Canella

Managing Partner dello studio legale Canella Camaiora, iscritto all’Ordine degli Avvocati di Milano, appassionato di Branding, Comunicazione e Design.
Leggi la bio
error: Content is protected !!