approfondimento
-
Tempo medio di lettura 12'

La “corsa” per la conquista dell’AI: dalle origini alle sfide della governance globale

Pubblicato in: Proprietà Intellettuale
di Gabriele Rossi
Home > La “corsa” per la conquista dell’AI: dalle origini alle sfide della governance globale

Nell’ambito di software e piattaforme web, il 30 novembre 2024 ha segnato il secondo anniversario di ChatGPT, un simbolo dell’evoluzione dell’intelligenza artificiale. In poco tempo, strumenti come ChatGPT hanno reso l’IA accessibile a milioni di persone, trasformando il modo di lavorare, comunicare e affrontare problemi complessi. Tuttavia, dietro questa rivoluzione si celano sfide tecnologiche e regolamentari che richiedono risposte chiare e globali. Questo articolo ripercorre le origini storiche dell’IA, dal “Turco Meccanico” al “Test di Turing”, e analizza come l’Unione Europea, con l’adozione dell’AI Act, stia dettando gli standard globali per la governance. Si approfondiscono anche le normative italiane, che integrano i principi europei in un contesto specifico. Infine, vengono esaminate le sfide dell’intelligenza artificiale generale (AGI), le implicazioni etiche e i requisiti di compliance per sviluppatori e utilizzatori. L’approccio basato sul rischio emerge come una strategia centrale per una gestione responsabile e trasparente dell’IA.

Riprodurre l’intelligenza umana attraverso le macchine: un sogno antico

L’intelligenza artificiale (IA) affonda le sue radici in un sogno antico: replicare l’intelligenza umana attraverso le macchine. Molto prima dell’era digitale, addirittura nel Settecento, il “Turco Meccanico”, un automa progettato nel 1769 da Wolfgang von Kempelen per Maria Teresa d’Austria, suscitava meraviglia nelle corti europee.

Dopo la morte di von Kempelen, Johann Nepomuk Maelzel (1772–1838), un inventore-imprenditore tedesco, acquistò il Turco e lo trasformò in uno spettacolo itinerante, organizzando esibizioni nelle principali città europee e, poi, americane.

Fu nel 1827 che Edgar Allan Poe, trovandosi a Baltimora, assistette a una partita del Turco. Poe, affascinato dal suo mistero, notò che i suoi movimenti erano troppo precisi per essere interamente meccanici. Nel suo saggio “Il giocatore di scacchi di Maelzel” (Maelzel’s Chess Player) del 1836, Poe descrisse dettagliatamente il funzionamento dell’inganno, ipotizzando anche chi fosse il possibile operatore nascosto nel doppio fondo.

 

Nel suo saggio, Poe non solo investigò e svelò il trucco, ma esaminò anche le implicazioni filosofiche dell’automa. Se il Turco fosse stato veramente autonomo nel gioco degli scacchi, sarebbe stata la più grande invenzione mai realizzata dall’umanità; invece, era solo un imbroglio ingegnoso, simbolo di un’ambizione che avrebbe continuato a ispirare generazioni.

Dal “Test di Turing” a ChatGPT

Il salto verso l’intelligenza artificiale moderna avvenne negli anni ’30, con Alan Turing, pioniere dell’informatica. Il suo lavoro sulla macchina Enigma, utilizzata per decifrare i messaggi codificati dell’esercito nazista durante la Seconda Guerra Mondiale, non solo cambiò le sorti del conflitto, ma pose le basi della crittografia moderna e delle prime teorie sull’automazione. Questo straordinario contributo è stato narrato nel film “The imitation game”, diretto da Morten Tyldum, con Benedict Cumberbatch nel ruolo di Alan Turing.

Il titolo del film richiama il concetto di “gioco dell’imitazione”, un’idea che Turing avrebbe formalizzato anni dopo nel celebre “Test di Turing”. Questo test si proponeva di rispondere a una domanda apparentemente semplice, ma rivoluzionaria: “Le macchine possono pensare?”. Nel contesto del Test, una macchina viene ritenuta intelligente se le sue risposte risultano indistinguibili da quelle di un essere umano. Sebbene il film si concentri sulla decodifica di Enigma, il titolo rende omaggio alla visione lungimirante di Turing e alla sua eredità nel campo dell’intelligenza artificiale.

Nel lavoro di Turing emerge un filo conduttore che lega il passato al futuro: l’idea che una macchina possa imitare i processi cognitivi umani (approfondisci: L’AI funziona davvero come il cervello umano? di A. Canella).

Il termine “intelligenza artificiale” fu ufficialmente coniato nel 1955, in vista di un convegno presso il Dartmouth College di Hanover, nel New Hampshire, considerato il punto di partenza della disciplina.  John McCarthy, uno dei pionieri del settore, definì l’IA come “la scienza e l’ingegneria di fare macchine intelligenti”, segnando l’inizio di un campo che, nel tempo, si è evoluto in due principali direzioni:

  • L’IA debole, focalizzata su compiti specifici e limitati. Assistenti virtuali come Siri, Cortana e Google Assistant ne sono un esempio: utilizzano l’elaborazione del linguaggio naturale e regole predefinite per eseguire un ventaglio ristretto di funzioni, senza implementare processi cognitivi completi.
  • L’IA forte, orientata a imitare processi cognitivi complessi, come l’apprendimento e il ragionamento, ma che rimane un obiettivo ancora lontano.

Oggi, strumenti avanzati come ChatGPT rappresentano il frutto di decenni di innovazioni. Sebbene capaci di elaborare grandi moli di dati e fornire risposte rapide e articolate, questi sistemi non sono ancora esempi di intelligenza artificiale generale (AGI), ovvero una macchina in grado di eguagliare o superare le capacità umane in molteplici ambiti.

Gli attuali sistemi combinano algoritmi sofisticati con enormi quantità di dati, ma non comprendono il contesto come farebbe un essere umano. Questo solleva importanti interrogativi etici e di governance, che diventano sempre più centrali con il progresso tecnologico.

La corsa verso l’AGI: l’intelligenza artificiale forte

La storia dell’intelligenza artificiale è un mix di ambizione tecnologica e cautela etica, che rende sempre più necessaria una regolamentazione adeguata (v. anche: “L’IA è solo uno specchio e ci ricorda quanto siamo umani” di A. Canella).

Italia e Unione Europea sono tra i primi attori a intervenire sul piano internazionale, mentre il dibattito globale sul tema si fa sempre più acceso. Un esempio di questa complessità è rappresentato dalla definizione e dall’atteso arrivo dell’Intelligenza Artificiale Generale (AGI). A differenza dell’IA attuale, progettata per compiti specifici, l’AGI sarebbe un sistema altamente autonomo, in grado di eguagliare o superare le capacità umane nella maggior parte dei lavori economicamente rilevanti. Per OpenAI, l’AGI rappresenta un punto di svolta tecnologico, ma anche una sfida cruciale in termini di governance e responsabilità.

Un aspetto particolarmente discusso riguarda l’accordo tra OpenAI e Microsoft, che include una clausola strategica legata all’AGI. Secondo questa disposizione, nel momento in cui OpenAI dichiarerà il raggiungimento dell’AGI, Microsoft perderà l’accesso esclusivo alle tecnologie più avanzate sviluppate dalla società. Questa clausola, originariamente pensata per garantire un controllo etico e non commerciale sull’AGI, è oggi oggetto di revisione. OpenAI starebbe valutando la sua rimozione per attrarre ulteriori investimenti da Microsoft, che ha già finanziato la società con oltre 13 miliardi di dollari (si veda: OpenAI aims to attract more investment by removing ‘AGI’ clause with Microsoft, FT reports – Reuters, 6 dicembre 2024).

Sam Altman, CEO di OpenAI, ha recentemente dichiarato che l’AGI potrebbe arrivare prima di quanto ci si aspetti, ma con impatti inizialmente meno rivoluzionari del previsto. La vera trasformazione, secondo Altman, avverrà con l’arrivo della superintelligenza, un’evoluzione ancora più avanzata dell’AGI, che potrebbe emergere “tra qualche migliaio di giorni” (si veda: Sam Altman lowers the bar for AGI – The Verge, 4 dicembre 2024).

L’idea stessa di un’AGI — una tecnologia potenzialmente capace di rivoluzionare interi settori — solleva interrogativi urgenti: Chi controllerà questa potenza? Come garantire che sia utilizzata in modo responsabile? In questo contesto, la compliance normativa e l’etica assumono un ruolo centrale, ponendo le basi per una gestione più trasparente e sicura. Ma quali regole dovranno essere seguite? E, soprattutto, chi sarà chiamato a definirle?

Come l’Italia e l’Unione Europea stanno regolamentando l’intelligenza artificiale

L’intelligenza artificiale (IA) sta trasformando settori chiave, ma questo progresso tecnologico porta con sé la necessità di una regolamentazione chiara e uniforme. L’Unione Europea si è posta all’avanguardia di questo processo con l’approvazione definitiva dell’AI Act il 13 marzo 2024. Questo regolamento rappresenta il primo quadro normativo completo sull’IA, progettato per garantire sicurezza, trasparenza e la tutela dei diritti fondamentali. Essendo uno strumento vincolante, non richiede recepimento da parte degli Stati membri, assicurando un’applicazione immediata e coerente in tutto il territorio UE (approfondisci: “L’AI Act ha ucciso il copyright? Riflessioni sul plagio nell’era dell’AI” di A. Canella).

L’AI Act adotta un approccio proporzionato al rischio, classificando i sistemi di IA in quattro categorie principali:

  • Rischio minimo, come i filtri antispam, che non richiedono misure particolari di conformità.
  • Rischio limitato, come i chatbot per i servizi clienti, che devono garantire trasparenza informando gli utenti che stanno interagendo con un’IA.
  • Rischio alto, come i sistemi utilizzati in infrastrutture critiche, istruzione o occupazione, per i quali sono previsti rigorosi obblighi di tracciabilità e valutazione indipendente.
  • Rischio inaccettabile, come i sistemi di punteggio sociale, riconoscimento facciale non autorizzato o categorizzazione basata su caratteristiche sensibili, che sono proibiti dall’Articolo 5 del Regolamento.

I sistemi a rischio inaccettabile sono considerati incompatibili con i valori fondamentali dell’UE e includono:

  • Sistemi di punteggio sociale, progettati per classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali.
  • Sistemi di identificazione biometrica remota “in tempo reale” in spazi pubblici, utilizzati senza il consenso degli individui.
  • Sistemi di riconoscimento delle emozioni sul lavoro, nelle scuole o durante la gestione delle frontiere, considerati invasivi e soggetti a errore.
  • Sistemi progettati per influenzare gli elettori durante le elezioni, una minaccia per la democrazia.

Per i sistemi ad alto rischio, il Regolamento impone rigorosi requisiti di trasparenza, tracciabilità e conformità, richiedendo valutazioni indipendenti da parte di organismi accreditati e garantendo che l’essere umano rimanga al centro delle decisioni finali.

Un’importante spinta al dibattito è arrivata dai vincitori del Premio Nobel per la fisica 2024, John Hopfield e Geoffrey Hinton, figure storiche nel campo dell’IA. Entrambi hanno espresso preoccupazioni sull’effettivo controllo umano dei sistemi di IA, mettendo in guardia dai rischi legati a tecnologie capaci di perfezionare sé stesse o di generare sistemi chiusi (si veda: Chi sono Hinton e Hopfield, vincitori del Nobel per la Fisica e pionieri dell’intelligenza artificiale su Repubblica dell’8 ottobre 2024). Per affrontare queste sfide, l’AI Act richiede che tutti i sistemi di IA siano trasparenti (rendendo noto il percorso logico-matematico alla base degli output) e tracciabili, per consentire di ripercorrere e verificare i processi decisionali.

Anche l’Italia ha avviato un proprio disegno di legge per regolare l’uso dell’IA in ambiti specifici. Tra le disposizioni principali, la normativa prevede:

  • L’uso dell’IA da parte dei professionisti solo come strumento di supporto, garantendo sempre la prevalenza della componente intellettuale.
  • L’obbligo di fornire ai clienti informazioni chiare sull’uso dei sistemi IA.

Sebbene questa normativa richiederà futuri adeguamenti per allinearsi al quadro europeo, rappresenta un passo significativo verso una regolamentazione più dettagliata (approfondisci: “Analisi del quadro normativo in materia di intelligenza artificiale” della Presidenza del Consiglio dei Ministri e “Il DDL italiano sull’IA e la tutelabilità della creatività artificiale” di P. Lo Monaco).

A livello globale, l’approccio dell’UE si distingue da quello di Stati Uniti e Cina. Negli Stati Uniti, prevale un modello più libertario, privo di una regolamentazione federale forte, nonostante il ruolo di leadership nella produzione di tecnologie IA. Al contrario, la Cina ha accelerato lo sviluppo dell’IA grazie a una quantità immensa di dati e normative meno stringenti in materia di privacy, ma ciò avviene al costo di gravi preoccupazioni sui diritti individuali (vedi anche: Dove si gioca la sfida sull’IA tra Usa-Cina – Lavoce.info del 6 dicembre 2024). In questo contesto, l’Europa emerge come un unicum regolativo, centrato su valori fondamentali come la trasparenza e la tutela della dignità umana.

L’AI Act non si limita a imporre obblighi: rappresenta anche un’opportunità strategica. I fornitori e utilizzatori di IA devono implementare processi di compliance per garantire conformità normativa, trasparenza e sicurezza. Per i modelli più avanzati, come i Large Language Models (LLM), sono richieste misure specifiche, come:

  • Mitigazione dei rischi.
  • Segnalazione di eventuali incidenti.
  • Valutazioni indipendenti da parte di organismi accreditati.

Le sanzioni per la non conformità sono significative: possono variare da 7,5 milioni a 35 milioni di euro, oppure dall’1% al 7% del fatturato globale, se superiore. Tuttavia, affidarsi a esperti in regolamentazione dell’IA consente di trasformare i requisiti normativi in un vantaggio competitivo, garantendo trasparenza e affidabilità in un mercato sempre più complesso.

© Canella Camaiora Sta. Tutti i diritti riservati.
Data di pubblicazione: 13 Dicembre 2024

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Gabriele Rossi

Laureato in giurisprudenza, con esperienza nella consulenza legale a imprese, enti e pubbliche amministrazioni.
Leggi la bio
error: Content is protected !!