approfondimento
-
Tempo medio di lettura 11'

L’AI funziona davvero come il cervello umano?

Pubblicato in: Proprietà Intellettuale
di Arlo Canella
Home > L’AI funziona davvero come il cervello umano?

Questo articolo esplora l’evoluzione e l’impatto dell’intelligenza artificiale generativa (Gen-AI), una delle tecnologie più avanzate dell’IA, capace di simulare aspetti della creatività umana, mettendo in discussione la proprietà intellettuale. Dalla generazione di testi e immagini alla creazione di musica e video, la Gen-AI sta trasformando i processi creativi in diversi settori, offrendo nuove possibilità per aziende e utenti. Vengono presentati strumenti all’avanguardia come ChatGPT, DALL-E e Codex di OpenAI, ognuno con applicazioni specifiche nel supporto agli utenti, nella creazione di contenuti e nello sviluppo software. Tuttavia, ci interroghiamo sui limiti di questi sistemi rispetto al cervello umano, esaminando il funzionamento delle reti neurali artificiali e confrontando le loro capacità di apprendimento con quelle del pensiero umano. L’articolo analizza inoltre le sfide legali e i problemi etici, come la trasparenza e la responsabilità, sollevati dall’adozione su larga scala dell’IA, e discute le prime risposte normative, inclusa l’introduzione dell’AI Act europeo.

Cos’è l’intelligenza artificiale generativa?

Oggi l’intelligenza artificiale generativa – nota anche come Gen-AI – rappresenta una delle frontiere più interessanti dell’IA, capace di creare contenuti realistici che simulano la creatività umana. Dalla scrittura alla programmazione, dalla creazione di immagini alla generazione di musica, la Gen-AI può accelerare i processi creativi, offrendo un valore significativo sia alle imprese sia al mercato globale.

Il nome più noto in questo ambito è senz’altro ChatGPT di OpenAI, uno strumento che ha guadagnato popolarità grazie alla sua capacità di interazione diretta con gli utenti. ChatGPT “dialoga” utilizzando il testo e risponde a domande o richieste con risposte articolate, simulate sulla base di un’enorme quantità di conoscenze. Questo tipo di IA è addestrato tramite reti di token linguistici, che le consentono di generare risposte accurate e pertinenti, rendendola uno strumento prezioso in vari contesti, dal customer service alla ricerca di informazioni.

Ma ChatGPT non è l’unico esempio di IA generativa all’avanguardia. OpenAI Codex, una versione per sviluppatori, genera codice in diversi linguaggi di programmazione, semplificando notevolmente il lavoro di sviluppo e riducendo i tempi per la creazione di nuove applicazioni. Sul fronte visivo, strumenti come MidJourney e DALL·E generano immagini a partire da descrizioni testuali, risorse molto richieste nei settori del design e della pubblicità.

L’intelligenza artificiale generativa va oltre il testo e le immagini. MusicLM permette di creare file audio, trasformando annotazioni di testo in musica. Gen1 di RunwayML, invece, genera video partendo da input testuali, offrendo nuove possibilità per il settore dell’intrattenimento.

Questo panorama affascina il pubblico, che vi intravede quasi una magia: siamo davvero arrivati a un’intelligenza artificiale capace di avvicinarsi all’umanità, come HAL 9000 di 2001: Odissea nello spazio o come Jarvis di Iron Man? (si v. Google come Iron Man, pronta a lanciare il suo Jarvis, il nuovo assistente di Chrome – Multiplayer.it) Si tratta di intelligenze capaci di comprendere l’uomo e, talvolta, persino di manipolarlo? Questa è la domanda che ci proponiamo di esplorare in questo articolo.

Considerando l’incredibile capacità delle intelligenze artificiali generative di dialogare, generare immagini, suoni e video, viene naturale chiedersi se funzionino davvero come un cervello umano. Questo dubbio, che suscita fascino e timore, ci spinge a vedere le IA come Jarvis – l’assistente di Iron Man – capaci di rispondere, comprendere e risolvere problemi complessi. Ma cosa significa realmente “funzionare come un cervello umano”? E quanto questa affermazione rispecchia la realtà?

L’AI funziona davvero come il cervello umano?

Le IA generative ci danno l’impressione di funzionare come un cervello umano o animale principalmente per due motivi:

  1. Apprendimento progressivo: L’intelligenza artificiale acquisisce conoscenza passo dopo passo, elaborando i dati in modo graduale. A differenza dell’immaginario di un apprendimento istantaneo – come le arti marziali scaricate in un attimo in Matrix – l’IA invece si “allena” costruendo competenze attraverso strati successivi di esperienza, migliorando con l’uso. Questo è in parte simile al modo in cui l’essere umano acquisisce e consolida conoscenze nel tempo.
  2. Peso delle connessioni, o peso sinaptico: In un sistema di IA, la forza delle connessioni tra i neuroni artificiali – chiamata anche peso sinaptico – determina quanto ciascun dato influenzerà il risultato finale, proprio come accade nel cervello. Questo peso permette di immagazzinare informazioni e adattarle progressivamente, rendendo l’apprendimento dell’IA una continua evoluzione.

Nonostante queste somiglianze, esistono profonde differenze tra il funzionamento di un’IA e il pensiero umano. Il limite più evidente è la mancanza di creatività autentica: l’IA non può generare idee realmente nuove né sorprendere con interpretazioni innovative, poiché non ha capacità di scelta né una reale facoltà di rielaborazione immaginativa dei contenuti.

Inoltre, l’approccio dell’IA è statistico e inferenziale, basato su enormi quantità di dati. Questo metodo presenta però una vulnerabilità: se il dataset è incompleto o distorto, l’IA può produrre risposte che appaiono corrette ma sono errate. La fiducia riposta in questi sistemi spesso porta a considerarli infallibili – come una calcolatrice che “non sbaglia mai” – ma le IA generative possono commettere errori proprio a causa dei limiti nei dati disponibili, rendendo fondamentale un uso attento e consapevole.

In conclusione, l’IA generativa imita solo in superficie alcuni aspetti del cervello umano. Possiede una sorta di memoria e un meccanismo di apprendimento progressivo, ma non prende decisioni autentiche né possiede intenzioni proprie. Il fascino che suscita è indiscutibile, ma la sua complessità non è nemmeno lontanamente paragonabile a quella del cervello umano.

Come siamo arrivati fino a qui?

Il percorso che ha portato alla nascita delle attuali reti neurali artificiali (Artificial Neural Networks, ANN) è stato lungo e ha attraversato diverse tappe e approcci. Le ANN si basano su modelli ispirati, almeno in parte, al cervello umano, elaborando informazioni tramite connessioni che ricordano quelle neurali.

Uno dei primi approcci all’intelligenza artificiale è stato quello dei sistemi esperti, basati su un insieme di regole predefinite per risolvere problemi specifici, simili a una raccolta di consigli. Ad esempio, un sistema esperto medico potrebbe analizzare i sintomi inseriti dall’utente per fornire una diagnosi, ma senza capacità di apprendimento autonomo. Questo tipo di AI è stato efficace in campi strutturati, come la diagnostica medica e i servizi di consulenza fiscale, dove esistono regole chiare e ben definite. Un esempio celebre è DENDRAL, sviluppato negli anni ’60 alla Stanford University per supportare i chimici nell’analisi di molecole organiche. Questo sistema utilizzava regole codificate per esaminare le strutture molecolari, ma non era in grado di adattarsi a nuovi dati o situazioni non previste (Copeland, B.J.. “DENDRAL“. Encyclopedia Britannica).

Un altro approccio storico all’AI è quello dei modelli simbolici, dove la conoscenza è rappresentata tramite simboli e viene manipolata attraverso regole logiche. Un esempio è SHRDLU, un programma sviluppato da Terry Winograd al MIT negli anni ’60, in grado di comprendere comandi in linguaggio naturale e operare in un “mondo dei blocchi” virtuale. Se l’utente chiedeva, per esempio, “sposta il blocco rosso sopra il cubo verde,” SHRDLU era capace di eseguire il comando e rispondere a domande sull’ambiente virtuale (per approfondire, v SHRDLU su Stanford HCI).

Con l’evoluzione delle reti neurali artificiali, siamo passati da questi modelli statici a sistemi capaci di riconoscere schemi complessi e migliorare con l’esperienza. Le ANN sono state create per affrontare problemi complessi, sfruttando l’abbondanza e la varietà dei dati. A differenza dei sistemi esperti o dei modelli simbolici, una rete neurale può “intuire” la risposta più probabile sulla base di esperienze precedenti, simile al cervello umano quando affronta situazioni nuove o ambigue. Questo sviluppo è stato reso possibile solo negli ultimi anni grazie ai big data e al cloud computing

  • L’IA moderna ha bisogno di enormi quantità di dati per “apprendere”, e la digitalizzazione globale ha creato una disponibilità senza precedenti di informazioni, che coprono quasi tutte le sfumature e i dettagli di qualsiasi ambito. I big data, alimentati dall’era di Internet e dall’automazione, permettono alle reti neurali di migliorare la propria precisione attraverso l’analisi di milioni di esempi, proprio come se un insegnante potesse mostrare milioni di casi a un allievo per ogni concetto.
  • La potenza di calcolo necessaria per addestrare le reti neurali è imponente, ma oggi, grazie al cloud computing, è possibile accedere a risorse computazionali elevate senza doverle possedere fisicamente. Aziende e startup possono “affittare” capacità di calcolo su server remoti, riducendo così i costi e i tempi di addestramento. Il cloud ha reso accessibili le reti neurali a realtà che non potrebbero permettersi infrastrutture avanzate, democratizzando l’uso dell’IA.

Big data e cloud computing sono quindi alla base dell’IA generativa odierna. Tuttavia, l’intelligenza artificiale non ha sostituito l’informatica tradizionale, che continua a svolgere un ruolo determinante. Mentre le IA si adattano ed elaborano risposte basate sull’esperienza, i sistemi di informatica tradizionale rimangono programmati per eseguire compiti specifici, seguendo una logica predeterminata e ripetibile. Esempi classici sono i sistemi di gestione delle transazioni, come quelli bancari, o i programmi di calcolo, come i fogli elettronici, che seguono regole e comandi rigidi per ottenere risultati precisi.

AI, molte domande ma poche certezze

L’intelligenza artificiale è ormai parte integrante della nostra quotidianità, dagli assistenti vocali agli algoritmi che guidano le nostre scelte di lettura e acquisto. Eppure, ogni avanzamento dell’IA porta con sé questioni rilevanti. Il rischio non è solo che l’IA sbagli, ma che lo faccia con un’apparente infallibilità (si v. Intelligenza Artificiale: strumento oppure “oracolo” tecnologico? – Canella Camaiora). Il pubblico tende infatti a considerare i computer affidabili e imparziali, ma l’IA, al contrario, può commettere errori anche gravi. E quando succede, la fiducia cieca riposta in questi sistemi rischia di amplificare i danni.

Cosa accade se un algoritmo sbaglia o discrimina basandosi su stereotipi? Questo pericolo può derivare dai dati su cui è stato addestrato, che spesso contengono pregiudizi statistici che sfociano in discriminazioni. La questione della responsabilità diventa urgente: di chi è la colpa se un’IA diagnostica una malattia errata, scarta un candidato per motivi discriminatori o causa un incidente con un veicolo autonomo? Le normative attuali faticano a rispondere, poiché i sistemi di IA “apprendono” autonomamente, senza un soggetto umano direttamente responsabile.

L’IA si sottrae inoltre sempre più alla trasparenza. Con la complessità crescente degli algoritmi, molti sistemi funzionano come “scatole nere”, dove il processo decisionale risulta difficile da spiegare persino agli sviluppatori. Come fidarsi di sistemi opachi, soprattutto in ambiti delicati come credito, giustizia e lavoro? Modelli addestrati su dati distorti possono escludere intere categorie di persone senza che nessuno ne comprenda il motivo. È ragionevole affidare decisioni cruciali a sistemi che simulano il ragionamento umano ma non rispettano le nostre regole etiche?

A questi interrogativi si aggiungono le questioni di proprietà intellettuale. Con l’avvento delle IA generative, come DALL-E o ChatGPT, capaci di creare testi, immagini e suoni, sorge una domanda fondamentale: chi possiede i diritti d’autore sulle opere create dall’IA? Il creatore dell’algoritmo, l’utente che ha fornito l’input o nessuno dei due? Anche se marginali rispetto a trasparenza e responsabilità, queste domande pongono sfide significative per il futuro della creatività e del mercato dei contenuti (Intelligenza Artificiale: il silenzioso sfruttamento delle opere degli autori. – Canella Camaiora).

Questi dilemmi trovano un primo tentativo di risposta nell’AI Act europeo, la prima normativa globale che mira a regolamentare l’IA. Si tratta di un passo iniziale, ma significativo, verso un futuro in cui la tecnologia sia allineata ai nostri principi etici e giuridici (v. EU AI Act). L’IA avanza rapidamente, ma siamo davvero pronti a gestirne le conseguenze?

© Canella Camaiora Sta. Tutti i diritti riservati.
Data di pubblicazione: 5 Novembre 2024

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.
Avv. Arlo Cannela

Avvocato Arlo Canella

Managing Partner dello studio legale Canella Camaiora, iscritto all’Ordine degli Avvocati di Milano, appassionato di Branding, Comunicazione e Design.
Leggi la bio
error: Content is protected !!