approfondimento
-
Tempo medio di lettura 10'

L’IA è solo uno specchio e ci ricorda quanto siamo umani

Pubblicato in: Proprietà Intellettuale
di Arlo Canella
Home > L’IA è solo uno specchio e ci ricorda quanto siamo umani

L’intelligenza artificiale non è solo uno strumento tecnologico: è uno specchio che riflette i desideri, i limiti e le contraddizioni dell’umanità. Questo articolo esplora il rapporto tra l’IA e la scienza, partendo dal metodo scientifico di Karl Popper per analizzare come l’era dei Big Data e dei modelli avanzati, come i Large Language Models (LLM), rischi di allontanarci dal dubbio e dalla ricerca del “perché”. Si affrontano temi come il “data-centrismo” e il paradosso del “dataset universale”, dimostrando che, nonostante la potenza dei dati, restiamo lontani dal comprendere il significato profondo delle cose. L’articolo conclude riflettendo sulle sfide etiche e regolamentari dell’AI Act e sul ruolo dell’intelligenza artificiale come stimolo per riscoprire il valore del confronto critico e della nostra umanità.

Abbiamo rinunciato al metodo scientifico?

Che cos’è la scienza, se non un viaggio nel “dubbio”? È l’inquietudine intellettuale, quella tensione verso l’ignoto che spinge l’uomo a porsi domande sempre nuove, a rappresentare il vero motore del progresso scientifico. Karl Popper, uno dei più grandi filosofi della scienza del XX secolo,ha saputo cristallizzare questo spirito in un metodo che ha ridefinito il modo di concepire la ricerca scientifica.

Prima di Popper, il metodo scientifico seguiva l’induttivismo, un approccio secondo cui la scienza avanzava raccogliendo un numero crescente di osservazioni concrete per arrivare, gradualmente, a formulare leggi generali. Ad esempio, osservando che il sole sorge ogni giorno, si poteva dedurre una regola universale: “il sole sorge sempre”. Popper respinse questa visione. Per lui, l’osservazione non è mai neutrale, ma è sempre influenzata dalle domande che ci poniamo. Come affermava:

Non il possesso della conoscenza, della verità irrefutabile, fa l’uomo di scienza, ma la ricerca critica, persistente e inquieta, della verità.” (si v. Logica della scoperta scientifica, Karl Popper, 1934)

Il metodo scientifico popperiano segna un cambiamento radicale: la scienza non cresce accumulando conferme, per quanto numerose, ma eliminando gli errori.

Una teoria diventa tanto più solida quanto più resiste ai tentativi di confutazione. Al centro di questa visione c’è il principio di falsificabilità: una teoria è scientifica solo se può essere testata in modo da dimostrare di essere priva di punti di cedimento. Questo approccio rende la scienza dinamica e aperta, pur formulando ipotesi basate sull’osservazione e sulla ricerca, avanza eliminando gli errori e restando sempre pronta a rivedere se stessa.

Eppure, nell’era dei big data e dei modelli linguistici avanzati (Large Language Models, LLM), questa visione sembra essere stata accantonata, almeno in parte.

La scienza, oggi, non cerca più di formulare ipotesi falsificabili, ma cerca direttamente le risposte ricavabili dai dati, affidandosi alle “verità statistiche”: l’uomo contemporaneo cerca soluzioni dirette costruite su correlazioni e probabilità invece che su faticosi esperimenti.

Gli LLM, per quanto potenti, rischiano di trasformare la scienza in un’analisi sterile di schemi. La capacità predittiva degli LLM è davvero sinonimo di comprensione? Se manca il dubbio e la confutazione, possiamo ancora parlare di progresso scientifico o stiamo solo inseguendo un’illusione?

Cosa significa “data centrismo”?

Nel 2006, il matematico Clive Humby definì i dati come il “nuovo petrolio“, sottolineandone il valore immenso solo se adeguatamente raffinati. Come co-fondatore della società di analisi dunnhumby, Humby trasformò il marketing grazie al programma di fidelizzazione di Tesco, dimostrando che i dati dei consumatori potevano essere usati per creare offerte personalizzate e prevedere comportamenti futuri (v. Scoring Points: How Tesco Continues to Win Customer Loyalty, Clive Humby, Terry Hunt, Tim Phillips, Kogan Page, 2007). Questo approccio non si focalizzava sul “come” o sul “perché” i clienti compivano certe scelte, ma solo sul risultato: vendere di più (avevo già affrontato questo argomento in occasione del Master TopLegal 2024I dati non sono solo una risorsa: sono il carburante del potere. Chi governa i dati governa tutto” si v. l’articolo “Tecnomachia: dal mito della libertà digitale alla sovranità tecnologica – Canella Camaiora”).

Ed è proprio qui che il data-centrismo si svela. I dati riflettono ciò che scegliamo di osservare, influenzati dalle tendenze culturali e sociali, e, al tempo stesso, contribuiscono a crearne di nuove. Questo ciclo può portare a una confusione pericolosa: scambiare la correlazione per comprensione.

Oggi, l’intelligenza artificiale e il machine learning promettono di individuare schemi e pattern senza ipotesi iniziali, sostenendo che “i dati parlino da soli“. Ma questa idea, lontana dal metodo scientifico, probabilmente sarebbe stata respinta da Popper. Senza una teoria da testare, i dati non possono spiegare nulla. Una correlazione, per quanto precisa, non è causalità: ciò che sembra un’intuizione può rivelarsi un’illusione.

Il rischio del data-centrismo, proprio come nel marketing, è concentrarsi unicamente sul risultato, sacrificando il pensiero critico e la comprensione profonda. Gli algoritmi che guidano i Large Language Models (LLM) seguono questa logica. Sono strumenti inferenziali che costruiscono risposte basate su pattern statistici, senza indagare le cause. Non cercano il “perché”, ma generano e “producono” ciò che appare coerente, talora incapaci di distinguere davvero correlazioni significative e rumore. Possiamo ancora chiamare scienza un approccio che ignora il “perché”? Probabilmente no.

Il paradosso del “dataset universale”

Immaginiamo un dataset talmente vasto da contenere tutte le informazioni dell’universo: ogni evento passato, presente e futuro, ogni relazione tra gli oggetti, ogni dato osservabile. Se unissimo questa raccolta infinita a una potenza di calcolo illimitata, potremmo finalmente rispondere alla domanda fondamentale: “Perché esistiamo?

La risposta, però, potrebbe non essere così a portata di mano come sembra. La filosofia, infatti, ci insegna che alcune domande non trovano risposta nei dati, per quanto completi possano essere. Un dataset universale potrebbe dirci come funzionano le cose e quali sono le relazioni tra i fenomeni, ma non sarebbe sufficiente per spiegare il perché definitivo.

Già nel 1714, Gottfried Wilhelm Leibniz, con la celebre domanda “Perché c’è qualcosa invece che niente?”, cercava una ragione profonda, non una mera descrizione del mondo (si v. Principes de la nature et de la grâce fondés en raison, G. W. Leibniz, 1714).

Perfino la scienza moderna, come suggeriva Karl Popper, non si avvicina mai a risposte definitive: il processo scientifico avanza eliminando errori, ma ogni nuova conoscenza genera inevitabilmente nuove domande.

Anche con una quantità infinita di dati e una capacità di elaborazione illimitata, alimentato a plutonio, il dataset universale non colmerebbe il nostro senso di incompletezza. Questo ci porta a riflettere sull’attrazione umana per l’intelligenza artificiale, che, a differenza di tecnologie come il metaverso, non ci invita a fuggire dalla realtà, ma a scavare nella sua profondità.

L’IA non offre un universo parallelo o una realtà virtuale in cui rifugiarsi; al contrario, ci sfida a esplorare le informazioni disponibili, alimentando la nostra curiosità e il desiderio di conoscenza. Ogni interazione con modelli avanzati, come i Large Language Models (LLM), ci fa percepire una verità che sembra a portata di mano, ma resta sempre sfuggente.

Questa attrazione, però, non è priva di ambiguità. Da un lato, l’IA amplifica la nostra capacità di analizzare dati e scoprire pattern, avvicinandoci alla comprensione. Dall’altro, ci ricorda i nostri limiti. Come osservava David Hume, una correlazione tra fenomeni non implica una spiegazione causale (nel suo Trattato sulla natura umana 1739-40 applicò il metodo sperimentale alle indagini sui limiti dell’intelletto e sulla natura delle nostre operazioni mentali – David Hume – Enciclopedia – Treccani).

Gli algoritmi di IA, per quanto avanzati, non “capiscono” i dati: li organizzano in risposte coerenti, ma prive di significato profondo. Proprio questa incompiutezza, tuttavia, stimola la nostra immaginazione, rendendo l’IA una alleata del nostro desiderio di sapere.

In un certo senso, l’intelligenza artificiale incarna una moderna sfinge: offre risposte che sembrano sfiorare il cuore dei problemi, senza mai colmare del tutto il divario tra conoscenza e significato. Forse è proprio questo che ci affascina: ogni nuovo strumento di IA ci invita a esplorare non solo il mondo che ci circonda, ma anche noi stessi, i nostri limiti e la nostra inesauribile sete di verità.

L’intelligenza artificiale è lo specchio dell’umanità

L’intelligenza artificiale non è soltanto una tecnologia: è uno specchio che riflette i nostri desideri, i nostri limiti e il nostro inesauribile bisogno di significato. Ogni sua risposta, per quanto sofisticata, ci ricorda che i dati non possono risolvere le domande ancestrali che l’umanità si pone da sempre. Non importa quanto siano avanzati gli algoritmi o vasti i dataset: l’IA può mostrarci correlazioni, ma non può offrire risposte definitive.

Questa tensione tra conoscenza e significato riporta al centro il dibattito filosofico. Che cos’è la verità? Cosa significa davvero comprendere?

Molti attribuiscono all’IA una sorta di “scientificità automatizzata“, confondendo la capacità di processare enormi quantità di dati con il metodo scientifico, che richiede ipotesi, verifiche e falsificabilità (L’AI funziona davvero come il cervello umano? – Canella Camaiora).

Se l’IA sembra avvicinarci alla comprensione, in realtà ci lascia con un senso di incompletezza. Questo divario ci ricorda che, mentre le nostre tecnologie avanzano, ci stiamo allontanando sempre di più dalla ricerca critica e dal confronto umano.

Nonostante ciò, l’IA ci sorprende proprio dove sembrava impossibile. Fede e scienza, storicamente in conflitto, sembrano trovare nell’IA un punto di conciliazione. Non è un caso che, in una chiesa a Lucerna, un chatbot progettato per impersonare Gesù risponda ai visitatori sulla fede e sulla vita (si v. Parlare con Gesù in una chiesa in Svizzera, con l’intelligenza artificiale – Il Post).

Questo esempio, tanto suggestivo quanto inquietante, mostra come cerchiamo risposte ovunque, persino in un algoritmo. Non perché crediamo che la verità si trovi lì, ma perché la nostra sete di senso è inesauribile (avevo preconizzato questa tendenza: “Intelligenza Artificiale: strumento oppure “oracolo” tecnologico? – Canella Camaiora”).

Il paradosso dell’IA non si riflette solo nelle interazioni quotidiane, ma anche nei tentativi di regolamentarla. L’AI Act, il primo tentativo europeo di definire il futuro dell’intelligenza artificiale, nasce dall’urgenza di guidare uno strumento tanto potente quanto incompleto .

Tuttavia, anche questa regolamentazione evidenzia la difficoltà dell’umanità di anticipare gli sviluppi di una tecnologia che evolve più velocemente della nostra capacità di comprenderla o governarla (si v. AI Act | Shaping Europe’s digital future).

L’intelligenza artificiale non offre risposte definitive, al contrario, ci ricorda quanto siano preziosi il dubbio, il dialogo e la ricerca. Il metodo scientifico, con il suo approccio critico e l’eliminazione degli errori, rimane la nostra guida più solida verso la comprensione. Tuttavia, di fronte alla potenza seduttiva dell’IA, corriamo il rischio di abbandonarlo, preferendo “scorciatoie” che promettono molto ma non risolvono il nostro bisogno di significato (si v. L’AI Act ha ucciso il Copyright? Riflessioni sul plagio nell’era dell’AI – Canella Camaiora).

E proprio in questo paradosso, l’IA ci offre la sua lezione più importante: non ci porta risposte ultime, ma ci invita a riflettere su ciò che siamo e su ciò che cerchiamo di diventare. L’IA è solo uno specchio e ci ricorda quanto siamo umani.

© Canella Camaiora Sta. Tutti i diritti riservati.
Data di pubblicazione: 3 Dicembre 2024

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.
Avv. Arlo Cannela

Avvocato Arlo Canella

Managing Partner dello studio legale Canella Camaiora, iscritto all’Ordine degli Avvocati di Milano, appassionato di Branding, Comunicazione e Design.
Leggi la bio
error: Content is protected !!