approfondimento
-
Tempo medio di lettura 8'

Non solo ChatGPT: come scegliere l’AI giusta per la crescita d’impresa

Pubblicato in: Proprietà Intellettuale
di Arlo Canella
Home > Non solo ChatGPT: come scegliere l’AI giusta per la crescita d’impresa

Non esiste solo ChatGPT. L’intelligenza artificiale oggi si divide tra modelli chiusi, controllati dalle big tech, e modelli open source, accessibili e personalizzabili. Per le imprese, questa distinzione non è tecnica: è strategica. Riguarda il business. Quali vantaggi offre davvero l’AI aperta? È un’occasione concreta per le PMI o solo una promessa? E cosa dice la normativa europea su un ecosistema in continua evoluzione? In questo articolo analizziamo i modelli più diffusi, i rischi reali e le opportunità per chi vuole usare l’AI, non subirla.

Modelli chiusi vs modelli aperti: cosa cambia?

A prima vista, la distinzione tra modelli di intelligenza artificiale “chiusi” e “aperti” potrebbe sembrare una questione tecnica da addetti ai lavori. In realtà, per chi dirige un’impresa o sviluppa un progetto innovativo, è tutt’altro che astratta: riguarda chi ha il potere di usare, modificare e comprendere gli strumenti che stanno trasformando interi settori.

Un modello proprietario, come GPT-4 Turbo di OpenAI o Claude di Anthropic, funziona come una scatola nera: l’utente può interagirci tramite API o interfacce intuitive, ma non ha accesso diretto ai pesi, né alle logiche dell’addestramento. È un po’ come guidare un’auto potentissima, senza poter mai alzare il cofano. Questo approccio garantisce coerenza e controllo centralizzato, ma limita la possibilità di personalizzazione, ispezione e riutilizzo.

All’estremo opposto, i modelli open source – come LLaMA 2 di Meta o Mistral – vengono distribuiti con i pesi accessibili e, spesso, con licenze che autorizzano modifiche, adattamenti e integrazioni. Università, startup o sviluppatori indipendenti possono così studiarne il funzionamento, migliorarli o adattarli a specifiche esigenze linguistiche, settoriali o locali. È la differenza tra acquistare un prodotto finito e disporre di una base tecnologica su cui costruire innovazione autonoma.

Per un’impresa, scegliere tra queste due filosofie significa decidere tra affidarsi a un fornitore esterno o mantenere il controllo interno. I modelli chiusi offrono stabilità e supporto, ma implicano costi ricorrenti, vincoli d’uso e una forte dipendenza. I modelli aperti richiedono più competenze, ma offrono libertà strategica e la possibilità di creare asset digitali proprietari. In un mondo in cui l’intelligenza artificiale diventa infrastruttura, questa scelta vale quanto, vent’anni fa, quella tra software libero e licenze chiuse: è una decisione di posizionamento competitivo, non solo tecnologico.

Velocità, flessibilità, collaborazione: l’AI open source accelera

Una delle forze motrici dell’AI open source è la licenza con cui il modello viene rilasciato. Non basta che i pesi siano scaricabili: serve che siano legalmente riutilizzabili, e qui entrano in gioco licenze più o meno permissive. Ad esempio, il modello LLaMA 2 di Meta è distribuito con una licenza che consente modifiche e utilizzo commerciale, ma con restrizioni importanti, come il divieto di utilizzo da parte di aziende con più di 700 milioni di utenti mensili (cfr. Llama 3.3 70B di Meta supera le prestazioni dei concorrenti – Rivista AI 2 gennaio 2025). È una formula che si avvicina più a una strategia di mercato che alla filosofia open source in senso stretto.

Molti modelli oggi definiti “open” rientrano in realtà in quella che viene chiamata “source-available”, una categoria che include licenze come la Fair Source License (già analizzata dallo Studio Canella Camaiora in questo approfondimento Fair Source: la nuova frontiera delle licenze software? – Canella Camaiora). In sintesi, si tratta di licenze che rendono il codice visibile ma ne limitano l’uso commerciale o impongono altre clausole. Per le imprese, comprendere questi vincoli è fondamentale: un errore di valutazione può tradursi in contenziosi o in scelte tecnologiche penalizzanti.

Ma dove le licenze lo permettono davvero, i risultati sono sorprendenti. Un caso controverso è quello del modello DeepSeek, sviluppato da una realtà cinese e rilasciato in modalità open source. Come discusso in questo approfondimento di Canella Camaiora, in poche settimane DeepSeek è stato potenziato da ricercatori indipendenti, raggiungendo livelli prestazionali comparabili o superiori a quelli di GPT, ma con una footprint tecnica più leggera e una maggiore adattabilità (approfondisci: Perché DeepSeek, la piccola balena cinese, deve farci riflettere – Canella Camaiora). È la dimostrazione concreta che l’intelligenza collettiva può superare la potenza centralizzata, almeno in termini di innovazione incrementale e rapidità di miglioramento.

E qualcosa di simile sta accadendo anche in Italia. In un articolo pubblicato l’11 marzo 2025 dal Corriere della Sera, Rocco Cosentino ha tracciato una panoramica sui principali modelli linguistici sviluppati nel nostro Paese. Si va da Velvet, una famiglia di modelli AI multilingua sviluppata da Almawave, a Vitruvian-1, creato dalla startup romana ASC27 con 14 miliardi di parametri e capacità di ragionamento avanzato. Ci sono poi modelli specializzati come Lara, sviluppato da Translated per offrire traduzioni di qualità comparabile a quella dei migliori traduttori professionisti, oppure Minerva, frutto del lavoro accademico del gruppo Sapienza NLP, che rappresenta il primo LLM preaddestrato da zero in lingua italiana. Infine, Colosseum, sviluppato da iGenius, punta a rispondere alle esigenze di settori fortemente regolati in materia di protezione dei dati (io ne ho parlato in un post su Linkedin).

Tutti questi progetti dimostrano che l’innovazione distribuita non riguarda solo la Silicon Valley, ma può attecchire anche in contesti nazionali, accademici o verticali. L’elemento comune è che, con l’accesso al modello e la possibilità di adattarlo, i tempi di sviluppo e personalizzazione si riducono drasticamente. Questo livello di collaborazione orizzontale permette un’accelerazione dell’innovazione che i modelli chiusi, per loro natura, non possono replicare.

Naturalmente, questa apertura ha un rovescio della medaglia: cosa succede quando chiunque può addestrare o modificare un modello AI avanzato? La libertà è un valore, ma chi ne controlla gli effetti?

Chi controlla l’intelligenza? Sicurezza e trasparenza a confronto

Immaginiamo una lavagna. A sinistra, i modelli proprietari come GPT di OpenAI, Claude di Anthropic, Gemini di Google. A destra, i modelli open source come LLaMA 2 di Meta, Mistral, DeepSeek. A prima vista, il contrasto sembra netto: da una parte il controllo centralizzato, dall’altra la libertà distribuita. Ma basta avvicinarsi un po’ per vedere che i contorni sono molto meno definiti.

Prendiamo i modelli chiusi. Sono spesso considerati “governabili” perché le big tech che li gestiscono impongono policy d’uso, filtri, limitazioni sull’accesso (vedi anche: Tecnomachia: dal mito della libertà digitale alla sovranità tecnologica – Canella Camaiora) . Ma questo non significa che siano più sicuri o affidabili per definizione. Gli utenti non hanno alcun modo per verificare i dati su cui sono stati addestrati, né le decisioni interne del modello. In caso di errore o distorsione, possono al massimo segnalare, ma non esiste un diritto di ispezione o di intervento. È un modello che chiede fiducia, più che trasparenza.

Spostiamoci sulla colonna dei modelli aperti. Qui la trasparenza tecnica è spesso reale: si possono studiare i pesi, replicare gli esperimenti, modificare il comportamento del modello. Ma ciò non vuol dire che tutto sia permesso. LLaMA 2, ad esempio, è disponibile solo sotto licenza, con limitazioni d’uso. Altri modelli prevedono clausole di attribution o esclusioni commerciali. Inoltre, il fatto che chiunque possa modificarli pone problemi evidenti di responsabilità: se un modello viene manipolato e crea danni, chi ne risponde? Chi lo ha sviluppato? Chi lo ha modificato? Chi lo distribuisce?

Il vero nodo, quindi, non è dove si posiziona un modello sulla lavagna, tra i buoni o i cattivi, ma se chi lo utilizza ha gli strumenti efficaci per valutarne i rischi. Le grandi aziende possono permettersi comitati etici, auditing, policy legalmente solide. Una PMI, invece, rischia di adottare strumenti potenti senza comprendere appieno a cosa si espone: raccolta dati, bias, responsabilità da prodotto difettoso, o persino violazione di norme internazionali sul trattamento dei dati personali e delle informazioni.

È proprio per questo che il legislatore europeo, con l’AI Act, non ha potuto limitarsi a regolare “i modelli” in quanto tali. Troppa varietà, troppe eccezioni. Ha dovuto costruire un sistema fondato su principi, applicabili ai diversi livelli di rischio, indipendentemente dal fatto che un’intelligenza sia open source o chiusa. È un approccio faticoso, ma necessario, perché l’intelligenza artificiale non è un oggetto statico: è un ecosistema dinamico, dove le responsabilità e i rischi si moltiplicano nel tempo, attraverso le scelte di chi ne dispone e di chi le usa (approfondisci: L’IA è solo uno specchio e ci ricorda quanto siamo umani – Canella Camaiora).

Una nuova occasione per le PMI: l’AI non è più solo per giganti

Fin qui l’intelligenza artificiale è sembrata una tecnologia fuori portata per le piccole e medie imprese. Costi elevati, barriere tecniche, dipendenza da provider esterni: tutto lasciava intendere che fosse un campo riservato a big tech e multinazionali. Ma il panorama sta cambiando, e l’AI open source gioca un ruolo chiave in questo mutamento.

Oggi una PMI può scaricare un modello open source come Mistral o LLaMA 2, farlo girare su un’infrastruttura locale o cloud, addestrarlo su dati aziendali propri e integrarlo nei propri processi: dal customer service alla generazione di documentazione, dall’analisi di testi tecnici alla traduzione di contratti. Non serve più creare un modello da zero, ma riutilizzare e adattare ciò che la comunità globale ha già sviluppato, riducendo tempi e costi.

Naturalmente, servono competenze. Non è un’operazione che si improvvisa. Ma proprio qui entra in gioco un altro fattore abilitante: l’ecosistema di strumenti, community e consulenti specializzati è oggi molto più accessibile. Esistono repository con modelli già ottimizzati per settori specifici, interfacce semplificate, documentazione pubblica e persino tutorial pensati per piccole realtà imprenditoriali. Alcuni enti – università, camere di commercio, consorzi tecnologici – iniziano a offrire servizi di accompagnamento all’adozione dell’AI anche per le imprese sotto i 50 dipendenti.

Certo, restano ostacoli: incertezza giuridica, timore per la protezione dei dati, mancanza di figure interne capaci di dialogare con gli sviluppatori. Ma l’ingresso nell’era dell’intelligenza artificiale non è più una questione di budget, quanto di consapevolezza strategica. E proprio la natura aperta di alcuni modelli consente oggi alle PMI non solo di usare l’AI, ma di governarla, adattarla, addirittura contribuire alla sua evoluzione.

Chi saprà muoversi in questo spazio aperto – con prudenza, ma senza paura – potrà trasformare una tecnologia in apparenza distante in un vantaggio competitivo reale. E magari, per una volta, saranno le piccole imprese a guidare il cambiamento.

© Canella Camaiora Sta. Tutti i diritti riservati.
Data di pubblicazione: 14 Maggio 2025

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.
Avv. Arlo Cannela

Avvocato Arlo Canella

Managing Partner dello studio legale Canella Camaiora, iscritto all’Ordine degli Avvocati di Milano, appassionato di Branding, Comunicazione e Design.
Leggi la bio
error: Content is protected !!