Abstract
OpenAI, l’organizzazione che ha reso popolare l’Intelligenza Artificiale generativa nel mondo, è oggi al centro di un confronto pubblico senza precedenti. Quattro Premi Nobel, insieme a più di 2.700 firmatari, hanno indirizzato una lettera aperta per chiedere chiarezza sul futuro di una tecnologia che riguarda tutti, ma che oggi viene sviluppata e gestita a porte chiuse. Il documento pone sette domande semplici ma fondamentali, che interrogano la governance, i profitti e la trasparenza dell’azienda fondata con uno scopo dichiaratamente benefico.
Questo articolo ricostruisce il contesto, analizza le domande, spiega perché le risposte contano e lancia un appello concreto: usare l’IA, sì, ma senza smettere di pensare.
Una lettera per il futuro dell’umanità
OpenAI nasce nel dicembre 2015 come organizzazione no‑profit, con il compito esplicito di sviluppare un’Intelligenza Artificiale Generale (AGI) a beneficio dell’intera umanità. L’impegno era sancito nella Charter, che attribuiva all’interesse pubblico la priorità rispetto a quello economico.
Tuttavia, già nel 2019 Microsoft entra in scena con un investimento da 1 miliardo di dollari e diventa il principale fornitore di infrastrutture cloud attraverso Azure. Nel 2023, l’impegno cresce fino a 10 miliardi, rendendo Microsoft un attore centrale nello sviluppo e nella monetizzazione dei prodotti OpenAI. È anche in questo contesto che emergono tensioni: da un lato, OpenAI raccoglie milioni di abbonati e guadagni significativi; dall’altro, l’assetto giuridico originario, pensato per garantire il bene comune, viene progressivamente riscritto.
Nel 2024 emergono indiscrezioni su una nuova ristrutturazione societaria che ridurrebbe ulteriormente il controllo della no‑profit madre, aprendo la strada a una gestione più orientata al profitto. Di fronte a questo scenario, viene pubblicata su openai-transparency.org una lettera aperta che è già stata firmata da oltre 2.700 persone, tra cui quattro figure di massimo rilievo scientifico:
- Giorgio Parisi, Premio Nobel per la Fisica 2021, noto per i suoi studi sui sistemi complessi;
- Geoffrey Hinton, considerato il padre del deep learning, vincitore del Premio Turing 2018 (l’equivalente del Nobel per l’informatica);
- Oliver Hart, Premio Nobel per l’Economia 2016, esperto di governance, controllo e teoria dei contratti;
- Sheldon Lee Glashow, Premio Nobel per la Fisica 1979, teorico dell’unificazione delle forze fondamentali della fisica.
I firmatari non contestano l’innovazione in sé. Ma pongono una domanda centrale: chi controlla oggi la traiettoria dell’IA? E con quali obblighi verso la collettività? “OpenAI — scrivono — si comporta come se fosse seduta da sola su entrambi i lati del tavolo, prendendo decisioni per conto dell’umanità senza renderne noti i termini.” È un’accusa pesante, ma non strumentale: è una richiesta di trasparenza, coerenza e responsabilità giuridica.
Il senso dell’appello è chiaro: se l’Intelligenza Artificiale sta diventando una tecnologia in grado di plasmare l’economia, la comunicazione, la cultura e persino le scelte politiche, allora non può più essere gestita come un progetto aziendale privato. Deve rispondere davvero alla sua promessa originaria: essere al servizio di tutti.
Sette domande per fare chiarezza
Cosa chiedono davvero i Premi Nobel e i firmatari della lettera? Non stanno contestando lo sviluppo dell’Intelligenza Artificiale, né stanno facendo opposizione ideologica. Chiedono semplicemente sette risposte chiare, che servano a ristabilire la fiducia tra OpenAI e il pubblico. Sono domande molto pratiche, formulate con il rigore di chi sa che la forma giuridica non è un dettaglio: è ciò che decide come un’organizzazione agisce, chi la comanda e a chi risponde.
Ecco, una per una, le domande — e perché sono importanti.
1. OpenAI ha ancora l’obbligo legale di anteporre la sua missione benefica ai profitti?
È il cuore del problema. I firmatari vogliono sapere se quell’obbligo è ancora in vigore dal punto di vista giuridico, o se la recente ristrutturazione societaria lo ha annacquato o cancellato.
2. La no‑profit ha ancora il pieno controllo gestionale su OpenAI?
La domanda riguarda il potere decisionale effettivo: se la no‑profit ha perso il controllo operativo, le scelte più importanti potrebbero essere in mano ad attori con interessi diversi dal bene collettivo.
3. Quali membri del consiglio della no‑profit riceveranno quote azionarie?
Qui entra in gioco il conflitto di interessi: se chi dovrebbe vigilare riceve compensi sotto forma di equity, la vigilanza si svuota di significato.
4. OpenAI manterrà un tetto ai profitti e destinerà l’eccedenza al bene pubblico?
Nel 2019 era stato introdotto un limite (100x) ai profitti per gli investitori. Ma ora si teme che quel vincolo sia stato eliminato o aggirato.
5. OpenAI intende commercializzare l’AGI o mantenerla sotto controllo no‑profit?
Una domanda cruciale: la tecnologia più potente mai creata verrà messa sul mercato?
6. OpenAI è ancora disposta a collaborare, non competere, se un’altra organizzazione responsabile si avvicina alla AGI?
Era un impegno fondativo nella Charter, ma oggi appare come una promessa dimenticata.
7. OpenAI renderà pubblici i documenti che definiscono i suoi obblighi verso il pubblico?
In particolare: l’accordo operativo di OpenAI Global LLC e le stime sui profitti futuri già condivise con gli investitori.
Perché le risposte contano davvero
A prima vista, le sette domande della lettera potrebbero sembrare questioni interne a una tech company. Ma chi le sottovaluta non coglie la portata del problema. Quelle domande toccano un tema che riguarda tutti noi: chi decide le regole del gioco quando la tecnologia supera i confini della tecnica?
OpenAI non è una startup qualsiasi. È l’organizzazione che ha reso di fatto mainstream l’Intelligenza Artificiale generativa. Ha innescato una corsa globale — tra imprese, Stati e investitori — per costruire la prima AGI della storia. Ma se lo sviluppo di una tecnologia capace di apprendere, ragionare e decidere in autonomia dipende da un assetto opaco e da logiche di mercato, non possiamo più parlare solo di innovazione. Stiamo parlando di potere. E il potere, se vuole essere legittimo, deve essere trasparente, controllabile, responsabilizzabile.
Ma cosa si intende esattamente per Intelligenza Artificiale Generativa, o GenAI, e perché è così diversa dalle tecnologie precedenti? La GenAI non si limita a suggerire o ordinare dati. Fa molto di più: crea contenuti nuovi, simulando competenze umane. Scrive testi, produce immagini, traduce, programma codice, analizza documenti. È ciò che alimenta strumenti come ChatGPT, Copilot, Gemini, già adottati da milioni di utenti. Ed è destinata a sostituire — o potenziare — competenze fondamentali in ambiti come scuola, medicina, giustizia, pubblica amministrazione, comunicazione. Per questo non è solo tecnologia: è una nuova infrastruttura culturale e cognitiva, che rischia di diventare monopolistica, se lasciata senza vincoli.
In assenza di trasparenza, l’Intelligenza Artificiale rischia di diventare una tecnologia che trasforma in profitto le conoscenze, le idee e i comportamenti di milioni di persone, ma concentrando i vantaggi economici in pochissime mani. Un modello che estrae valore diffuso, ma lo restituisce solo a pochi.
E in un mondo dove la concentrazione tecnologica procede più rapidamente della regolazione democratica, la questione non è solo tecnica. È politica, giuridica, sociale.
Ecco perché i firmatari chiedono risposte ora. Prima che le decisioni vengano prese in ambienti ristretti, sigillati da accordi societari. Prima che la società si ritrovi a dover rincorrere decisioni già prese da consigli di amministrazione che non devono rendere conto a nessuno, se non ai propri investitori.
Un appello che ci riguarda tutti
La lettera dei Nobel non è solo un’iniziativa accademica o una presa di posizione etica. È anche un invito ad agire, a non restare spettatori passivi di una trasformazione che riguarda l’intera società. È un invito a prendersi sul serio, come cittadini, imprenditori, professionisti. E a riconoscere che l’Intelligenza Artificiale — come ogni tecnologia — non è neutra: riflette le scelte di chi la sviluppa, le condizioni economiche in cui nasce, i valori che la orientano.
In questi mesi, milioni di persone hanno iniziato a usare strumenti di Intelligenza Artificiale con entusiasmo, curiosità, efficienza. Ed è giusto: chi sperimenta per primo ha un vantaggio competitivo, può automatizzare processi, creare contenuti, risparmiare tempo. Ma attenzione: non basta usare l’IA per dirsi pronti al futuro. Bisogna continuare a studiare, interrogarsi, farsi e fare domande. Bisogna capire cosa stiamo usando, chi l’ha progettato, quali dati abbiamo fornito e quali conseguenze stiamo innescando.
L’IA non è magia. Non è qualcosa che “ragiona” da sola. Non è autonoma dalla nostra cultura, dalla nostra economia, dalle nostre scelte. L’IA siamo noi. Siamo noi che l’addestriamo, che la orientiamo, che la regoliamo — o la lasciamo libera di seguire logiche speculative. E se deleghiamo senza domandare, se ci limitiamo a immettere “prompt” senza riflettere, allora smettiamo di essere parte attiva di questo cambiamento.
Firmare la lettera, discuterla, condividerla, non è solo un atto politico. È un gesto civile, professionale, educativo. È il segnale che non vogliamo che il futuro venga scritto senza di noi. Che siamo disposti a usare l’IA, sì — ma non a cedere il nostro diritto a capire, decidere, scegliere.
La lettera aperta è pubblica e aperta alla firma su www.openai-transparency.org.
Chiunque voglia chiedere trasparenza e responsabilità nel governo dell’intelligenza artificiale può sottoscriverla. Anche questo è un modo per restare umani.
© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 8 Agosto 2025
È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Arlo Canella
Managing & founding partner, avvocato del Foro di Milano e cassazionista, responsabile formazione e ricerca indipendente dello Studio CC®.