Le immagini generate con AI possono essere utilizzate a fini commerciali?

Tempo di lettura: 14 minuti

Le immagini generate con l’intelligenza artificiale offrono un potenziale creativo immenso, ma l’uso commerciale di questi contenuti solleva numerosi interrogativi. Chi detiene i diritti sulle immagini create dall’IA? È possibile tutelarle con il copyright o con altre forme di protezione come marchi e design? Questo articolo esplora i rischi e le opportunità legati alla creatività AI-assisted, analizzando le implicazioni legali, le policy delle piattaforme e le strategie per sfruttare in sicurezza il potenziale di queste tecnologie innovative.

La rivoluzione artificiale nel settore creativo

L’intelligenza artificiale (AI), che fino a qualche anno fa rappresentava una scelta, è ormai diventata una necessità. Per restare competitivi, aziende e professionisti devono accelerare, integrando questi strumenti nei loro processi produttivi. Ma qual è il prezzo di questa accelerazione? E come siamo arrivati a questo punto?

Il successo delle tecnologie di AI generativa si basa, almeno in parte, su un “debito creativo” nei confronti degli autori. Come discusso nel mio articolo dell’11 ottobre 2022 (“Intelligenza Artificiale: il silenzioso sfruttamento delle opere degli autori”), l’addestramento dei modelli AI avviene utilizzando opere protette da copyright, quasi sempre senza il consenso dei loro creatori.

Le immagini coperte da copyright vengono integrate nei dataset utilizzati per addestrare gli algoritmi. Successivamente, gli output di questi processi – le immagini artificiali – finiscono per competere direttamente con quelle degli autori.

Paradossalmente, è stata proprio la Direttiva Copyright (Direttiva 2019/790/UE), che avrebbe dovuto tutelare i creatori, a introdurre il meccanismo di opt-out. La direttiva ha chiesto agli autori umani di dichiarare espressamente, attraverso credits leggibili dalle macchine, che le loro opere erano protette e riservate, e che pertanto non intendevano concedere l’autorizzazione all’addestramento dell’AI. In caso contrario, il materiale sarebbe stato automaticamente considerato utilizzabile. Questo sistema, tuttavia, ha imposto un onere sproporzionato agli autori umani (per un’analisi più dettagliata degli articoli 3 e 4 della direttiva, rimando al mio commento nell’articolo citato sopra).

Per quanto riguarda le finalità di ricerca, la direttiva prevede un’eccezione piena al copyright (art. 3). Un esempio clamoroso di questa eccezione è rappresentato dalla sentenza del Tribunale di Amburgo del 27 settembre 2024. In quel caso, è stato dichiarato conforme alla normativa vigente l’utilizzo delle foto del fotografo Robert Kneschke, chiaramente protette da copyright, per addestrare il modello Laion.

La corte ha classificato questa attività come “ricerca”, nonostante il modello fosse poi sfruttato da terzi (ad esempio, Stable Diffusion e Stability AI) per scopi commerciali. Questo caso solleva tardivamente interrogativi importanti: dove finisce la ricerca scientifica e inizia lo sviluppo speculativo? Sono domande complesse, che superano lo scopo di questo articolo, ma che meritano una riflessione più ampia (ne ho parlato anche su LinkedIn).

La realtà è che l’opt-out si scontra con limiti pratici insormontabili. Chi controlla il rispetto di questo diritto? Attualmente, non esiste un sistema centralizzato di sorveglianza, né sanzioni adeguate per scoraggiare gli abusi.

L’onere di individuare e dimostrare eventuali violazioni ricade interamente sugli autori. Inoltre, quanto costa opporsi? Intraprendere un’azione legale contro grandi aziende tecnologiche è economicamente e logisticamente proibitivo per un singolo autore. Il risultato? Questa situazione ha consolidato il potere delle aziende tecnologiche, che possono sfruttare opere creative su larga scala senza temere conseguenze significative (vedi anche: Tecnomachia: dal mito della libertà digitale alla sovranità tecnologica – Canella Camaiora).

Solo successivamente, il Regolamento europeo sull’Intelligenza Artificiale (AI Act) ha cercato di introdurre obblighi di trasparenza per chi sviluppa e utilizza sistemi AI, tentando di bilanciare queste disparità.

Tuttavia, come ho già illustrato nell’articolo “L’AI Act ha ucciso il Copyright? Riflessioni sul plagio nell’era dell’AI”, principi come accountability e trasparenza non possono essere considerati la panacea di tutti i mali. La formulazione dell’art. 53 – che impone di “rendere pubblicamente disponibile una sintesi sufficientemente dettagliata dei contenuti usati per l’addestramento del modello AI generativa” – sfiora i limiti del parossismo: cosa significa, infatti, “sufficientemente dettagliata”?

L’AI Act si concentra sugli aspetti tecnici e rinvia alle normative sul copyright e al sistema dell’opt-out, dimenticando che gli autori, per restare competitivi, sono stati costretti a integrare l’AI nei loro processi creativi (una sentenza del Tribunale di Pechino ha utilizzato una metafora che ha fatto discutere: l’AI è come un pennello. Gli autori umani restano al centro, ma devono padroneggiarla come uno strumento). Questo li ha costretti non solo a fronteggiare una concorrenza senza precedenti, ma anche a investire nell’acquisto e nell’apprendimento di tecnologie innovative.

Alla fine, però, oggi ci troviamo ancora di fronte a una paradossale incertezza normativa: quali tutele spettano agli autori che utilizzano strumenti di AI per creare opere? Se un autore umano sfrutta l’intelligenza artificiale per realizzare un’immagine, ha diritto di rivendicare la paternità dell’opera e ottenere le relative tutele? Oppure il suo contributo creativo viene annullato dalla natura stessa dello strumento, che non garantisce originalità?

Questo nodo rimane irrisolto e assume particolare rilevanza per l’uso commerciale delle immagini generate da AI. È possibile utilizzare queste immagini senza rischi legali, o c’è ancora un vuoto normativo che espone autori e utilizzatori a possibili controversie?

Nel prossimo paragrafo, cercheremo di chiarire chi, tra le piattaforme e gli utenti, può detenere i diritti sulle immagini AI e come affrontare con maggiore sicurezza le implicazioni legali di questo nuovo panorama creativo.

Utenti vs Piattaforme: di chi sono le immagini AI?

Chi è il titolare di un’immagine generata dall’AI? Appartiene all’utente oppure il merito va riconosciuto a chi ha progettato l’algoritmo o possiede i dataset utilizzati?

Senza una disciplina normativa chiara, queste domande restano senza risposte univoche, trasformandosi in terreno fertile per dubbi e incertezze. Le principali piattaforme AI, però, hanno definito regole proprie attraverso i loro termini di servizio, stabilendo anche modelli economici che condizionano i diritti di sfruttamento commerciale delle immagini e, come conseguenza, il loro valore economico.

Ecco una panoramica delle principali piattaforme e delle loro politiche:

  • MidJourney richiede un abbonamento a pagamento per detenere i diritti sulle immagini generate, come specificato nei suoi Termini di Servizio (Sezione 4). Inoltre, per le aziende con un fatturato superiore a 1.000.000 USD, è obbligatorio sottoscrivere i piani “Pro” o “Mega”. Tuttavia, anche in caso di titolarità, gli utenti concedono a MidJourney una licenza perpetua, mondiale e sublicenziabile per utilizzare, distribuire e creare opere derivate dai contenuti generati. Questo compromette il controllo esclusivo sulle opere, specialmente per usi commerciali.
  • Stable Diffusion, sviluppato da Stability AI, è una piattaforma open source che consente agli utenti di detenere i diritti sulle immagini generate, purché rispettino i termini della licenza Creative ML OpenRAIL-M (cfr. Stable Diffusion – Wikipedia). Questa licenza permette l’uso commerciale e non commerciale, richiedendo però l’attribuzione a Stability AI e vietando usi illeciti o dannosi (cfr. Terms of Use — Stability AI). Sebbene sia gratuita, la responsabilità per eventuali violazioni del copyright o usi impropri ricade interamente sugli utenti, che non possono contare su supporto diretto per eventuali controversie legali.
  • Adobe Firefly, è accessibile tramite le applicazioni creative di Adobe (in abbonamento) e attribuisce agli utenti la titolarità degli output generati, come previsto dalle Condizioni aggiuntive per l’IA generativa Adobe. Inoltre, Firefly dichiara di utilizzare dataset verificati, come contenuti di Adobe Stock, materiale di dominio pubblico e opere con licenze aperte, per ridurre il rischio di violazioni del copyright. Questo lo rende una delle soluzioni più affidabili per usi commerciali, nonostante il costo. Tuttavia, Adobe si riserva una licenza per monitorare e utilizzare i contenuti generati, e gli utenti devono garantire che il loro uso sia conforme alle leggi applicabili.
  • DALL-E, sviluppato da OpenAI, cede agli utenti i diritti sulle immagini generate, purché rispettino i Termini di utilizzo (aggiornati all’11 dicembre 2024). OpenAI trasferisce agli utenti tutti i diritti, titoli e interessi relativi agli output generati (§ “Proprietà dei Contenuti” – “Per quanto riguarda il rapporto tra l’utente e OpenAI, e nella misura consentita dalla legge applicabile, l’utente (a) mantiene i suoi diritti di proprietà sull’Input e (b) possiede l’Output. Con la presente trasferiamo all’utente tutti i nostri diritti, titoli e interessi, se esistenti, in relazione all’Output.”), ma avverte che tali output potrebbero essere simili a contenuti preesistenti o prodotti da altri utenti (§ “Somiglianza dei Contenuti” – “A causa della natura dei nostri Servizi e dell’intelligenza artificiale in generale, l’Output potrebbe non essere unico e altri utenti potrebbero ricevere output simili dai nostri Servizi. Il trasferimento dei diritti, titoli e interessi di cui sopra non si estende all’output di altri utenti o all’Output di terze parti”). Inoltre, OpenAI offre agli utenti la possibilità di opt-out per impedire l’uso dei propri input nell’addestramento dei modelli, sebbene questa scelta possa limitare le capacità del servizio.
  • Google Imagen 3, integrato nel modello Gemini, si rifanno ai termini di servizio generali di Google, che non forniscono dettagli espliciti sulla titolarità dei contenuti generati dagli utenti (si v. Termini di servizio aggiuntivi dell’API Gemini e Imagen 3 in the Gemini API

Chi realizza immagini con l'IA ne detiene anche il Copyright?

Google AI for Developers). Google concede agli utenti diritti d’uso, ma si riserva ampie licenze per monitorare, analizzare e migliorare i propri modelli. Inoltre, l’integrazione di SynthID – un sistema di watermark invisibili per tracciare le immagini – rappresenta un passo verso la tracciabilità e la responsabilità, ma non garantisce l’esclusiva a favore dell’utente (cfr. SynthID – Google DeepMind).

Le piattaforme AI non possono però conferire il diritto d’autore, perché solo il legislatore può stabilire le condizioni per cui un’opera possa essere tutelata tramite il c.d. Copyright.

Quello che fanno – abbastanza univocamente – le piattaforme è stabilire nei loro termini di servizio che qualora ci siano diritti d’autore applicabili agli output generati, questi spettano all’utente. Tuttavia, ottenere e mantenere questi diritti richiede il rispetto di alcune condizioni:

  • Abbonamento attivo e il pagamento dei costi previsti;
  • Osservanza delle policy della piattaforma;
  • Evitare violazioni di copyright esistenti o di altri diritti altrui (ad esempio, copiando opere o utilizzando prompt che riproducono stili riconoscibili, etc.).

È importante ricordare che, in molti casi, gli output generati potrebbero somigliare ad altre opere o a immagini create da altri utenti. Di conseguenza, anche agendo in buona fede, esiste il rischio di controversie. Insomma, conoscere e rispettare le policy delle piattaforme è solo la base ma non è sufficiente: è necessario anche considerare le implicazioni del diritto d’autore, del diritto dei marchi, del diritto d’immagine e del rischio di concorrenza sleale.

Questo perché, nonostante le piattaforme trasferiscano i diritti d’autore all’utente (laddove esso nasca), esse scaricano su di lui ogni responsabilità relativa all’uso commerciale degli output generati.

Ad esempio, come ho recentemente sottolineato in mio post su LinkedIn, ChatGPT ha cominciato ad adottare una content policy molto più rigorosa, che impedisce la riproduzione diretta dello stile di artisti viventi o di opere protette da copyright. Quando ho chiesto di generare un’immagine nello stile di Tim Burton, la risposta della macchina è stata:

Non sono in grado di generare un’immagine nello stile di Tim Burton a causa della nostra content policy, che non consente di replicare direttamente lo stile di artisti viventi o di coloro il cui lavoro è ancora protetto da copyright. Se desideri, posso creare un’illustrazione ispirata a un’estetica gotica o fantastica con dettagli unici che richiamino un’atmosfera simile.

La macchina, quindi, non si è limitata a negare la possibilità di replicare lo stile, ma ha proposto un’alternativa creativa, rispettando i limiti legali ma aggirando in modo strategico l’ostacolo (per approfondire: Quando riprodurre lo stile altrui è plagio? – Canella Camaiora e “Aesthetic”: la tutela dello stile sui social, tra copyright, design e concorrenza sleale – Canella Camaiora).

Secondo quanto riportato da Alberto Puliafito in un articolo su Internazionale del 9 dicembre 2024, gli autori, semplicemente esercitando il proprio diritto di opposizione ai sensi del GDPR, possono impedire che il loro nome venga utilizzato nei prompt delle IA. A ben vedere, questa possibilità ha aperto un nuovo fronte per proteggere i propri diritti IP nella generazione di contenuti AI (cfr. La lista dei nomi proibiti dall’intelligenza artificiale – Alberto Puliafito – Internazionale – 9 dicembre 2024).

Al contrario, piattaforme come Aurora di X (ex Twitter), descritte nell’articolo di HDblog, adottano un approccio molto più permissivo, per non dire spregiudicato, permettendo la generazione di immagini fotorealistiche di personaggi protetti da copyright o altre figure pubbliche, senza filtri stringenti (cfr. X lancia Aurora: il nuovo generatore di immagini AI che sfida i limiti etici – HDblog.it). Tuttavia, in Europa, un approccio così permissivo potrebbe esporre tanto gli utenti quanto la piattaforma a responsabilità in caso di violazioni.

Detto questo, la domanda centrale resta aperta: le immagini generate con l’ausilio di strumenti AI possono sono tutelate con il Copyright? E, soprattutto, quali sono le condizioni per ottenere l’esclusiva commerciale sulle immagini?

Come utilizzare in sicurezza le immagini AI-generated per fini commerciali: le linee guida

WIRED – 18 aprile 2024).

  • Théâtre D’opéra Spatial (Jason M. Allen): nel caso recente di Jason M. Allen, creatore dell’opera digitale Théâtre D’opéra Spatial premiata alla Fiera del Colorado, il Copyright Office ha negato la registrazione. Allen, tuttavia, ha presentato appello, sostenendo che l’uso di MidJourney, combinato con il processo di prompting iterativo e le modifiche successive con Photoshop, costituisca un apporto creativo sufficiente per il copyright (Cfr. Artist appeals copyright denial for prize-winning AI-generated work – 7 ottobre 2024).
  • Théâtre D’opéra Spatial” l’opera controversa creata da Jason Allen con MidJourney

    Allen paragona l’IA a uno strumento, in linea con il ragionamento della sentenza di Pechino, secondo cui l’IA è solo il mezzo con cui l’artista realizza la propria visione: il processo creativo non differisce da quello di un pittore che utilizza un pennello o di uno scultore che impiega strumenti di modellazione. L’intelligenza artificiale, in questo contesto, è semplicemente uno strumento esecutivo che permette all’artista di tradurre in realtà l’immagine che ha in mente. Senza la guida, le scelte e le correzioni costanti dell’autore, l’opera non esisterebbe nel mondo reale come è stata immaginata e concepita dall’autore.

    Anche il Copyright Office americano, comunque, non dimostra certezze assolute e si sta interrogando su questi temi come attesta il rapporto “Copyright and Artificial Intelligence, Part 1: Digital Replicas“, pubblicato il 31 luglio 2024.

    Lo U.S. Copyright Office, infatti, con una lettera del 16 dicembre 2024 aggiorna il Congresso sullo stato del rapporto dedicato alle questioni di copyright sollevate dall’intelligenza artificiale (IA). La Parte 2 del rapporto, sulla proteggibilità mediante copyright degli output generati da IA, era prevista subito dopo le festività di Capodanno, mentre la Parte 3, dedicata all’analisi delle questioni legali legate all’uso di opere protette da Copyright per addestrare i modelli di IA (incluse le considerazioni sulle licenze e sulle responsabilità correlate), dovrebbe essere pubblicata entro il primo trimestre del 2025.

    Questi rapporti potrebbero indirizzare un quadro più chiaro per il futuro della tutela legale delle opere AI-generated, partendo proprio dagli Stati Uniti.

    In Europa, come abbiamo visto e in linea con la visione di Allen, pare comunque esserci maggiore apertura verso la tutela di opere ibride, purché l’apporto umano sia documentato e significativo.

    Strano, comunque, porsi questa domanda nel 2025, visto che siamo ormai circondati da immagini artificiali. Imprese e professionisti stanno investendo molto in questa direzione. Vediamo quindi come comportarsi e come tutelare il frutto della creatività AI-Assisted.

    © Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
    Data di pubblicazione: 21 Gennaio 2025
    Ultimo aggiornamento: 7 Maggio 2025

    È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

    Avv. Arlo Cannela

    Arlo Canella

    Managing Partner dello studio legale Canella Camaiora, iscritto all’Ordine degli Avvocati di Milano, appassionato di Branding, Comunicazione e Design.

    Leggi la bio
    error: Content is protected !!