Abstract
Il 2024 ha visto concretizzarsi l’impatto diretto dell’intelligenza artificiale sull’identità personale, come evidenziato nella Relazione annuale pubblicata il 15 luglio 2025 dal Garante per la protezione dei dati personali. È stato l’anno in cui il GDPR ha agito da “freno etico giuridico”, anticipando l’entrata in vigore dell’AI Act europeo e indicando come priorità il contrasto all’uso illecito dei dati biometrici da parte dei sistemi di IA generativa.
L’immagine nell’era della manipolazione digitale
Al centro del dibattito si collocano i deepfake, contenuti visivi e sonori generati artificialmente, capaci di alterare la percezione della realtà (per un approfondimento sul tema: Dal plagio al rischio di manipolazione del pubblico: i “deep fake” – Canella Camaiora). Anche la giurista Şeymanur Yönt, nel suo Discussion Paper “The Deepfake Menace”, lo afferma con chiarezza: «Seeing is no longer believing!» — non possiamo più fidarci di quello che vediamo con i nostri occhi.
Subito dopo, Yönt mette in luce i benefici potenziali di queste tecnologie:
- Restituire la voce a chi l’ha persa per malattie neurodegenerative;
- Rivitalizzare figure storiche o personaggi pubblici in contesti educativi e museali;
- Offrire strumenti creativi a registi, artisti e musicisti.
Ma l’entusiasmo va bilanciato. Come mostra Wired, nel caso del film “Fast & Furious 7”, la ricostruzione digitale di Paul Walker dopo la sua morte – avvenuta durante le riprese – ha sollevato interrogativi profondi: l’immagine diventa merce contrattuale, e l’industria si libera progressivamente dai vincoli dell’individuo. L’attore viene “ricreato” per obbligo produttivo, e il volto – non la persona – diventa ciò che conta (v. Fast&Furious 7, Paul Walker e il neodiritto dell’immagine digitalizzata, Wired Italia, 2 aprile 2025).
Il risultato è un dualismo netto: da un lato, il potenziale valore sociale, culturale e terapeutico; dall’altro, il rischio concreto di manipolazione, sfruttamento economico e perdita di controllo sull’immagine — persino post mortem.
Dunque, se da una parte il Garante ha posto un solido presidio giuridico (il GDPR), dall’altra la fiducia visiva è incrinata, e occorre rispondere con alfabetizzazione digitale, trasparenza e strumenti di governance.
Ma se l’immagine personale diventa un campo di battaglia, possiamo ancora parlare di privacy e di diritto d’immagine? La tecnologia dei deepfake permette di manipolare foto, video o audio di una persona reale tramite l’IA, creando contenuti falsificati, ma spesso verosimili. Ciò solleva gravi problemi giuridici legati alla tutela dell’identità personale, rendendo tangibile la gravità delle conseguenze di un uso distorto dell’intelligenza artificiale.
Vedere per non credere: Il mistero di fondo del deepfake
«Seeing is no longer believing!». Così si introduce il Discussion Paper intitolato “The Deepfake Menace: Legal Challenges in the Age of AI” edito dal TRT World Research Centre. L’affermazione suona quasi come un monito: non dobbiamo più fidarci di quello che vediamo con i nostri occhi. Eppure la vista resta imprescindibilmente uno dei cinque sensi attraverso cui conosciamo il mondo che ci circonda.
Di fatto, questa sintesi apre le porte a due scenari possibili: nel primo, l’intelligenza artificiale si rivela uno strumento molto efficace per ottenere immagini e audio che, seppur non appartenenti alla realtà, sono facilmente sovrapponibili a essa e offrono agli utenti benefici importanti dal punto di vista del risparmio economico e della riduzione dei tempi di elaborazione e creazione per la realizzazione di foto e video (basti pensare alle riprese finali del film “Fast and Furious 7”, in cui per celebrare la memoria del defunto autore Paul Walker vengono prodotte immagini create con l’intelligenza artificiale). Nel secondo, questa modalità di falsificazione della realtà alimenta le intenzioni malevole di alcuni soggetti che finiscono per pubblicare materiale manipolato artificialmente nell’intento di favorire la circolazione di fake news ed il dilagare della disinformazione.
Cosa fare, dunque? Certamente non è possibile risolvere alla radice il problema mettendoci nelle condizioni di non vedere la realtà (quasi perseguendo un approccio riassumibile come “Not seeing for believing”). D’altro canto, i deepfake ci impongono di affrontare la nostra vita quotidiana con un senso critico più spiccato di quello richiestoci fino poco tempo addietro, nel senso che siamo ben più esposti, rispetto a neanche tanti anni fa, al rischio di trovarci dinanzi a informazioni e immagini non corrispondenti al vero. Dobbiamo quindi allenarci giorno dopo giorno a individuare le fonti affidabili da cui trarre spunto (secondo un mantra differente: “Training ourselves to see in order to believe”).
Possiamo almeno tutelare la nostra immagine personale?
In Italia, la nostra Costituzione protegge alcuni valori fondamentali la cui tutela, nell’ambito del “fenomeno deepfake”, potrebbe potenzialmente confliggere.
Da un lato, “la Repubblica riconosce e garantisce i diritti inviolabili dell’uomo” ai sensi dell’art. 2 Cost., fra i quali vi è, secondo la giurisprudenza, il diritto all’identità personale, inteso come “diritto ad essere sé stesso”, ovvero a esigere una rappresentazione veritiera della propria persona nella vita sociale (si riportano di seguito le esatte parole della Suprema Corte nella sentenza n. 3769 del 22 giugno 1985: “ciascun soggetto ha interesse, ritenuto generalmente meritevole di tutela giuridica, di essere rappresentato, nella vita di relazione, con la sua vera identità, così come questa nella realtà sociale, generale o particolare, è conosciuta o poteva essere conosciuta con l’applicazione dei criteri della normale diligenza e della buona fede soggettiva; ha, cioè, interesse a non vedersi all’esterno alterato, travisato, offuscato, contestato il proprio patrimonio intellettuale, politico, sociale, religioso, ideologico, professionale, ecc. quale si era estrinsecato o appariva, in base a circostanze concrete e univoche, destinato ad estrinsecarsi nell’ambiente sociale”).
Dall’altro lato, “tutti hanno diritto di manifestare liberamente il proprio pensiero con la parola, lo scritto e ogni altro mezzo di diffusione”, come prevede l’art. 21 Cost.. Naturalmente anche il deepfake è un mezzo per manifestare il proprio pensiero; ma, come la parola e lo scritto (espressamente menzionati nella disposizione costituzionale), è soggetto ad alcuni limiti, posti proprio a tutela di principi e diritti fondamentali garantiti a tutti i consociati (che trovano espressione, oltre che nella stessa Carta Costituzionale, anche in Trattati sovranazionali come il Trattato sull’Unione Europea e la Convenzione Europea dei Diritti dell’Uomo, direttamente vincolanti in Italia in virtù dell’art. 117 Cost.).
Ora, chi appare in un deepfake senza aver dato il consenso all’uso della propria immagine subisce una perdita di controllo sulla stessa, che può venire falsamente attribuita o travisata attraverso il video manipolato. La vittima può essere mostrata in contesti o comportamenti mai avvenuti – ad esempio situazioni imbarazzanti o compromettenti – lesivi dei suoi dignità, onore o riservatezza. Peraltro, anche se tali contenuti fossero riconosciuti immediatamente come artificiali, potrebbero restare altamente invasivi, risultando – di fatto – una sorta di “furto d’identità” digitale. Per questo motivo, anche la legge ha predisposto una serie di tutele per proteggersi in questi casi.
Profili civilistici e penalistici del deepfake nella normativa italiana
Oggi, in Italia, il deepfake può acquisire rilevanza sotto il duplice profilo del diritto civile e penale.
In termini civilistici, l’illegittimo utilizzo dell’immagine altrui in un deepfake non richiede un fine di lucro o una diffamazione esplicita per essere illecito. La legge italiana (art. 10 c.c. e artt. 96–97 L. 633/1941 sul diritto d’autore) tutela il diritto alla propria immagine e ne vieta la pubblicazione o esposizione senza consenso quando rechi pregiudizio all’onore, alla reputazione o al decoro della persona. Pertanto, diffondere il volto di qualcuno senza autorizzazione, inserendolo in un contesto falso, è di per sé un fatto lesivo che può dar luogo a responsabilità civile per danno non patrimoniale, ai sensi dell’art. 2043 c.c.. Di conseguenza, la quantificazione del risarcimento è riservata alla valutazione del giudice, il quale terrà conto di vari fattori caratterizzanti il fatto concreto, come il grado di diffusione del contenuto, il pubblico destinatario e l’eventuale contenuto offensivo associato (che, si badi bene, può anche mancare del tutto, senza per questo far venire meno la lesività della condotta di sottrazione dell’identità personale).
Sotto il profilo penale, il DdL n. 1146/2024 prevede l’introduzione nel Codice penale dell’art. 612-quater c.p., il cui primo comma stabilisce che “Chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o manipolati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità o provenienza, è punito con la reclusione da uno a cinque anni”. La norma non è ancora in vigore (il DdL è stato approvato dalla Camera dei Deputati con alcune modifiche il 25 giugno scorso e necessita del via libera del Senato e della successiva promulgazione del Presidente della Repubblica), ma rappresenta già in modo evidente la volontà del legislatore di affrontare attivamente le sfide che l’intelligenza artificiale ci sottopone quotidianamente. Anche da questa formulazione della norma si evince, comunque, che non rileva alcuna particolare finalità perseguita dall’autore del reato (in altri termini, non si tratta di un reato a dolo specifico): il reato è integrato se le condotte descritte dalla norma, che siano idonee a ingannare il pubblico sulla genuinità e provenienza dei materiali condivisi, provocano un danno ingiusto alla vittima (che subisce una lesione della reputazione o di altri diritti).
Il quadro normativo europeo e la tutela sovranazionale
Anche a livello europeo il deepfake trova una disciplina specifica posta a tutela dei soggetti lesi.
In tema di privacy, il GDPR regolamenta anche l’utilizzo della propria immagine da parte di terzi: infatti, l’immagine facciale è un dato personale biometrico “ottenuto da un trattamento tecnico specifico relativo alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca” (art. 4, comma 1, punto 14). Il suo utilizzo, in assenza del consenso della persona raffigurata, è illecito e il soggetto leso ha diritto a ottenere il risarcimento del danno. Anche in questi casi, all’interessato sono (e devono essere) sempre garantiti i diritti di accesso, di rettifica, di cancellazione e di opposizione al trattamento dei dati, ma evidentemente l’esercizio di questi diritti avviene generalmente ex post, solo in seguito alla diffusione sul web del deepfake, per cui la loro efficacia è abbastanza limitata e in ogni caso non in grado di riparare alla lesione della reputazione ormai subita.
Precisamente destinato a disciplinare l’uso dell’intelligenza artificiale (quindi, anche del deepfake) all’interno dell’Unione Europea è l’Artificial Intelligence Act (“AI Act”). Esso definisce espressamente il deepfake come “un’immagine o un contenuto audio/video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona”. Il Regolamento non proibisce il loro uso, ma impone obblighi di trasparenza a chi li realizza o diffonde.
In particolare, l’art. 50 comma 4 stabilisce che i creatori di contenuti deepfake devono segnalare chiaramente che si tratta di materiale artificialmente generato o manipolato, per evitare di fuorviare il pubblico sulla natura non autentica del contenuto. Per tale obbligo è però prevista un’eccezione nei casi in cui il contenuto faccia parte di un’opera o di un programma “manifestamente artistici, creativi, satirici o fittizi”. Il rischio insito in questa previsione è evidente: non si chiarisce chi sia chiamato a fare questa valutazione, né secondo quali criteri un’opera si possa definire manifestamente artistica (per approfondire, si veda: Dal plagio al rischio di manipolazione del pubblico: i “deep fake” dell’Avv. Arlo Canella).
A determinare, in sostanza, la legittimità dell’uso del deepfake è il contesto in cui lo si utilizza. In generale, sono salvi i contenuti artificiali pubblicati come messaggi satirici oppure i materiali che l’autore pubblica segnalando in modo trasparente che si tratta di materiale artificialmente generato o manipolato. Se queste esimenti non sono presenti, il soggetto raffigurato mantiene intatto – ovviamente – sia il diritto di richiedere la rimozione del deepfake in questione, sia quello al risarcimento del danno subito.
La Commissione Europea prevede che l’AI Act raggiungerà la sua piena applicabilità entro l’agosto 2026, ma la nostra esortazione non può che essere quella di adeguarsi fin d’ora a norme che verranno verosimilmente applicate con sempre maggiore severità.
© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 14 Agosto 2025
È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Joel Persico Brito
Laureato presso l’Università Cattolica del Sacro Cuore di Milano, Praticante avvocato appassionato di contenzioso e diritto dell’arbitrato.