Abstract
Il nuovo Regolamento europeo sull’intelligenza artificiale (AI Act) e la normativa italiana in via di approvazione pongono le imprese davanti a un cambio di paradigma: tra obblighi di trasparenza, supervisione umana, classificazioni per livello di rischio e scadenze ancora incerte. Questo articolo guida le aziende italiane in un contesto normativo frammentato e in evoluzione, approfondendo le implicazioni pratiche dell’AI Act, il ruolo del GDPR e le posizioni critiche espresse dalla comunità scientifica. Si affrontano i problemi concreti legati alla gestione dei dati (liceità, minimizzazione, DPIA), i contratti con fornitori e responsabili, i trasferimenti internazionali e l’utilizzo di strumenti AI in ambito B2B e B2C. Una sezione è dedicata alle Clausole Contrattuali Tipo per l’AI (CCT-IA) e al loro valore effettivo, distinguendo tra uso interno dell’AI e modelli AIaaS. In chiusura, un’analisi aggiornata dello stato del DDL italiano 1146/2024 e delle incertezze operative che derivano dalla sovrapposizione tra norme UE, diritto nazionale e silenzi istituzionali.
Come sta cambiando il lavoro delle imprese con l’AI (e con l’AI Act)
Con il Regolamento UE 2024/1689 (AI Act), l’Unione Europea ha tentato di imporre un sistema regolatorio dell’intelligenza artificiale a tutela dei cittadini UE. Un progetto ambizioso, costruito su un approccio basato sul rischio che distingue quattro livelli di pericolosità: inaccettabile, alto, limitato e minimo. In teoria, un sistema elegante. Forse però, nella pratica, da rivedere poiché l’attuazione di questi principi si sta rivelando tutt’altro che semplice.
Oltretutto, la scadenza del 2 maggio 2025, entro cui sarebbe dovuto entrare in vigore il codice delle buone pratiche per i modelli di intelligenza artificiale GPAI, è già stata bucata.
Insomma, il tanto celebrato AI Act, per il momento, vieta solo le pratiche AI considerate una minaccia manifesta per la sicurezza o i diritti fondamentali: manipolazione comportamentale, sfruttamento di vulnerabilità, social scoring e riconoscimento biometrico remoto in spazi pubblici. Ma anche, semplicemente identificare correttamente quali siano queste pratiche, non è semplice.
Astrattamente, le applicazioni classificate come “ad alto rischio” riguardano contesti considerati critici come sanità, giustizia, lavoro e finanza. Lì il Regolamento impone obblighi rigorosi su qualità dei dati, documentazione tecnica, tracciabilità, supervisione umana… che poi che significa “supervisione umana”?
Mi ha fatto sorridere – amaramente – A. Ghiglia che ha definito l’AI Act… “il Benjamin Button della regolamentazione europea: nato vecchio, in parte superato, in parte inadeguato (basti pensare alla classificazione dei chatbot come ‘a rischio lieve’” (cfr. AI Act, rischio rinvio per il Componente del Garante per la Privacy – AI4Business).
Molti passaggi dell’AIAct sembrano scritti dall’AI stessa, senza comprendere realmente il contesto di ciò di cui si tratta, senza una reale conoscenza dei modelli di AI e del loro funzionamento.
L’obbligo di supervisione umana, ad esempio, non solo risulta vago quanto piuttosto inapplicabile in determinati contesti. Si pensi, ad esempio, all’uso di sistemi di intelligenza artificiale per l’analisi automatizzata dei CV, oppure agli algoritmi decisionali in ambito bancario e assicurativo, che elaborano centinaia di parametri in pochi millisecondi: è davvero plausibile una “supervisione umana significativa” su ogni decisione automatizzata?
Oppure si considerino le applicazioni AI nella diagnostica clinica predittiva o nella videosorveglianza intelligente, dove la mole di dati trattati e la rapidità dei processi rendono difficile, se non illusoria, una supervisione effettiva.
È proprio questo uno dei nodi sollevati anche dalla comunità scientifica. In un recente studio interdisciplinare, presentato alla conferenza ACM FAccT 2024, si legge: “Colpisce il fatto che le misure previste dall’articolo 14(4) dell’AI Act siano formulate a livelli di astrazione molto diversi: alcune sono altamente concrete (come l’obbligo del ‘pulsante di arresto’), altre invece lasciano ampio margine di interpretazione. […] La mancanza di coerenza strutturale e chiarezza regolatoria potrebbe ostacolare l’applicabilità pratica della supervisione umana.” (Sterz et al., 2024, 5.2) [(DOI: 10.1145/3630106.3659051)].
E ancora: “Ironia vuole che proprio quegli esseri umani le cui imperfezioni l’intelligenza artificiale vorrebbe superare, si trovino poi incaricati di vigilare sul suo funzionamento.” (Sterz et al., 2024, p. 3).
Anche S. Stefanelli, in un approfondimento pubblicato su Agenda Digitale, evidenzia come l’obbligo di “oversight” (“supervisione umana”) rischi di rimanere privo di reale efficacia se non accompagnato da una definizione chiara di competenze, poteri e condizioni di esercizio: “Una supervisione efficace non si limita a garantire che un sistema decisionale automatizzato faccia ciò che dovrebbe fare secondo la sua destinazione d’uso, ma implica che lo faccia in modo legale, sicuro, etico e in linea con i valori della società.” (Stefanelli, 2024, su Agenda Digitale).
In altri termini, il rischio concreto è che l’essere umano nel ciclo di controllo venga evocato più come garanzia simbolica che come reale contropotere. Come osserva sempre la Collega Stefanelli, occorrerebbe distinguere tra supervisione della capacità (cioè il corretto funzionamento tecnico del sistema) e supervisione dell’allineamento (ossia la conformità ai diritti fondamentali e ai valori etici).
Una situazione paradossale, soprattutto se si considera che le PMI europee – principali destinatarie dell’obbligo di supervisione – non dispongono né delle risorse né delle competenze per implementare strutture di controllo adeguate. Il rischio, insomma, è quello di un’etichetta formale, più che in una misura operativa.
E proprio su questo terreno incerto si trovano a muoversi non solo i grandi player tecnologici, ma anche le PMI europee, che adottano perlopiù soluzioni AI sviluppate terze parti.
Le imprese utilizzatrici, in qualità di deployer, sono comunque tenute a monitorare le performance dei sistemi, garantire l’uso conforme e segnalare eventuali malfunzionamenti.
Insomma, non basta “comprare e utilizzare”: occorre conoscere, presidiare e rendicontare.
Del resto, per le applicazioni a rischio limitato, il Regolamento richiede quantomeno trasparenza verso gli utenti, come l’obbligo di segnalare quando si interagisce con una macchina o quando i contenuti sono generati da AI. Insomma, l’AI Act impone alle imprese un’analisi preventiva – e responsabile – di ogni sistema AI utilizzato.
Ma, tra principi astratti e meccanismi di controllo poco chiari, la confusione regna sovrana. In attesa di linee guida concrete, molte aziende si trovano in un limbo: cosa significa davvero essere conformi? Quali sono le conseguenze di un uso scorretto? E oltretutto…come si conciliano queste nuove responsabilità con le normative in materia di privacy e protezione dei dati personali?
Trattamento di dati personali con l’AI: cosa prevede il GDPR
Tra le aree più delicate nell’adozione dell’intelligenza artificiale in azienda, la protezione dei dati personali è senza dubbio una delle più critiche. Quando un sistema AI tratta informazioni relative a clienti, utenti o dipendenti, le imprese devono garantire la piena conformità al GDPR (Regolamento Generale UE sulla Protezione dei Dati). Il GDPR si applica in parallelo all’AI Act, e richiede una serie di cautele che non possono essere ignorate.
La base legale del trattamento
Ogni sistema AI che utilizza dati personali deve appoggiarsi su una base legale legittima (consenso, obbligo contrattuale, interesse legittimo, obbligo legale). Ma l’utilizzo dell’interesse legittimo, spesso invocato per l’addestramento di modelli su grandi moli di dati, è consentito solo in condizioni molto restrittive. L’EDPB (Comitato Europeo per la Protezione dei Dati) ha definito un test in tre fasi (Parere 28/2024) per valutare l’appropriatezza di tale base giuridica, che include: finalità lecita, necessità del trattamento e bilanciamento con i diritti degli interessati.
Ma come si concilia questa visione garantista con i casi reali? Il recente comunicato del Garante per la protezione dei dati personali, relativo all’intenzione di Meta di addestrare i propri modelli AI sui dati degli utenti europei, ha sollevato non poche perplessità.
A partire dalla fine di maggio 2025, salvo opposizione esplicita degli interessati (c.d. opt out), l’azienda potrà utilizzare post, commenti, immagini e didascalie pubbliche per addestrare i suoi modelli linguistici. Il trattamento si fonda sul legittimo interesse, anche per utenti non registrati le cui informazioni compaiono nei contenuti altrui (cfr. COMUNICATO STAMPA GPDP – Intelligenza artificiale, Garante privacy: Da fine maggio Meta addestrerà i suoi sistemi utilizzando i dati personali degli utenti che non si saranno opposti – 29 aprile / 15 maggio 2025).
L’EDPB, nel suo Parere 28/2024, aveva chiarito che tale base giuridica non avrebbe potuto essere utilizzata in modo generalizzato, e che l’opposizione non è una misura di tutela sufficiente in sé, soprattutto quando il trattamento è massivo e l’interessato non può ragionevolmente prevederlo.
Inoltre, aveva affermato che i modelli AI addestrati con dati personali non possono essere considerati anonimi di default: devono essere sottoposti a valutazioni rigorose caso per caso, con evidenze tecniche documentate.
Questo episodio mostra quanto sia fragile la tenuta applicativa del GDPR di fronte alle big tech. Pur in presenza di principi solidi, la concreta tutela dei diritti dipende dalla capacità di enforcement e dalla consapevolezza dell’utente. Se l’opposizione diventa l’unico argine, la privacy rischia di diventare un diritto teorico più che effettivo.
Minimizzazione e privacy by design
I dataset usati per addestrare l’AI devono contenere solo dati strettamente necessari. Il GDPR impone inoltre l’adozione di misure di privacy by design e by default fin dalla progettazione. Tecniche come pseudonimizzazione, differential privacy e limitazioni sugli identificatori sono fondamentali. Ma attenzione: un dato è “anonimo” solo se non è in alcun modo riconducibile a una persona fisica, neanche indirettamente. Nella maggior parte dei casi, quindi, i modelli AI restano soggetti al GDPR.
Trasparenza e diritti degli interessati
Le aziende devono informare chiaramente gli utenti se un sistema AI li profila o prende decisioni automatizzate che li riguardano. L’informativa privacy deve includere la logica del sistema e le conseguenze previste (art. 13(2)(f) GDPR). In caso di decisioni automatizzate con effetti significativi, scatta il diritto a non essere sottoposti a tali decisioni (art. 22 GDPR). L’intervento umano, la possibilità di contestazione e la trasparenza sono obbligatori. L’EDPB invita anche a valutare le aspettative ragionevoli dell’interessato rispetto all’uso dei propri dati.
DPIA (Data Protection Impact Assessment)
Molti progetti AI sono “ad alto rischio” per i diritti delle persone. In questi casi, il GDPR impone una valutazione d’impatto preventiva (art. 35). Profilazioni su larga scala, uso di dati biometrici o sanitari e analisi predittive richiedono una DPIA. Questo strumento consente di mappare i rischi, documentare le contromisure e dimostrare accountability.
Qualità e liceità dei dataset di addestramento
I dati usati per addestrare modelli AI devono essere raccolti e trattati lecitamente. L’EDPB ha chiarito che se i dati originari sono illeciti, anche il modello addestrato può diventarlo, incidendo sulla liceità del trattamento nelle fasi successive (cfr. EDPB, Parere 28/2024, Scenari 1 e 2, pp. 4 e ss.).
È quindi essenziale fare due diligence sui dataset: rimuovere dati non autorizzati, verificare le basi giuridiche, aggiornare e bilanciare i dati. La qualità dei dati è un requisito tanto del GDPR (principio di esattezza, art. 5, par. 1, lett. d) quanto dell’AI Act (accuratezza, rappresentatività, assenza di errori e adeguatezza rispetto al contesto d’uso – art. 10 AI Act).
Contratti con fornitori e responsabili
Ogni fornitore di soluzioni AI che tratta dati personali per conto dell’azienda deve essere formalmente designato come responsabile del trattamento, attraverso un contratto conforme all’art. 28 del GDPR. Questo accordo deve definire con chiarezza:
- le finalità del trattamento,
- le misure di sicurezza adottate,
- le modalità di restituzione o cancellazione dei dati al termine del servizio,
- e l’obbligo di assistenza al titolare in caso di esercizio dei diritti da parte degli interessati o controlli dell’autorità.
Ma non basta. Quando si ha a che fare con sistemi di intelligenza artificiale, è fondamentale inserire anche clausole specifiche sull’uso dei dati di addestramento. Ad esempio, si può:
- vietare esplicitamente il riutilizzo dei dati per addestrare altri modelli,
- richiedere la segregazione dei dati aziendali all’interno delle architetture del fornitore,
- oppure imporre obblighi di documentazione sull’effettivo utilizzo dei dati forniti.
Trasferimenti internazionali di dati
Quando l’adozione di sistemi AI implica l’uso di fornitori extra-UE, si applicano le regole del GDPR sui trasferimenti internazionali di dati personali. In assenza di una decisione di adeguatezza, è necessario adottare le Clausole Contrattuali Standard (SCC) della Commissione europea, eventualmente integrate da misure supplementari per garantire un livello di protezione equivalente a quello europeo.
Le SCC servono a garantire la liceità del trasferimento dei dati verso paesi terzi. Ma attenzione a non confonderle con le MCC-AI previste dall’AI Act: queste ultime non riguardano i flussi internazionali di dati, ma disciplinano gli obblighi contrattuali tra fornitori e utilizzatori di sistemi di intelligenza artificiale, in particolare nei casi in cui i fornitori non siano soggetti diretti alla normativa UE.
Clausole contrattuali standard in materia di AI
Quando si parla di intelligenza artificiale, inserire clausole specifiche nei contratti non è più una semplice accortezza, ma un’esigenza operativa concreta. Proprio per questo la Commissione Europea ha predisposto le Clausole Contrattuali Tipo per l’AI (CCT‑IA): modelli contrattuali pensati per regolare l’uso e la fornitura di sistemi AI, disponibili in due versioni — “Light” per sistemi non ad alto rischio e “Full” per quelli soggetti agli obblighi dell’AI Act (Commento CCT-IA, §1-2).
Sulla carta, queste clausole rappresentano una griglia di responsabilità condivisa tra chi sviluppa o fornisce un sistema AI e chi lo utilizza. Ma nella pratica, emerge una domanda tutt’altro che teorica: se qualcosa va storto, chi ne risponde davvero?
Un esempio concreto: sistema AI per raccomandazioni
Immaginiamo un’azienda che sviluppa un motore AI per suggerire pacchetti vacanza personalizzati, integrato in un sito di prenotazione. Il sistema non prende decisioni vincolanti, ma genera output visibili agli utenti in tempo reale. Se, nel tempo, emerge che il sistema tende a favorire pacchetti premium anche per chi ha impostato budget bassi, può essere contestata una pratica discriminatoria o commerciale scorretta?
In base alle CCT-IA-Light, il fornitore deve:
- documentare i rischi prevedibili legati a salute, sicurezza o diritti fondamentali (art. 2.1-2.2);
- garantire che il sistema sia stato testato prima della consegna (art. 2.6);
- aggiornare la documentazione e il sistema durante tutto il ciclo di vita (art. 2.10).
Tuttavia, senza una governance chiara, il committente può trovarsi esposto a contestazioni anche se formalmente non ha “colpe”.
Lo stesso vale per:
- explainability (art. 11.1-11.2): se il sistema non spiega in modo chiaro i criteri delle sue raccomandazioni, l’obbligo è solo formale;
- log e tracciabilità (art. 5.1-5.3): se non si può dimostrare come e quando il sistema ha prodotto un certo output, ogni contestazione diventa ingestibile.
E se l’AI viene usata solo per fini interni?
Molte aziende usano strumenti AI come ChatGPT per attività interne: sintesi documentali, drafting contrattuale, analisi giurisprudenziali. In questi casi le CCT-IA non si applicano, perché:
- non c’è un sistema AI erogato a terzi;
- non ci sono clienti finali né output esterni;
- l’uso resta “dietro le quinte”.
Serve piuttosto una policy interna sull’uso dell’AI, ispirata ai principi delle CCT-IA (documentazione, tracciabilità, controllo umano).
Ma se si sviluppa un servizio AI per altri?
Scenario diverso: un’azienda crea o personalizza un sistema AI che viene poi usato da clienti finali — tipicamente con un modello AIaaS (Artificial Intelligence as a Service). In questo caso:
- serve un contratto B2B tra sviluppatore e cliente (licenza, responsabilità, aggiornamenti);
- serve un EULA per l’utente finale, se l’AI viene usata da soggetti terzi;
- le CCT-IA-Light sono un ottimo punto di partenza per redigere questi accordi, adattandole al caso concreto.
In sintesi, le CCT-IA non vanno adottate con criterio e strategia. Sono utili solo se trasformate in strumenti personalizzati, coerenti con il modello di business e con il ruolo effettivo dell’AI. Usarle in automatico equivale a compliance sterile. Usarle bene, invece, significa prevenire rischi reali e costruire fiducia contrattuale.
Cosa prevede la normativa italiana e cosa aspettarsi nei prossimi mesi
Mentre l’AI Act europeo ha ormai preso forma e si prepara a entrare gradualmente in vigore, l’Italia si muove a rilento, sospesa tra annunci e stasi operativa. Il Disegno di Legge 1146/2024, approvato dal Senato il 20 marzo 2025, delega il Governo ad adottare entro un anno uno o più decreti legislativi per adeguare l’ordinamento nazionale. A giugno 2025, il testo è in fase di approvazione finale alla Camera, ma mancano ancora gli strumenti attuativi.
Eppure, la legge delega è ambiziosa: prevede obblighi di trasparenza algoritmica, sorveglianza umana obbligatoria nei settori sensibili, vincoli etici, limiti all’uso nei procedimenti giudiziari e persino sanzioni penali per deepfake e manipolazioni algoritmiche (art. 612-quater c.p.).
Ma in assenza dei decreti attuativi, resta tutto sospeso. Le imprese non sanno se e quando dovranno:
- notificare l’uso dei sistemi AI;
- registrare quelli ad alto rischio presso AgID;
- adeguarsi a regole settoriali per lavoro, sanità, PA o professioni regolamentate.
Nel frattempo, l’AI Act europeo impone scadenze precise: la piena applicabilità del regolamento scatterà dal 2 agosto 2026, ma molte imprese non sanno come coordinarsi con la futura normativa italiana.
Nel vuoto lasciato dal legislatore, è il Garante Privacy a colmare il silenzio. Con comunicati, pareri e audizioni (da ultimo quelle sul trattamento dati nella ricerca scientifica e sull’uso di ChatGPT), il Garante si è ritagliato un ruolo centrale, pur in assenza di un quadro normativo secondario consolidato.
In un sistema che pretende conformità, ma non chiarisce i margini operativi. Dove il GDPR si applica sempre, l’AI Act quasi, e il diritto nazionale… forse.
È un contesto di incertezza strutturale, fatto di sovrapposizioni normative, annunci non seguiti da atti concreti e una molteplicità di attori (Garante, AgID, ACN, PCM) che devono ancora definire chi fa cosa. Un groviglio istituzionale, prima ancora che giuridico.
Forse, la sensazione dominante non è quella di un sistema ingiusto, ma di un sistema sfuggente. Le imprese si muovono in uno “spazio normativo liminale” — non ancora pienamente disciplinato, ma già sorvegliato. Uno spazio in cui le regole si intuiscono, ma non si comprendono del tutto. Dove ogni decisione può essere rimessa in discussione, ogni certezza è solo temporanea.
Un diritto, anch’esso “liminale”, che più che una rete di garanzie somiglia a una moquette gialla sotto neon freddi: familiare, ma opaco. Conosciuto, ma inospitale. (Per approfondire il concetto di “spazio liminale”, si veda l’articolo: “Cosa sono gli spazi liminali e perché ci mettono inquietudine e tristezza”, pubblicato su Geopop il 16 giugno 2025).
Eppure, l’AI corre, anzi accelera… e in questo corridoio normativo, non si può restare immobili. Occorre procedere, anche a tentoni, cercando almeno di sbagliare meno possibile. Perché — nel diritto, nel business, nella vita — chi si ferma è perduto.
© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 19 Giugno 2025
È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Arlo Canella
Managing & founding partner, avvocato del Foro di Milano e cassazionista, responsabile formazione e ricerca indipendente dello Studio CC®.