Intelligenza artificiale e ambiente: due mondi non poi così distanti

Tempo di lettura: 9 minuti

Abstract

Nel mondo in continua e rapidissima evoluzione in cui viviamo oggi, l’obiettivo principale pare essere ormai quello di stare al passo con le innovazioni tecnologiche. Un obiettivo che si trasforma in vera e propria esigenza vitale, se il mancato progressivo aggiornamento ad esse può comportare, per le imprese, un’esclusione di fatto dal gioco concorrenziale.

Bisogna però tenere presente che l’affidamento delle nostre attività quotidiane ad un sistema di intelligenza artificiale presenta, oltre che innegabili vantaggi, anche una serie di rischi. In questo articolo l’analisi sarà focalizzata su quelli di natura ambientale, facendo emergere un legame fra due mondi (quello dell’intelligenza artificiale e quello dell’ambiente) che è più stretto di quello che potremmo credere in apparenza.

L’impatto ambientale dell’AI è in crescita

I data center che alimentano l’AI contribuiscono massicciamente all’aumento della domanda di energia, e quindi delle emissioni globali”. Questo è quanto afferma la giornalista Kenza Bryan in un’intervista per il Financial Times.

Peccato che queste parole risuonino particolarmente forti ai giorni nostri, dato che questa è un’epoca caratterizzata da un’instabilità climatica che non intende dare tregua o mitigarsi, nonostante l’impegno delle istituzioni e degli Stati

In effetti, a confermare l’attualità e la delicatezza del problema insito al rapporto tra l’intelligenza artificiale e l’ambiente, spesso sottovalutato, è il fatto che anche l’IA, come tutte le macchine, consuma ed inquina. Infatti, come sottolinea il Programma Ambientale delle Nazioni Unite, i data center:

  • producono rifiuti elettronici, che spesso contengono sostanze pericolose come mercurio e piombo;
  • utilizzano acqua durante la costruzione e, una volta operativi, per raffreddare i componenti elettrici.

Tanto per fornire una rappresentazione plastica del problema, il White Paper dell’Electric Power Research Institute del 2024 rimarca come i modelli di AI siano molto più energivori rispetto alle applicazioni tradizionali: una singola query AI può consumare fino a dieci volte l’energia di una ricerca Google (2.9 wattora per una domanda a ChatGPT, a fronte di “soli” 0.3 wattora per una ricerca Google).

La base normativa di riferimento

L’uomo ha attraversato l’età della pietra, del carbone, del petrolio. Quella attuale è l’era dell’elettricità e del digitale. Tuttavia, l’uso deregolamentato di tali risorse rischia di compromettere la sostenibilità della transizione ecologica.

La Raccomandazione UNESCO sull’etica dell’AI (2021) sottolinea che l’uso dell’intelligenza artificiale deve tener conto non solo degli impatti sociali, ma anche di quelli sugli ecosistemi e sulle generazioni future, dedicando poi ai punti 17 e 18 una specifica previsione sul tema:

17. Il benessere dell’ambiente e degli ecosistemi dovrebbe essere riconosciuto, protetto e promosso durante tutto il ciclo di vita dei sistemi di IA. Inoltre, l’ambiente e gli ecosistemi sono una necessità esistenziale per l’umanità e gli altri esseri viventi affinché possano godere dei benefici dei progressi dell’IA.

18. Tutti gli attori coinvolti nel ciclo di vita dei sistemi di IA devono rispettare il diritto internazionale applicabile e la legislazione, le norme e le pratiche nazionali, quali la precauzione, volte alla protezione e al ripristino dell’ambiente e degli ecosistemi, nonché allo sviluppo sostenibile. Essi dovrebbero ridurre l’impatto ambientale dei sistemi di IA,  incluso  ma non limitato alla sua impronta di carbonio, per garantire la riduzione al minimo  dei fattori di rischio climatico e ambientale e prevenire lo sfruttamento, l’uso e la trasformazione insostenibili delle risorse naturali che contribuiscono al deterioramento dell’ambiente e al degrado degli ecosistemi”.

Con l’AI Act (Reg. UE 2024/1689), poi, il legislatore europeo ha dimostrato sensibilità al tema. L’art. 1 precisa che lo scopo del Regolamento è promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile garantendo un elevato livello dei diritti fondamentali compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente; se una prima lettura potrebbe forse suggerire che si tratta di un mera dichiarazione di principi, va tenuto presente che il significato di questa norma si riempie di contenuto grazie alla funzione ermeneutica dei considerando. In particolare:

  • il Considerando n. 1 rinvia alla Carta dei Diritti Fondamentali dell’UE, il cui art. 37 stabilisce che “Un livello elevato di tutela dell’ambiente e il miglioramento della sua qualità devono essere integrati nelle politiche dell’Unione e garantiti conformemente al principio dello sviluppo sostenibile”;
  • il Considerando n. 27 dell’AI Act richiama le linee guida elaborata dall’Expert Group nominato dalla Commissione Europea, che consistono in 7 principi tesi a garantire che l’IA sia affidabile ed eticamente valida.

Ma il Regolamento non si ferma qui: la valorizzazione più importante dell’ambiente si rinviene nell’art. 3 n. 49, ove si definisce incidente grave come un incidente o malfunzionamento di un sistema di AI che causa (direttamente o indirettamente), fra gli altri, gravi danni alle cose o all’ambiente.

Va poi rilevata l’assenza di dati proprietari delle grandi compagnie del settore tecnologico sui consumi energetici e idrici che le stesse generano, il che rappresenta una lacuna che rischia di compromettere la trasparenza e la possibilità di un controllo democratico, come peraltro rilevato da Josie Stewart, Brooke Tanner e Nicol Turner Lee nel loro recente articolo pubblicato su Brookings.

E chi paga in caso di danno ambientale?

L’AI, con il suo fabbisogno energetico crescente, rischia di diventare un fattore di aggravamento della crisi climatica e dare un contributo non indifferente nella catena causale che porta ad un danno ambientale.

Anzitutto, intendiamo con danno ambientale “il mutamento negativo o il deterioramento misurabile arrecato alle specie e agli habitat naturali protetti”, ai sensi della Direttiva 2004/35/CE. Quest’ampia definizione è in grado di comprendere una serie di eventi che assumono rilievo non in virtù delle cause da cui sono provocati, quanto piuttosto degli effetti che essi producono sull’ecosistema. Potenzialmente, quindi, anche lo sfruttamento di risorse idriche o l’abuso di risorse energetiche potrebbe acquisire rilievo nella valutazione di un danno ambientale.

È da rilevare, poi, una coincidenza: lo sviluppo dell’AI sta procedendo di pari passo con l’aumento del contenzioso climatico, ossia l’insieme di controversie basato su una doglianza relativa al cambiamento climatico o alla politica in materia di cambiamento climatico.

A questo riguardo, la prospettiva secondo cui sussiste una responsabilità esclusivamente in capo agli Stati nel caso in cui si verifichino danni ambientali è ormai datata e non più corrispondente a quella attuale: sempre più cittadini e organizzazioni ricorrono ai tribunali per avanzare le loro pretese anche nei confronti delle imprese per le loro responsabilità ambientali (si veda, a proposito, Luciano Lliuya v. RWE AG). Sarà solo questione di tempo prima che un giudice si trovi ad affrontare una doglianza avente ad oggetto un danno ambientale causato (anche solo parzialmente) dall’impatto del data center di un sistema AI.

Questo è tanto più vero, se si considera che gli scienziati concordano sul fatto che il cambiamento climatico abbia un’origine antropica, attribuendo un contributo determinante alle attività umane. L’IPCC ha affermato, nel Sixth Assesment Report del 2023, che le attività dell’uomo hanno causato “in modo inequivocabile il surriscaldamento globale, con un aumento della temperatura della superficie terrestre pari a 1.1 tra il 2011-2020 rispetto al 1850-1900”.

La situazione è pure aggravata se si considera la protezione dei diritti degli individui gli interessi commerciali e di business. Il filosofo americano Henry Shue ha evidenziato questo aspetto con specifico riferimento ai danni provocati dalle attività industriali delle principali aziende produttrici di combustibili fossili (c.d. Carbon Majors), ma con argomentazioni che possono ben replicarsi anche per le società operanti nel settore dell’innovazione tecnologica e dell’intelligenza artificiale. Egli osserva come, sebbene i dati scientifici dimostrino già da tempo (a partire almeno dagli anni ’60 del secolo scorso) le criticità legate alle quantità di emissioni prodotte dall’attività dell’uomo e la politica abbia dato testimonianza di recepire questi segnali di allerta, i Carbon Majors hanno continuato a condurre attività dannose per l’ambiente invece che ricorrere a soluzioni alternative, quali la modifica dei propri modelli di business con la transizione verso modalità più sostenibili oppure la progressiva sostituzione dei prodotti dannosi con altri più sicuri e rispettosi dell’ambiente; secondo Shue, questa indifferenza dei Carbon Majors, perpetrata negli anni, può portare potenzialmente alla sussistenza di una loro responsabilità per i danni che essi stessi hanno creato e che potrebbero dover sopportare attraverso il finanziamento di misure di adattamento o la compensazione economica di tali danni.

Nonostante non vi siano precedenti in giurisprudenza specificamente fondati sul tema dei danni ambientali provocati dall’uso dei sistemi AI, è comunque possibile svolgere una riflessione per principi cardini; in questo senso, si richiami anzitutto l’art. 191 del Trattato sul Funzionamento dell’UE, il quale afferma che la politica dell’UE in materia ambientale contribuisce a perseguire la tutela dell’ambiente e, al comma 2,  che “la politica dell’Unione in materia ambientale mira a un elevato livello di tutela, tenendo conto della diversità delle situazioni nelle varie regioni dell’Unione. Essa è fondata sui principi della precauzione e dell’azione preventiva, sul principio della correzione, in via prioritaria alla fonte, dei danni causati all’ambiente, nonché sul principio “chi inquina paga”. Stando così le cose, se ne deve evincere che anche l’AI Act sia stato redatto alla luce di questi principi.

Questi principi dovrebbero assistere anche l’uso dell’AI, imponendo sia, alle Big Tech di effettuare valutazioni di impatto ambientale ex ante, prima della fornitura di un sistema di intelligenza artificiale, sia alle imprese e agli individui di fare un uso responsabile degli strumenti che la tecnologia di mette a disposizione.

Ok l’IA, ma restiamo umani!

E non è tutto! Mentre la nostra tendenza a delegare a strumenti come ChatGPT sempre più attività è in aumento, una nuova funzionalità è pronta ad affermarsi: l’AI generativa è ormai in grado di compiere delle attività a prescindere dalla diretta interazione con noi; questo è possibile grazie a Pulse, una funzione che permette a ChatGPT di predire alcune informazioni sulla base dei comportamenti dell’utente.

Come spiega il giornalista Luca Tremolada nel suo articolo su IlSole24Ore, “l’idea è spostare ChatGPT da un ruolo reattivo a uno proattivo: non solo rispondere alle domande, ma anticipare bisogni e obiettivi dell’utente”. Ora, è evidente che quando Pulse sarà reso alla portata di tutti, i suoi costi di gestione produrranno per i datacenter un fabbisogno energetico esorbitante; infatti, se la situazione è già critica adesso, figuriamoci cosa potrebbe essere se l’AI lavora anche quando non glielo chiediamo.

Non dimentichiamoci però l’art. 14 dell’AI Act, che resta saldamente ancorato ad una visione antropocentrica dell’AI e che ci salva dall’annientamento, imponendo ai fornitori di sistemi di intelligenza artificiale di costruirli in modo tale da poter essere efficacemente supervisionati da persone fisiche.

Il rapporto uomo-macchina può funzionare solo se si mantiene la consapevolezza dei limiti e dei rischi, evitando che l’AI diventi un fattore di deresponsabilizzazione.

Iscriviti alla newsletter dello studio legale Canella Camaiora.

Resta aggiornato su tutte le novità legali, webinar esclusivi, guide pratiche e molto altro.

© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 2 Ottobre 2025

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Joel Persico Brito

Laureato presso l’Università Cattolica del Sacro Cuore di Milano, Praticante avvocato appassionato di contenzioso e diritto dell’arbitrato.

Leggi la bio
error: Content is protected !!