Abstract
In un’epoca che promette di prevedere tutto: comportamenti, business, crisi, scelte individuali… questo articolo esplora il paradosso dell’ordine che genera disordine. Non è un caso, allora, che l’AI Act europeo — primo tentativo di imbrigliare l’intelligenza artificiale con norme vincolanti — stia già mostrando segni di affanno: gli standard tecnici sono in ritardo, i codici di condotta ancora incompleti, e le scadenze rischiano di arrivare prima degli strumenti per rispettarle. A partire dal caos deterministico – e da una frase celebre di Ian Malcolm in Jurassic Park – questo articolo indaga il paradosso della complessità nascosta nell’ordine, l’illusione della previsione algoritmica, e il significato del dubbio come forma di intelligenza.
Cos’è il caos deterministico?
Chi ha visto Jurassic Park ricorderà il dottor Ian Malcolm, il matematico teorico vestito di nero che mette in guardia gli altri personaggi – e il pubblico – dai pericoli di un sistema che si crede di poter controllare. In una scena rimasta celebre, Malcolm spiega con tono ironico:
«La teoria riguarda semplicemente l’imprevedibilità nei sistemi complessi. Il modo breve per dirlo è effetto farfalla: una farfalla può battere le ali a Pechino e a Central Park avremo la pioggia anziché il sole.»
Non è una trovata cinematografica. È un’idea scientifica resa pop, nata nei laboratori di meteorologia, e formulata per la prima volta nel 1972 da Edward Lorenz, il padre del caos deterministico. Durante una conferenza dal titolo provocatorio – “Può il battito d’ali di una farfalla in Brasile provocare un tornado in Texas?” – Lorenz spiegò che nei sistemi dinamici non lineari anche una variazione microscopica nelle condizioni iniziali può condurre, col tempo, a esiti macroscopicamente divergenti.
Questo è il cuore del caos deterministico: sistemi perfettamente noti, descritti da equazioni precise, possono produrre risultati imprevedibili, essendo sensibili allo stato iniziale. Non c’è nessun “caso” nel senso comune del termine. Le equazioni sono deterministiche. Eppure, a causa della loro struttura non lineare, una minima incertezza iniziale – inevitabile in ogni misurazione reale – viene amplificata esponenzialmente, rendendo impossibile prevedere con precisione il comportamento futuro del sistema.
È un principio che vale la pena ricordare, soprattutto oggi, nell’epoca dei big data e dell’intelligenza artificiale. Perché se mere equazioni possono generare caos, quanto possiamo davvero fidarci di sistemi che imparano da miliardi di dati, ma che restano opachi nella loro logica interna?
Il paradosso del caos: ordine che genera disordine
Per secoli, la scienza ha coltivato l’idea che il mondo fosse un orologio perfetto: bastava conoscere le leggi che lo governano e misurare con precisione lo stato iniziale di un sistema per poter prevedere il futuro, come faceva il meccanico con gli ingranaggi. Era la visione di Newton, perfezionata da Laplace: un universo chiaro, determinato… perfettamente tracciabile, dove l’incertezza era solo una questione di ignoranza temporanea.
La teoria del caos ha scardinato questa convinzione. A partire dalle intuizioni di Henri Poincaré, che già alla fine dell’Ottocento osservò comportamenti imprevedibili nel problema dei tre corpi in meccanica celeste, la comunità scientifica ha cominciato a riconoscere che l’imprevedibilità non è sempre il frutto dell’approssimazione, ma può essere una caratteristica intrinseca di un sistema perfettamente definito.
Il problema dei tre corpi – che alcuni potrebbero riconoscere nel titolo distopico della serie Netflix 3 Body Problem – è in realtà proprio quello affrontato da Poincaré: tre corpi che si attraggono reciprocamente secondo le leggi di Newton, ma che si comportano in modo imprevedibile nel tempo. Un sistema formalmente ordinato, eppure ingestibile sul piano predittivo.
In termini più tecnici, i ricercatori hanno scoperto che in questi sistemi le traiettorie che partono da condizioni iniziali quasi identiche tendono a separarsi in modo esponenziale nel tempo. È un comportamento che si può misurare con un parametro chiamato esponente di Lyapunov, dal nome del matematico russo Aleksandr Lyapunov che studiò la stabilità dei sistemi dinamici alla fine dell’Ottocento. Quando questo esponente è positivo, significa che anche la più piccola incertezza iniziale verrà amplificata col passare del tempo.
Non serve il caso: basta la non linearità. Nessuna previsione, per quanto raffinata, può restare affidabile oltre un certo orizzonte temporale.
È questa la vera portata del paradosso: l’ordine può produrre disordine, senza alcun bisogno di rumore esterno. Un sistema descritto da equazioni deterministiche può dar luogo a comportamenti che, essendo sensibili allo stato iniziale, diventano imprevedibili nel lungo periodo. Si tratta del c.d. effetto farfalla. È ciò che Lorenz dimostrò con il suo modello meteorologico, ed è ciò che accade in moltissimi sistemi dinamici: dall’orbita dei pianeti alla crescita di popolazioni biologiche.
Il paradosso, allora, è questo: più il sistema è formalmente ordinato, più il suo comportamento può essere caoticamente imprevedibile. Il caos non è la negazione della legge, ma il suo limite interno.
La prevedibilità come nuova “ossessione culturale”
Oggi viviamo in un’epoca in cui la previsione è diventata un’ossessione culturale. Con la crescita esponenziale dei big data e la diffusione dell’intelligenza artificiale, si è affermata l’idea che – con abbastanza informazioni e modelli sofisticati – sia possibile prevedere (e controllare) quasi ogni aspetto della realtà. Comportamenti di consumo, fluttuazioni di mercato, evoluzioni del clima, comportamenti umani: tutto sembra essere riducibile a una traiettoria analizzabile, un pattern da ricostruire.
Ma qui si cela una distorsione pericolosa. I modelli di intelligenza artificiale, per quanto potenti, non comprendono le informazioni che analizzano e, soprattutto, non forniscono risposte attendibili. Le simulano. Imparano correlazioni statistiche a partire da enormi quantità di dati, ma non distinguono causa da effetto, struttura da contingenza.
Costruiscono un ordine apparente a partire dalle informazioni di cui dispongono, da ciò che è già accaduto, ma non possono garantire che quell’ordine si ripeterà. È qui che il caos deterministico dovrebbe tornare a farci riflettere: perfino in un sistema determinato, il passato non è sempre un buon indicatore del futuro. Piccoli cambiamenti invisibili oggi possono produrre deviazioni macroscopiche domani. In un sistema non lineare, l’aver visto mille volte una certa sequenza non ci protegge dalla millesima, che potrebbe essere radicalmente diversa.
Più cresce la nostra fiducia nei modelli, più rischiamo di trascurare ciò che quei modelli non possono sapere. L’algoritmo vede un ordine nei dati storici e lo proietta nel futuro, ma non è in grado di cogliere le dinamiche caotiche che abitano la realtà. E così, anche se le previsioni possono apparire stabili… potrebbero crollare all’improvviso.
Nemmeno l’AI Act è immune al caos…
Il caos deterministico non è solo una teoria, buona anche per dar vita a personaggi come Ian Malcolm. È un insegnamento epistemologico.
Il caos ci obbliga a riconoscere che esistono limiti strutturali alla prevedibilità, indipendenti dalla nostra tecnologia, dalla nostra intelligenza, perfino da quella artificiale.
Anche con modelli perfetti e dati precisi, ci sono sistemi in cui il futuro resta indecifrabile. E questo non perché manchi qualche informazione, qualche dato, ma perché la realtà non è sempre lineare, né – tantomeno – docile.
In un mondo che si illude di poter ottimizzare tutto, il caos ci impone una pausa. Ci ricorda che non sapere non è sempre una colpa, e non prevedere non è sempre una mancanza. A volte è la natura stessa delle cose a rendere la previsione impossibile. Questa consapevolezza, lungi dal paralizzarci, dovrebbe renderci più responsabili – e soprattutto più umili.
Se non possiamo controllare tutto, però dobbiamo imparare a progettare nell’incertezza. Abbandonare le checklist e accogliere anche gli imprevisti come un dato di fatto.
Ora che in EU abbiamo scritto il primo regolamento al mondo sull’intelligenza artificiale, potremmo anche fare un passo indietro, rallentare, e ammettere che – almeno in parte – avevamo sbagliato a spalancarle le porte.
L’IA non può darci tutte le risposte e, forse, va governata meglio proprio per questo motivo (vedi anche: L’uva è acerba, lo dice Apple (giugno 2025)). Non è un caso se oggi si discute apertamente di posticipare alcune parti dell’AI Act europeo, come riportano fonti ufficiali della Commissione e della stampa internazionale (v. anche “Posticipare l’AI Act, perché l’idea non è più un tabù in Europa” | Wired Italia 14 giugno 2025).
Gli standard non sono ancora pronti, i codici di condotta sono in ritardo, e molti degli obblighi previsti rischiano di entrare in vigore senza che esistano davvero strumenti tecnici per rispettarli.
Ma forse, anche questo è un segnale. Il caos, ancora una volta, ci insegna che serve prudenza, umiltà. E che una buona regola non è quella che arriva per prima, ma quella che regge quando le cose non vanno come previsto.
La vera sfida, oggi, non dovrebbe essere quella di prevedere tutto: bensì sforzarsi di decidere meglio anche senza certezze. Perché il futuro non si calcola: possiamo solo attraversarlo. Con attenzione.
© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 16 Giugno 2025
Ultimo aggiornamento: 23 Giugno 2025
È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Arlo Canella
Managing & founding partner, avvocato del Foro di Milano e cassazionista, responsabile formazione e ricerca indipendente dello Studio CC®.