Annegheremo nei contenuti AI generated?

Tempo di lettura: 7 minuti

Abstract

L’intelligenza artificiale ha reso la scrittura quasi senza sforzo: articoli, post, persino libri si generano in pochi secondi. Ma questa facilità rischia di travolgerci in una sovrabbondanza di contenuti sempre più simili tra loro, spesso percepiti come privi di autenticità. È l’information overload 2.0: più testi, meno fiducia, meno attenzione. Gli studi accademici ci mostrano due strade. Da un lato, l’urgenza di sviluppare metriche di trasparenza, capaci di misurare quanta “umanità” resta dentro i testi generati dalle macchine. Dall’altro, la possibilità di vedere i modelli di AI come una cristallizzazione della conoscenza collettiva, patrimonio comune da usare in sinergia con l’uomo. Resta però una domanda inevitabile: in un mondo dove scrivere è facile ma approfondire resta faticoso, avremo ancora la volontà e la responsabilità di tenere in mano il timone?

Quello strano rischio di affogare nella “spazzatura semantica"

Scrivere non è più faticoso. Per secoli lo è stato: ore di lavoro, bozze, correzioni, frustrazioni. Oggi basta un prompt e in pochi secondi hai in mano un articolo, un comunicato, persino un racconto. Il problema non è più produrre, ma orientarsi in questa crescita senza limiti di testi e parole. Ogni giorno vengono riversati online podcast, video, articoli, meme, recensioni. E sempre più spesso non sono del tutto umani.

Il rischio è semplice da immaginare: annegare nei contenuti AI generated. È come trovarsi in una biblioteca che cresce di migliaia di scaffali al giorno, ma in cui i libri si assomigliano tutti. La quantità aumenta, la qualità non necessariamente.

Su questo punto ci conforta uno studio uscito nel 2025, The Impact of Generative AI on Social Media: An Experimental Study, realizzato da ricercatori tra la Danimarca e gli Stati Uniti. Gli autori hanno ricreato una sorta di social media in miniatura e vi hanno fatto interagire 680 partecipanti statunitensi, suddivisi in piccoli gruppi di discussione. Alcuni gruppi avevano strumenti di AI integrati (chat assistant, suggerimenti di risposta, “conversation starter” o feedback sui commenti), altri no. L’obiettivo era capire come cambia la conversazione quando ci facciamo aiutare dalle macchine.

Il risultato? Inequivocabile. Gli utenti con l’aiuto dell’AI scrivevano di più, producevano commenti più lunghi e partecipavano più volentieri. Ma per chi leggeva, la musica era diversa: quei testi risultavano meno autentici, meno informativi, più generici. Gli stessi autori lo scrivono senza mezzi termini: “Gli interventi dell’AI ampliano la partecipazione e aumentano il volume dei contenuti, [ma] rischiano anche di creare ‘spazzatura semantica’, percepita come di qualità inferiore rispetto ai testi prodotti dagli esseri umani”.

Ecco la trappola: più scriviamo grazie all’AI, meno verremo letti. Una sovrabbondanza che rischia di spingerci ancor più a guardare solo titoli e prime righe, come naufraghi che annaspano in cerca di un appiglio.

Si può davvero misurare quanta “umanità” c’è dentro un testo?

L’uomo ha sempre cercato scorciatoie. Pensare e scrivere richiede fatica, ma se c’è un modo per risparmiare energie, lo adotteremo. È nella nostra natura. L’AI da questo punto di vista è lo strumento perfetto: suggerisce, corregge, sintetizza. Produce testi senza esitazioni, abbattendo ogni barriera di tempo e competenze.

Ma qui sorge il problema: come facciamo a distinguere un contenuto autentico, affidabile, da un contenuto che semplicemente “fa schifo”? La sovrabbondanza informativa ci espone a un rischio nuovo: non solo l’inganno deliberato delle fake news, ma anche il rumore indistinto di testi tutti uguali, vuoti, senza spessore. È l’information overload 2.0, e ci disarma proprio mentre pensiamo di essere più informati che mai.

Un gruppo di ricercatori giapponesi (University of Tokyo e National Institute of Informatics) ha provato ad affrontare questo nodo. Nel loro studio del 2025, Measuring Human Involvement in AI-Generated Text, hanno criticato la logica binaria dei detector: non ha senso dire “questo è umano” e “questo è AI”. La realtà è molto più sfumata, perché i contenuti ormai sono quasi sempre ibridi. Gli autori lo dicono chiaramente: “I rilevatori binari faticano a identificare con precisione i testi generati dall’AI o a quantificare il contributo umano negli scenari che coinvolgono una collaborazione uomo-macchina”.

Per questo propongono un nuovo approccio: misurare quanta umanità c’è dentro un testo. Hanno creato un dataset con decine di migliaia di articoli generati a vari gradi di collaborazione uomo-macchina, e con un modello di linguistica computazionale (RoBERTa) sono riusciti a stimare la percentuale di contributo umano, arrivando a identificare persino quali parole fossero state aggiunte dall’autore.

È un’idea che colpisce. Forse il nuovo valore non sarà tanto dichiarare “questo l’ha scritto una persona”, ma rendere trasparente il livello di coinvolgimento umano. Una metrica di autenticità, un bollino capace di distinguere il contenuto che ha dietro l’intenzione e la responsabilità di qualcuno, dal contenuto puramente automatico. In un mare in tempesta, sarebbe come avere una bussola.

Iscriviti alla newsletter dello studio legale Canella Camaiora.

Resta aggiornato su tutte le novità legali, webinar esclusivi, guide pratiche e molto altro.

L’era dei contenuti dis-interessanti

C’è un rischio che non dobbiamo sottovalutare: quello del disinteresse. Quando i contenuti diventano troppi e troppo simili, l’essere umano può decidere di gettare la spugna. In fondo, parlare oggi è facilissimo. Scrivere lo è quasi altrettanto: un clic e l’AI ti mette in fila un testo sensato, ben formattato, magari persino accattivante.

Ma c’è un elefante nella stanza: studiare e approfondire restano faticosi. L’AI può ridurre la frizione della produzione, ma non può togliere all’uomo la responsabilità di capire, contestualizzare, riflettere. E questo, in una cultura che ormai si accontenta di titoli e prime righe, rischia di diventare un ostacolo insormontabile.

L’effetto collaterale è che la conversazione pubblica si allunga, sbrodola, ma si svuota di profondità. Tutti parlano, tutti commentano, tutti generano, ma pochi riescono a capire, cogliere gli spunti, andare a fondo.

È il paradosso della nostra epoca: produrre contenuti non costa nulla, comprenderli costa moltissimo. A volte si ha la sensazione di navigare sul web, cercando materiale interessante come si cerca un pezzo di valore in un mercatino dell’usato… gira che ti rigira, sono per lo più cianfrusaglie logore.

In mezzo alla confusione ci si muove con fatica, più distratti, ed è più difficile fare caso al senso di quello che viene detto. E se nessuno ha più voglia di studiare, il risultato non è un arricchimento, ma un impoverimento culturale.

Cristallizzazione della coscienza collettiva o impoverimento culturale

L’ultimo rischio è forse il più insidioso: quello di ridurre il nostro pensiero a un “sistema zero”, fatto di contenuti già premasticati. È la tentazione di accontentarsi di un riassunto automatico, di una panoramica generata in pochi secondi, di un’overview appunto, senza più passare dall’approfondimento.

Già nel mio articolo L’AI Act ha ucciso il copyright avevo scritto che il plagio è ormai una linea che viene attraversata dietro le quinte: i sistemi generativi si nutrono di opere protette e il confine tra originale e derivato si dissolve, quasi senza che ce ne accorgiamo. È un dato di fatto che apre scenari inediti sul senso stesso di creatività e autorialità.

Su questo punto, i ricercatori del Valencian Research Institute for Artificial Intelligence hanno proposto una visione diversa. Nel loro preprint del 2025, We Are All Creators, spiegano che i modelli di AI generativa non vanno intesi come macchine che rubano, ma come una cristallizzazione della conoscenza collettiva umana: ciò che producono è il risultato della sedimentazione di ciò che tutti noi abbiamo immesso nel flusso digitale. Scrivono: “Rather than pursuing futile legal restrictions, this paper advocates for a pragmatic shift towards human–AI synergy” (trad. mia: “Invece di rincorrere restrizioni legali destinate a fallire, il paper invita a un cambio pragmatico verso la sinergia uomo–AI”). È una prospettiva affascinante, perché ridisegna il concetto stesso di creatività come patrimonio comune, in linea con l’interpretazione del giudice Alsup nel recente caso Anthropic (approfondisci: Claude studia, non copia: il giudice assolve Anthropic in US – Bartz v. Anthropic, ord. 23.06.2025 – Canella Camaiora).

Eppure non possiamo ignorare quanto affermato dai ricercatori dell’Università Cattolica del Sacro Cuore nello studio pubblicato su Nature Human Behavior nel 2024 (cfr. The case for human–AI interaction as system 0 thinking | Nature Human Behaviour). È lì che è stato introdotto il concetto di Sistema 0: una nuova forma di pensiero “esterno”, che l’AI ci mette a disposizione come un hard disk cognitivo, capace di elaborare enormi quantità di dati ma privo di significato intrinseco. Senza la supervisione dell’uomo, avvertono gli autori, il rischio è quello di perdere autonomia cognitiva e di rinunciare al pensiero critico.

Forse il futuro sarà davvero, come sperano i colleghi di Valencia, una sinergia uomo–AI. Io lo spero. Ma, come sottolineavo già nel mio precedente articolo, non dobbiamo dimenticare che il timone deve restare nelle mani dell’uomo. Possiamo lasciarci aiutare dall’AI per liberare tempo e risorse, ma il compito di studiare, approfondire, verificare e soprattutto di essere responsabili di ciò che pubblichiamo resta nostro.

Perché in questi tempi di sovraccarico cognitivo 2.0, il rischio non è solo di perdere tempo: è di prendere decisioni sbagliate, di isolarci, di smettere di ascoltare, di dialogare soltanto con le macchine.

L’AI è inevitabile, è già dentro la nostra cultura digitale. Ma se ci accontentiamo del “Sistema 0”, di contenuti precotti e privi di profondità, non avremo conquistato una sinergia uomo–AI: avremo solo perso la voglia di pensare.

Il futuro non ci chiede di scegliere tra uomo e macchina: ci sta sfidando. Con l’AI, l’umanità avrà ancora la voglia di pensare?

© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 2 Settembre 2025

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Avv. Arlo Cannela

Arlo Canella

Managing & founding partner, avvocato del Foro di Milano e cassazionista, responsabile formazione e ricerca indipendente dello Studio CC®.

Leggi la bio
error: Content is protected !!