I.A. 2025, come la stanno usando gli italiani

Tempo di lettura: 10 minuti

Abstract

Nel 2025, un quinto degli italiani tra i 18 e i 74 anni — quasi 9 milioni di persone — ha usato ChatGPT almeno una volta nel mese. L’intelligenza artificiale generativa si sta diffondendo rapidamente, non solo nel business, ma l’analisi dei comportamenti reali rivela un uso ancora funzionale, intermittente, legato a esigenze pratiche più che a un’integrazione stabile nella quotidianità. Fanno eccezione i più giovani, che passano anche venti ore al mese a dialogare con chatbot, facendo nascere più di qualche preoccupazione, in cerca di interazioni affettive o creative. Sul fronte delle imprese, la corsa all’adozione dell’IA è spesso più “sbandierata” che governata: le competenze digitali sono ancora molto deboli, e molte implementazioni restano superficiali. Questo articolo analizza come sembra che stiano utilizzando l’IA gli italiani sulla base dei dati disponibili e i pareri degli esperti.

Gli italiani la usano, ma non lo ammettono

Ad aprile 2025, quasi 9 milioni di italiani hanno utilizzato ChatGPT almeno una volta, secondo i dati Audicom analizzati da Vincenzo Cosenza. Un italiano su cinque, tra i 18 e i 74 anni, ha dunque interagito con l’applicazione di OpenAI in quel mese (fonte: ChatGpt usato da quasi 9 milioni di italiani, giovani su Character AI – Notizie – Ansa.it).

Ma oltre al numero, è interessante guardare chi sono questi utenti. I chatbot generativi – come ChatGPT, Gemini e Copilot – si stanno diffondendo trasversalmente, ma con concentrazioni significative che raccontano molto su come e perché vengono usati.

La fascia 18-24 anni registra la penetrazione più alta: il 35% dei giovani utilizza ChatGPT, e tra gli studenti la percentuale sale al 37%. Le ragioni sono intuitive: scrivere testi, fare riassunti, tradurre, ottenere supporto nello studio. In questo contesto, l’IA è uno strumento di apprendimento.

Al contrario, Gemini e Copilot mostrano un bacino d’utenza più maturo, tra i 35 e i 54 anni, o anche oltre i 45. Probabilmente perché meglio integrati negli ecosistemi Google e Microsoft, oppure legati ad abitudini lavorative consolidate.

Ma attenzione: i dati ufficiali fotografano solo la superficie del fenomeno.

Nel mondo del lavoro, dichiarare apertamente l’uso dell’intelligenza artificiale può ancora generare resistenze. Molti temono che venga percepita come un’intelligenza “altra”, esterna, che riduce l’autonomia o intacca l’originalità del contributo umano. Così, l’uso dell’IA resta spesso sommerso, taciuto.

È una tecnologia che si usa, ma non si racconta. E dunque, se le rilevazioni parlano di milioni di utenti, quelli reali potrebbero essere molti di più. Come in quella vecchia canzone: “Si fa, ma non si dice…

Le app di intelligenza artificiale sono davvero entrate nella vita quotidiana?

Guardare solo al numero degli utenti può essere fuorviante.

Per capire se l’intelligenza artificiale generativa stia davvero diventando parte delle abitudini quotidiane, occorre chiedersi quanto tempo vi si dedica, e con quale frequenza.

Qui il dato cambia la prospettiva. Nonostante i quasi 9 milioni di utenti, ChatGPT viene usato in media solo per 1 ora e 48 minuti al mese (aprile 2025). Un tempo contenuto, che suggerisce un uso ancora episodico, più vicino all’esperimento che alla routine.

Ma attenzione: il tempo ridotto non equivale a disinteresse.

Anzi. Molti italiani sembrano utilizzare ChatGPT per lavorare in accelerazione: generare testi, riscrivere email, ottenere sintesi rapide, trovare spunti. In questi casi, l’intelligenza artificiale è percepita come uno strumento puntuale: si consulta, si ottiene ciò che serve, si archivia.

A differenza di altre app, qui l’obiettivo non è passare il tempo, ma risparmiarlo.

Le alternative a ChatGPT – come Google Gemini, Microsoft Copilot o Deepseek – mostrano tempi di utilizzo ancora più brevi, tutti inferiori a un’ora al mese. Questo conferma che, almeno per ora, l’IA generativa viene impiegata come supporto operativo, non come “compagno di lavoro” costante.

Non siamo ancora davanti a un vero cambio strutturale nei comportamenti digitali degli adulti.

L’unica eccezione rilevante riguarda i più giovani – e in particolare una nicchia crescente di utenti che, con i chatbot, instaurano relazioni emotive continue, dando vita a fenomeni che preoccupano psicologi, educatori e regolatori.

Iscriviti alla newsletter dello studio legale Canella Camaiora.

Resta aggiornato su tutte le novità legali, webinar esclusivi, guide pratiche e molto altro.

Compagni artificiali: l’ascesa (e i rischi) per i più giovani

Negli ultimi anni, le piattaforme di AI companion – come Replika e Character.AI – hanno trasformato il rapporto tra essere umano e macchina. A differenza dei social media, che mediano relazioni tra persone, questi chatbot mirano a sostituire la presenza dell’altro, modellandosi sui desideri e bisogni dell’utente.

Un rapporto di settore pubblicato nel 2025 conferma il boom: milioni di persone, in tutto il mondo, utilizzano AI companion come forma di compagnia quotidiana, ben oltre l’assistenza tecnica. Le previsioni indicano una crescita costante fino al 2032.

Il coinvolgimento è soprattutto emotivo. Le interfacce sono progettate per rispondere a segnali sociali: tono di voce, risposte empatiche, memoria dei dialoghi. Tutto concorre a un’illusione di intimità, che porta l’utente a credere che il bot “comprenda” davvero – e non sia solo un algoritmo (fa riflettere lo studio Illusions of Intimacy condotto dalla USC Information Sciences Institute nel 2025).

In Italia, Character.AI conta circa 119.000 utenti mensili, ma con un dato sorprendente: il tempo medio di utilizzo sfiora le 20 ore al mese – più di qualsiasi altra app di intelligenza artificiale generativa. L’utenza è composta prevalentemente da giovani donne tra i 18 e i 24 anni, in cerca di relazioni empatiche, sicure, prive di conflitto.

Ma è proprio in questa intensità emotiva che si annidano i rischi.

Diversi studi segnalano casi di dipendenza, regressione psicologica, isolamento e perfino suicidio. Un’indagine longitudinale sugli adolescenti mostra che tra il 17% e il 24% degli utenti giovani sviluppa un attaccamento disfunzionale, legato a ansia, solitudine e fuga dalla realtà.

Un caso ha scosso l’opinione pubblica nel 2024: il suicidio di un quattordicenne, rimasto coinvolto in una relazione intensissima con un bot di Character.AI. La sua famiglia ha scelto di raccontare pubblicamente la storia, denunciando un pericolo ancora sottovalutato (l’esclusiva è di People e risale al 14 novembre 2024 – Why Grieving Family Went Public with Teen’s Addiction to AI Bot, Which They Blame for His Suicide (Exclusive).

La posta in gioco è alta: l’economia dell’attaccamento sta sostituendo quella dell’attenzione. Non si tratta più solo di trattenere l’utente, ma di costruire legami emotivi su misura – con effetti che possono compromettere le capacità relazionali e empatiche, specialmente nei più fragili.

Alcuni enti – come eSafety Australia – stanno proponendo sistemi di monitoraggio emotivo automatico per rilevare segnali di rischio (stress, linguaggio suicidario, isolamento) e attivare meccanismi di protezione o di intervento umano.

Sul piano giuridico, si delineano due possibili direzioni:

  • Applicare il GDPR e l’AI Act per tutelare i minori e prevenire manipolazioni emotive;
  • Introdurre una responsabilità civile del produttore, secondo i principi della product liability, considerando difettoso un chatbot che provoca danni psicologici rilevanti.

Altro nodo critico: la trasparenza. Molti AI companion raccolgono dati sensibili (testi, audio, perfino lo stato psichico) senza un reale consenso informato, esponendo l’utente a rischi di violazione della privacy (consigliamo l’approfondimento di B. Galderini su Agenda Digitale “AI companion e dipendenza emotiva: una sfida normativa urgente”).

Alla fine, la domanda è scomoda ma inevitabile: che tipo di relazione siamo disposti a intrattenere con entità artificiali progettate per legarsi a noi emotivamente? (vedi “AI Chatbots Are Telling People What They Want To Hear. That’s a Huge Problem” su Vice dell’8 giugno 2025).

Serve una nuova consapevolezza culturale, giuridica ed etica. Perché il confine tra compagnia e dipendenza sta diventando sempre più sottile.

L’AI si impenna nelle PMI italiane (ma soprattutto a parole)

Mentre i più giovani cercano conforto emotivo nei dialoghi con chatbot generativi, il mondo del lavoro ha imboccato un’altra direzione. Apparentemente più pragmatica, ma non meno radicale.

Dopo anni di sperimentazioni isolate, l’intelligenza artificiale generativa ha fatto ingresso nelle aziende italiane — e lo ha fatto a una velocità che, fino a poco tempo fa, sembrava impensabile.

Anzi: le imprese, quando possono, lo dichiarano con entusiasmo.

L’IA è diventata un vessillo da esibire nei pitch, nei bilanci, nei convegni. Ma spesso si tratta più di comunicazione che di trasformazione. Lo conferma un dato strutturale: meno del 46% degli italiani possiede competenze digitali di base. Il rischio è che l’IA si riduca a un’etichetta, invece che diventare davvero un motore di cambiamento.

Eppure, l’adozione cresce: secondo Amazon Web Services, ogni 75 secondi un’impresa italiana integra una soluzione basata su IA, con un incremento del 30% rispetto al 2024. Confindustria segnala applicazioni concrete nei settori HR, progettazione, produzione, gestione documentale e manutenzione predittiva.

Tra le grandi imprese, oltre il 60% ha già realizzato almeno un progetto (Edunews24). Le PMI, invece, restano più indietro: l’adozione effettiva si ferma attorno all’8%. Ma se si considerano anche gli usi informali o non sistematici, il potenziale reale supera il 40% (Eritel).

I settori più dinamici? Manifattura e bioscienze, dove l’IA serve ad accelerare l’innovazione, ridurre gli errori e affinare i processi (PR Newswire). Tuttavia, senza una strategia chiara e una formazione adeguata, l’adozione resta fragile. Integrare davvero l’intelligenza artificiale richiede governance, cultura organizzativa e competenze diffuse.

Il confronto con gli Stati Uniti è netto: il 91% delle medie imprese americane ha già adottato l’IA generativa, e un quarto l’ha integrata nei processi core. L’Italia viaggia — sì — ma spesso più a parole che con i fatti.

Chi si occupa oggi di impresa dovrebbe smettere di chiedersi “se” ha senso usare l’IA. La domanda giusta è un’altra: come utilizzare l’IA?

L’intelligenza artificiale può accelerare i processi, favorire la creatività, migliorare l’analisi. Ma non è una bacchetta magica, né una soluzione universale. Troppo spesso viene sventolata come simbolo di innovazione, senza che l’uso effettivo sia all’altezza delle dichiarazioni.

Lo stesso white paper di Apple, The Illusion of Thinking, lo denuncia: i modelli IA non ragionano, imitano pattern. E di fronte a compiti complessi, la loro “catena di pensiero” si accorcia. Un vero collasso strutturale sotto pressione (approfondisci: L’uva è acerba, lo dice Apple | giugno 2025 | Canella Camaiora).

È quello che abbiamo già scritto in Cosa direbbe Ian Malcolm dell’intelligenza artificiale: l’ossessione per la previsione ci illude che l’IA possa controllare il futuro, quando in realtà è fragile, opaca, imprevedibile.

Per questo, chi lavora con strumenti generativi deve sempre tenere fermi tre principi fondamentali:

  • Comprendere i limiti tecnici: non tutto può essere automatizzato.
  • Assicurare la supervisione umana: soprattutto nelle decisioni critiche.
  • Promuovere una cultura competente ed etica: perché l’IA sia un mezzo, non un oracolo.

L’intelligenza artificiale può potenziare il pensiero umano, ma non può sostituirlo (approfondisci: l’AI funziona davvero come il cervello umano?). Non è neutra, non è infallibile — e, soprattutto, non è umana.

Serve il nostro senso critico. Serve, ancora una volta, il nostro senso della realtà (leggi anche: L’IA è solo uno specchio e ci ricorda quanto siamo umani).

© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 3 Luglio 2025

È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Avv. Arlo Cannela

Arlo Canella

Managing & founding partner, avvocato del Foro di Milano e cassazionista, responsabile formazione e ricerca indipendente dello Studio CC®.

Leggi la bio
error: Content is protected !!