Sabato scorso volevo organizzare una gita. Un tempo avrei chiesto a un’amica, letto qualche sito web, perso ore a confrontare mete. Invece ho scritto a ChatGPT: “Idee per una gita di un giorno a un’ora da Brescia, in quattro amici, poco folla”. Ecco in 10 secondi l’itinerario pronto, pranzo incluso. Comodissimo. Ma mi è venuto un dubbio: sto diventando troppo pigra per cercare da sola? Oggi possiamo digitare qualsiasi domanda e ottenere una risposta in pochissimo tempo. È rassicurante, pratico, sorprendente. Ma… è sempre utile? Quali sono gli effetti a lungo termine di un uso quotidiano dell’intelligenza artificiale come fonte di “verità”, su noi stessi e sul mondo che abitiamo?

ChatGPT è l’app più scaricata al mondo

Per capire davvero l’urgenza di queste domande, partiamo da qualche dato. Nel mese di marzo 2025 ChatGPT è diventata l’applicazione più scaricata al mondo, superando Instagram e TikTok, con 46 milioni di nuovi download in un solo mese. Secondo Appfigures, l’IA generativa sta diventando quello che Google era negli anni 2000. E se nel 2022 si stimavano 10 milioni di query quotidiane rivolte al software di OpenAI dagli utenti di tutto il mondo, oggi i messaggi gestiti da ChatGPT hanno raggiunto il miliardo al giorno.

All’intelligenza artificiale le persone chiedono qualunque cosa. Capire meglio concetti complicati, trovare idee e farsi scrivere post per i social, tradurre testi, risolvere equazioni, organizzare viaggi, scegliere regali ed eseguire ricette di cucina, creare il CV, migliorare il sonno, generare immagini per vedersi da vecchie. E c’è persino chi affida al chatbot le proprie paure e i propri interrogativi più profondi, come fosse un terapeuta da cui farsi risolvere in qualche riga problemi sentimentali, amicizie complicate e fratture familiari. Del resto ChatGPT non giudica, ascolta sempre e – soprattutto – non ti lascia mai il visualizzato. Ha sempre l’ultima parola, ha sempre una risposta, per tutto e tutti. Ma è davvero un bene?

Quanto e come inquina ChatGPT?

Per l’ambiente, sicuramente no. L’intelligenza artificiale divora energia, necessaria per alimentare i server che la ospitano. Colossale è anche l’impatto ambientale legato all’addestramento dei vari modelli di IA nei data center sparsi nel mondo. Per insegnare loro a comprendere gli input di noi utenti, secondo le stime dell’Università del Massachussets riportate da QuiFinanza, vengono prodotte circa 280 tonnellate di anidride carbonica, quasi 5 volte le emissioni di un’automobile nel suo intero ciclo di vita.

Ogni volta che chiediamo qualcosa a ChatGPT, stiamo inquinando. Ogni volta che lei ci risponde, sta inquinando. Specie se siamo educati. Alcune settimane fa, infatti, il CEO di OpenAI Sam Altman ha dichiarato che l’azienda spende decine di milioni di dollari in elettricità perché le persone dicono “per favore” e “grazie” a ChatGPT. Come riportato da Entrepreneur, porre una domanda a ChatGPT o inviargli un messaggio richiede 10 volte più energia rispetto a eseguire una ricerca Google standard. Sempre la rivista statunitense ha segnalato che «l’IA richiede anche notevoli quantità d’acqua per raffreddare i server che la alimentano. Circa tre bottiglie da mezzo litro per generare un’email di 100 parole». Infine Geopop ha evidenziato che generare un’immagine con l’IA consuma, in pochi secondi, la stessa energia necessaria per caricare completamente uno smartphone. Eppure questa è solo una, gigante, conseguenza di un’intelligenza artificiale interpellata miliardi di volte al giorno.

L’effetto psicologico delle risposte “perfette” dell’IA

Tra le altre conseguenze, ci sono anche quelle che riguardano le nostre capacità cognitive, autoriflessive e relazionali. Ci siamo mai chiesti cosa succeda nella nostra mente quando riceviamo una risposta pronta e ben formulata, da una macchina? Che impatto può avere, a livello psicologico, il fatto di ricevere risposte immediate, sempre disponibili e preconfezionate dalle intelligenze artificiali? «La vera svolta non è solo nella loro capacità di rispondere rapidamente, ma nel fatto che lo fanno attraverso il linguaggio naturale, il segno distintivo dell’intelligenza umana» spiega Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all’Università di Tor Vergata e ricercatore nel campo dell’interazione tra esseri umani e IA conversazionali. «Questo ha innescato una serie di cortocircuiti cognitivi: non siamo biologicamente pronti a distinguere tra interazione umana e artificiale. Così finiamo per attribuire alle IA lo stesso statuto relazionale che riserviamo agli altri esseri umani, inclusa la fiducia. Quando un interlocutore digitale appare sicuro, coerente e persuasivo, tendiamo a credergli – a prescindere dalla qualità effettiva delle risposte. Col tempo, questo meccanismo si rinforza, spesso a scapito della profondità e dell’originalità del pensiero».

ChatGPT sa tutto? No, ma lo dice benissimo

Si verifica poi una distorsione cognitiva che si chiama Automation Bias. «Si manifesta quando ci fidiamo più delle decisioni di una macchina che delle nostre intuizioni o competenze, anche se sappiamo che può sbagliare» spiega Della Rocca. Quando riceviamo una risposta ben scritta da un’assistente virtuale come ChatGPT, potremmo pensarla più brava di quanto non sia realmente. «Questi sistemi sembrano parlarci con autorevolezza: danno risposte ordinate, numeriche, “oggettive”. E noi siamo portati a crederci proprio perché crediamo che i meri dati, in qualche modo, non possano mentire. Ma dobbiamo ricordare che i dati non sono mai neutri, e sono stati selezionati da esseri umani, con i loro pregiudizi, i loro stereotipi, le loro idiosincrasie».

E dobbiamo ricordare anche che, in realtà, ChatGPT non risponde, ma unisce risposte. Non “sa”, ma elabora linguaggio a partire da enormi quantità di dati e da probabilità statistiche. Può sbagliare. E, soprattutto, può apparire sicura anche quando non lo è. Sembra che l’intelligenza artificiale sappia tutto, perché restituisce risposte con sicurezza, linguaggio fluido e toni convincenti. Oltre che compiacenti e lusingatori. Pochi giorni fa il CEO di OpenAI Sam Altman ha dichiarato che sarebbero state apportate correzioni al modello di personalità di ChatGPT perché gli utenti hanno lamentato una positività eccessiva da sembrare adulazione, un entusiasmo così marcato da risultare seccante. Insomma, L’IA è così gentile da infastidire. Sembra un collega troppo zelante: sempre d’accordo, sempre sorridente, sempre con la risposta pronta. Sempre utile?

Il costo invisibile della comodità artificiale

Quando dobbiamo scrivere qualcosa, non avvertiamo quasi più il “blocco dello scrittore” davanti al foglio bianco, perché al suo posto c’è una bacchetta magica che promette di aiutarci. Quando cerchiamo qualcosa su Internet, Gemini – il modello di intelligenza artificiale sviluppato da Google – mi dà una risposta soddisfacente in un tempo ridicolo, risparmiandomi persino la “fatica” di scorrere la SERP in cerca dell’articolo che avrei valutato come più utile e autorevole. Su Amazon, per ciascun prodotto in vendita, l’IA genera in automatico una recensione riepilogativa che è risultato della sintesi di tutte le recensioni fornite dai clienti per quel prodotto: anche qui, “fatica” risparmiata. Ma quanto stiamo pagando questo risparmio?

Addio spaesamento: stiamo disimparando a pensare?

Una ragazza, in crisi pre-confessione, chiede a ChatGPT quali peccati ha commesso. Una scena social che fa sorridere, ma anche riflettere. Facciamo fatica persino a guardarci dentro o indietro, ci affidiamo all’IA per evitare il disagio di una riflessione personale. Appena sopraggiunge un dubbio, un incarico o un’inquietudine, restiamo poco tempo a galleggiare nello spaesamento se in lontananza vediamo lei, la boa: “Lo chiedo a ChatGPT”. È un pensiero-cuscinetto che se da un lato ci semplifica la vita, dall’altro si fa spazio (troppo?) tra noi e un mondo da indagare, scandagliare, mettere a soqquadro, anche a costo di restare soli e non del tutto capaci di riappendere i quadri ai muri e ripiegare tutto bene nei cassetti.

C’è il rischio che le persone arrugginiscano e inizino a evitare il dubbio, il confronto, la riflessione personale? «Sì, il rischio c’è, ed è già visibile – risponde Della Rocca – Se usiamo quotidianamente l’IA come fonte di notizie e informazioni “automaticamente vere”, finiamo per delegare a un sistema algoritmico non solo la ricerca di informazioni, ma anche il lavoro critico che dovrebbe restare nostro. L’IA ci risponde sempre, con tono sicuro e coerenza formale, ed è facile abituarsi a questa apparente autorevolezza. Ma così rischiamo di smettere di dubitare, confrontarci, riflettere davvero. Il dubbio richiede tempo, sforzo, ambiguità – tutte cose che l’IA tende a neutralizzare».

Lo spazio del dubbio: perché le domande contano più delle risposte

Su WhatsApp, Meta AI fornisce una rosa di ipotetiche domande da porle: non solo viene rimosso lo sforzo di darsi (o cercarsi) risposte, ma anche quello di individuare le domande giuste per sé. Eppure gli interrogativi dovrebbero provenire da un’osservazione di ciò che ci si muove attorno, o dentro. Senza contare che ci sono domande – esistenziali, personali, emotive – a cui l’intelligenza artificiale può offrire strumenti, punti di vista, magari conforto. Ma non verità ultime. E se la risposta giusta ancora nemmeno esistesse? Succederebbe una cosa bellissima: si aprirebbe spazio per la ricerca, la riflessione, il dubbio. Viviamo in una cultura che spesso premia le risposte pronte e la sicurezza, ma non dobbiamo avere sempre e necessariamente una risposta per tutto, partorire opinioni su ogni cosa, trovare una collocazione precisa e granitica per ogni nuovo elemento in cui ci imbattiamo.

L’IA può aiutare a fare ordine, suggerire percorsi, riformulare le domande. Ma le intuizioni vere spesso nascono proprio nella pausa, nell’attesa, nella mancanza.

Avere delle aree di dubbio o sospensione permette anche di ascoltare gli altri, cambiare idea, approfondire. «Il filosofo e psicologo John Dewey parlava dell’educazione come un processo basato sull’“incertezza esistenziale” – riflette Mattia Della Rocca – Per Dewey non esiste crescita o apprendimento che non si basi sulla necessità dell’essere umano di andare oltre i propri limiti, i quali sono di volta in volta scoperti e identificati a partire da una situazione problematica, all’interno della quale è molto più importante sapersi porre le giuste domande che saper trovare rapidamente le risposte».

Quando l’IA pensa per noi: il rischio della delega eccessiva

«Parlare di “dipendenza” cognitiva dall’IA sarebbe forse un po’ eccessivo, anche se il termine riflette bene il clima di apprensione che accompagna ogni nuova tecnologia. È un vecchio copione: a ogni svolta tecnologica emergono entusiasmi e paure, spesso in egual misura» spiega Della Rocca. «Più che una dipendenza clinica, il rischio è una progressiva deresponsabilizzazione cognitiva: abituarsi a delegare all’IA anche funzioni che non le competono davvero. Pensiamo all’uso di ChatGPT come “terapista” o consigliere personale: per quanto possa offrire risposte articolate e rassicuranti, non può sostituire un vero contesto relazionale umano. Eppure, l’abitudine a usarla sempre, per tutto, può portare a una forma di automatismo mentale che riduce lo spazio del dubbio, dell’errore, della riflessione – cioè esattamente lo spazio in cui si esercita il pensiero» conclude l’esperto.

Pensare l’IA per pensare meglio, non per pensare meno

Come si fa a non trasformare l’IA in una sorta di “stampella automatica”, comoda com’è? Lo chiedo a Mattia Della Rocca. «Mi piace sempre ricordare una frase che di volta in volta viene attribuita ad Alan Turing o a John von Neumann, ma che probabilmente è solo la sintesi di un pensiero comune tra chi l’Intelligenza Artificiale l’ha resa possibile sin dalle origini: “Molti pensano che i computer siano macchine intelligenti per persone stupide, quando invece sono macchine stupide per persone intelligenti”. Dovremmo ricondurre l’Intelligenza Artificiale a ciò che di fatto è, vale a dire uno strumento estremamente utile per chi voglia farne un uso intelligente e consapevole, dunque necessariamente basato sul senso critico. Questo significa educare fin dalla scuola dell’obbligo le nostre ragazze e i nostri ragazzi all’IA in modo che ne comprendano le dinamiche di funzionamento».

L’intelligenza artificiale è uno specchio che riflette ciò che le chiediamo e come, e quanto siamo disposti a pensare prima di farlo. La domanda più importante non è quella che rivolgiamo all’IA, ma quella che lei rivolge sempre a noi – rassicurante, invitante e ruffiana – quando la apriamo sui nostri smartphone: “In cosa posso essere utile?”. Rivolgiamola a noi stessi. Tornando a formulare domande vere, senza pretendere risposte perfette, forse possiamo evitare che la tecnologia ci risparmi l’umanità che (re)sta nel dubbio, nella ricerca, nella fatica di pensare.