Donna calcolo computer

Cos’è ChatGPT: cos’è e quando si può usare

ChatGPT è il software del momento che piace a giovani e professionisti: grazie all’intelligenza artificiale scrive testi “personalizzati”, persino gli avvocati la usano per alcune istanze e denunce. Negli Usa, però, l’hanno vietato

Scrivere una tesina, ma anche fare calcoli complicati può essere difficile e sicuramente richiede tempo. Ma da qualche settimana, specie tra i giovani, spopola ChatGPT, una tecnologia rivoluzionaria.

ChatGPT: cos'è il nuovo software

ChatGPT è una piattaforma che sfrutta l’Intelligenza artificiale e permette proprio di realizzare testi che sembrano composti in tutto e per tutto da una persona.

Non si tratta di copiare pari-pari da un libro, come qualcuno faceva in passato, ma di rielaborare diverse fonti su uno stesso argomento, in modo quasi umano, tanto che molti insegnanti non se ne accorgono. «ChatGPT consente di fare ricerche istantanee tramite un browser interno che simula una chat. È in grado anche di riassumere testi, elaborarli ed è azionabile anche con un microfono. È evidente, quindi, che gli studenti la stiano utilizzando per “farsi dare una mano” nei compiti o nelle ricerche», conferma l’avvocato Marisa Marraffino, specializzata in ambito digitale e conoscitrice del mondo giovanile.

Negli Usa ChatGPT è al bando

Si tratta, quindi, di uno strumento utile, ma anche “pericoloso”, o almeno così è stato ritenuto negli Usa, dove lo stato di New York ha deciso di mettere al bando ChatGPT, lanciando un allarme che ora fa discutere anche in Italia. Le preoccupazioni riguardano «l’impatto negativo sull’apprendimento degli studenti e per la sicurezza e l’accuratezza dei contenuti», come ha chiarito Jenna Lyle, portavoce del Dipartimento dell’educazione di New York Jenna Lyle, che ha deciso di tornare alla vecchia carta e penna.

ChatGPT: come funziona

Realizzata da OpenAI, un’organizzazione no profit per la ricerca sull’intelligenza artificiale, ha come obiettivo principale quello di ottimizzare la conversazione: ha quindi molti usi, dal classico servizio clienti (tramite bot) alla traduzione linguistica, arrivando alla scrittura creativa. Ed è soprattutto in questo ambito che viene usato dagli studenti. Riesce, infatti, a produrre testi del tutto simili a quelli umani e soprattutto con uno stile molto vicino a quello dell’autore in carne e ossa, perché è in grado di imparare da lui. Insomma, non solo aiuta a scrivere una tesina, ma lo fa in modo personalizzato a seconda dell’autore che la “commissiona”.

Attenzione a non farsi scoprire

Come anticipato, questo strumento ha iniziato ad essere usato soprattutto negli Usa, per poi diffondersi di recente anche in Italia. Diversi docenti americani hanno quindi lanciato l’allarme, rimbalzato in Europa: Paul Taylor, professore di informatica medica della University of Central London nel Regno Unito, ha provato a utilizzare ChatGPT per rispondere a una domanda d’esame, per poi definire la risposta del bot come «Coerente, completa, e dritta al punto, cosa che spesso agli studenti non riesce». In altri casi analoghi, invece, le risposte risultavano grammaticalmente corrette, ma non nel contenuto. In ogni caso, non bisogna pensare di poter ricorrere a ChatGPT senza conseguenze, intanto perché si può essere smascherati. Usando un altro software della stessa OpenAI, infatti, si può capire esattamente quali testi sono stati composti dal bot. Ma non solo.

Microsoft vuole acquistare ChatGPT

Il cosiddetto Go8, ossia il gruppo delle otto università più importanti degli Stati Uniti, ha anche deciso che gli esami potranno essere sostenuti solo scrivendo con le vecchie carta e penna, anche perché si ritiene che questo strumento non aiuti l'apprendimento. Ciò non toglie che chatGPT ha sollevato interesse, tanto che la stessa Microsoft sembra interessata a inserire il software nel pacchetto Office (in particolare in Word) proprio come strumento per aiutare gli utenti in fase di scrittura o rifinitura, ad esempio suggerendo sinonimi o limando la composizione. Non solo: ChatGPT potrebbe essere acquistata proprio dalla società di Bill Gates per migliorare il motore di ricerca Bing, in modo da diventare più concorrenziale rispetto a Google (ad oggi il primo è usato solo dal 3% degli utenti, contro il 92% della grande G). E in Italia? Il software è legale?

In Italia quale reato si rischia?

«Sicuramente non si può copiare una tesi di laurea o un compito in classe: in questo caso si tratterebbe di violare il diritto d’autore, esattamente come accade senza intelligenza artificiale. In certi casi, quindi, l’uso di ChatGPT può essere un reato», spiega Marraffino, che però aggiunge: «Vietare la tecnologia  non serve e sarebbe anche anacronistico. Bisogna intanto conoscere i nuovi strumenti e poi spiegare ai ragazzi come usarli al meglio». Entrando nello specifico, «In Italia è ancora in vigore la legge n°425 del 1925 che si applica ad esempio a chi copia la tesi di laurea. Si tratta di un reato che prevede la reclusione da tre mesi a un anno. Nella maggior parte degli altri casi ci possono essere sanzioni civilistiche, amministrative o disciplinari – spiega l’avvocato Marisa Marraffino - Gli sviluppatori di questo tipo di servizi, poi, dovranno stare attenti a non veicolare stereotipi, contenuti potenzialmente offensivi o pericolosi».

Insomma, questo nuovo strumento apre anche una serie di interrogativi che vanno al di là del semplice rispetto delle norme in vigore oggi. D’altro canto, »Le responsabilità, come sempre, sono ripartite. Da un lato l’utente risponde delle proprie azioni, come quella di copiare testi, immagini o dati personali senza autorizzazione; gli sviluppatori potrebbero invece avere problemi per la violazione del GDPR o dei database protetti dal diritto d’autore», chiarisce Marraffino, che punta l’attenzione anche sul rispetto della privacy e il trattamento dei dati.

ChatGPT viola la privacy?

«Dal punto d vista più tecnico – prosegue l’esperta - bisogna semmai interrogarsi sull’algoritmo alla base di ChatGPT. Sarà interessante capire dove “pesca” le informazioni, ci potrebbe essere un problema di privacy legato semmai al rispetto del GDPR, cioè il regolamento europeo sul trattamento dei dati. Le persone dovrebbero sapere in che modi vengono trattati i dati. Non dimentichiamo, però, che già adesso esistono crawler molto sofisticati usati in Italia da molto tempo», spiega l’avvocato, riferendosi a quei software che analizzano i contenuti di una rete o di un database in maniera metodica e automatizzata, di solito per conto di un motore di ricerca come Google o Bing. «Proprio i motori di ricerca che usiamo tutti i giorni ne sono un esempio, così come molti strumenti di smart home. Da quello che ho visto finora ChatGPT non mi sembra violare i database dei siti che esplora, ma in linea teorica potrebbero esserci problemi legati al diritto d’autore. Col tempo questi strumenti verranno affinati, ma come sempre la tecnologia va più veloce della legge - prosegue l’avvocato - Possiamo risolvere i casi che si presenteranno, nell’attesa che un giorno ci siano delle norme universalmente riconosciute che rendano la tecnologia sempre più semplice e al servizio delle persone».

ChatGPT piace anche agli avvocati

«Per certi versi è uno strumento democratico di accesso alle informazioni, fa ricerche istantanee basandosi sulle notizie che trova in Rete. Il controllo umano, però, è fondamentale per fare selezione, approfondire e anche per evitare problemi legali, ma non c’è dubbio che potrà essere d’aiuto anche nelle professioni legali - spiega ancora Marraffino - In effetti per ora ChatGPT, che uso anche io, strizza l’occhio agli avvocati. Però è curioso leggere cosa risponde a chi gli chiede se potrà un giorno sostituirci». Lei stessa ha posto la domanda a ChatGTP e la risposta è stata questa: «No, non può. L’intelligenza artificiale è in grado di fornire consulenza legale in alcune situazioni, ma è ancora lontana dall’avere la capacità di sostituire un avvocato. L’avvocato ha una formazione specializzata, una conoscenza delle leggi e una comprensione della situazione per aiutare i clienti in modo appropriato. L’intelligenza artificiale non ha ancora raggiunto questo livello di complessità».

Riproduzione riservata