Colpa di ChatGPT. Quante volte lo si è sentito ripetere, soprattutto da quando l’intelligenza artificiale si è diffusa, anche nella realizzazione di testi. Ma fin dove arriva la responsabilità “umana” di chi posta messaggi d’odio e dove invece interviene lo strumento? Insomma, quando può essere colpa di ChatGPT? Quali le responsabilità quando si ricorre ai chat bot?

Il caso dell’insegnante di Napoli

L’interrogativo, già nell’aria, è diventato esplicito dopo il caso del professore che in un post sui social ha invocato la stessa fine di Martina Carbonaro (la ragazzina di 14anni uccisa dall’ex fidanzato ad Afragola) anche per Ginevra, la figlia della premier Giorgia Meloni. Il docente, che ha poi cancellato le frasi, si è scusato, spiegando di aver realizzato dopo poche ore la gravità di quanto pubblicato, ma citando in causa anche ChatGPT, a cui si sarebbe rivolto per realizzare il testo.

Le scuse e le “colpe” a ChatGPT

L’uomo, che insegna in un istituto superiore a Marigliano in provincia di Napoli e che di recente aveva già postato messaggi di dura critica politica nei confronti del Governo, ha anche spiegato il gesto addossando parte della responsabilità a uno dei più noti chat bot che si avvalgono di AI per la realizzazione di testi (gli stessi il cui uso è vietato in molte scuole nel mondo): «Non sono stato io a ideare il messaggio, è stata l’intelligenza artificiale». In ogni caso, dopo ha tentato il suicidio.

AI: può davvero scrivere ciò che vuole?

In realtà l’AI può scrivere testi, ma la decisione se pubblicare o meno resta dell’utente: «Affermare che la responsabilità dei contenuti non è di chi posta un contenuto è un tentativo di scaricare la propria responsabilità», precisa l’avvocato Marisa Marraffino, esperta di digitale. «Non esiste una delega di funzione, per cui si è sollevati dalla responsabilità dell’uso di ciò che è prodotto da uno strumento. È un tema di cui si discute molto anche nei convegni tra avvocati: l’uso dei software deve sempre avvenire sotto controllo umano. Diverso è il discorso per le responsabilità dei programmatori», sottolinea ancora Marraffino.

Cos’è il principio di precauzione

«In questo caso esiste il principio di precauzione, per cui non si può mettere in commercio un software che potrebbe essere eccessivamente pericoloso. Un esempio pratico riguarda un ipotetico sistema di guida autonoma che possa confondere i colori dei fiori con quelli dei semafori, per esempio. Esistono rischi consentiti e non consentiti. Ma nel caso di software regolarmente in commercio o in uso, come ChatGPT o simili, è l’utente che li usa (per esempio per realizzare testi, foto o video) che si assume la responsabilità della destinazione di quei contenuti», conferma l’avvocata.

ChatGPT come i social: quali usi e responsabilità

Il principio è lo stesso che governa anche l’accesso e l’uso dei social: «Si tratta di piattaforme, di strumenti che aggregano dati, che possono essere anche d’aiuto, ma non devono sostituire l’essere umano e le sue valutazioni – spiega Marraffino – Di recente sono stati implementati i controlli sull’AI: per esempio, i principali social non permettono di condividere contenuti illeciti, violenti o che incitano alla violenza, volgari o parolacce. È cresciuta la sensibilità degli sviluppatori nell’essere il più etici possibile. Restano, però, zone d’ombra, come la possibilità di creare immagini pedopornografiche».

L’utente è sempre responsabile di ciò che pubblica

Nel caso del docente di Napoli, che ha poi tentato il suicidio perché sommerso da critiche e minacce, in precedenza si era difeso, spiegando: «Avevo visto in tv che il Governo non si dissociava dalla guerra di Israele: ho chiesto a ChatGPT di mandarmi un messaggio contro Meloni. Ed è uscita quella cosa pazzesca. L’ho pubblicata». «Questo non diminuisce la sua responsabilità, che è dolosa: se leggo un contenuto e lo condivido, è una mia decisione», conferma l’avvocata. Ma quali sono i reati nei quali si può incorrere?

Che reati si rischiano

«I reati sono identici, sia che il messaggio sia scritto dall’utente, sia che questo ricorra a un chat bot: per esempio, la diffamazione aggravata da hate speech, come previsto da legge Mancino per l’odio razziale. Esattamente come quando si condivide un post creato da altri utenti fisici, come un messaggio offensivo contro chiunque, così si rischia il concorso di persona in reato che prevede che ci sia una responsabilità condivisa. Se leggo un post e intenzionalmente decido di ripostarlo, non posso dare la responsabilità ad altri. Si può configurare anche il reato di molestie (se chiedo al software di creare messaggi molesti), atti persecutori a mezzo social network, stalking, sostituzione di persona (se creo falsi profili o realizzo false foto tramite software, come per il deep nude)», chiarisce Marraffino.

L’uso di ChatGPT va sempre dichiarato

Attenzione anche all’uso di certi software da parte dei professionisti: «C’è stato il caso di un avvocato di Firenze che qualche mese si era accorto che la controparte si era avvalsa di ChatGPT, che però aveva citato sentenze inventate. Il titolare dello studio si era difeso, spiegando che era stata un’iniziativa di una assistente, senza una supervisione. Ma i professionisti hanno un obbligo di vigilanza, devono controllare e, soprattutto, esistono protocolli che prevedono che si avvertano gli stessi clienti che si utilizzano software come ChatGPT. D’altro canto anche i clienti potrebbero presentare documenti o foto realizzati con l’AI e quindi anche noi siamo chiamati a essere sempre più preparati, come a scuola e in altri ambiti».

I software per smascherare ChatGPT

Molte scuole e università, soprattutto negli Stati Uniti ma non solo, hanno infatti vietato il ricorso ai ChatGPT per scrivere testi, tesi di laurea, ecc., e usano software in grado di smascherarli: «Ne esistono sempre di più e sempre più sofisticati, anche in Italia, nonostante non ci sia una legge che vieti l’uso in modo esplicito in ambito didattico, per esempio. Alcuni istituti hanno messo a punto linee guida, proprio come avviene per il divieto di smartphone in aula – chiarisce Marraffino – È chiaro che l’uso improprio può far incorrere in note disciplinari o anche bocciature, a seconda dei casi, o può portare a violare il copyright se si utilizzano in modo illecito testi che ne sono coperti. Quanto all’esame di maturità, valgono la circolare del Ministero sui dispositivi elettronici».

I rischi per la privacy

Secondo Marraffino questi strumenti non vanno comunque demonizzati, ma «utilizzati in modo trasparente ed etico, laddove consentito. C’è sicuramente, però, un problema di privacy: se vi si caricano, per esempio, i dati personali di un cliente in ambito legale, per facilitare una ricerca e raccolta di dati riguardo a un caso analogo, rimane il dubbio relativo al trattamento di quei dati, perché non è ancora del tutto chiaro come avvenga. Per questo si sta andando nella direzione di dotarsi di una normativa strutturata, che dovrebbe ricalcare il regolamento europeo. Al momento c’è un disegno di legge in Parlamento e auspichiamo che possa diventare realtà al più presto. Nel frattempo occorre insegnare a tutti a usare queste tecnologie in modo attivo e non passivo, non prendendo per buono tutto ciò che fornisce, ma analizzandolo e verificandolo, in modo consapevole e responsabile».