ChatGPT: limitazione provvisoria da parte del Garante per la protezione dei dati personali (di Vincenzo Giglio)

Era già diventata un argomento virale, quasi tutti ne avevano sentito parlare e molti avevano cominciato a sperimentarla per poi (gli entusiasti) stupirsi delle sue capacità oppure (gli scettici) convincersi che è solo uno stupido giocattolino.

Si parla di ChatGPT (Chat Generative Pre-trained Transformer), un software di intelligenza artificiale relazionale o, se si preferisce, un robot che chiacchiera e che impara chiacchierando.

C’è chi, giustamente, ha chiesto direttamente a ChatGPT di presentarsi e lei (lui?, la cosa?, boh!) ha risposto di essere un sistema di generazione di linguaggio naturale sviluppato da Open AI. Ha detto anche che utilizza una rete neurale di tipo Transformer per generare testo in modo autonomo, in base a input forniti.

C’è chi, più utilitaristicamente, le ha chiesto di fare una ricerca giurisprudenziale o di predisporre un contratto o un ricorso ed è rimasto sorpreso dalla sua capacità di rispondere a tono e, ancora di più, dalla sua umiltà nel riconoscimento degli errori eventualmente compiuti (sempre che glieli si contesti) e dalla prontezza della loro correzione.

C’è chi, sull’esempio di Cassandra, fa già gli elenchi delle professioni che il perfezionamento del software condannerebbe alla marginalità (tra queste in vetta la consulenza legale).

E c’è infine chi, ci si riferisce al Garante per la protezione dei dati personali, monitora il fenomeno e si convince che qualcosa non va.

Il 30 marzo 2023 infatti il Garante ha disposto con effetto immediato la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma, ed ha contestualmente aperto un’istruttoria (il provvedimento è allegato alla fine del post).

L’iniziativa dell’Autorità è dipesa da un data breach (perdita di dati) riguardante le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

Si legge  nel comunicato stampa emesso per l’occasione che “il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.

Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo“.

Contestazioni mica da poco: ChatGPT avrebbe cannibalizzato i dati degli utenti a vantaggio dei propri algoritmi (come dire che fa l’intelligente col cervello degli altri) e non avrebbe usato alcuna cautela nelle conversazioni con minori (come dire che ChatGPT non sa quello che qualunque adulto di buon senso sa e pratica, cioè che con bambini e ragazzi si parla in modo adeguato alla loro età e si evita accuratamente di sconvolgerli.

Non sarà certo il Garante della Privacy a fermare o frenare la rapida avanzata dei sistemi di intelligenza artificiale ma fa comunque piacere che un’autorità pubblica si ponga il problema di provare a rallentare le sue cavalcate troppo impetuose.

Un commento

I commenti sono chiusi.