Intelligenza artificiale: un po’ di cose per iniziare (di Vincenzo Giglio)

Premessa

Nella seconda metà del diciannovesimo secolo iniziò quella che sarebbe stata definita la prima rivoluzione industriale: i suoi simboli furono i telai, la spoletta volante e le macchine a vapore.

Circa un secolo dopo ci fu la seconda rivoluzione: la definirono l’elettricità, la chimica e il petrolio.

Passò ancora un secolo ed iniziò la terza, caratterizzata da elettronica, telecomunicazioni e informatica.

Non furono solo rose e fiori: qualsiasi rivoluzione cambia tutto, crea nuova ricchezza e nuove povertà, promuove i suoi artefici e lascia indietro quelli che non si adattano.

Si narra che all’epoca della prima rivoluzione un certo Ned Ludd, un operaio tessile la cui esistenza non è comunque certa, avendocela a morte con i telai perché rubavano il lavoro a quelli come lui, pensò bene di distruggerne uno, impresa che gli guadagnò la guida del movimento, detto appunto luddista, che si opponeva alle innovazioni tecnologiche e si schierava a difesa dell’esistente.

Un po’ di luddismo si presenta ogni volta che la storia umana si incrocia con cose e possibilità così nuove da destare sospetto più che ammirazione, paura più che ottimismo.

Così è anche per l’intelligenza artificiale (d’ora in avanti IA).

In quanto blog (con l’aggravante di occuparsi di diritto e la recidiva di essere focalizzata sulla branca penalistica) Terzultima Fermata è tenuta ad occuparsene, non fosse altro perché, prendendo parte al dibattito social e curiosando su ciò che vi si dice, nota un’attenzione crescente al tema accompagnata da varie emozioni, per lo più negative.

Data questa premessa, TF pensa di fare cosa utile provando a mettere a fuoco alcuni concetti di base con l’avvertenza scontata che, disponendo i suoi autori di competenze informatiche meno che modeste e di un’intelligenza media che funziona più o meno come quella di ChatGPT (nel senso che è alimentata da letture e chiacchiere), tutto quello che verrà detto è agli antipodi della definitività e va preso con le molle.

Prima di cominciare la rapida carrellata che si ha in mente, può servire ricordare che l’IA è già tra noi in molte cose della nostra quotidianità: è presente quando facciamo una ricerca sul web, quando facciamo operazioni bancarie on-line, quando ci facciamo guidare dal GPS per arrivare in un certo posto, quando siamo lusingati perché il dispositivo Alexa di Amazon che abbiamo in casa riconosce la nostra voce ma anche, ahimè, quando cerchiamo un prezzo decente per un weekend di vacanza a Parigi e, per almeno un mese dopo, appena entriamo sulla rete ci spuntano pop-up pubblicitari che reclamizzano questa o quella meraviglia parigina.

Fonti consultate

Questo post è stato alimentato da varie e tutte interessanti riflessioni, elencate qui di seguito:

A. Cappellini, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, in disCrimen, 2019 (a questo link).

F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Diritto Penale e Uomo, 2019 (a questo link).

B. Fragasso, La responsabilità penale del produttore di sistemi di intelligenza artificiale, in Sistema Penale, 2023 (a questo link).

Ognuno di questi lavori è corredato a sua volta da un’ampia bibliografia alla quale si può attingere per temi specifici.

Possiamo adesso cominciare il nostro breve viaggio.

IA, cos’è

In attesa che si arrivi ad una definizione sufficientemente condivisa, torna utile quella coniata nel 2018 da un panel di 52 esperti nominati dalla Commissione europea:

sistemi software (ed eventualmente hardware) progettati dall’uomo che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il proprio ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza o elaborando le informazioni derivate da questi dati e decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo dato. I sistemi di IA possono usare regole simboliche o apprendere un modello numerico, e possono anche adattare il loro comportamento analizzando gli effetti che le loro azioni precedenti hanno avuto sull’ambiente. Come disciplina scientifica, l’IA comprende diversi approcci e diverse tecniche, come l’apprendimento automatico (di cui l’apprendimento profondo e l’apprendimento per rinforzo sono esempi specifici), il ragionamento meccanico (che include la pianificazione, la programmazione, la rappresentazione delle conoscenze e il ragionamento, la ricerca e l’ottimizzazione) e la robotica (che comprende il controllo, la percezione, i sensori e gli attuatori e l’integrazione di tutte le altre tecniche nei sistemi ciberfisici)“.

Non proprio elementare ma questo è.

Le principali caratteristiche dell’IA, a partire dall’imprevedibilità

Alcuni software di IA sembrano potersi comportare in modo inatteso.

Questa imprevedibilità, secondo Beatrice Fragrasso, sembra a sua volta derivare da tre proprietà condivise dai sistemi più sofisticati di IA:

(i) autonomia, da intendersi come capacità di prendere decisioni in situazioni di incertezza e di compensare l’incompletezza delle informazioni ricevute in partenza attraverso l’apprendimento;

(ii) interattività, nel senso che gli algoritmi di IA sono spesso sono connessi tra loro e, talvolta, persino con l’ambiente fisico in cui si trovano (fenomeno cui si dà il nome di “internet delle cose”); questa connessione può, da un lato, dar luogo ad output (risultati, risposte) inattesi e, dall’altro, espone gli algoritmi ad un bombardamento di input (dati, informazioni, istruzioni) dai riflessi altrettanto imprevedibili;

(iii) opacità (cosiddetta black box ovvero scatola nera), nel senso che gli algoritmi di IA non sanno spiegare né teoricamente né causalmente i risultati raggiunti e per i loro programmatori non è affatto facile comprendere cosa avviene all’interno della scatola nera; in altri termini c’è e continuerà ad esserci una rilevante differenza “tra processo logico-computazionale probabilistico tipico dell’algoritmo e struttura causale e deduttiva propria del ragionamento umano“.

IA e machine learning

L’IA più evoluta si avvale del machine learning (ML).

Si tratta di un sottoinsieme di IA che genera sistemi capaci di apprendere e migliorare le loro performance in base ai dati che utilizzano.

Gli algoritmi di ML si dividono in due tipologie: apprendimento supervisionato e apprendimento non supervisionato.

La differenza sta nel modo in cui gli algoritmi apprendono i dati che poi utilizzano per fare previsioni.

Dal sito di Oracle apprendiamo a nostra volta che l’apprendimento supervisionato è quello prevalente: “Con questo modello, un data scientist agisce da guida e insegna all’algoritmo i risultati da generare. Esattamente come un bambino impara a identificare i frutti memorizzandoli in un libro illustrato, nel machine learning supervisionato l’algoritmo apprende da un set di dati già etichettato e con un output predefinito“.

L’apprendimento non supervisionato “utilizza un approccio più indipendente, in cui un computer impara a identificare processi e schemi complessi senza la guida attenta e costante di una persona. Il machine learning non supervisionato implica una formazione basata su dati privi di etichette e per i quali non è stato definito un output specifico. Per continuare a utilizzare l’analogia precedente, il machine learning non supervisionato è simile a un bambino che impara a identificare i frutti osservando i colori e gli schemi, anziché memorizzando i nomi con l’aiuto di un insegnante. Il bambino cercherà le somiglianze tra le immagini e le suddividerà in gruppi, assegnando a ciascun gruppo la nuova etichetta corrispondente“.

Resta da capire perché il metodo ML sia quello più usato e, ancora una volta, ricorriamo ai chiarimenti di Beatrice Fragasso, utili anche per capire quali rischi porti con sé tale forma di apprendimento: “Tale approccio parte dalla constatazione che molte delle attività che l’essere umano svolge non sono formalizzabili attraverso l’esplicitazione di regole definite, ma sono frutto di esperienza ed imitazione. Si pensi, ad esempio, al riconoscimento facciale: un’attività che svolgiamo senza difficoltà, in maniera intuitiva, ma per la quale sarebbe arduo stilare un elenco di regole precise che possano essere applicate, in via deduttiva, da una macchina. Se invece forniamo ad un algoritmo di machine learning una serie di immagini, indicando appositamente, attraverso un’etichetta (label), quali ritraggono Tizio e quali ritraggono Caio, il sistema ragionerà per analogia e, quando posto di fronte ad immagini non etichettate, sarà in grado di generalizzare quanto appreso in fase di addestramento, distinguendo il volto di Tizio da quello di Caio (c.d. apprendimento supervisionato o supervised learning). Un simile risultato sarebbe difficilmente raggiungibile attraverso l’approccio simbolico e “causale”, che richiederebbe la definizione di un procedimento logico astratto, da applicare nel caso concreto. D’altra parte, lo stesso algoritmo non è in grado di formulare una regola di classificazione – che consenta in tutti i casi, in maniera infallibile, di etichettare le immagini – ma ragiona per analogia: il sistema non sa spiegare quali sono stati i criteri che, in un database contenente milioni di immagini, gli hanno consentito di individuare il viso di una determinata persona. Così, se, da un lato, il machine learning consente agli algoritmi di individuare pattern ricorrenti che potrebbero non essere percepibili dall’uomo, dall’altro, il ragionamento analogico tipico dei sistemi di auto-apprendimento sconta una carenza assoluta di comprensione “semantica”, che talvolta può determinare la commissione di errori che, ad uno sguardo umano, possono apparire come grossolani e macroscopici“.

Per questa volta ci fermiamo qui, all’abc se così si può dire.

Verrà poi il momento di cominciare a riflettere sull’incrocio dell’IA con i temi giuridici, segnatamente quelli di ordine penalistico, che ci sono più familiari.

Lo faremo presto.