La sfida dell’intelligenza artificiale alle giurisdizioni (Bari, 29 settembre 2023)

DiGiovanni Pascuzzi

30 Settembre 2023

Nei giorni 29 e 30 settembre 2023 si è tenuto a Bari, organizzato dalla Camera amministrativa, un convegno dal titolo “Giurisdizione plurale: risorsa o problema?” (qui la locandina).

Mi è parso totalmente centrato l’obiettivo che si proponevano gli organizzatori: creare un’occasione di riflessione comune tra i magistrati dalla Corte di Cassazione e i magistrati del Consiglio di Stato (unitamente ad esponenti dell’accademia e dell’avvocatura).

Tra i relatori i Presidenti delle due Istituzioni citate.

La registrazione dell’intero evento si può visionare a questi link: primo giorno; secondo giorno

Io sono intervenuto nella sessione intitolata: “La sfida dell’intelligenza artificiale alle giurisdizioni”.

 

Di seguito la trascrizione del mio intervento.

Il moderatore ha giustamente sottolineato che le macchine e l’intelligenza artificiale non devono far venire meno l’antropocentrismo.

Mi chiedo: “Che cosa significa antropocentrismo nell’era digitale? Che cosa vuol dire mettere al centro l’uomo nel periodo che stiamo vivendo?”

A mio avviso l’uomo può restare al centro solo se sviluppa le competenze digitali. Perché altrimenti è una battaglia già persa in partenza.

Occorre, quindi, colmare il digital divide di primo, secondo e terzo livello.

Perché dobbiamo essere noi umani a chiedere alle macchine (attraverso i programmatori) di fare esattamente ciò che noi chiediamo loro di fare.

Se non si colma questo iato avremo (come abbiamo) “prodotti informatici” realizzati senza che, ex ante, qualcuno abbia fatto delle richieste specifiche: difficilmente sono prodotti che soddisfano davvero o per intero le nostre esigenze.

Nel contesto di cui stiamo parlando, occorre scongiurare due pericoli. Facendo riferimento alla “mia vita precedente”, parlo dei due pericoli che caratterizzarono il periodo del lockdown quando, dalle scuole elementari all’università, le lezioni furono erogate a distanza grazie alla tecnologia.

Da una parte il rifiuto. Noi forse non prendiamo in considerazione il fatto che c’è ancora una grossa fetta delle persone che pongono barriere alla rivoluzione digitale: spesso non lo dicono, ma sono quantomeno guardinghi.

Il secondo errore che si può commettere è pensare che l’innovazione tecnologica serva unicamente a fare ciò che si faceva prima con i nuovi strumenti. È un errore perché i nuovi strumenti consentono di fare anche cose diverse da quello che consentivano di fare gli strumenti che avevamo a disposizione prima. Formulo un esempio per farmi capire. Oggi esiste il cosiddetto processo telematico. Io sono contentissimo di questa cosa perché (sono giudice da meno di due anni) in Consiglio di Stato non ho visto un foglio di carta (i.e.: nessun fascicolo cartaceo). Per me questa è una grande conquista. Ma che cos’è oggi il processo telematico in Italia? Un semplice deposito telematico di atti. Prima si redigevano documenti su carta, si facevano le fotocopie e si depositavano in cancelleria. Oggi si scrivono dei documenti elettronici in PDF, sottoscritti con firma digitale, che poi vengono depositati nel sistema. Il contenuto di quel PDF non è sottoposto ad alcun tipo di verifica, formale o sostanziale che sia. Ma davvero il processo telematico deve significare soltanto “faccio con il computer quello che prima facevo con la carta”? A mio avviso no, e tornerò sul punto tra poco quando richiamerò l’articolo 46 delle disposizioni di attuazione del codice di procedura civile.

Per ora torniamo all’antroprocentrismo nell’era digitale.

Il primo problema è quello delle skills e quindi delle competenze digitali: se vogliamo affrontare l’era digitale un minimo di competenza dobbiamo averlo.

Cosa significa in concreto? Significa che noi stessi, come la cittadinanza tutta, per esempio dobbiamo innanzitutto capire che cos’è “intelligenza artificiale” e cosa non è “intelligenza artificiale”. Questa locuzione, infatti, indica cose molto diverse tra loro.

Esiste, quindi, un problema di definizioni.

Ad esempio la definizione di algoritmo. Quella che segue è contenuta nella normativa tecnica degli informatici. Si definisce algoritmo «un insieme finito di regole ben definite per la soluzione di un problema in un numero finito di passaggi». La parola algoritmo è diventata negli ultimi tempi sinonimo di decisione (provvedimentale e/o giurisdizionale) automatizzata. Perché se l’algoritmo è una sequenza di passaggi, se il ragionamento è una sequenza di passaggi che arriva a un certo risultato, allora algoritmo significa decisione automatica (perché presa dalla macchina che fa “girare” l’algoritmo).

La seconda definizione su cui voglio soffermarmi è quella di intelligenza artificiale: che cos’è questa benedetta intelligenza artificiale? Prima è stata richiamata la distinzione tra l’intelligenza artificiale “forte” e l’intelligenza artificiale “debole”. Voglio ricordare la definizione di un gruppo di lavoro istituito dall’Unione Europea: «I sistemi di intelligenza artificiale (IA) sono sistemi software (e possibilmente anche hardware) progettati da esseri umani che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il loro ambiente attraverso l’acquisizione dei dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza o sull’elaborazione delle informazioni derivate da questi dati e decidendo delle migliori azioni da intraprendere per raggiungere l’obiettivo prefissato.

I sistemi di intelligenza artificiale possono utilizzare regole simboliche o apprendere un modello numerico e possono anche adattare il loro comportamento analizzando il modo in cui l’ambiente è influenzato dalle loro azioni precedenti.

Come disciplina scientifica, l’intelligenza artificiale include diversi approcci e tecniche, come l’apprendimento automatico (di cui l’apprendimento profondo e l’apprendimento per rinforzo sono esempi specifici), il ragionamento automatico (che comprende pianificazione, programmazione, rappresentazione e ragionamento delle conoscenze, ricerca e ottimizzazione) e robotica (che comprende controllo, percezione, sensori e attuatori, nonché l’integrazione di tutte le altre tecniche nei sistemi cyberfisici)».

Questa definizione ci fa capire che i sistemi di intelligenza artificiale coinvolgono approcci e tematiche diversi.

E ci dice che i sistemi di intelligenza artificiale possono fare cose molto diverse: la visione artificiale, (che consente, ad esempio, il riconoscimento facciale); l’elaborazione automatica del suono (possiamo parlare ad “Alexa” ovvero dettare qualcosa che poi ci compare trascritto a video: elaborazione automatica del linguaggio); l’acquisizione e la rappresentazione della conoscenza (la cosa che probabilmente ci interessa di più); la robotica.

Nella nozione di intelligenza artificiale rientrano tante cose.

Se in un convegno sulle giurisdizioni si parla di intelligenza artificiale, di che cosa si sta esattamente parlando?

Nell’ambito proprio del processo giurisdizionale l’intelligenza artificiale può essere usata per tre obiettivi principali.

  1. L’analisi dei dati e degli approfondimenti. Si pensi alla consultazione delle banche dati: abbiamo una mole di dati e su quei dati facciamo qualcosa. Ma non sono solo le banche dati giurisprudenziali. Anche i documenti processuali digitalizzati (formati per il processo telematico) possono costituire una banca di testi su cui operare per estrarre conoscenza.
  2. Il secondo aspetto è quella della generazione dei contenuti. Si sostiene che l’intelligenza artificiale possa “scrivere le sentenze”. Fermiamoci ad affermare che l’IA può generare dei contenuti. Chat GPT è la cosa di cui tutti parliamo.
  3. Il terzo ambito è l’automazione degli uffici.

Per concludere sull’antroprocentrismo possiamo dire che occorre:

  1. Promuovere una comprensione condivisa e razionale dell’intelligenza artificiale. Dobbiamo essere d’accordo su che cos’è ed essere in grado di spiegarla ai non esperti. Dobbiamo ragionare su un nocciolo comune di cose che fanno riferimento all’IA.
  2. Non dare molto credito all’idea che arriverà un momento in cui i computer potranno decidere al posto nostro. Io questa cosa non la vedo come realmente plausibile. In un libro di qualche anno fa [“Vita 3.0. Essere umani nell’era dell’intelligenza artificiale”], Max Tegmark (professore di fisica al MIT e presidente del “Future of Life Institute”) ha scritto che non è escluso che in questo secolo, dato il ritmo continuo delle acquisizioni scientifiche e tecnologiche, i robot giungano in qualche modo ad essere particolarmente intelligenti. Ma cosa vuol dire intelligenti? Si può essere molto intelligenti nell’espletare un compito specifico: il computer che gioca a scacchi e fa solo quello, è molto bravo e può battere un umano. Ma noi giochiamo a scacchi, facciamo la spesa e guidiamo la macchina, eccetera. È difficile che venga prodotto (e, forse, autoprodotto) un robot che faccia tutte queste insieme. Ma quando questo momento arriverà, se arriverà, è molto probabile, sostiene Tegmark, che i robot si faranno i fatti loro e degli uomini, semplicemente si disinteresseranno.
  3. Consentire ai cittadini di acquisire una cultura e i concetti relativi alle problematiche dell’intelligenza artificiale.
  4. Costruire dei concetti giuridici comuni.

Io penso che le cose cui ho fatto riferimento siano le premesse per poter parlare di intelligenza artificiale: competenze, definizioni, principi comuni.

 

* * *

[secondo intervento]

 

L’intelligenza artificiale (data la definizione vista prima), può essere usata: a) per rendere più efficiente il processo, inteso come sequenza di atti che porta ad un risultato; ovvero e b) per rendere più efficiente il prodotto (gli atti di parte e/o la sentenza).

1. La legal analytics può essere utilizzata per estrarre conoscenza (in modo automatico) dai fascicoli (la citazione, l’appello al Consiglio di Stato, eccetera). Per fare cosa? Ad esempio individuare casi simili. Perché può accadere, in presenza di migliaia di ricorsi, che non ci si accorga che lo stesso avvocato, oppure la stessa parte hanno presentato ricorsi sostanzialmente simili. Se finiscono a collegi diversi possiamo avere l’odioso risultato che sulla stessa tipologia di caso ci siano decisioni completamente contrastanti. Si può utilizzare la legal analytics per fare un’analisi automatica dei fascicoli, con l’obiettivo di individuare i casi simili. Poi, ovviamente, spetterà ai Presidenti decidere: attribuirli tutti allo stesso relatore ovvero attribuirli allo stesso Collegio, etc.. Questo è un esempio di come si possano migliorare le procedure.

2. L’intelligenza artificiale può essere usata per migliorare il prodotto: intendo tanto l’atto dell’avvocato quanto ovviamente la sentenza del giudice. In che modo?

Noi parliamo di giustizia automatizzata; i giornalisti parlano di giornalismo robotizzato. Loro hanno paura che le notizie vengano formulate dai robot. Tematiche simili, quindi. In ambito giornalistico è stato sviluppato un software che si chiama “Asimov”. Che cosa fa questo software di intelligenza artificiale? Mentre il giornalista redige il suo articolo, la macchina legge cosa sta scrivendo il giornalista e sulla base delle prime righe comincia a fargli vedere a video notizie collegate, notizie risalenti eccetera. Dove va “a pescare” la macchina? Va “a pescare” nelle diverse banche dati. Proviamo a trasferire quanto descritto in ambito giuridico. Mentre si scrive l’atto (e sulla base di ciò che si scrive) in ragione della capacità del sistema di compulsare le basi di dati giuste (i documenti allegati ai fascicoli, gli atti di parte, le banche dati legislative e di giurisprudenza) compaiono a video documenti collegati a quanto si sta scrivendo che si può scegliere di consultare o meno.

Questa è un’applicazione concreta: un ausilio nella generazione dei contenuti.

3.Vengo al terzo esempio di come l’IA può essere usata in ambito processuale, forse quello che farà arricciare il naso a più di uno.

Ho detto che il processo telematico oggi è sostanzialmente deposito telematico di atti.

Ma è così “eversivo” pensare che la macchina possa, mentre si scrive, avvertire che non si stanno rispettando alcuni parametri che sono necessari ai fini, per esempio, dell’ammissibilità del ricorso o dell’appello? Capita sovente in Consiglio di Stato di dichiarare inammissibili degli appelli semplicemente perché l’avvocato si è limitato a ricopiare il ricorso di primo grado senza muovere alcuna censura alla sentenza (vedo cenni di assenso nell’uditorio). Quella dichiarazione di inammissibilità è un danno per il cliente (e per l’intero sistema giustizia).

E allora: è davvero eversivo pensare ad un sistema che mentre si scrive avverta: “guarda che non stai rispettando questo principio”? La decisione finale su cosa e come scrivere è “dell’umano”, ma intanto esiste un alert [in altro contesto ho parlato, in generale, di “soccorso istruttorio digitale”].

Vengo al già citato articolo 46 delle norme di attuazione del codice di procedura civile.

Tanto nel processo civile quanto nel processo amministrativo, ormai è canonizzato il principio della chiarezza degli atti processuali. Non parlo della lunghezza su cui si potrebbe aprire un’altra riflessione. Parlo della chiarezza.

Per me chiarezza significa due cose. A) La chiarezza formale. Su questo tema ci sono tanti scritti (frasi brevi, eccetera). Non parlo di questo. B) Esiste anche il profilo della chiarezza sostanziale. Cioè, deve essere chiaro: qual è il problema, qual è la regola che si applica al problema, qual è la soluzione che deriva dall’applicazione di questa regola. Su questi aspetti di sostanza deve essere chiaro l’avvocato quando chiede un qualche tipo di tutela, deve essere chiaro il giudice quando emette la sentenza.

Come si raggiunge una maggiore chiarezza sostanziale?

Nel regolamento attuativo dell’articolo 46 delle norme di attuazione del codice di procedura civile. (decreto del Ministero della giustizia n. 110/2023) si fa riferimento alla “definizione dei criteri di redazione, dei limiti e degli schemi informatici degli atti giudiziari con la strutturazione dei campi necessari”. Nell’articolo 2 del decreto vengono citati gli elementi che devono essere contenuti negli atti tra cui “esposizione distinta e specifica, in parti dell’atto separate e rubricate, dei fatti e dei motivi in diritto, nonché, quanto alle impugnazioni, individuazione dei capi della decisione impugnati ed esposizione dei motivi”.

Io questa norma la “leggo” in un modo specifico (e sono curioso di vedere come sarà affettivamente attuata).

La norma fa riferimento alla nozione di “campo”. In informatica, e lo sapete tutti meglio di me, “campo” significa qualcosa di un programma che io devo riempire, altrimenti il programma non elabora quanto richiesto. Io immagino, in futuro, non come misura obbligatoria (richiamo quanto detto sulla formazione e sul fatto che le persone devono capire cos’è l’intelligenza artificiale per poter scegliere di usarla), ma come possibilità; immagino, dicevo, non un processo telematico dove ci si limita a depositare dei pdf, ma un processo telematico nel quale l’avvocato prima e il giudice dopo, compilano a video dei campi: il campo che contiene, ad esempio, la rubrica del motivo di appello; il campo che contiene il fatto; il fatto che contiene il diritto; e così via. (per approfondimenti leggi qui)

In questa maniera noi cominceremmo ad avere un primo ausilio. Perché io così lo considero: un ausilio per compilare atti che rispondono ai paradigmi normativi. Perché io non ho paura dell’intelligenza artificiale o della tecnologia, se la tecnologia mi è “amica”.

Se la tecnologia mi aiuta a capire che sto commettendo un errore, perché rifiutarla?

Grazie.

 

 

LOCANDINA_Bari

 

 

 

 

Skip to content