Conclusioni della Sessione III “Il giudice amministrativo e l’Intelligenza Artificiale” del “Secondo Congresso nazionale dei giudici amministrativi italiani” (Roma 18 e 19 ottobre 2024)

DiGiovanni Pascuzzi

20 Ottobre 2024

Nei giorni 18 e 19 ottobre 2024 si è tenuto il “Secondo congresso dei giudici amministrativi italiani. I 50 anni di funzionamento dei Tribunali amministrativi regionali” (programma).

 

Nel pomeriggio del giorno 18 si è tenuta una sessione intitolata “Il giudice amministrativo e l’Intelligenza artificiale”.

 

Di seguito il programma della sessione con l’elenco dei titoli degli interventi e il nome dei relatori.

 

Sessione III

Il giudice amministrativo e l’Intelligenza Artificiale

Ore 14.00

Presiede

Vincenzo Neri – Presidente di Sezione del Consiglio di Stato

Ore 14.15

Il pensiero umano e il ragionamento dei sistemi di intelligenza artificiale

Pierluigi Contucci – Alma Mater Studiorum Università di Bologna

Ore 14.30

Intelligenza artificiale e giustizia: lo stato dell’arte nella regolazione

Marcello Clarich – Sapienza Università di Roma

Ore 14.45

I Large Language Models (LLM) e la giustizia amministrativa: rischi e potenzialità

Margherita Interlandi – Università degli studi di Napoli Federico II

Germana Lo Sapio – Consigliere TAR Campania

Ore 15.15

Discrezionalità algoritmica e sindacato del giudice

Anna Corrado – Consigliere TAR Lombardia

Ore 15.30

Intelligenza artificiale e giustizia predittiva

Mariano Sciacca – Presidente di sezione del Tribunale civile di Catania

Ore 15.45

Le prospettive evolutive della giustizia amministrativa nell’era della I. A.

Brunella Bruno – Consigliere di Stato

Ore 16.00

L’intelligenza artificiale nella giustizia ordinaria

Antonella Ciriello – Consigliere della Corte di cassazione

Ore 16.15

Conclusioni

Giovanni Pascuzzi – Consigliere di Stato

 

Come da programma, mi sono state affidate le “Conclusioni” della Sessione.

Di seguito una sintesi delle cose che ho detto, pienamente consapevole dell’onore, del prestigio e della responsabilità di parlare in quella sala (la sala di Pompeo) così carica di storia.


 

CONCLUSIONI DI GIOVANNI PASCUZZI

Dare conto, nei quattordici minuti assegnatimi, della varietà e della complessità degli spunti di riflessione emersi dalle relazioni che abbiamo ascoltato è una “missione impossibile”. Proverò ad isolare alcuni elementi al fine di individuare un possibile “fil rouge”.

 

  1. La definizione di AI

Il Presidente della Sessione (Neri) è entrato immediatamente nel vivo dell’argomento elencando la miriade di fenomeni riconducibili all’impiego dell’intelligenza artificiale e richiamando i non pochi provvedimenti normativi che, solo nell’ultimo anno, sono stati emanati per provare a disciplinare questa potente innovazione tecnologica.

Il primo relatore, che ha messo a confronto il pensiero umano con il modo di ragionare dei sistemi di intelligenza artificiale, ha fatto emergere due elementi di fondo.

Il primo è la nozione di intelligenza artificiale. Oggi questa espressione è usata ad ogni pie’ sospinto anche in relazione a fenomeni che non hanno a che fare con l’intelligenza ma, al più, nella migliore dell’ipotesi, con la potenza di calcolo dei computer (intelligenza accelerata).

Il relatore, anche al fine di introdurre la distinzione tra intelligenza artificiale classica (che si proponeva di trasporre nei computer il ragionamento logico-deduttivo) e intelligenza artificiale moderna (che fa leva sulla modellizzazione delle reti neurali), ha spiegato che intelligenza artificiale è ciò che ha funzioni simili a quelle umane e, in particolare: ragionamento, apprendimento, memorizzazione[i]. Il relatore, ricorrendo ad un esempio relativo al funzionamento delle vecchie radio a valvole che attraverso manopole consentivano di giungere per tentativi alla sintonia fine, ha spiegato come funziona il “deep learning” mettendo in guardia sul fatto che non possiamo certificare i risultati (e quindi attribuire eventuali responsabilità).

Il secondo elemento di fondo emerso dalla relazione è che, alla luce di quanto detto, l’intelligenza artificiale è un modo di ragionare, una logica di ragionamento.

 

  1. La disciplina dell’AI (al di là di Carte varie sui principi etici)

Il secondo relatore ha tracciato un quadro delle norme che attualmente disciplinano l’intelligenza artificiale, soffermando l’attenzione soprattutto sul regolamento (UE) 2024/1689[ii] e l’approccio basato sul rischio che lo stesso ha fatto proprio.

Oltre al citato regolamento, tra i testi più significativi, si possono citare: la Convenzione quadro sull’intelligenza artificiale adottata dal Consiglio d’Europa[iii] e il progetto di legge presentato dal governo italiano[iv].

Alla luce di quanto esposto nella seconda relazione è lecito porsi un interrogativo: qual è l’approccio migliore per disciplinare un fenomeno che, per forza di cose, travalica i confini nazionali e il cui sviluppo, al momento, è nelle mani di poche grandi imprese?

È preferibile una fonte unica oppure una pluralità di fonti?

Negli Stati Uniti, ad esempio, pare prevalere un approccio che vede i singoli Stati andare in ordine sparso focalizzando l’attenzione su aspetti specifici. Alcuni Stati hanno adottato leggi sull’obbligo di dichiarare se i contenuti sono generati dall’intelligenza artificiale. La California stava per adottare una legge sulla responsabilità civile per danni causati dall’intelligenza artificiale[v].

L’Europa sembrerebbe all’avanguardia con l’adozione del citato regolamento 2024/1689.

 

2.1  AI e responsabilità civile

A ben vedere, però, l’approccio europeo non è onnicomprensivo.

Il regolamento UE opera ex ante. Ma cosa succede se l’AI produce danno?

L’Unione europea ha elaborato una proposta di direttiva sulla responsabilità da intelligenza artificiale[vi].

Approvare il regolamento è stato difficile, ma finora è stato impossibile normare il tema della responsabilità civile.

Il tema, però, suggerisce un tassello che conviene evidenziare al fine di tratteggiare un ulteriore elemento di fondo.

Sulla base di quali principi si deve disciplinare la responsabilità civile derivante dall’uso dell’intelligenza artificiale?

Può essere utile citare il caso dei veicoli a guida autonoma. Alcuni Stati europei che hanno legiferato per primi, si sono orientati nel senso di applicare a detti veicoli le regole in materia di circolazione stradale. Ma probabilmente è sbagliato trasferire lo schema «auto guidata da un umano» alla nuova situazione «auto che si guida da sola, senza intervento umano» e quindi applicare a questo nuovo fenomeno il modello di responsabilità da circolazione stradale, imperniato sulla centralità del ruolo del guidatore con il supporto della «tasca profonda» rappresentata dal proprietario del veicolo. Auto con guidatore e auto senza guidatore non sono affatto fenomeni simili. Occorre rifarsi ad altri paradigmi: a) responsabilità da prodotto (ma sarebbe difficile dimostrare il nesso di causalità tra difetto e fatto lesivo; ovvero che ci siano degli errori nell’algoritmo di controllo della macchina); b) responsabilità oggettiva del produttore con il vantaggio di addossare il costo a chi può prevenire l’incidente ma anche lo svantaggio di limitare il mercato perché i produttori non avrebbero incentivi a realizzare questo tipo di auto che si guidano da sole; c) prevedere una forma di responsabilità oggettiva limitata ai soli casi in cui il software è palesemente inadeguato e istituire per gli altri casi (rischi di sviluppo) un fondo di garanzia pubblico.

Un dato emerge: i fenomeni innescati dall’intelligenza artificiale impongono l’adozione di regole nuove basati su paradigmi diversi perché nuovi e diversi sono detti fenomeni.

 

2.2  La sovranità digitale

Conviene, però, sottolineare anche un altro elemento.

La necessità di normare l’intelligenza artificiale nasce anche dal desiderio di porre dei limiti al potere delle poche aziende che producono i sistemi di intelligenza artificiale. E tale desiderio trova alimento in quell’ «ansia di sovranità digitale» che oggi sembra caratterizzare l’Europa (e i singoli Stati che la compongono).

L’art. 3 della decisione (UE) 2022/2481 che istituisce il programma strategico per il decennio digitale 2030 recita: «Il Parlamento europeo, il Consiglio, la Commissione e gli Stati membri cooperano per sostenere e conseguire le seguenti finalità generali a livello di Unione: (omissis) c) garantire la sovranità digitale dell’Unione in modo aperto, in particolare mediante infrastrutture digitali e di dati sicure e accessibili che permettano di conservare, trasmettere e trattare in modo efficiente grandi volumi di dati e che consentano altri sviluppi tecnologici».

Nel parere del Comitato economico e sociale europeo sul tema «Sovranità digitale: un pilastro cruciale della digitalizzazione e della crescita dell’UE» si legge (punto 2.1): «La sovranità digitale può essere descritta, in prima approssimazione, come la capacità dei governi e delle imprese di gestire e creare autonomamente i propri dati, i propri hardware e i propri software. È da fin troppo tempo che suscita preoccupazione la forte dipendenza dell’Unione europea da un ristretto numero di grandi imprese tecnologiche stabilite fuori di essa».

 

2.3 Il rischio informatico/digitale: la cybersicurezza

Parlando del regolamento (UE) 2024/1689 sull’intelligenza artificiale si è detto che lo stesso adotta un approccio basato sul rischio.

In realtà il rischio, inteso in senso molto più ampio, caratterizza la rivoluzione digitale.

Il 19 luglio 2024 si è verificato un crash informatico a livello globale per effetto non già di un cyber-attacco ma del malfunzionamento dell’aggiornamento di un software di cibersicurezza per gli ambienti Windows. Per effetto del malfunzionamento dei server sono stati cancellati migliaia di voli, sono stati rinviati interventi chirurgici e sono risultati non operativi anche i sistemi di pagamento e di trading online[vii].

Agli albori, era un luogo comune dire che l’informatica fosse un insieme di soluzioni a caccia di problemi. Oggi possiamo dire che dette soluzioni generano a loro volta nuovi problemi che nella più parte dei casi si sostanziano nella esposizione a rischi: la navigazione in rete ci espone al rischio della profilazione e della manipolazione; l’uso dei sistemi di pagamento digitali ci espone al rischio di perdere la possibilità di onorare le obbligazioni assunte; e così via.

L’era digitale e ancor più l’intelligenza artificiale ci espone a rischi e ci fa sentire molto vulnerabili.

 

  1. L’impatto dell’informatica/AI sull’amministrazione in generale.

Molte relazioni hanno affrontato il tema della cosiddetta “amministrazione digitale”.

Nella terza relazione si è sottolineata l’insufficienza del piano regolatorio e si è invocata la necessità di governare l’impatto della tecnologia sulla formazione dei saperi.

Nella quarta relazione, tra l’altro, sono state analizzate, le norme del regolamento (UE) 2024/1689 che incidono sul procedimento amministrativo (ad esempio: l’articolo 86 sul diritto alla spiegazione dei singoli processi decisionali). La relatrice, al termine del suo intervento ha detto che alla luce del regolamento andrebbe aggiornata (riscritta?) la legge 241/1990.

A me pare che questo rilievo, più che fondato, faccia il paio, sul piano pubblicistico, con l’esempio che prima si faceva in ambito privatistico a proposito della responsabilità per circolazione delle auto senza guidatore. L’intelligenza artificiale impone di disciplinare con paradigmi nuovi fenomeni vecchi e nuovi (si pensi ai criteri per scrutinare la legittimità degli atti adottati mercé l’uso dell’intelligenza artificiale).

Conviene ricordare, in chiave più generale, come l’introduzione delle tecnologie digitali faccia da volano a mutamenti radicali nelle istituzioni. Inizialmente incrementano solo la qualità e l’efficienza delle operazioni interne. Poi migliorano l’erogazione dei servizi. Il passo successivo è aprire la strada alla riforma delle istituzioni (si veda la spinta ad una maggiore trasparenza impressa dal citato d.lgs. 33/2013). Tali riforme favoriscono una più puntuale partecipazione dei cittadini alle decisioni, anche grazie alle stesse tecnologie. Fino a produrre significativi cambiamenti nei diversi campi di azione delle amministrazioni che si ritrovano in etichette come e-education, e-health, e così via.

L’amministrazione digitale non significa fare con l’informatica ciò che si faceva prima con altri mezzi. La digitalizzazione cambia i modelli organizzativi e le modalità di esercizio delle funzioni della pubblica amministrazione.

 

  1. La giustizia predittiva

La quinta relazione si è occupata di giustizia predittiva. Il relatore ha specificato che si tratta di una “parola di plastica” sottolineando come occorra tutelare l’umanità del giudicare anche al fine di prevenire alcuni rischi come, ad esempio: la cattura del decisore e la progressiva sclerosi epistemica.

Un importante editore giuridico ha posto in vendita un prodotto che aiuta a migliorare la capacità di prevedere l’esito di un caso giuridico, grazie alla sua ricerca veloce, affidabile e precisa sulla giurisprudenza di merito. Partendo dal capo d’imputazione, si può avere una panoramica sul caso giuridico (esito del giudizio, durata del procedimento, foro di riferimento e molto altro) per trovare la sentenza perfetta in modo incredibilmente rapido[viii].

In ambito giuridico difficilmente è possibile prevedere e a volte non è nemmeno auspicabile[ix].

In ogni caso, si ipotizza che gli strumenti di intelligenza artificiale possano diventare così sofisticati nel predire l’esito di un giudizio al punto da dare corpo alla possibilità che i giudici vengano sostituiti da robot.

Stamani il giudice costituzionale (e già Presidente del Consiglio di Stato) Filippo Patroni Griffi ha detto che la legittimazione (del potere di giudicare) del giudice non riposa sulla sola competenza tecnica ma anche sul possesso di un quadro di riferimento deontologico, morale e così via condiviso. Io non so se arriveremo mai ad avere dei robot con caratteristiche così avanzate. Ma se dovesse avvenire, l’ultimo problema che l’umanità avrebbe sarebbe quello di vedere i giudici sostituiti dai robot. In un libro di qualche anno fa [“Vita 3.0. Essere umani nell’era dell’intelligenza artificiale”], Max Tegmark (professore di fisica al MIT e presidente del “Future of Life Institute”) ha scritto che non è escluso che in questo secolo, dato il ritmo continuo delle acquisizioni scientifiche e tecnologiche, i robot giungano in qualche modo ad essere particolarmente intelligenti. Ma quando questo momento arriverà, se arriverà, è molto probabile, sostiene Tegmark, che i robot si faranno i fatti loro e degli uomini, semplicemente si disinteresseranno.

 

  1. L’impatto dell’informatica sul processo amministrativo

Il tempo assegnatomi sta per scadere per cui non mi è possibile soffermarmi sulle due ultime relazioni che hanno analizzato gli strumenti riconducibili all’intelligenza artificiale concretamente oggi disponibili e in grado per un verso di rendere più efficiente l’organizzazione della macchina processuale e per altro verso di fungere da ausilio nella redazione degli atti processuali[x].

Mi limito a svolgere una rapida considerazione.

Il processo telematico fino ad oggi ha coinciso, nella sostanza, in un semplice deposito telematico di atti. Prima si redigevano documenti su carta, si facevano le fotocopie e si depositavano in cancelleria. Oggi si scrivono dei documenti elettronici in PDF, sottoscritti con firma digitale, che poi vengono depositati nel sistema. Il contenuto di quel PDF non è sottoposto ad alcun tipo di verifica, formale o sostanziale che sia. Ma davvero il processo telematico deve significare soltanto “faccio con il computer quello che prima facevo con la carta”?

È così “eversivo” pensare che la macchina possa, mentre si scrive, avvertire che non si stanno rispettando alcuni parametri che sono necessari ai fini, per esempio, dell’ammissibilità del ricorso o dell’appello? Capita sovente in Consiglio di Stato di dichiarare inammissibili degli appelli semplicemente perché l’avvocato si è limitato a ricopiare il ricorso di primo grado senza muovere alcuna censura alla sentenza (vedo cenni di assenso nell’uditorio). Quella dichiarazione di inammissibilità è un danno per il cliente (e per l’intero sistema giustizia).

L’intelligenza artificiale può svolgere un ruolo sostanziale nell’assicurare la chiarezza formale e la chiarezza sostanziale degli atti processuali[xi].

 

  1. Le competenze digitali del giudice

Voglio dedicare gli ultimi secondi a disposizione per parlare di un ultimo tema che mi pare sia emerso in quasi tutte le relazioni: quello delle competenze digitali del giudice[xii].

Per capire come formare il futuro giudice amministrativo occorre muovere da una domanda: come dobbiamo considerare oggi l’informatica? Come una semplice materia con la conseguenza che i futuri giuristi oltre al diritto privato, al diritto pubblico, al diritto penale (etc.) dovranno studiare una materia che si chiama “elementi di informatica”?

In realtà questa è una prospettiva non appagante perché l’informatica non è più solo questo.

Come emerso oggi, l’informatica e in particolar modo l’intelligenza artificiale è un linguaggio, è una logica (pensiero computazionale), è un modo di ragionare che investe qualsiasi aspetto della nostra vita (“transizione digitale” è solo la presa d’atto di questo stato di cose). L’intelligenza artificiale offre soluzioni che creano altri problemi (si è parlato della sovranità digitale e del rischio digitale).

L’intelligenza artificiale non è una materia ma è una cornice entro la quale ormai si iscrivono tutti i fenomeni. In questa cornice non si fanno in altro modo cose che prima si facevano con la carta: si fanno cose nuove che la carta non permetteva di fare. Per questo occorrono nuove regole che rispondano a paradigmi diversi. Per questo cambia il modo di amministrare e cambia il processo.

Il giudice (il giurista in generale) non può permettersi di ignorare come funzioni la logica sottesa all’intelligenza artificiale e i rischi che essa alimenta. Ovviamente non si tratta di diventare tuttologi ma, quanto meno, di imparare a possedere gli strumenti per dialogare con gli esperti di intelligenza artificiale e per capire la loro logica e il modo di ragionare delle macchine. Un relatore ha detto che occorre “dialogare con gli scribi digitali”; una relatrice ha detto che occorre governare l’impatto della tecnologia sulla stessa formazione dei saperi.  Senza il possesso di competenze digitali da parte dei giuristi questo non è possibile.

L’informatica e in particolare l’intelligenza artificiale non sono “materie” in senso classico. Sono la nuova cornice.

Un mio caro amico magistrato, qualche giorno fa, su un social ha scritto: “Ridatemi i fascicoli cartacei, ridatemi l’odore della carta”. C’è stato un tempo in cui la carta era la cornice. Oggi non stiamo più facendo ciò che prima si faceva con la carta con un mezzo diverso dalla carta: è cambiata radicalmente la cornice.

 

[i] Secondo il regolamento (UE) 2024/1689 «sistema di IA» è un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

[ii] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale).

[iii] Council of Europe Treaty Series – No. 225; Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law.

[iv] S.1146 – 19ª Legislatura. Governo Meloni-I. Disposizioni e delega al Governo in materia di intelligenza artificiale.

Mette conto notare che esistono anche numerose altre proposte di legge presentate in Parlamento. Di seguito un elenco:

S.1245 – 19ª Legislatura Sen. Lorenzo Basso (PD-IDP) e altri Istituzione dell’Autorità nazionale per l’intelligenza artificiale e le neurotecnologie 25 settembre 2024.

C.1940 – 19ª Legislatura On. Emma Pavanelli (M5S) e altri Disposizioni concernenti l’impiego di sistemi di intelligenza artificiale nel settore del commercio elettronico nonché delega al Governo in materia di disciplina delle funzioni di vigilanza.

S.1116 – 19ª Legislatura Sen. Giorgio Maria Bergesio (LSP-PSd’Az) e altri Disposizioni concernenti l’adozione di una disciplina temporanea per la sperimentazione dell’impiego di sistemi di intelligenza artificiale. 23 aprile 2024.

C.1832 – 19ª Legislatura On. Chiara Tenerini (FI-PPE) Introduzione dell’insegnamento delle nozioni di base dei processi che governano l’intelligenza artificiale nei corsi della scuola secondaria di primo e di secondo grado.

C.1783 – 19ª Legislatura On. Ilaria Cavo (NM(N-C-U-I)-M) e altri Disposizioni per assicurare la riconoscibilità dei contenuti prodotti o modificati mediante sistemi di intelligenza artificiale.

S.1066 – 19ª Legislatura Sen. Lorenzo Basso (PD-IDP) e altri Norme per lo sviluppo e l’adozione di tecnologie di intelligenza artificiale.

C.1751 – 19ª Legislatura On. Chiara Tenerini (FI-PPE) Istituzione di una Commissione parlamentare per lo studio, la vigilanza e il controllo degli effetti della diffusione dell’intelligenza artificiale nell’economia, nella società e nel lavoro nonché per le opportunità e i diritti dei cittadini.

C.1695 – 19ª Legislatura On. Paolo Emilio Russo (FI-PPE) Disposizioni per assicurare la riconoscibilità dei contenuti prodotti o modificati mediante sistemi di intelligenza artificiale.

On. Anna Ascani (PD-IDP) e altri Istituzione del Ministero dell’innovazione e dello sviluppo tecnologico e disposizioni per il coordinamento delle politiche nazionali, lo sviluppo e la sostenibilità dell’innovazione tecnologica e digitale nonché per la disciplina dell’uso dei contenuti generati dall’intelligenza artificiale.

C.1631 – 19ª Legislatura On. Rosaria Tassinari (FI-PPE) Delega al Governo per la disciplina della fornitura e dell’impiego dei sistemi di intelligenza artificiale.

C.1577 – 19ª Legislatura On. Valentina Grippo (AZ-PER-RE) Norme per il coordinamento e la programmazione della politica nazionale in materia di intelligenza artificiale e innovazione digitale e istituzione di un Comitato interministeriale.

C.1534 – 19ª Legislatura On. Mauro Malaguti (FDI) e altri Disposizioni in materia di diffusione di immagini o voci di persone reali prodotte o modificate mediante sistemi di intelligenza artificiale.

C.1514 – 19ª Legislatura

On. Anna Ascani (PD-IDP) e altri Disposizioni per assicurare la trasparenza nella pubblicazione e diffusione di contenuti prodotti mediante sistemi di intelligenza artificiale.

S.917 – 19ª Legislatura Sen. Antonio Nicita (PD-IDP) e altri Misure sulla trasparenza dei contenuti generati da intelligenza artificiale

C.1444 – 19ª Legislatura On. Giovanni Luca Cannata (FDI) e altri Disposizioni concernenti la fornitura e l’impiego dei sistemi di intelligenza artificiale

C.1084 – 19ª Legislatura On. Giulio Centemero (LEGA) e altri Disposizioni concernenti l’adozione di una disciplina temporanea per la sperimentazione dell’impiego di sistemi di intelligenza artificiale

[v] SB-1047 Legge sull’innovazione sicura e protetta per i modelli di intelligenza artificiale di frontiera. Le industrie della Silicon Valley hanno fatto pressioni sul governatore della California affinché non promulgasse la legge. E il governatore ha posto il veto sulla legge già approvata dal Parlamento Californiano.

[vi] Proposta di direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale) COM/2022/496 final.

Si veda anche la risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale (2020/2014(INL)).

[vii] Per un primo approfondimento, anche sulle misure in materia prese dall’UE in materia di resilienza informatica, vedi il mio intervento dal titolo “Stabilità finanziaria e rischio informatico: nelle mani di D.O.R.A.”.

[viii] Il prodotto si chiama “Strategia, ed è commercializzato da Giuffré: https://shop.giuffre.it/023000406-strategia

[ix] Ho spiegato il perché dell’affermazione riportata nel testo nell’articolo “Diritto e previsione” in Foro italiano, 2021, V, 10 e ss.

[x] La sesta relazione si è occupata di intelligenza artificiale nel processo amministrativo. Di recente il Segretariato Generale della Giustizia Amministrativa – Servizio per l’Informatica ha redatto un documento avente ad oggetto le attività in corso di realizzazione nella introduzione delle tecnologie di intelligenza artificiale nella Giustizia amministrativa. Il report si trova a questo indirizzo: https://www.giustizia-amministrativa.it/web/guest/-/152174-350

La settima relatrice, che si è occupata di intelligenza artificiale nella giustizia ordinaria ha analizzato, tra le altre cose, l’ “UNESCO Global Judges’ Initiative: survey on the use of AI systems by judicial operators”; cfr. https://unesdoc.unesco.org/ark:/48223/pf0000389786.

[xi] Per approfondimenti rinvio al mio articolo dal titolo “Chiarezza degli atti processuali e processo telematico”.

[xii] Sulla nozione di “competenze digitali” rinvio al mio libro dal titolo “La cittadinanza digitale”.

 

 

 

Questo slideshow richiede JavaScript.

 

 

La registrazione dell’evento si trova qui

EVENTO 18 OTTOBRE:

https://vimeo.com/event/4638736

 

EVENTO 19 OTTOBRE:

https://vimeo.com/event/4638770

 

 

 

 

 

Skip to content