Trento, 1° giugno 2018
Festival dell’economia. (programma)
Intelligenza artificiale (AI), lavoro e responsabilità.
a cura di Exprivia
coordina Pino Bruno
intervengono: Federico Butera, Giovanni Pascuzzi, Giovanni Sebastiano
PRIMA DOMANDA DEL MODERATORE. Da un paio di anni i ricercatori dello University College di Londra hanno creato un giudice virtuale – grazie ad un algoritmo basato su AI e machine learning – e gli hanno sottoposto diversi casi che sono stati trattati dalla Corte Europea per i diritti Umani. Il risultato: nel 79% dei casi il computer ha emesso lo stesso verdetto dei giudici in carne e ossa. La differenza del 20% è da attribuire a quei casi in cui la corte ha interpretato le leggi invece di applicarle alla lettera. Risparmieremo sulla giustizia?
RISPOSTA
E’ davvero possibile che un software si sostituisca al giudice?
Il problema è il risparmio? (se aboliamo il codice ci sarebbe un risparmio sicuro, ad esempio perché non dovremmo più pagare la giustizia penale: ma cosa succederebbe della società civile?).
Il moderatore fa riferimento ad un articolo apparso su Repubblica che a propria volta cita il saggio dal titolo di Nikolaos Aletras dal titolo: Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective.
La premessa principale di detto articolo è che le sentenze pubblicate possano essere usate per testare la possibilità di una analisi testuale per le previsioni ex ante dei risultati sul presupposto che ci sia abbastanza somiglianza tra (almeno) alcuni pezzi del testo dei giudizi pubblicati e le domande presentate alla Corte e / o alle memorie presentate dalle parti con rispetto a casi pendenti. Si basa sul fatto che le persone reagirebbero agli stimoli.
Qui l’intelligenza artificiale e la “capacità predittiva” fa leva sull’analisi del linguaggio.
MA POSSIAMO USARE L’INTELLIGENZA ARTIFICIALE PER GIUDICARE LE PERSONE (condannare)?
In Italia questo dovrebbe essere escluso
D.lgs 196/2003. Art. 14. Definizione di profili e della personalità dell’interessato
1. Nessun atto o provvedimento giudiziario o amministrativo che implichi una valutazione del comportamento umano può essere fondato unicamente su un trattamento automatizzato di dati personali volto a definire il profilo o la personalità dell’interessato.
Nuovo regolamento sulla Privacy. Articolo 22 Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione
- 1. L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.
(Per riferimenti generali vedi Il diritto dell’era digitale)
Nello Stato del Wisconsin è stata emanata una sentenza per una sparatoria nella quale il condannato ha ricevuto una lunga pena detentiva perché un software chiamato Compas ha giudicato alta la possibilità che lui torni a delinquere. L’imputato, Eric Loomis, ha fatto ricorso sostenendo che non può essere tenuto in carcere sulla base di un meccanismo del quale non solo lui e la sua difesa, ma nemmeno i giudici conoscono il funzionamento. La Corte Suprema del Wisconsin gli ha dato torto. C’è da tutelare il diritto della difesa di sapere come vengono costruite le accuse a carico dell’imputato. I tribunali non sviluppano i loro algoritmi: comprano quelli di società private che, proteggendo i loro brevetti, non ne rivelano il funzionamento. Un’inammissibile mancanza di trasparenza. Tanto più che l’algoritmo, anche se funziona bene, non è neutrale. Ad esempio basa certi giudizi su valutazioni socioeconomiche: numeri oggettivi ma con implicazioni politiche. nella prospettiva di un loro uso da parte dei governi. [La Corte Suprema ha negato il writ of certiorari].
Rilevanza delle euristiche nel processo decisionale dei “giudici umani”.
Euristica dell’unica buona ragione: non è vero che prima di decidere analizziamo tutte le possibili ragioni, i pro e i contro. Ci si ferma alla prima buona ragione che giustifica una certa decisione. Gigerenzer (Decisioni intuitive) dimostra che questo è valido per i medici quando devono fare una diagnosi o decidere una terapia (p. 174) e per i giudici che devono decidere se rilasciare un imputato su cauzione (p. 193).
Esperimenti in passato: passare con il rosso, rilascio licenza edilizia.
Logica if…then… (se uccidi un uomo – condanna a 24 anni)
Ma il ragionamento giuridico non è di tipo sillogistico, ma argomentativo.
Difficile ridurlo ad algoritmo. Ogni caso diverso dall’altro.
E poi c’è il tema della complessità dell’algoritmo
E’ oscuro perché complesso
Come facciamo ad essere certi che non sia pilotato?
Il giudice può essere corrotto, ma anche il software può essere “pilotato”
La giustizia va ad li là dell’applicare la legge (temi etici li riprendiamo dopo).
Un’altra considerazione
Un Algoritmo deciderebbe sempre nello stesso modo
Ma in questo modo non ci sarebbe nessuna evoluzione del diritto né ci sarebbero istituti di creazione giurisprudenziale (come ad esempio il “danno biologico”) (per approfondimenti, vedi La creatività del giurista).
Il codice civile ha più di 70 anni. Solo l’evoluzione della giurisprudenza ha consentito di adeguarlo ad una società che è profondamente cambiata (si veda la parabola della responsabilità civile e l’ampliamento del novero dei danni risarcibili.
Una applicazione del diritto sempre uguale a se stessa porterebbe ad una sostanziale ingiustizia.
SECONDA DOMANDA DEL MODERATORE. Parliamo di roboetica. Rispetto al funzionamento delle macchine, la responsabilità umana diventa un tema complesso. C’è la responsabilità del progettista, del costruttore, del programmatore, dell’utilizzatore, del manutentore. Ognuno se ne deve far carico, in una prospettiva etica e deontologia. Come se ne verrà fuori?
Distinzione tra responsabilità giuridiche e responsabilità etiche
Per le responsabilità giuridiche si vedano:
- la Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL))
- la Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni: L’intelligenza artificiale per l’Europa Bruxelles, 25.4.2018 COM(2018) 137 final
Sul piano etico esistono già molti decaloghi di regole
I più importanti
- La citata Risoluzione del Parlamento europeo
- Future of life institute https://futureoflife.org/ai-principles/
- Università di Montreal https://www.montrealdeclaration-responsibleai.com/the-declaration
- The future of world http://www.thefutureworldofwork.org/media/35420/uni_ethical_ai.pdf
Analizzando questi documenti, si scopre che diversi sono i “valori” cui dovrebbero ispirarsi la robotica e l’intelligenza artificiale.
Pur essendo consapevole che essa è assolutamente incompleta, la riproduco di seguito perché forse suscita qualche riflessione. Non tanto sui valori, quanto sulle paure (più o meno inconsce) e su ciò che ci aspettiamo dai robot e dalla intelligenza artificiale. Nella certezza che ciò che realmente accadrà sarà diverso da ciò che noi oggi possiamo immaginare.
Su due “valori” vorrei soffermare l’attenzione.
Il primo è la progettazione consapevole.
Software e robot devono essere progettati in modo che siano rispettate determinate regole, ad esempio il rispetto della privacy. Si chiama “privacy by design”, ed è previsto dall’articolo 25 del nuovo regolamento sulla privacy.
Il secondo è la trasparenza.
Nella citata Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), si legge testualmente:
“pone l’accento sul principio della trasparenza, nello specifico sul fatto che dovrebbe sempre essere possibile indicare la logica alla base di ogni decisione presa con l’ausilio dell’intelligenza artificiale che possa avere un impatto rilevante sulla vita di una o più persone; ritiene che debba sempre essere possibile ricondurre i calcoli di un sistema di intelligenza artificiale a una forma comprensibile per l’uomo; ritiene che i robot avanzati dovrebbero essere dotati di una “scatola nera” che registri i dati su ogni operazione effettuata dalla macchina, compresi i passaggi logici che hanno contribuito alle sue decisioni”.
Uno dei principi etici, quindi, è la trasparenza, che consentirebbe di capire come funzionano gli algoritmi. Ma questo urta contro la logica proprietaria e del segreto industriale: se voglio sviluppare e vendere un prodotto non posso dire come è fatto, altrimenti sarà copiato da altri. Si scoraggerebbero gli investimenti nel settore.
Il conflitto tra trasparenza e proprietà intellettuale deve essere necessariamente affrontato.
Comunicazione della Commissione (pag 2). Intelligenza artificiale si basa su: a) potenza di calcolo; b) grande disponibilità di dati; c) progresso degli algoritmi.
IA (e robot) si basano su algoritmi.
Algoritmo è un processo, ovvero una sequenza di operazioni:
- Ad ogni passo è già deciso, in modo deterministico, quale sarà il passo successivo
- La sequenza deve tendere ad un risultato concreto e utile
L’algoritmo definisce il comportamento dell’uomo razionale.
Algoritmo sacrifica (libro: La dittatura del calcolo):
L’equità per l’efficienza.
L’attendibilità di giudizio per la funzionalità dell’apparato. .
Ma esiste davvero l’uomo razionale?
E’ possibile fare sempre scelte razionali? E’ un bene che siano prese solo soluzioni razionali?
Sistema 1 e sistema 2. Le euristiche.
Conosciamo più di quello che sappiamo dire.
La rovesciata di Ronaldo
Torniamo a domanda iniziale sui giuristi
I giuristi usano molto il linguaggio. Ma la differenza tra un giurista e un giurista bravo sta nel fatto che quest’ultimo padroneggia, oltre al metodo formale, anche euristiche e conoscenza tacita.
Fino a quando AI non avrà anche euristiche e conoscenza tacita non potranno sostituire l’uomo nel giudicare.
Ma quando l’avranno saranno degli uomini: ma i problemi saranno molti di più.
Non a caso PARLAMENTO UE prevede la registrazione dei robot intelligenti (una specie di “registro dello stato civile”).
Tra le molte persone che hanno seguito il seminario sull’intelligenza artificiale c’era anche il sociologo del lavoro Domenico De Masi. Nella parte finale dell’incontro ha preso la parola e ha espresso la seguente riflessione:
“Un ventenne di oggi ha davanti a sé circa 70 anni di vita. 70 anni di vita sono 660.000 ore. Questo giovane delle sue 660.000 ore al massimo dovrà lavorare 60.000 ore. Restano 600.000 ore di totale non-lavoro. Immaginiamo che dedichi 200.000 ore per dormire, mangiare e simili. Gli restano 400.000 ore di totale tempo libero. Allora stare a continuare a dire a questi giovani: studiate cose che servono per il lavoro (quando il lavoro sarà soltanto un quinto della loro vita futura) non è forse fuorviante rispetto a quello che gli direi io. E cioè: studiate le cose che vi servono per il tempo libero perché è lì che passerete il vostro futuro?“