Nella sua accezione più risalente l’espressione «Amministrazione digitale» indica l’adozione da parte della Pubblica Amministrazione delle tecnologie informatiche nello svolgimento delle proprie funzioni e nell’erogazione dei servizi. Con l’andare del tempo, e in conseguenza del progressivo potenziamento degli algoritmi e l’affermarsi della cosiddetta «intelligenza artificiale», quell’espressione indica anche la possibilità che la stessa decisione finale del funzionario pubblico venga sostituita da una decisione automatizzata, una decisione, cioè, adottata dai computer in piena autonomia.

Per fare degli esempi, si può ricordare che le agenzie federali statunitensi sono in grado di assumere decisioni amministrative automatizzate per: identificare le società che violano le disposizioni della Commissione di vigilanza sulla Borsa; per decidere se esistono i presupposti per concedere il diritto di asilo o per concedere indennità ai veterani di guerra; per prevedere l’insorgenza di problemi nei prodotti con finalità terapeutiche; e per molte altre finalità.

Ma è accettabile che le decisioni amministrative riguardanti noi cittadini possano essere prese sulla base di meccanismi di intelligenza artificiale (algoritmi) senza l’intervento umano volto a verificare che tali decisioni non siano viziate, illegali, discriminatorie? E, per converso: esiste un diritto del cittadino ad una «decisione umana»?

A tali interrogativi si propone di dare una risposta Giovanni Gallone nel bel libro dal titolo «Riserva di umanità e funzioni amministrative» (Wolters Kluwer, 2023). L’autore scandaglia a fondo i dati normativi esistenti, anche alla luce dei principi del diritto amministrativo, per dimostrare l’esistenza, appunto, di una «riserva di umanità» nell’adozione di decisioni da parte della Pubblica Amministrazione, principio che si traduce in un divieto assoluto (e non derogabile) di svolgimento del procedimento in forma totalmente automatizzata, senza cioè alcun intervento umano, intervento che deve aversi, quantomeno: o al momento della decisione di utilizzare un algoritmo oppure al momento dell’adozione della decisione finale. Tra i fondamenti di questa conclusione c’è l’idea che sottoporre una persona alla decisione integralmente automatizzata di un software risulti in sé lesivo della dignità umana.

Il problema è di natura giuridica. È in fase di definitiva approvazione il regolamento europeo sull’intelligenza artificiale (il 14 giugno scorso il Parlamento europeo ha espresso parere favorevole sulla bozza predisposta dalla Commissione, proponendo alcuni emendamenti). Sarà vietato l’uso dei sistemi di intelligenza artificiali che violano i principi fondamentali dell’Unione europea perché caratterizzati da un rischio inaccettabile. Per quel che riguarda specificamente l’Italia, il Consiglio di Stato ha già enucleato alcuni principi che devono essere applicati alla decisione automatizzata. Tra questi il principio di non esclusività della decisione algoritmica, per effetto del quale deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata.

Il problema, inoltre, è anche di natura etica. E, come ricorda Gallone, la quasi totalità delle opere che affrontano la questione condividono il timore che il genere umano, nel coltivare l’antica ambizione di dominare il mondo e proseguire sulla via dello sviluppo sociale ed economico, possa finire col rendere superfluo sé stesso.

In definitiva: possiamo mettere il nostro destino nelle mani degli algoritmi? Proviamo ad abbozzare una risposta partendo da due casi concreti.

Caso 1. Il film Sully ricostruisce la storia di un pilota (interpretato da Tom Hanks) che nel 2009 salvò la vita a 155 persone decidendo, in pochi minuti, di tentare l’atterraggio di emergenza nel fiume Hudson, a New York, dopo che uno stormo di uccelli aveva messo fuori uso i motori dell’aereo. Quel pilota dovette difendersi dall’accusa di non aver seguito il protocollo che (sulla base di quanto suggerito dai simulatori di volo) imponeva di dirigersi verso un piccolo aeroporto. Alla fine la decisione umana si rivelò più efficiente di quella che sarebbe stata presa dai computer.

Caso 2. Nel 2021, 14 persone perirono sulla funivia del Mottarone perché, stando alle indagini, erano stati disattivati i sistemi di sicurezza che avrebbero bloccato l’impianto in caso di malfunzionamenti. Se un robot, programmato sulla base della prima legge di Asimov che recita: «Un robot non può permettere che, a causa del suo mancato intervento, un essere umano riceva danno», avesse semplicemente impedito alla funivia di partire perché erano stati disattivate le misure di sicurezza, la tragedia sarebbe stata evitata. In questo caso la scelta umana è stata decisamente peggiore di quella che sarebbe stata presa da computer correttamente programmati.

Per quel che è dato sapere, attualmente gli algoritmi sono ancora imperfetti e a volte sono afflitti dagli stessi limiti (bias) degli umani. Però ci piace immaginare che sia possibile avere degli algoritmi davvero intelligenti, attribuendo a questa parola almeno il significato di «scegliere senza farsi male da soli». In quello scenario, quando si verificherà, probabilmente il principio di riserva di umanità conserverà intatto il proprio valore. Ma forse sarà importante anche riconoscere il diritto a sapere come avrebbe deciso l’algoritmo al posto degli umani.

Alto Adige, 21 giugno 2023

l’Adige, 22 giugno 2023

Skip to content