Il governo è pronto a mettere mano a una legge sull`Intelligenza artificiale. Per regolarne i confini e stanziare – secondo quanto trapela – fondi per investire in start-up attive nel campo dell`la. Questione di giorni, forse di qualche settimana, poi il provvedimento arriverà sul tavolo del Cdm. E uno dei punti chiave dovrebbe essere l`affermazione di un principio: no all`intelligenza artificiale nei tribunali. Almeno per tutto ciò che riguarda le decisioni: gli algoritmi non potranno mai sostituirsi ai giudici. Un tema dibattuto, quello dell`uso dell`Ia nelle aule di giustizia. Finito al centro di una indagine conoscitiva in corso al Senato promossa, tra gli altri, dal senatore e avvocato Alfredo Bazoli del Pd. «L`Ia può rivelarsi uno strumento utile sotto molti punti di vista, purché sia utilizzata con cautela. E soprattutto – sottolinea il vice-capogruppo dem a Palazzo Madama – purché serva da ausilio alle valutazioni di giudici e avvocati. Senza mai sostituirsi al loro ruolo».
Sta dicendo che ChatGpt potrebbe sbarcare in tribunale?
«Quello della giustizia è uno dei campi di applicazione più delicati della. Un settore “ad alto rischio”, secondo la legge appena approvata dal Parlamento Ue. Ecco perché prima di tutto bisogna capire quali possono essere le implicazioni. Per farlo, in commissione Giustizia abbiamo già avviato un ciclo di audizioni».
E cos`è emerso finora?
«Che l’Ia potrà rivelarsi utilissima nell`organizzazione del lavoro dei tribunali. Già oggi in molti uffici giudiziari sono in corso sperimentazioni. Allo stesso tempo bisogna andare cauti sull`impiego di algoritmi che possano condizionare decisioni o strategie difensive. E che potrebbero rivelarsi molto poco affidabili, talvolta pericolosi».
Condizionare decisioni in che senso?
«Mi riferisco all`uso di algoritmi che applicati a una mole significativa di informazioni, come le banche dati di giurisprudenza, sono in grado di predire quale potrebbe essere l`esito di una controversia. O perfino di indicare qual è la probabilità che un accusato sia davvero colpevole, o che un condannato per un certo reato finisca per compierlo di nuovo».
Sembra fantascienza…
«Invece è già realtà. Nei tribunali statunitensi è in uso un programma chiamato Compas, che calcola la probabilità di recidiva. Utilizzato come strumento di valutazione per decidere quali misure cautelari applicare. Un sistema finito al centro di polemiche accese, quando si è scoperto che era viziato da pregiudizi di natura razziale. Se vivevi in un certo quartiere o avevi la pelle di un certo colore, per l`algoritmo avevi più probabilità di tornare a delinquere. Un sistema ancora consultato, ma con grande cautela».
Dunque condivide l`idea del governo di stabilire che non possa sostituirsi ai giudici?
«In linea di principio, sì: se intendiamo Ila come uno strumento a servizio dell`uomo può rivelarsi utile in molti campi. Se invece diventasse un modo per prendere decisioni non filtrate, daremmo agli algoritmi un potere molto pericoloso. Ma mi chiedo: come tradurre tutto questo in norme? È da questa domanda che nasce la nostra indagine. Forse, da parte del governo, sarebbe più saggio aspettarne l`esito prima di prendere un`iniziativa».
Che tempi prevede?
«Contiamo di chiudere in qualche mese. In tempo per dare strumenti utili all`esecutivo, se vorrà muoversi con un proprio ddl. In ogni caso, consiglio di ripartire dalla Act europeo».
Niente sentenze affidate a ChatGpt, quindi. Ma allora come utilizzare l`Ia nei processi?
«Per organizzare ed estrapolare i dati già digitalizzati. E in prospettiva, fornire a utenti e cittadini un`idea di quelle che potrebbe essere le aspettative su una controversia. Non parlo di indicazioni sull`esito della vicenda specifica, ma si potrebbero far capire in anticipo i potenziali rischi o esiti di un`azione giudiziaria. Se usata bene, l`Ia può anche garantire più uniformità delle sentenze e certezza del diritto, aiutando i giudici a una maggiore uniformità nelle decisioni su casi simili». Tutto questo potrebbe dare sprint ai tempi della giustizia?
«Sì. La durata dei processi civili e penali dipende molto da come sono organizzati i dati nei singoli uffici: Ia potrebbe contribuire concretamente a catalogarli ed estrapolarli meglio. Un conto è fare queste operazioni a mano, un altro disporre di un sistema che possa rilevare interconnessioni tra sentenze e mettere a frutto banche dati in pochi secondi».
Deep fake: giusto intervenire?
«Anche il deep fake è connesso alla giustizia. Pensiamo alla formazione della prova: come stabiliamo se foto, filmati o audio che entrano in un processo sono stati manipolati con l`Ia? Regolamentare le modalità con cui si certifica la veridicità di queste prove è fondamentale. Per non parlare del controllo di polizia reso possibile dal riconoscimento facciale a opera delle telecamere: uno scenario concreto, da sottoporre a regole di trasparenza e democraticità».
In Brasile, ChatGpt ha scritto la prima legge a livello comunale. Da noi è ipotizzabile?
«Anche in questo caso credo che Ila potrà essere di ausilio per una migliore legislazione, fornendo bozze o comparando testi. Ma la stesura finale da parte dell`uomo resterà inevitabile: un compito troppo delicato per affidarlo a un algoritmo».


Ne Parlano