Diritto e tecnologie / Giustizia digitale

9 Marzo 2020

Gli strumenti digitali stanno stravolgendo la comunicazione e si impongono con una rivoluzione di carattere trasversale. I vari settori dell’attività umana sono stati lambiti e uno di questi, non ultimo, è il diritto su cui si sofferma Antoine Garapon nel recente Justice digitale (PUF, Paris, 2019), scritto con Jean Lassegue. 

In effetti anche la giustizia subisce quel fenomeno denominato ‘schock della modernità’, non nuovo ma ciclico quando le innovazioni scientifiche rompono i paradigmi consolidati. E questo accade quando esse incidono sulle variabili spazio-tempo, come è stato lucidamente notato (S. Kern, Il tempo e lo spazio, Il Mulino, 1988).

Oggi come ieri un settore specifico, in questo caso il diritto, è tallonato dalle tecnologie, è in affanno per l’invasione di strumenti tecnici fino a poco tempo prima inconcepibili. L’“azienda giustizia”, cioè quell’apparato dello stato che bilancia gli interessi nel civile, previene, controlla, protegge e punisce nel penale, si colloca in una fase embrionale di questo rapporto. Essa inizia a verificare modelli nuovi, cioè la possibilità che sia usata la tecnologia nelle varie articolazioni, sia al suo servizio, plasmata e sottomessa alle sue esigenze. E riguarda anche quelle più avveniristiche come l’Intelligenza Artificiale, capace di fornire prestazioni assimilabili a quelle dell'intelligenza umana e dotata dell'abilità di risolvere problemi o svolgere compiti tipici della mente. 

A seconda della diversa tipologia dei dati e degli algoritmi sono ipotizzabili alcuni modi attraverso cui la tecnologia può inserirsi nel lavoro degli operatori del diritto.

 

Tra i primi emerge la raccolta dei dati, una delle attività strutturali del lavoro giuridico. Si tratta di sistemare automaticamente documenti spesso di mole notevole, analizzare testi, predisporre atti per lo più ripetitivi. Una recente applicazione nel diritto penale è "Toga" che censendo i reati permette di verificare, tra l'altro, la competenza, la procedibilità, l'ammissibilità a riti alternativi, i termini prescrizionali, la durata delle misure cautelari, il calcolo della pena. È questo un tema che sta particolarmente a cuore agli avvocati, i quali assisterebbero in questo modo all’invasione della macchina in campi fino ad allora ad essi riservati. Uno scenario tutt’altro che apocalittico ma prossimo, che ridisegna la mappa di una professione suscitando preoccupazione per la riduzione del perimetro delle opportunità. Taluno però osserva che i legali “quando lamentano un calo della domanda sembrano dimenticare che molti cittadini con pretese giudiziarie si sentono esclusi fin dall'inizio” (R. Susskind, L’avvocato di domani, Guerini Next, 2019, e poi, non ancora tradotto Online courts and the future of justice, Oxford press 2019).

 

Del resto, negli Stati Uniti già da tempo esistono servizi di questo genere come “Ross Intelligence”, che consente agli operatori di redigere atti tenendo conto degli orientamenti giurisprudenziali. Una banca, la Morgan Chase, ha iniziato a utilizzare il “COIN” in grado di interpretare accordi commerciali e contratti di finanziamento in tempo reale, semplificando in termini strabilianti il lavoro. Una società, la “LawGeex”, ha realizzato un esperimento: ha contrapposto un algoritmo basato sull'intelligenza artificiale a venti avvocati esperti in una certa materia per individuare, nel minor tempo possibile, l'esistenza di clausole potenzialmente invalidanti. 

 

Un’altra applicazione è quella della Polizia Predittiva, il “Laws enforcement”, strumento di prevenzione che indica chi, dove e quando commetterà reati. Una sorta di realizzazione contemporanea del messaggio fantascientifico, alla Philiph Dick su cui ci si è già intrattenuti (P. Dick e il controllo del crimine). Inserendo nella macchina dati estrapolati da denunce di furti o rapine verificatesi nelle stesse zone e con modalità analoghe, il sistema è in grado di prevedere luoghi e orari in cui verosimilmente potranno essere commessi altri reati della stessa specie. 

Il fatto che in un certo quartiere si commettano più reati fa qualificare quindi quel quartiere, e coloro che da esso provengano, più a rischio di commissione di reati. Il che provoca un aumento dei controlli in quel luogo e conduce alla scoperta di ancora più reati, con la stringente conseguenza di un incremento della pericolosità di quel quartiere e di coloro che vi vivono, pur nell’eventualità che non si siano mai commessi reati. In tempi recenti questi strumenti hanno consentito di raggiungere obiettivi nel passato inimmaginabili, scoprendo connessioni difficilmente raggiungibili dall’operatore umano in USA (PredPol), in Germania (Precobs), in Inghilterra (Hart). Esistono però problemi ancora irrisolti, che nella sostanza sono quelli generali su questo argomento. L’uso non è regolato ma è affidato alla prassi. I conflitti potenziali con la privacy sono aperti. I sistemi si autoalimentano con dati da loro stessi prodotti attraverso un circolo vizioso, i loro brevetti continuano a essere privati con meccanismi gelosamente protetti. 

 

Vi sono ulteriori applicazioni laterali alla raccolta dei dati che di questa beneficiano. Si tratta ad esempio del “risk assestements tools”, sistema in grado di calcolare il rischio che un imputato si sottragga al processo o commetta reati, che vi ricada divenendo recidivo. In altri termini studia la pericolosità analizzando un numero di dati relativi al passato dell’individuo, individuando ricorrenze caratterizzate in base statistica. Un algoritmo denominato “Compas” stabilisce la probabilità di recidiva di un imputato per decidere se rilasciarlo o meno su cauzione. Nel 2016 la Corte Suprema del Wisconsin ha confermato la condanna alla pena di sei anni di reclusione nei confronti di certo Eric Loomis, arrestato su un'auto usata nel corso di un conflitto a fuoco. La pena si era basata sul responso dell’algoritmo che lo aveva definito «ad alto rischio di violenza». La Corte Suprema, pur rimarcando l’affidabilità dello strumento, aveva introdotto limiti precisando che i risultati dell’algoritmo non potevano essere determinanti in quanto non dovevano intaccare “la discrezionalità nel bilanciare l’insieme degli altri fattori”.

Ulteriore, cruciale variabile è l’impiego delle macchine rispetto alle decisioni, il cosiddetto giudice robot. La questione in realtà si suddivide in due aspetti simili, ma non coincidenti, da un lato la “previsione” della decisione, dall’altro la decisione vera e propria. 

 

Circa la “previsione” della decisione alcuni paesi sono all’avanguardia. Tra questi si pone ad esempio la Francia, ricorda Garapon, ove è in funzione il sistema “predictice.COM” che predice l’esito della controversia con probabilità statistica. Qualche anno fa due università, l’University College di Londra e l’University di Sheffield sperimentarono un algoritmo per predire i verdetti della CEDU con precisione del 79%. Come si è accennato le banche dati, esistenti già oggi, consentono di individuare propensioni e su questa base prevedere, con sufficiente grado di probabilità, quale possa essere l'orientamento di un giudice su una determinata questione. Non solo: esse agevolano il lavoro degli operatori nelle scelte da adottare o le strade da intraprendere. 

. Diversa questione ed altro piano di riflessione è “il decidere”. Alcuni paesi hanno programmato un sistema computazionale che smaltisce le cause civili di minor peso. L’Estonia ha divulgato un progetto, operativo nel primo semestre del 2020, per le cause civili al di sotto dei 7.000 euro. Nel contempo però è previsto un contrappeso, cioè la facoltà di appellare la decisione ‘robotica’ davanti a un magistrato di carriera. Anche la Cina si è impegnata su questo versante con la Corte Internet di Pechino che ha progettato un sistema di aiuto al magistrato uomo, agevolandolo nella ricerca di elementi e nel coordinamento dei dati.

Esistono alcuni ostacoli e perplessità, soprattutto sul versante penalistico. La decisione, la “rescissione autoritaria del dubbio” coma la definisce C. Schmitt, implica un intervento su un doppio livello. Da un lato coinvolge la conoscenza tecnica e il confronto con la normativa e la giurisprudenza. Dall’altro tocca elementi differenti, quali le testimonianze e gli apporti tecnici, inserendoli nell’architettura complessiva frutto della loro interazione. 

 

 

Si pensi alla testimonianza. Il giudice la considera utilizzando predefinite regole normative e massime di comune esperienza. Ad esempio è accettato che un teste sia credibile se, non avendo motivi di interesse né di inimicizia, ha riferito i fatti senza contraddizioni. Forse un elaboratore, opportunamente programmato, potrebbe procedere, ma non sempre è così. La valutazione di una testimonianza infatti non si risolve solo nella scelta vero/falso, quanto nelle sfumature con le quali il ricordo della realtà può essere ricostruito e narrato, talora distorti anche in buona fede.

Si possono allungare le esemplificazioni che ritengono negativo l’utilizzo esclusivo dell’algoritmo. Si pensi alla ragionevolezza con cui si giudica la responsabilità. La macchina è programmata per fornire risposte certe e non può avere dubbi, mentre il giudice deve assolvere qualora il parametro del ragionevole dubbio non sia superato. Esiste poi l’intreccio valutativo tra gli indizi delineato dalla legge per desumere l’esistenza di un fatto. Essi devono essere “gravi, precisi e concordanti” e anche in questo caso i requisiti non sono riconducibili a principi astratti, ma alle interconnessioni regolate dalla normativa. Ancora, per determinare la sanzione penale si ricorre a indici non matematici o statistici ma intrisi di soggettività, come l’intensità del dolo o il grado della colpa o i motivi a delinquere e il carattere del reo. Si è di fronte a una discrezionalità non assoluta ma relativa, guidata da parametri normativi applicati dal giudicante con la sua sensibilità. In sostanza il verdetto nel giudizio penale difficilmente, almeno allo stato, potrebbe essere calcolabile sulla base di algoritmi specifici. Le nostre leggi, come risultato di un passato storico spesso tormentato, lasciano al giudice la discrezionalità nel valutare e nel contempo ne delimitano gli spazi. È la discrezionalità ‘vincolata’.

 

Le istituzioni europee non sono rimaste insensibili a questi temi. Hanno emanato la Carta Etica Europea sulla applicazione alla giustizia dell'intelligenza artificiale il 4.12.2018, preceduta da una Risoluzione del 16.2.17, dalla Comunicazione della Commissione del 25.4.2018, dal Regolamento Dati Personali recepito in Italia dal Decreto legislativo 51 del 2018. Questi interventi prendono atto della «crescente importanza della intelligenza artificiale nelle nostre moderne società e dei benefici attesi quando questa sarà pienamente utilizzata al servizio della efficienza e qualità della giustizia». Individuano alcune fondamentali linee guida cui attenersi: il rispetto dei diritti fondamentali; il principio di non discriminazione; il principio di qualità e sicurezza; il principio di trasparenza; il principio di garanzia dell'intervento umano. Quindi l’ampia possibilità di utilizzare i nuovi strumenti nell'ambito del penale ha alcuni limiti. Gli operatori devono essere soggetti qualificati e ogni decisione deve essere sottoposta al controllo umano (ad esempio da parte del giudice utilizzatore del sistema automatizzato). Ciò significa che a un computer potrebbe essere demandata la soluzione di specifiche questioni alla base della decisione. Si pensi ai processi di natura tecnica con i quesiti sulla prova scientifica (dattiloscopica, balistica, sul Dna, ingegneristica, medico-legale, etc.) o sulla sussistenza del rapporto di causalità tra il comportamento tenuto e l’evento verificatosi.

 

La complessità dei rapporti tra giudice e macchina è lontana dal potersi definire. Essa è toccata da una pluralità di temi, dal bilanciamento di vantaggi e limiti, di obiettivi ottenibili e di rispetto delle leggi.

Una preliminare peculiarità della macchina robotica è insuperabile: quali dati sono al suo interno e quali sono utilizzabili per decidere? È il problema dell’autoalimentazione, ossia di reperire on line (o connettendosi a reti autonome) dati e informazioni ulteriori rispetto a quelli originariamente previsti. E quindi la loro catalogazione, la loro programmazione. Non solo: esistono meccanismi di selezione dei dati e delle informazioni utilizzabili dovuti ad esempio alle regole sulla tutela della riservatezza. Esse costituiscono un primo limite a un incontrollato utilizzo del patrimonio cognitivo disponibile nelle banche dati, in quanto una serie di dati sono acquisibili solo attraverso provvedimenti dell’autorità giudiziaria. 

In sostanza il problema, sottolinea ripetutamente Garapon con altri, non è tanto l’algoritmo in sé e nemmeno la tipologia dei compiti assegnati, quanto i dati. Questa base è inesauribile, riutilizzabile, durevole, variabile a secondo di chi li utilizza e degli scopi prefissati. In altri termini l’algoritmo senza dati è una macchina ferma in garage, mentre i dati forniscono il propellente per funzionare secondo quello che si vuole essa faccia. 

 

Il funzionamento degli algoritmi è poi coperto dal segreto industriale che ne rende impossibile la verificabilità, la sottoposizione al controllo della comunità scientifica. Una mancanza di trasparenza che rende ardua la contestazione di affidabilità o genuinità dello strumento. Di qui la proposta di organizzare a livello istituzionale un’infrastruttura adibita al controllo dell’algoritmo, del suo funzionamento, dei suoi dati. Un tentativo di scalfire la prerogativa dell’algoritmo come proprietario di se stesso, tutelato dal diritto di autore. 

Una riflessione è far rientrare questo tema tra i ‘desiderata’, cioè cosa ci si aspetta e quali attese nutre la collettività rispetto a un complesso sociale cruciale per impianti, investimenti, uomini, decisioni, influenza diretta e indiretta sui singoli cittadini. Riassuntivamente questi “desiderata” sono: la risposta alla domanda, la sua consistenza, la sua tempestività.

 

Sul piano dei vantaggi, programmare una macchina per la decisione giudiziaria è un potente aiuto per il giudicante, poiché in grado di gestire e comparare i precedenti con velocità molto superiore alla capacità umana. Inoltre influisce sul fattore “tempo” in quanto si astrae dalla dinamica reale e si colloca in un mondo formale. Questo comporta una diversa e maggiore rapidità e/ tempestività della decisione e quindi lo smaltimento incomparabile delle richieste di giustizia. E ancora è svincolata dai condizionamenti ambientali, non sente gli influssi della pressione collettiva, è indenne dall’aspettativa della opinione pubblica verso le soluzioni giudiziarie. Devolvendo la risoluzione ai dati meccanici sono escluse le variabili impreviste, in quanto le decisioni sono prevedibili e omogenee. Non solo: soprattutto nei paesi anglosassoni si diffonde il favore per la decisione robotica in quanto garantisce un’efficacia effettiva per tutti, aumenta l’accesso alla giustizia, la promuove invece di negarla con arretrati smaltibili ed anche in zone meno protette.

 

Esiste poi un profilo specifico relativo alla “consistenza della risposta”: la macchina è in grado di non incorrere nelle trappole mentali in cui invece può cadere la mente umana. Si diffondono infatti distorsioni che influiscono sul ragionamento comune nonché le euristiche, cioè le strategie di ragionamento adottate spontaneamente, che possono condurre all’errore. Ad esse costituiscono un antidoto gli algoritmi predittivi, da affiancare e/o sostituire. Del resto, come osserva Cevolani, la diffidenza per l’esautoramento degli aspetti psicologici è superabile, in quanto un algoritmo ben costruito è più affidabile del giudizio intuitivo umano. 

Quindi nessuna rottura con il passato, ma incisiva trasformazione: i riti diventano i processi informatici, i luoghi diventano i contatti digitali. Nella sostanza si passa dai luoghi fisici ai servizi informatici. 

Un flusso di opinioni, massiccio e perentorio, mostra freddezza o quantomeno cautela verso la macchina robotica, indicandola come aiuto ma mai un superamento dei giudici.

 

È assorbente il lato umano: l’uomo non è sostituibile e la sua cifra è distintiva e rappresenta il valore aggiunto. Se il giudizio, in specie l’affermazione di responsabilità, deve rendere ragione della complessità dell’umano agire e delle innumerevoli variabili che lo condizionano, solo un giudizio filtrato da una mente umana potrà assicurare tale esigenza. Quindi è necessario, osserva Garapon, garantire l’umanizzare, interessarsi delle sensibilità e delle emozioni. Esiste poi la questione della “dittatura del precedente”, del passato che viene pietrificato e congelato dalla macchina, che condiziona i giudizi futuri, ingabbia le soluzioni, offre risultati cristallizzati, pregiudica l'indipendenza del giudice e ne mina l’imparzialità, applica la soluzione proposta senza tener conto del caso concreto. E poi è presente la preoccupazione per l'affidabilità scientifica del risultato, nell'ipotesi in cui il programmatore compia un errore di progettazione che influenza la decisione. Non trascurabile l’incidenza sui diritti fondamentali, l’assenza di duttilità nel fronteggiare problemi e nello sventare la permanenza delle disparità sociali storiche.

Il quadro si può ulteriormente dilatare, la gamma dei favorevoli e dei contrari ampliarsi, trascinando anche l’organizzazione della giustizia nel vortice della “Quarta rivoluzione” di cui parla Floridi. Il messaggio della fantascienza distopica sembra accorciare le distanze dal presente. Un grande di quella letteratura, Isaac Asimov, in un minuscolo racconto (“Nove volte dieci”, 1958) narrava di un mondo governato dagli elaboratori quando un tecnico si trovò di fronte a un consesso di militari ed alti burocrati. Iniziò ad affrontare questioni complesse con carta e penna dimostrando ai presenti che i risultati erano raggiungibili anche senza macchina. Si diffuse l’incredulità in quanto nessuno si rendeva conto della potenzialità della carta e della penna rispetto a strumenti sempre più complessi, difficili da maneggiare e costosi soprattutto in campo militare. 

Il messaggio di Asimov è chiaro: le macchine liberano dal lavoro e nel contempo l’uomo si libera dalle macchine quando esse diventano sovrastanti, asfissianti, in una parola, eccessive.

 

TESTI CONSULTATI

– A. Carleo, a cura di, Decisione robotica, Il Mulino, 2019

– G. Cevolani, “Le trappole mentali del giudice”, Diritto penale uomo, rivista on line, 2020

– L. Floridi, La quarta rivoluzione, Raffaello Cortina, 2017

– H. Fy, Hello world, Bollati Boringhieri, 2018

– C. Parodi e V. Sellaroli, “Sistema penale e Intelligenza artificiale. Molte speranze e qualche equivoco”, Diritto penale contemporaneo, 6-19

– G. Resta, “Governare l’innovazione tecnologica, decisioni algoritmiche, diritti uguali e principio di eguaglianza”, Politica del diritto, n.2 del 2019

– R. Susskind, L’avvocato di domani, Guerini next 2019 

–  Idem, Online courts and the future of justice, oxford press 2019

Se continuiamo a tenere vivo questo spazio è grazie a te. Anche un solo euro per noi significa molto. Torna presto a leggerci e SOSTIENI DOPPIOZERO

Bollo blu Dona (Mobile)