Vai al contenuto

Algoritmi e intelligenza artificiale nei tribunali

C’è tutto un filone giornalistico che tratta di temi legati alla tecnologia e all’innovazione e che vive di un topos molto ben definito: “Non è fantascienza, ma…” “Sembra un racconto ma invece è realtà”. E’ una figura retorica facile con cui si tenta di battere l’incredulità. Anche in questo caso, la stessa figura retorica risulta molto utile: è mai possibile che ci siano dei tribunali in cui i computer decidono la sorte di imputati umani? Sì.

Non è nemmeno una cosa tanto nuova. Negli Stati Uniti e in altri paesi i tribunali utilizzano sistemi a intelligenza artificiale per contribuire alle indagini già da qualche anno, usando big data ed elaborazioni algoritmiche – per non parlare di quando si tratta di prevenire il crimine, con le tecnologie di riconoscimento facciale già ben sviluppate in paesi come la Cina. Ma l’uso dell’intelligenza artificiale è sempre più frequente anche in fase di deliberazione.

algoritmi-tribunali

Leggi anche: Intelligenza artificiale: i robot nel mondo del lavoro

A che servono gli algoritmi nei tribunali statunitensi

Nel febbraio del 2013 Eric Loomis è stato fermato mentre guidava un’automobile usata durante una sparatoria nel Wisconsin, Stati Uniti. Loomis è stato arrestato con l’accusa di non essersi fermato al controllo della polizia. Il giudice che ha stabilito la pena non si è basato solo sulla fedina penale, ma anche sul punteggio assegnato all’imputato da un software chiamato Compas.

Sviluppato da un’azienda privata chiamata Equivant (in precedenza Northpointe) Compas è l’acronimo di Correctional offender management profiling for alternative sanctions, ed è stato presentato come capace di prevedere il rischio che un imputato commetta nuovamente un reato. Funziona attraverso un algoritmo, coperto da brevetto, che prende in considerazione alcune risposte date a un questionario di 137 domande.

Compas è uno dei tanti algoritmi di valutazione del rischio usati negli Stati Uniti per prevedere dove si concentreranno i reati, decidere che tipo di supervisione usare con un detenuto o, come nel caso di Loomis, fornire informazioni che potrebbero essere utili in tribunale. Compas ha classificato Loomis come una persona ad alta propensione a ripetere lo stesso reato, e l’uomo è stato condannato a sei anni di prigione.

Loomis ha presentato appello in base al fatto che il giudice, prendendo in esame i risultati di un algoritmo il cui funzionamento è segreto e non può essere esaminato, non gli ha garantito un processo equo. L’appello è giunto fino alla corte suprema del Wisconsin, che si è pronunciata a sfavore dell’uomo, sostenendo che il verdetto sarebbe stato lo stesso anche senza l’uso di Compas. Nella loro sentenza, tuttavia, hanno invitato alla cautela e ad esercitare il dubbio nell’uso dell’algoritmo.

Leggi anche: IBM Watson: 4 modi in cui l’intelligenza artificiale cambierà il settore della sanità

Il report dell’Associated Press

L’Associated Press ha pubblicato un lungo report in cui racconta per esempio il caso di Hercules Shepherd Jr., arrestato per possesso di cocaina. Crimine poco grave, che l’algoritmo ha analizzato tenendo conto dei precedenti e della storia giudiziaria dell’imputato. Verdetto: probabilità di commettere un altro crimine, due su sei; probabilità di saltare udienze del processo, una su sei. Per il computer, Hercules Shepherd Jr. era un ottimo candidato per essere rilasciato con una cauzione molto bassa, e il giudice di Cleveland ha concordato.

Secondo Ap, l’introduzione dell’intelligenza artificiale nei tribunali è l’innovazione più importante dai tempi dell’introduzione delle scienze sociali come la psicologia e la criminologia, e può soltanto diventare più influente man mano che gli algoritmi si fanno più sofisticati. Per ora i computer sostituiscono più che altro gli assistenti e gli archivisti che dovrebbero compilare i fascicoli sulla storia giudiziaria di un imputato e aiutare il giudice a prendere una decisione più equa, ma presto sarà possibile avere macchine che, in casi semplici, saranno in grado di sostituire i magistrati.

algoritmi-tribunaliSecondo un’inchiesta del 2016 di ProPublica, l’algoritmo discrimina gli afroamericani

Qui il discorso diventa più ampio, e riguarda la neutralità della tecnologia. Gli algoritmi non sono buoni o cattivi, ma la loro neutralità dipende dai dati a loro disposizione. Per esempio, ProPublica scoprì che Compas giudicava che fosse due volte più probabile che gli uomini di colore commettessero reato rispetto ai bianchi. Non c’era un problema di algoritmo: la macchina aveva semplicemente immagazzinato i dati giudiziari e riportato un bias preesistente. Alla fine l’errore è sempre umano.

La cautela è d’obbligo anche per Julia Dressel e Hany Farid, due ricercatori del Dartmouth college, nello stato del New Hampshire. In uno studio recente pubblicto su Science Advance hanno dimostrato che, nel valutare la potenziale recidività di un individuo, Compas non è più affidabile di un gruppo di volontari scelti a caso su internet.

“Immaginate di essere un giudice e che il vostro tribunale usi questo software. Le persone che l’hanno realizzato sostengono di avere accesso a una grande quantità di dati e algoritmi, e il loro software afferma che l’imputato è ad alto rischio”, dice Farid. “Ora immaginate che io vi abbia raccontato di aver chiesto a venti persone scelte a caso in rete se questa persona correva il rischio di commettere nuovamente un reato, e che loro abbiano detto di sì. Che peso dareste a queste due informazioni? Sono sicuro che gli dareste due pesi diversi. Ma quello che abbiamo scoperto dovrebbe far riflettere i tribunali”.

Compas è già stato al centro di polemiche in passato. Nel 2016 la giornalista specializzata in tecnologia Julia Angwin, insieme ai suoi colleghi di ProPublica, ha analizzato le valutazioni di Compas su oltre settemila persone arrestate nella contea di Broward, in Florida, e ha pubblicato un’inchiesta, in cui sostiene che l’algoritmo ha dei pregiudizi nei confronti degli afroamericani. I problemi sono causati dagli errori dell’algoritmo.

“I neri hanno quasi il doppio delle possibilità dei bianchi di essere etichettati come “ad alto rischio” pur non incorrendo poi in recidiva”, ha scritto il gruppo di ricerca. E Compas “commette l’errore opposto tra i bianchi: hanno molte più possibilità dei neri di essere etichettati come “a basso rischio’” ma poi commettono altri reati”.

Northpointe ha messo in dubbio l’analisi di ProPublica, come anche vari accademici, facendo notare, tra le altre cose, che il programma ha previsto correttamente i casi di recidiva sia dei bianchi sia dei neri. Per qualsiasi punteggio dato sulla scala da uno a dieci di Compas, un bianco e un nero hanno la stessa probabilità di commettere nuovamente un crimine. Altri hanno affermato che questo dibattito si fonda su una definizione soggettiva di equità, e che è matematicamente impossibile soddisfare gli standard stabiliti sia da Northpointe sia da ProPublica, come spiega chiaramente un’articolo del Washington Post.

Molti studi hanno dimostrato che gli algoritmi possono far ottenere buoni risultati nel sistema di giustizia penale. Bisogna solo capire meglio. Per assicurarci che questi strumenti siano accurati, bisognerebbe essere certi che funzionino prima di usarli, per prendere decisioni che riguardano la vita di una persona”. Bisogna assicurare che questi strumenti siano accurati, altrimenti non saranno equi nei confronti di nessuno”.

Leggi anche: Ovunque intelligenza artificiale. Tra digitale e realtà: ecco cosa accadrà

Hai scelto di non accettare i cookie

Tuttavia, la pubblicità mirata è un modo per sostenere il lavoro della nostra redazione, che si impegna a fornirvi ogni giorno informazioni di qualità. Accettando i cookie, sarai in grado di accedere ai contenuti e alle funzioni gratuite offerte dal nostro sito.

oppure