Ilaria Sacchettoni - 15 December 2024
La Lettura, 15 dic 2024
Il fascino dell’Intelligenza artificiale, infallibile sequenza di algoritmi, contro il «metodo Ciampelli». Il dilemma tra una giustizia algebricamente efficiente e il suo opposto è tutto nella (quotidiana) guerra tra due eserciti all’apparenza diversamente attrezzati.
Prima di schierarsi, allora, converrà familiarizzare con l’inconsapevole autrice del suddetto metodo. Valeria Ciampelli è la giudice del Tribunale di Roma che il 6 novembre 2023 ha trasformato, suo malgrado, un’udienza in epifania. Di fronte a lei Zaira P., una trentanovenne con precedenti per spaccio, fermata con alcune dosi di cocaina e crack in tasca. La giudice per un attimo incontra il suo sguardo e cambia direzione. La sequenza di reati ascritti (diremmo l’algoritmo) voleva per la spacciatrice il carcere mentre lei stessa, la donna, vedova senza mezzi con bambini a carico, certamente si assolveva. Ciampelli stabilisce il più lieve obbligo di firma più la raccomandazione di «dare prova di buona volontà» alla quale aggiunge la necessaria chiosa: «Lo faccia per i suoi figli, non per me».
Ora, nell’avventurarsi a parlare del binomio «Intelligenza artificiale-algoritmo», vale la pena ricordare che Ciampelli è una e non tutti. Che i tribunali sono, in più, drammaticamente sottorganico. Che, come ricorda l’avvocato Francesco Petrelli, presidente dell’Unione Camere Penali (Ucpi), «il mondo del crimine già da tempo si avvale dell’Intelligenza artificiale per commettere e organizzare reati». Lungi dal combattere a mani nude, la giustizia va, perciò, attrezzandosi. Così scrive il professor Vittorio Manes, docente di Diritto penale all’Università di Bologna e autore di un recente editoriale sulla rivista «Diritto di difesa» nel quale (con accattivanti citazioni cinefile) affronta il tema. Occorre guardarsi attorno, scrive. «Nel febbraio 2023, un giudice colombiano — Padilla, di Cartagena — ha pronunciato la prima decisione elaborata, di fatto, dal chatbot GPT, lo ha interrogato su una questione in materia di detrazioni fiscali per le cure mediche sostenute da un portatore di handicap, ricevendone una risposta giudicata convincente».
Il giudice Padilla è in buona (ma eterogenea) compagnia. Negli Stati Uniti c’è un software — Do not pay — che sostituisce un avvocato in giudizio; in Cina un team di ricercatori ha progettato un pm cibernetico; in Argentina è stata creata una struttura finalizzata all’utilizzo della IA in chiave predittiva che evoca le precog di Spielberg in Minority Report (2002). Questione di tempo insomma. Ma anche di qualità dell’algoritmo. Le macchine possono aiutare o complicare, dipende dai casi, fa capire padre Paolo Benanti, francescano, presidente della commissione governativa sull’IA: «Il cosiddetto machine learning, una delle forme più diffuse dell’algoritmo per l’Intelligenza artificiale, ha una sua forma opaca che realizza un paradosso. Da un lato permette un’automazione spinta rafforzando la burocratizzazione, dall’altro l’opacità dei suoi processi decisionali compromette la trasparenza e l’equità mettendo in crisi l’ideale weberiano (che vuole un’applicazione uniforme di regole, ndr). L’apprendimento automatico, nella sua opacità, costituisce un paradigma di programmazione non procedurale: i programmi prodotti da questa tecnica non possono essere descritti come una concatenazione di regole e costituirebbero una burocratizzazione senza spiegazioni».
La domanda centrale, rilanciata da padre Benanti, è la seguente: «L’utilizzo del machine learning opaco pone sfide etiche e politiche cruciali. Come garantire trasparenza, equità e responsabilità in un mondo in cui le decisioni sono affidate ad algoritmi opachi?».
Il «metodo Ciampelli» è invece «tracciato», motivato, impugnabile. Ascoltiamo a questo proposito le parole di un gip del Tribunale di Roma che si è a lungo occupato anche della formazione dei magistrati, Costantino De Robbio: «Viene in mente il paradosso di Achille e la tartaruga. Si possono processare un numero enorme di dati, inserire in un pc tutti i precedenti del mondo ma mancherebbe l’ultimo passo perché la varietà di casi è infinita. Che si fa se il caso concreto non rientra in alcun precedente?». L’eccezione, osserva De Robbio, è motore di nuovi traguardi: vogliamo sacrificarli? «Al giudice — dice — è data la possibilità di decidere anche contro i precedenti purché renda conto mediante motivazione del suo percorso logico. La giustizia, diversamente, non potrebbe contribuire al progresso sociale come avviene».
Accanto alla questione sollevata da De Robbio c’è il tema caro a Vittorio Manes (e agli avvocati difensori) che nell’editoriale cui si accennava mette in guardia dalla «disumanizzazione del giudizio»: «L’esperienza del processo da remoto, durante l’emergenza Covid, si è tradotta in un numero percentualmente crescente di condanne e in un innalzamento del livello di severità delle pene irrogate da un giudice che non aveva l’imputato davanti agli occhi». Le Camere Penali invitano, dunque, alla prudenza: «Il fatto che le decisioni, oggi, siano condivise attraverso una chiara procedura offre — dice Petrelli — una garanzia accettabile di ispezionabilità. Si può banalmente affermare che l’Intelligenza artificiale potrà farsi “giudice” solo nel caso in cui sia essa stessa “imputata”».
Armi pari insomma. Il timore degli avvocati, sintetizzato da Manes, è che l’algoritmo, con le sue certezze, faccia strage del grande protagonista del processo giudiziario. Il ragionevole dubbio: «La distanza — scrive Manes — con il coefficiente umanistico richiesto in talune decisioni potrebbe amplificarsi quanto più la questione si avvicini all’irrogazione di una pena carceraria». Come sarebbe andata, insomma, se Ciampelli non avesse incontrato lo sguardo di Zaira P. sostituita da un processo artificiale?
Il punto è che la macchina intesa come software è già con noi. E ha trasformato i nostri comportamenti, la nostra visione del mondo («È velleitario credere che l’Intelligenza artificiale sia uno strumento democratico nella nostra piena disponibilità in quanto inevitabilmente rischia di introdurre gravi asimmetrie nel rapporto fra attori del processo», riflette il pessimista Petrelli ricordando come «dalla vanga al cellulare» questi strumenti hanno trasformato il nostro rapporto con il mondo). Allora, forse, si dovrà riflettere sui possibili ambiti nei quali introdurla vantaggiosamente e senza troppi effetti collaterali. Secondo padre Benanti «in alcune istanze dell’amministrazione della giustizia, si pensi ad esempio in quella tributaria, questo tipo di strumenti potrebbe essere di grande aiuto per un’applicazione efficiente e trasparente di alcune direttrici di equità». Concorda De Robbio: «È sicuramente possibile utilizzare i software basati sull’Intelligenza artificiale per la redazione di provvedimenti giuridici di carattere seriale». Una sorta di «concessione» che lascia perplesso Enrico De Santis, autore del manuale di Aracne (2021) Umanità, complessità e intelligenza artificiale che si è posto il problema e lo ha risolto positivamente (con buona pace delle obiezioni): «Lo strumento “Intelligenza artificiale” è una nostra estensione e come tale si configura in qualità di assistente molto capace che può coadiuvare il lavoro di un impiegato, di uno scienziato o anche di un giudice, magari ravvedendolo su una decisione troppo dura».
Premesso, spiega De Santis, che i modelli di apprendimento automatico «permettono di emulare anche gli aspetti irrazionali presenti nel linguaggio o nel comportamento umano» occorre riflettere sull’aspetto strettamente tecnico della giustizia. «I sistemi di leggi — dice De Santis — oggi che il diritto positivo è la base non detta delle decisioni normate possono essere dominio delle macchine capaci di apprendimento». Occorrerà ben programmare l’algoritmo insomma. Dopotutto, conclude l’esperto, il nostro background non è così differente: «Non esiste nessun artista che non abbia ricevuto in qualche mondo un influsso, una ispirazione da un’opera o da un pensiero preesistente. L’operato di ChatGPT non è dissimile dall’operato umano».
Il giudice automa non sarà più eresia?
Settembre 2023