Ilaria Sacchettoni - 15 December 2024
La Lettura, 15 dic 2024
Il fascino dell’Intelligenza artificiale, infallibile sequenza di algoritmi, contro il «metodo Ciampelli». Il dilemma tra una giustizia algebricamente efficiente e il suo opposto è tutto nella (quotidiana) guerra tra due eserciti all’apparenza diversamente attrezzati.
Prima di schierarsi, allora, converrà familiarizzare con l’inconsapevole autrice del suddetto metodo. Valeria Ciampelli è la giudice del Tribunale di Roma che il 6 novembre 2023 ha trasformato, suo malgrado, un’udienza in epifania. Di fronte a lei Zaira P., una trentanovenne con precedenti per spaccio, fermata con alcune dosi di cocaina e crack in tasca. La giudice per un attimo incontra il suo sguardo e cambia direzione. La sequenza di reati ascritti (diremmo l’algoritmo) voleva per la spacciatrice il carcere mentre lei stessa, la donna, vedova senza mezzi con bambini a carico, certamente si assolveva. Ciampelli stabilisce il più lieve obbligo di firma più la raccomandazione di «dare prova di buona volontà» alla quale aggiunge la necessaria chiosa: «Lo faccia per i suoi figli, non per me».
Ora, nell’avventurarsi a parlare del binomio «Intelligenza artificiale-algoritmo», vale la pena ricordare che Ciampelli è una e non tutti. Che i tribunali sono, in più, drammaticamente sottorganico. Che, come ricorda l’avvocato Francesco Petrelli, presidente dell’Unione Camere Penali (Ucpi), «il mondo del crimine già da tempo si avvale dell’Intelligenza artificiale per commettere e organizzare reati». Lungi dal combattere a mani nude, la giustizia va, perciò, attrezzandosi. Così scrive il professor Vittorio Manes, docente di Diritto penale all’Università di Bologna e autore di un recente editoriale sulla rivista «Diritto di difesa» nel quale (con accattivanti citazioni cinefile) affronta il tema. Occorre guardarsi attorno, scrive. «Nel febbraio 2023, un giudice colombiano — Padilla, di Cartagena — ha pronunciato la prima decisione elaborata, di fatto, dal chatbot GPT, lo ha interrogato su una questione in materia di detrazioni fiscali per le cure mediche sostenute da un portatore di handicap, ricevendone una risposta giudicata convincente».
Il giudice Padilla è in buona (ma eterogenea) compagnia. Negli Stati Uniti c’è un software — Do not pay — che sostituisce un avvocato in giudizio; in Cina un team di ricercatori ha progettato un pm cibernetico; in Argentina è stata creata una struttura finalizzata all’utilizzo della IA in chiave predittiva che evoca le precog di Spielberg in Minority Report (2002). Questione di tempo insomma. Ma anche di qualità dell’algoritmo. Le macchine possono aiutare o complicare, dipende dai casi, fa capire padre Paolo Benanti, francescano, presidente della commissione governativa sull’IA: «Il cosiddetto machine learning, una delle forme più diffuse dell’algoritmo per l’Intelligenza artificiale, ha una sua forma opaca che realizza un paradosso. Da un lato permette un’automazione spinta rafforzando la burocratizzazione, dall’altro l’opacità dei suoi processi decisionali compromette la trasparenza e l’equità mettendo in crisi l’ideale weberiano (che vuole un’applicazione uniforme di regole, ndr). L’apprendimento automatico, nella sua opacità, costituisce un paradigma di programmazione non procedurale: i programmi prodotti da questa tecnica non possono essere descritti come una concatenazione di regole e costituirebbero una burocratizzazione senza spiegazioni».
La domanda centrale, rilanciata da padre Benanti, è la seguente: «L’utilizzo del machine learning opaco pone sfide etiche e politiche cruciali. Come garantire trasparenza, equità e responsabilità in un mondo in cui le decisioni sono affidate ad algoritmi opachi?».
Il «metodo Ciampelli» è invece «tracciato», motivato, impugnabile. Ascoltiamo a questo proposito le parole di un gip del Tribunale di Roma che si è a lungo occupato anche della formazione dei magistrati, Costantino De Robbio: «Viene in mente il paradosso di Achille e la tartaruga. Si possono processare un numero enorme di dati, inserire in un pc tutti i precedenti del mondo ma mancherebbe l’ultimo passo perché la varietà di casi è infinita. Che si fa se il caso concreto non rientra in alcun precedente?». L’eccezione, osserva De Robbio, è motore di nuovi traguardi: vogliamo sacrificarli? «Al giudice — dice — è data la possibilità di decidere anche contro i precedenti purché renda conto mediante motivazione del suo percorso logico. La giustizia, diversamente, non potrebbe contribuire al progresso sociale come avviene».
Accanto alla questione sollevata da De Robbio c’è il tema caro a Vittorio Manes (e agli avvocati difensori) che nell’editoriale cui si accennava mette in guardia dalla «disumanizzazione del giudizio»: «L’esperienza del processo da remoto, durante l’emergenza Covid, si è tradotta in un numero percentualmente crescente di condanne e in un innalzamento del livello di severità delle pene irrogate da un giudice che non aveva l’imputato davanti agli occhi». Le Camere Penali invitano, dunque, alla prudenza: «Il fatto che le decisioni, oggi, siano condivise attraverso una chiara procedura offre — dice Petrelli — una garanzia accettabile di ispezionabilità. Si può banalmente affermare che l’Intelligenza artificiale potrà farsi “giudice” solo nel caso in cui sia essa stessa “imputata”».
Armi pari insomma. Il timore degli avvocati, sintetizzato da Manes, è che l’algoritmo, con le sue certezze, faccia strage del grande protagonista del processo giudiziario. Il ragionevole dubbio: «La distanza — scrive Manes — con il coefficiente umanistico richiesto in talune decisioni potrebbe amplificarsi quanto più la questione si avvicini all’irrogazione di una pena carceraria». Come sarebbe andata, insomma, se Ciampelli non avesse incontrato lo sguardo di Zaira P. sostituita da un processo artificiale?
Il punto è che la macchina intesa come software è già con noi. E ha trasformato i nostri comportamenti, la nostra visione del mondo («È velleitario credere che l’Intelligenza artificiale sia uno strumento democratico nella nostra piena disponibilità in quanto inevitabilmente rischia di introdurre gravi asimmetrie nel rapporto fra attori del processo», riflette il pessimista Petrelli ricordando come «dalla vanga al cellulare» questi strumenti hanno trasformato il nostro rapporto con il mondo). Allora, forse, si dovrà riflettere sui possibili ambiti nei quali introdurla vantaggiosamente e senza troppi effetti collaterali. Secondo padre Benanti «in alcune istanze dell’amministrazione della giustizia, si pensi ad esempio in quella tributaria, questo tipo di strumenti potrebbe essere di grande aiuto per un’applicazione efficiente e trasparente di alcune direttrici di equità». Concorda De Robbio: «È sicuramente possibile utilizzare i software basati sull’Intelligenza artificiale per la redazione di provvedimenti giuridici di carattere seriale». Una sorta di «concessione» che lascia perplesso Enrico De Santis, autore del manuale di Aracne (2021) Umanità, complessità e intelligenza artificiale che si è posto il problema e lo ha risolto positivamente (con buona pace delle obiezioni): «Lo strumento “Intelligenza artificiale” è una nostra estensione e come tale si configura in qualità di assistente molto capace che può coadiuvare il lavoro di un impiegato, di uno scienziato o anche di un giudice, magari ravvedendolo su una decisione troppo dura».
Premesso, spiega De Santis, che i modelli di apprendimento automatico «permettono di emulare anche gli aspetti irrazionali presenti nel linguaggio o nel comportamento umano» occorre riflettere sull’aspetto strettamente tecnico della giustizia. «I sistemi di leggi — dice De Santis — oggi che il diritto positivo è la base non detta delle decisioni normate possono essere dominio delle macchine capaci di apprendimento». Occorrerà ben programmare l’algoritmo insomma. Dopotutto, conclude l’esperto, il nostro background non è così differente: «Non esiste nessun artista che non abbia ricevuto in qualche mondo un influsso, una ispirazione da un’opera o da un pensiero preesistente. L’operato di ChatGPT non è dissimile dall’operato umano».
Il giudice automa non sarà più eresia?
Settembre 2023
📚 «Intelligenza Artificiale e Indagini Penali», volume curato dal Dott. Cesare Parodi, Procuratore della Repubblica e Presidente ANM (Associazione Nazionale Magistrati) e dall'Avv. Tania Rizzo, Avvocata del Foro di Lecce.
✒️ Il nostro capitolo ha affrontato il tema dell’intelligenza artificiale e di come essa possa trasformare gli strumenti di indagine alla luce del «diluvio dei dati» e della crescente presenza di agenti intelligenti che, se da un lato possono supportare i dispositivi investigativi, dall’altro possono costituire nuovi strumenti per la commissione di reati. La base concettuale resta quella che, qui e altrove, abbiamo definito «rivoluzione cognitiva», resa possibile dal raggiungimento, da parte della tecnica, di un dominio su forme espressive che, fino a tempi recenti, erano attribuite in modo esclusivo alla sfera cognitiva dell’uomo.
Questa la lista degli autori, che hanno contribuito a realizzare un'opera attuale e di valore:
Antonio Balsamo, Sostituto Procuratore Generale presso la Corte di cassazione;
Maurizio Bortolotto, Avvocato del Foro di Torino;
Giovanni Canzio, Primo Presidente emerito della Corte di cassazione;
Ginevra Cerrina Feroni, Vice Presidente del Garante per la protezione dei dati personali e Professoressa ordinaria di diritto pubblico comparato presso l'Università degli Studi di Firenze;
Anna Maria Cherubini, Professoressa aggregata e ricercatrice di fisica matematica presso l'Università del Salento;
Paolo Dal Checco, Consulente Informatico Forense
Siro De Flammineis, Sostituto procuratore della Procura della Repubblica di Siena e Dottore di ricerca in diritto e procedura penale presso l'Università La Sapienza di Roma;
Enrico De Santis, Ph.D., Ricercatore e docente di Computational Intelligence e Pattern Recognition presso l'Università Sapienza di Roma;
Fabio Di Vizio, Sostituto procuratore della Procura della Repubblica di Firenze e Membro del direttivo della Scuola superiore della Magistratura;
Pasquale Fimiani, Avvocato generale presso la Procura generale della Corte di cassazione;
Fabio Massimo Frattale Mascioli, Professore ordinario di elettrotecnica presso l'Università Sapienza di Roma;
Paolo Garofano, Direttore operativo presso il Centro Regionale Antidoping Alessandro Bertinaria;
Francesco Paolo Micozzi, Avvocato penalista del Foro di Cagliari.
Santo Mirabelli, Direttore della divisione innovazione tecnologica della Polizia postale e delle comunicazioni;
Riccardo Perlusz, già Direttore sicurezza di Ibm Italia, esperto di forensics e nuove tecnologie;
Valentina Sellaroli, Sostituto procuratore della Procura della Repubblica di Torino;
Mario Venturi, già Polizia di Stato e ideatore del software investigativo KeyCrime