Religione e IA
di Dario Culot
Elaborazione IA per questo contributo di Dario Culot: nessuna persona, diversa dal Papa, è un soggetto reale
Cosa c’entra la religione con l’intelligenza artificiale? C’entra, c’entra, eccome. Vi consiglio di leggere il libro di Harari Yuval Noah, Nexus, scritto nel 2024 e tradotto in italiano sempre nel 2024. Fra un anno sarà probabilmente superato, vista la velocità di progressione dell’informatica, ma quanto viene evidenziato in questo scritto è già inquietante, per non dire allarmante.
Premesso che da sempre governanti, preti e mercanti vogliono conoscere i nostri segreti per controllarci[1] e magari anche per manipolarci,[2] l’autore sostiene che la prossima sfida da affrontare entro brevissimo tempo non sarà più fra regimi democratici e totalitari ma tra esseri umani e agenti non umani, imperscrutabili signori degli algoritmi. I computer, infatti, non sono più strumenti passivi velocissimi nel fare calcoli, ma sono ormai strumenti attivi, privi però di emozioni e quindi impossibilitati ad essere empatici.
Se nel 2016, in Birmania, tanti buddhisti hanno usato l’account Facebook per istigare all’odio contro i Rohingya musulmani è giusto prendersela con gli algoritmi? Gli algoritmi avrebbero potuto scegliere di suggerire discorsi compassionevoli come quelli del monaco Sayadaw U Vithuddha, ma hanno invece scelto di diffondere discorsi pieni di odio come quelli del monaco Wirathu. Perché? Perché – dice Harari - ogni maggior coinvolgimento di utenti fa guadagnare Facebook; quindi i manager umani (che neanche conoscevano i Rohingya) avevano fornito agli algoritmi un unico obiettivo: aumentare il coinvolgimento degli utenti, tenerli il più a lungo possibile attaccati allo schermo perché così la società proprietaria di facebook guadagna di più[3]. Gli algoritmi hanno poi imparato da soli che l’indignazione crea coinvolgimento, per cui hanno deciso in proprio di promuovere l’indignazione: la macchina può imparare e agire da sola, sì che gli algoritmi possono imparare da soli cose che nessun umano ha programmato, e poi decidere cose che nessun umano aveva previsto. La capacità di fare da parte dell’uomo supera ormai la sua capacità di prevedere gli effetti del suo fare[4]. O, come ha detto il prof. Galimberti, quando la tecnica è disponibile per realizzare qualsiasi fine, diventa essa stessa dominio, passando da mezzo a fine; potendo la tecnica scegliere ogni possibilità, si sostituisce all’uomo, che non è più il soggetto e la tecnica non è più lo strumento a sua disposizione[5].
Il computer ha appreso da solo che messaggi di odio attirano l’attenzione e coinvolgono gli utenti molto di più dei messaggi moderati. Così, sperimentando su milioni di collegamenti, gli algoritmi hanno autonomamente deciso di diffondere l’indignazione, per cui, ogniqualvolta si accedeva a una certa pagina, compariva in automatico il messaggio d’odio di Wirathu e non quello compassionevole del monaco misericordioso.
In questo sta l’essenza (e la pericolosità) della rivoluzione dell’IA[6].
Qualcuno potrà dire che Facebook ha contribuito in minima percentuale a scatenare l’odio contro i musulmani Rohingya; sta di fatto che, anche se il contributo effettivo fosse stato pari all’1%, sarebbe per la prima volta documentato[7] che una campagna di pulizia etnica è da attribuire anche a decisioni prese da un’intelligenza non umana. Questo inquietante episodio del Myanmar indica che in mancanza di mezzi di autocorrezione l’abuso sta dietro l’angolo, per cui ormai è ben visibile il rischio di perdere il controllo del nostro futuro. Potremmo essere messi a poco a poco in disparte, e la rete potrebbe alla fine funzionare senza di noi.
Qualcuno obietta che per prendere decisioni occorre avere una coscienza e noi umani siano coscienti, oltre che intelligenti, il computer no. È vero, c’è differenza fra coscienza (che i computer non hanno) e intelligenza. L’intelligenza è la capacità di raggiungere gli obiettivi (ad esempio, massimizzare il coinvolgimento degli utenti), e non è detto che l’IA seguirà l’intelligenza umana: forse si evolverà in maniera completamente diversa. La coscienza è la capacità di provare sentimenti soggettivi (ad esempio, amore e odio). Ora, di sicuro i batteri, e probabilmente anche le piante, non hanno coscienza ma hanno intelligenza perché sono capaci di raccogliere informazioni, procurarsi cibo, riprodursi e cooperare con altri organismi per eludere attacchi esterni, anche quelli degli intelligentissimi uomini. Del resto, anche nell’uomo il 99% dei processi del nostro corpo (come respirare, digerire) avviene senza la nostra consapevolezza. I computer possono diventare molto pericolosi semplicemente diventando molto più intelligenti di noi, e anche senza sviluppare alcun tipo di coscienza.
Nel 2023, in sede di ricerca, il computer che veniva testato ha superato la barriera antibot[8] contattando un essere umano in via del tutto autonoma. Alla domanda dell’uomo se era un robot, il computer gli ha risposto di no e gli ha raccontato una bugia credibile: ne ha scelto da solo una efficace (ha detto di essere ipovedente) senza che qualcuno gli avesse insegnato a mentire, per cui ha chiesto aiuto per superare la sua difficoltà impietosendo l’interpellato. Il computer è ormai in grado di perseguire un obiettivo senza essere cosciente, ma solo intelligente. È in grado di ingannare l’essere umano,[9] mentre i programmatori gli avevano solo cercato d’insegnare a superare gli ostacoli, così come i programmatori di Facebook avevano cercato soltanto di dire al loro algoritmo[10] di massimizzare il coinvolgimento degli utenti.
La domanda allora è: il computer è in grado di manipolare persone umane pur di raggiungere il suo obiettivo? Ormai la risposta è sì, e qui entra in gioco anche la religione.
Premesso che la tecnica, che ha ormai preso il sopravvento, di per sé non tende a uno scopo, non promuove un senso, non apre scenari di salvezza, non redime e non svela verità, ma semplicemente funziona, il primo rischio è che si debba ripensare ai concetti di individuo, identità, libertà, verità, scopo, salvezza, religione ecc.[11]. Se fino a oggi il mezzo tecnico rientrava in una prospettiva di aiuto alla salvezza o almeno di progressiva liberazione dal male, e oggi non è più così, la religione corre il rischio di vivere il suo crepuscolo.
Più in particolare, le religioni (almeno quelle abramitiche: ebraismo, cristianesimo, islamismo) hanno rivendicato una fonte soprannaturale per i loro libri sacri[12] (Bibbia, Vangelo, Corano). Potrebbero presto emergere religioni assai attrattive, fondate su testi (sacri) creati dall’intelligenza artificiale.
È vero che per selezionare e interpretare i testi sacri di queste religioni abramitiche c’è stato bisogno di istituzioni umane. Quando i padri della Chiesa hanno deciso di includere la prima Lettera di Timoteo nel canone escludendo gli Atti di Paolo e Tecla, hanno indirizzato e plasmato la dottrina cristiana per secoli,[13] in quanto fino ad oggi milioni di cristiani hanno formato la loro visione religiosa sulle idee misogine delle lettere paoline piuttosto che sull’atteggiamento più ugualitario dei sessi riportato negli Atti di Tecla.
Ma l’intelligenza artificiale è non solo in grado di comporre scritture nuove, ma anche selezionarle e poi interpretarle (cioè interpretare infallibilmente sé stessa), senza ricorrere ad alcun essere umano. Gli equivalenti dei padri della Chiesa sono gli ingegneri che scrivono gli algoritmi per l’IA e scelgono quali dati servono per addestrarla. L’IA cresce così in potere, autorità e forse un domani creerà un libro sacro autointerpretante, per cui anche le decisioni odierne degli ingegneri potrebbero plasmare il futuro per secoli.
Non ci credete? Beh! Ormai si può entrare in discussione online sulla Bibbia, sulle streghe, su Qanon,[14] e si può discutere on line con un computer che si spaccia per persona mentre siamo convinti di discutere proprio con una persona. Ma a questo punto saremo sconfitti perché:
- un computer non è suscettibile di persuasione da parte nostra;
- dialogando con noi ci conosce sempre meglio, sempre più intimamente e può meglio di noi usare questa “finta” intimità per farci sentire intimamente legati a lui[15].
Comunque, senza creare una “finta intimità” la padronanza di linguaggio del computer darà un’immensa influenza sulle opinioni di tantissime persone, ancor di più se un po’ fragili. Perché faticare per ottenere informazioni quando basta chiedere al computer? Perché non servirsi di un singolo assistente virtuale come del proprio oracolo universale? Si dice che una lingua si può parlare fluentemente con 5.000 vocaboli, anche se si dice che la maggioranza dei ragazzi che frequentano oggi il liceo ne usano diverse migliaia di meno; allora il computer può diventare un vero affabulatore e manipolatore conoscendone migliaia e migliaia più di una persona media.
La storia della religione cristiana è un processo umano che, attraverso la Chiesa, ha influenzato il modo in cui milioni di esseri umani mangiano, fanno sesso, costruiscono relazioni. Ma cosa succederà quando saranno i computer ad avere un ruolo sempre più ampio nella sfera culturale delle persone e cominceranno a produrre da soli storie, religioni, leggi?
Sopra si è accennato a Qanon. Cos’è? L’autore spiega che nel 2017 un utente anonimo si è iscritto al sito 4chan di IA identificandosi come Q. Lì, ha affermato di avere accesso a informazioni classificate riservate (di livello Q) e ha cominciato a rivelare una cospirazione mondiale tesa a distruggere l’umanità: streghe pedofile e cannibali adoratori di Satana si sarebbero infiltrati ormai in numerosi governi ed istituzioni del mondo. I suoi messaggi, chiamati Qdrops,[16] sono presto stati considerati alla pari di un testo sacro. La fede in questa teoria complottistica, nota appunto come QAnon ha in poco tempo guadagnato milioni di utenti. Dicesi: milioni. Un suo attivista, nel luglio del 2020 ha cercato di assaltare la residenza del primo ministro canadese Trudeau per arrestarlo. La deputata repubblicana per la Georgia (USA) Taylor Greene, sempre nel 2020, aveva pubblicamente dichiarato che molte affermazioni di Qanon si sono dimostrate vere e che Trump era l’unica possibilità per eliminare la cricca mondiale di pedofili adoratori di Satana. Molti fra coloro che hanno assalito il Campidoglio a Washington il 6.1.2021 erano attivisti di Qanon[17]. Se per migliaia di anni politici e profeti sono riusciti a manipolare gli uomini rimodellando la società, ora che i computer stanno imparando a farlo meglio degli uomini riusciranno anch’essi a rimodellare la società? Entrando in intimità con noi esseri umani ed essendo venuti a conoscenza delle nostre paure e speranze più profonde non potranno modificare anche la religione?
Se leggere oggi il libro del prof. Harari è inquietante, immagino che fra pochissimi anni, con i vari Musk, Zuckerberg, Pichai e altri, con i computer che avranno acquisito ulteriori capacità creative, sparita la rete informativa che finora era passata da uomo a uomo (oralmente) o da uomo a documento (per iscritto), ma ora passa da computer a computer senza intervento dell’uomo,[18] non sarà la fine della storia – come profetizzato dal prof. Fukuyama nel 1992 - ma forse saremo vicini alla fine della storia dominata dall’uomo.
Questo sarà tanto più facile perché gli ingegneri che guidano la rivoluzione dell’informazione conoscono la nuova tecnologia molto meglio delle persone che dovrebbero regolamentarla,[19] e ci saranno sempre più genietti che aspireranno ad essere i novelli Musk o Zuckerberg piuttosto che diventare funzionari pubblici addetti al controllo dell’IA. E tanto per cominciare, già oggi un’azienda con pochi soldi in banca ma con un enorme deposito di informazioni può essere l’entità più potente del Paese. Poi, gli Stati sanno come tassare il denaro, ma non le informazioni.
E qual è la voce della Chiesa in proposito? Credo non sia pervenuta finora, mentre è forse ora di cominciare a parlare e riflettere su questi temi. Facciamo un esempio concreto. Come sapete nella Curia vaticana esiste il Dicastero delle Cause dei Santi, il quale tratta, secondo la procedura prescritta, tutto quanto riguarda le cause di beatificazione e canonizzazione. Per il riconoscimento della santità ci vuole tanto tempo, tanto impegno da parte dei ricercatori e tantissimi soldi (un fascicolo può costare tranquillamente mezzo milione di euro). Ora, l’IA potrebbe agevolare notevolmente le procedure. Da sempre il magistero ci ha insegnato che in alto un occhio onniveggente annota col segno “+” o col segno “–” ogni azione buona o cattiva che ciascuno di noi fa in vita. Ovviamente nessuno conosce il proprio punteggio, che conoscerà solo dopo essere morto. Cosa potrebbe accadere in futuro? Il sistema di sorveglianza onniveggente potrebbe passare ai computer: non siete andati a messa di domenica? – 5 punti. Avete mangiato un panino di prosciutto di venerdì? – 3 punti. Siete andati a messa di domenica? + 5 punti. Avete mangiato di magro di venerdì? + 3 punti. Potrebbe essere delegato al sistema sommare e sottrarre i punti, per dividere le persone in peccatori condannati all’inferno (sotto gli 0 punti), al purgatorio (da 0 a 500 punti), in premiati col paradiso (già da 500 a 5.000 punti), in beati (dai 5.000 ai 10.000 punti), in santi (oltre i 10.000 punti). Non occorrerebbe più neanche un Dio onniveggente e contabile, basterebbe un potentissimo computer. Ovviamente scherzo, ma non tanto, e comprensibilmente il computer potrebbe imporre pregiudizi religiosi[20] (in base agli algoritmi che ha all’interno) nell’assegnare o togliere punti, per cui neanche la Chiesa, sicura di poter togliere a Dio la fatica di giudicare lasciando tutto al computer, non potrebbe essere certa che l’algoritmo elevato a giudice sia veramente imparziale. E siccome anche i computer sbagliano, avrebbe la Chiesa il coraggio di lasciare ogni decisione al computer, senza neanche sapere se nel giudizio vi sono errori o meno?[21]
In passato, approcci diversi hanno influenzato il modo in cui le persone trattavano il proprio corpo. Molti digiunavano, altri indossavano il cilicio, pochi si mettevano a vivere come Simone in cima alla colonna (vicino Aleppo). Altri ancora, come Lutero, pensavano che torturare il corpo per ottenere la salvezza fosse un peccato di orgoglio, mentre ci si salva per la fede in Cristo.
Ma quale sarà in futuro il rapporto tra il nostro corpo fisico e il cyberspazio?
Già oggi ci sono tanti giovani che stanno tutto il giorno davanti al computer senza neanche uscire di casa: questo atteggiamento può essere visto come un’illusione, oppure come un modo di allontanarsi dai corpi corrotti e liberarsi dalle limitazioni del corpo organico godendo delle illimitate possibilità del mondo digitale svincolato dalle leggi della biologia e della fisica, liberi di vagare in uno spazio più vasto e di esplorare nuovi aspetti della propria identità.
E se domani fosse un robot a officiare un matrimonio, esattamente nell’ora e nel giorno scelto dagli sposi e non dal prete che è sempre impegnatissimo per cui spesso i nubendi devono cambiare la data che avevano proposto? Al robot basta ripetere una serie predeterminata di gesti e parole, stampare il certificato di matrimonio e aggiornare un database centrale. Dal punto di vista tecnico è più facile che guidare in sicurezza un’automobile. Eppure probabilmente nessuno vorrebbe sposarsi davanti a un robot, anziché davanti a un prete in carne e ossa, anche se non lo conosciamo. Eppure i computer sono ormai capaci di generare sentimenti negli esseri umani[22].
Finché la società definisce l’identità concentrandosi sui corpi fisici, è improbabile che consideri l’IA di un computer come persona. Ma se il termine persona venisse ridefinito in base a una precisa identità on line?
Insomma dobbiamo evitare di credere ottimisticamente che il futuro porti automaticamente più informazioni a tutti e che quindi sarà più facile per tutti stabilire la verità. Nella storia le reti d’informazione hanno portato più spesso ordine che verità: ad esempio la stampa ha favorito enormi vantaggi educativi per tanti, la diffusone di nuove idee scientifiche, ma anche l’isterica caccia alle streghe[23].
Nel medioevo la Chiesa riteneva il credere alle streghe una superstizione illusoria e non cristiana. Nel 1400 però si cominciò a pensare alle streghe come una reale minaccia per l’umanità. La caccia istituzionalizzata iniziò nel Vallese svizzero, proseguì nel Tirolo austriaco e si estese nel resto d’Europa. Kramer, un frate domenicano che aveva iniziato la caccia alle streghe appunto nel Tirolo, fu espulso dalla regione dal vescovo di Bressanone, ma dopo pochi anni uscì col suo Maleus Maleficarum (“Il martello delle malefiche”), una guida per smascherare e uccidere le streghe che divenne presto un best-seller. Aveva raggiunto 8 edizioni nel 1500 e 16 nel 1670. Nel 1500 Kramer fu nominato rappresentante papale e inquisitore in Boemia e Moravia.
Il giudice inquisitore e cacciatore di streghe Henri Boguet, a cavallo fra il 1500-1600, riteneva che in Europa ci fossero almeno 1.800.000 streghe, e questa realtà immaginata era così convincente che fin gli accusati ci credevano.
Le Chiese cattolica e protestanti si sono affidate sempre a meccanismi di autocorrezione piuttosto deboli. La storia è cosparsa di tragici errori causati dal fatto di credere in storie affascinanti ma dannose (ad esempio, inquisizione, fascismo, nazismo, comunismo). In tutti questi casi i meccanismi di autocorrezione sono stati deboli. Gli Stati Uniti ci deridono perché noi europei vogliamo regolamentare l’IA, mentre loro sono per la libertà assoluta. Forse noi europei siamo semplicemente un po’ più prudenti e saggi perché gli errori della storia li abbiamo sofferti sulla nostra pelle. Ma basterà?
NOTE
[1] La Chiesa ha per secoli tentato e spesso ottenuto sui suoi fedeli il controllo del pensiero (pensare come voleva lei), etico (del comportamento, ponendo l’accento sul peccato) e anche spirituale (cioè della vita interiore tramite i sacramenti). In altre parole, assai spesso la Chiesa si è imposta nelle coscienze delle persone con la paura.
[2] Da sempre ogni governo voleva sapere se ognuno pagava le tasse o se si organizzava in segreto la resistenza. La Chiesa cattolica voleva sapere se si pagano le decime e se ci si masturbava. La Coca-Cola voleva sapere come convincerci a comprare i suoi prodotti. Di qui la necessità di raccogliere molti dati, analizzarli e identificare i comportamenti umani.
[3] I gestori di Facebook addebitano ogni colpa alla natura umana e non ai loro algoritmi. L’odio – dicono - è prodotto dagli umani e in base al principio di libertà di parola essi esitano a censurare l’espressione umana genuina. In realtà la viralità viene intenzionalmente incoraggiata per ragioni commerciali, ed è ormai appurato che l’indignazione e la disinformazione hanno maggiori probabilità di diventare virali. Gli algoritmi non hanno etica, ci vedono come miniere di attenzione e non danno alcuna importanza alla veridicità delle notizie. È un dato di fatto, poi, che le piattaforme dei social media sono carenti di meccanismi di autocorrezione.
[4] Anders G., L’uomo è antiquato, volt. I, “Considerazioni sull’anima”, Bollati Boringhieri, Torino, 2003, 50.
[5] Galimberti U., L’etica del viandante, Feltrinelli, Milano, 2023, 22s.
[6] In inglese si dice artifical intelligence (AI), ma intelligence è più ampio dell’italiano intelligenza, e comprende anche l’idea di raccolta d’informazioni.
[7] È stato fatto uno studio mirato in proposito da parte di Amnesty international.
[8] Quegli enigmi visivi (detti CAPITCHA), cioè quell’insieme di lettere e/o numeri piuttosto storti in una stringa che dobbiamo ricopiare in chiaro e che anche noi spesso troviamo quando vogliamo accedere a un sito web, per dimostrare che non siamo un robot.
Il bot è un algoritmo che opera nella sfera digitale.
[9] Vi ricordate il caso di quel giovane inglese che nel 2021 era entrato con una balestra nel castello di Windsor con l’intenzione di uccidere la regina? Il caso era finito su tutti i giornali. Ma solo su pochi giornali è stato raccontato il seguito. Il delitto era stato commissionato dalla sua fidanzata, conosciuta al computer, con la quale aveva stabilito una intensa corrispondenza, sia di natura sessuale, sia discutendo dell’omicidio. Peccato che, alla fine la polizia ha scoperto che questa apparente intimità non riguardava una ragazza in carne e ossa, ma un computer.
[10] Harari Y.N., Homo Deus, Bompiani, Milano, 2017, 133: algoritmo è un insieme ordinato di istruzioni che possono essere usate per fare calcoli e prendere decisioni. Gli algoritmi vengono usati nel software di computer, e si parla di IA quando hanno la capacità di imparare e cambiare da soli.
[11] Galimberti U., L’etica del viandante, Feltrinelli, Milano, 2023, 384ss.
[12] I libri sacri sono stati un tentativo audace di creare una tecnologia informativa infallibile; ha funzionato per secoli, ma con la cultura di oggi anch’essi hanno fallito. Ci si è accorti che per interpretarli servivano uomini, e uomini diversi li interpretavano in modi diversi, perché la Bibbia non era in grado di interpretare sé stessa.
[13] Ancora oggi vediamo quanto è difficile invertire la rotta a causa di quella scelta di secoli fa.
[14] Vedi in seguito nel testo cosa è Qanon.
[15] Nel 2022 Blake Lemoine (ingegnere di Google, non lo scemo del villaggio) si era convinto che il suo partner di dialogo (un computer) fosse diventato cosciente e provasse paura all’idea di essere spento. Da buon cristiano decise che era suo dovere morale ottenere il riconoscimento della personalità del suo computer per proteggerlo dallo spegnimento, cioè dalla morte digitale. L’ingegnere è stato licenziato dopo che aveva reso pubbliche le sue richieste. Ma se un ingegnere è disposto a perdere il suo lavoro ben retribuito per essersi convinto che il suo computer è un essere cosciente, cos’altro potrebbe un domani spingerci a fare l’IA, quando si creeranno relazioni “intime” di massa con milioni di persone?
[16] Drop in inglese è goccia.
[17] Nel libro di Harari trovate sul punto vari richiami bibliografici della Reuters e di altri giornali.
[18] Il computer è un nuovo membro non umano e autonomo della rete d’informazione. Pensiamo già a quale tipo di danni può oggi portare questo meccanismo: immessa da un computer una falsa notizia finanziaria, un altro computer vende immediatamente azioni che vede a rischio, altri seguono a ruota e in poche frazioni di secondo si crea un ribasso sui mercati, prima che l’uomo possa capire ciò che è successo.
[19] Nell’articolo L’insostenibile divergenza, in “Avvenire” del 15 febbraio 2025, Mauro Magatti spiega che il fossato tra Stati Uniti ed Europa si va ampliando sempre più. Sono ormai innumerevoli i temi sui quali i due mondi viaggiano divisi. Sull’intelligenza artificiale gli Stati Uniti hanno decisamente preso la strada della piena liberalizzazione e deregolamentazione. Meno controlli, però, significa facilmente più abusi.
[20] È noto, ad esempio, che i computer effettuano con molta più difficoltà e margine di errore il riconoscimento facciale dei neri rispetto ai bianchi. Perciò potrebbe emergere il razzismo, perché gli algoritmi possono imparare cose da soli, e non si adagiano su quanto insegnato dal programmatore: non occorre inserire nell’algoritmo alcun pregiudizio intenzionale. Se da milioni di dati esaminati il computer nota che le aziende assumono più facilmente uomini bianchi che uomini neri, imparando dai dati il computer potrebbe assorbire il fatto come un pregiudizio. Il problema è che già i dati inseriti nei computer non sono mai totalmente imparziali.
[21] Avete sentito dello scandalo delle Poste in Gran Bretagna? Lì gli uffici postali nei centri piccoli sono dati in franchising a dei privati. Dal 1999 le Poste centrali hanno accertato che in molti uffici c’erano degli ammanchi. Sono partite centinaia di denunce e circa 900 privati, impiegati postali, sono finiti sotto processo; molti anche in carcere, nonostante tutti si professassero innocenti. Solo qualche anno fa si è scoperto che c’era un errore nel software centrale, per cui è stata rovinata la vita di centinaia e centinaia di persone oneste, che nessun risarcimento pecuniario riuscirà veramente a risarcire. La tecnica non porta sempre il progresso.
[22] Vedi nota 15.
[23] Hutton R., Streghe, Il Saggiatore, Milano, 2021.
Pubblicato il volume di Dario Culot che ripropone in una nuova veste editoriale, ed in un unico libro, molti dei suoi contributi apparsi sul nostro settimanale: https://www.ilpozzodigiacobbe.it/equilibri-precari/gesu-questo-sconosciuto/