geo-episteme
My scattered and light reflections on scientific themes and other
My scattered and light reflections on scientific themes and other
Come nell'arte, il processo della conoscenza scientifica è un viaggio senza fine la cui meta è la comprensione sempre più profonda della realtà e la costruzione della realtà stessa (leggi il non-finito tra arte e scienza). Esso è un viaggio di gruppo in sintonia col mondo e in empatia tra chi ci partecipa. Nel viaggio i vecchi componenti lasciano, nel tempo e nei luoghi delle diverse tappe, il testimone di ciò che hanno compreso e costruito agli altri diversamente giovani partecipanti del gruppo che continueranno e ai giovani che si aggiungono in ogni tappa del viaggio stesso.
Ciò che è importante in tale viaggio non è l'oggetto della conoscenza (la meta), ma proprio il percorso per raggiungerlo. Come in ogni viaggio la meta è diluita nel raggiungimento di diverse mete distribuite lungo il percorso. Non finire il viaggio non vuol dire non avere raggiunto la meta. Il percorso, anche il più impervio immaginabile, arricchisce e fa divenire cosa reale e in divenire la meta cambiandone anche il contenuto e l’idea che noi avevamo del come e cosa fosse il suo raggiungimento.
Come tutti i viaggi, la meta è lo sfondo degli incontri e delle relazioni personali tra uomini che ascoltano e comunicano, condividono e aiutano, sbagliano e si ravvedono. Il percorso diventa pieno delle loro vite e delle loro emozioni quotidiane e questa pienezza arrichisce ancora di più il percorso e il raggiungimento della meta.
I percorsi sono infiniti e infinite sono le tappe di ogni percorso. Non ci sono percorsi preferenziali, migliori, o peggiori, o che obbediscano a un particolare principio fisico o filosofico se non quello di viaggiare per arrivare alla meta. Questo viaggio multipercorso e multitappa arricchisce il significato del raggiungimento della meta definendone in divenire il contenuto della meta stessa, che di fatto non è e non può essere definito a priori. D’altra parte un viaggio è stato tanto più interessante, non tanto per quanto era interessante la meta da raggiungere, ma per quanto è stato interessante ciò che abbiamo raggiunto e vissuto durante il percorso e ogni tappa di esso, che diventa parte, se non quasi tutto, della meta del nostro viaggio.
Talvolta, sbagliando, siamo indotti a pensare che i percorsi conoscitivi che non hanno portato o stanno portando a nulla di nuovo e soprattutto a contraddizioni rispetto alle nostre aspettative, o ciò che pensavamo fosse l’oggetto della meta, siano i peggiori o dei veri e propri errori. Di fatto tali percorsi svelano il contenuto complementare della meta: ciò che essa non è, ciò che di essa si ignora. Infatti, come sostiene Stuart Firestein (in: Viva l'ignoranza!) il motore perpetuo della scienza è proprio quello di individuare nel dettaglio ciò che ignoriamo della realtà che vogliamo conoscere e ricostruire, che è ciò che fa porre la giusta domanda scientifica alla quale rispondere per andare avanti nel nostro viaggio della conoscenza e della costruzione della realtà. Una tappa che ci nega la prosecuzione di un percorso e che ci induce a cambiare direzione, rispetto a quanto pianificato, è importante tanto quanto (o forse di più) delle tappe che in continuità ci sembrano confermare che il percorso che stiamo percorrendo per raggiungere la meta sia quello corretto. È proprio il cambiare la meta durante il percorso, andando oltre la visione iniziale della meta che ci aveva indotto ad iniziare il viaggio e ci aveva accompagnato durante il percorso, che si identifica con l'esplorare ciò che è possibile conoscere al di là di ciò che già conosciamo.
La comprensione del mondo intesa come meta della nostra attività umana di conoscere avrà dei contorni che cambiano continuamente, mano a mano che procediamo nel nostro percorso. Con l’andare del tempo la meta si arricchisce di dettagli da raggiungere e da esplorare che talvolta ci inducono anche a cambiare continuamente il percorso. Un percorso che rimane in divenire tra lo stato di comprensione e allo stesso tempo di ignoranza della realtà e della sua costruzione.
L'inizio del Viaggio
Ero alla fine del mio corso di studi per laurearmi in fisica applicata a Lecce. Avevo deciso di chiedere una tesi al mio professore di fisica terrestre, Dario, per approfondire l’aspetto della geofisica applicata alla geotermia. Il mio professore mi disse che il loro gruppo non era il luogo più idoneo per fare la tesi in quel settore e che avrebbe potuto chiedere a dei colleghi di Bari che erano esperti del settore. In alternativa, mi propone la possibilità di svolgere il lavoro di tesi sui temi di prospezione geofisica, in particolare di sismica a rifrazione e riflessione a grande angolo e/o gravimetria. Decisi per la prospezione sismica, anche proiettandomi nel possibile futuro lavorativo nella sismica di esplorazione. Intrapresi la mia tesi, che era a cavallo tra geofisica teorica, mirata allo sviluppo di metodi 2D e 3D di inversione di dati sismici e la loro applicazione.
Lavoravo dal punto di vista teorico sulla generalizzazione di un metodo 2D di inversione diretta di dati sismici a rifrazione e riflessione a grande angolo. Leggendo e studiando gli articoli della letteratura sul metodo, individuai che, sebbene il metodo fosse applicato con successo per la ricostruzione dei modelli crostali e le relative predizioni dei dati, mancava di una sua dimostrazione rigorosa dal punto di vista fisico-matematico. Dovevo dimostrare matematicamente, con il metodo della dimostrazione per ricorsività, la validità di una relazione che costituiva, a parer mio e di Dario, la base del metodo e lo generalizzava. Da giovane studente entusiasta, per circa tre mesi sono stato dietro a dei calcoli, tutto sommato elementari ma complicati e lunghi. Ricordo che utilizzavo il retro dei fogli a modulo continuo delle stampe scartate della stampante del centro di calcolo, e mi portavo avanti i conti per decine di pagine fittamente scritte di formule.
Un pomeriggio verso il tramonto, ricordo che erano circa le sei di un giorno di fine settembre, preso dallo sconforto per l’ennesimo fallimento, ho smesso di fare i conti, deciso a riprenderli il giorno successivo per l’ennesima volta. Mentre mi preparavo per uscire, mi sono detto che forse era il caso di cambiare approccio e che forse avrei potuto abbandonare il percorso della dimostrazione matematica per darne una fisica; in fondo si trattava di dimostrare una relazione fisica e questa possibilità con Dario l’avevamo messa in conto. Mentre lo pensavo, mi veniva in mente anche come farla. Mi sono seduto di nuovo alla scrivania e, circa poco più di tre ore dopo, la dimostrazione era scritta su un solo foglio di modulo continuo. Saranno state circa le ventuno-ventuno e trenta, lo ricordo bene perché la gioia era così grande che mi sono fiondato al telefono e ho chiamato a casa Dario per comunicargli che avevo raggiunto la dimostrazione. Dario arrivò circa alle ventidue, il tempo per percorrere il percorso da Lecce al campus “Fiorini” (ora “Ecotecne”) dove era ubicato il dipartimento di Fisica, anche lui trafelato e pieno della curiosità di vedere e verificare con me ciò che avevo trovato e dimostrato.
Quando finii di fargli vedere la dimostrazione in tutti i suoi passi, esclamò: “Bellissima, ben fatta.” Io di rimando mi ammutolii e balbettai qualcosa che più o meno voleva esprimere il dubbio che la mia derivazione fosse giusta, quasi a chiedere la conferma da parte sua o da parte di qualcuno che potesse “validare” il mio risultato e definirne l’importanza. Dario, prendendo i diversi articoli che erano impilati sulla mia scrivania, che avevo consultato e studiato, lanciandoli come “frisbee” sulla parte di scrivania libera davanti a me, mi disse in modo molto assertivo: “Se sei stato capace di leggere tutti questi articoli, capirli, studiarli e partire da essi per ottenere il risultato, per lo stesso motivo devi confidare nella tua capacità di andare oltre essi.” E concluse: “D’ora in poi non ci sarà più nessuno che potrà dirti che hai raggiunto qualcosa di nuovo se non te stesso, partendo da ciò che sai e secondo la tua ragione e intelletto, seguendo il metodo scientifico e sottoponendolo ad altri tuoi pari in grado di ripercorrere e riprodurre quanto da te ottenuto e di capire la novità del contributo.”
Mi parve strano notare in lui tanta assertività, lui che è di indole buonissima ed empatico con i suoi allievi. Ma era l’assertività del bravo maestro che capisce il momento e segna il punto di svolta nell’allievo. Da quel momento sono cambiato, e forse ho deciso di intraprendere il viaggio della ricerca. L’ebbrezza della scoperta, del risultato raggiunto, mi ha dato il coraggio di proseguire e la consapevolezza che quando si è al limite della conoscenza, l’andare oltre vuol dire avere il coraggio, la pazienza e la forza di procedere per piccoli passi, con in mano il lumicino della conoscenza che possediamo, che per quanto flebile squarcia il velo dell'oscurità che ammanta ciò che ancora ignoriamo e non vediamo chiaramente.
Durante il tragitto di ritorno a Lecce, mi disse che il risultato era degno di comunicazione a un congresso e anche di pubblicazione. Fu così che lo presentai successivamente al II congresso del Gruppo Nazionale di Geofisica della Terra Solida a Roma e poi fu pubblicato sugli atti del congresso stesso. Allora, i congressi nazionali ed internazionali delle comunità scientifiche di settore erano le palestre per i giovani studiosi e il vero luogo di confronto scientifico.
Finii la tesi che, oltre a contenere la generalizzazione del metodo già pubblicata sugli atti del congresso prima che mi laureassi il marzo successivo, trattava anche della sua applicazione ai dati crostali del profilo sismico a rifrazione e riflessione a grande angolo Elba-Ancona, di altri sviluppi teorici-metodologici minori e delle implementazioni dei relativi programmi di calcolo.
Marc Augé definisce i luoghi antropologici come tutti quegli “ambienti e spazi fisici”, estenderei anche a quelli non-fisici, occupati dall’attività umana che sono caratterizzati da tre qualità distintive:
Sono identitari: rispettano, conservano e sviluppano l’identità degli individui che ci vivono;
Sono relazionali: consentono lo stabilire di relazioni tra gli individui;
Sono storici: in essi gli individui condividono la storia passata e costruiscono la nuova.
In contrapposizione, il non-luogo è caratterizzato dall’assenza di una o più delle precedenti prerogative.
La comunità scientifica, nella sua articolazione in società, associazioni, istituzioni, strutture e gruppi di ricerca, è intesa come ambiente e spazio in cui si effettua l’attività scientifica; è un luogo antropologico.
-La comunità scientifica, mettendo alla sua base la creatività e la visione del mondo, è per sua natura rispettosa dell’individuo in quanto portatore di idee, di intuizioni, di domande e di risposte e soluzioni. In essa l’individuo sviluppa la propria identità e si riconosce come parte della comunità.
-La comunità scientifica è un luogo in cui la relazione tra individui è basilare. Essa, infatti, mette come base etica nell’agire dei suoi componenti, che adottano il metodo scientifico, il confronto, la condivisione e il consenso su ipotesi, modelli, dati, analisi e risultati.
-Una comunità scientifica si riconosce nella sua storia, da essa trae il suo fondamento e costruisce il suo futuro. La condivisione della storia è condizione naturale per la nascita e lo sviluppo delle comunità e delle discipline scientifiche che in esse si praticano.
La possibilità di un "non-luogo" scientifico può esistere. Un'istituzione, e in generale una comunità scientifica, che non rispetta l'identità individuale (ad esempio, soffocando la creatività o non riconoscendo il contributo individuale), che non favorisce le relazioni (ad esempio, con eccessiva competizione o mancanza di collaborazione), o che ignora la propria storia (ad esempio, disconoscendo i contributi passati), potrebbe diventare un non-luogo scientifico. In un tale ambiente, l'attività di ricerca potrebbe continuare, ma mancherebbe di quelle qualità essenziali che permettono una crescita profonda e sostenibile, sia per gli individui che per le discipline proprie di quella comunità scientifica.
Il concetto del non-finito trova la sua principale manifestazione nell’arte. Essa nella massima espressione si riferisce all’opera d'arte che, lasciata scientemente dall'artista a un certo grado di finitura esecutiva, “non riproduce completamente” il corrispondente “modello ideale”, inteso come modello “pensato” (anche "virtuale") e/o “visto/percepito come reale” dall'artista.
Il non-finito è cosa diversa dal non-compiuto. Il non-compiuto riguarda l'incompiutezza delle azioni pratico-fisiche che l'artista effettua sull'opera fino a un certo tempo e in un certo luogo. La differenza tra non-finito e non-compiuto non è netta. Infatti la compiutezza è parte della finitezza dell’opera, che potrebbe essere definita come l'insieme delle azioni pratiche eseguite, della visione e del processo di elaborazione e di comunicazione dell'artista che portano l'opera ad essere considerata dallo stesso artista finita, in un certo luogo e in un certo tempo.
Di fronte all’opera non finita, infatti, ci si pone sempre la domanda se l’atto di lasciare un'opera non finita è un atto di libera scelta dell’artista.
Ma ancora più intriganti sono le ragioni che portano all’atto del non finire un’opera. Una prima ragione si potrebbe riconoscere nell’incapacità dell’artista di rendere finita l’opera per limiti di tempo o per mancanza , di materia, di strumenti a disposizione o per eventi esterni. In questo caso parleremo di opera non compiuta nel senso più stretto: di non eseguita. Una seconda si potrebbe ricercare nel lasciare l’opera non finita come risultato ultimo di un atto conoscitivo e percettivo, legato allo stato di conoscenza e di ignoranza dell'artista di raggiungere e rendere l’opera come “dovrebbe essere” in un certo momento e in un certo luogo.
In questo secondo caso l’opera non-finita si avvicina alla “congettura dell’opera finita” cioè una ipotesi dell’opera, che ha radici nella realtà percepita, ma che per l'artista non è "il modello ideale" e quindi persiste nel suo "stato di divenire cosa finita e reale” rimanendo come atto esecutivo, elaborativo, conoscitivo e percettivo tra il noto e l’incognito proiettato nel futuro divenire. Essa si identifica con la frontiera del compiuto i cui punti sono tutte le possibili congetture dell'opera e della sua possibile evoluzione futura. L’opera d’arte non finita è il risultato dell'atto dell’uomo-artista che si pone una domanda sul mondo, che nasce dal mondo, e che nel mondo non ha risposta ora e qui.
L'opera non finita rappresenta, ora e qui, il futuro possibile che entra e si manifesta nell'opera e nell'artista e/o in noi quando la guarderemo, o in altre parole, usando l'aforisma del poeta Rilke, essa rappresenta: "il futuro che entra in noi, per trasformarsi in noi, prima che accada", dove il "noi" va inteso come "noi esteso all'opera".
Un’opera d’arte è un atto creativo che è il risultato dell’interazione tra l’artista e il mondo reale attraverso la materia e le tecniche che utilizza, i sensi, l'intelletto, la ragione e la psiche. È una rappresentazione e/o ricostruzione che ha radici nella visione della realtà fisica e non-fisica dell’artista.
Tale interazione non vede separato l’artista dal mondo, artista e mondo non sono separabili, ma sono tra loro complementari e allo stesso tempo intricati. Questa non separazione rende l’artista osservatore e realizzatore allo stesso tempo e parte del processo di creazione della realtà che trova manifestazione nell’opera d’arte stessa.
L’opera scientifica è il risultato dell’atto conoscitivo, proteso a ricostruire un modello della “realtà”, da parte dello scienziato con teorie, modelli, metodi e strumenti. Questo costituisce l’analogo dell’opera d’arte e dell’artista nell’arte. L’opera scientifica è quindi un non-finito per definizione. Il non-finito dell’opera scientifica deve essere inteso, al pari dell’arte, come il risultato di un atto conoscitivo e percettivo in divenire che non ha mai fine e che rimodella e ricrea la nostra visione della realtà.
Quando mi immergo nella pittura, nella scultura, nell'analisi di dati geofisici o nella stesura di un testo scientifico, avverto un'affascinante fusione di ruoli. In me coesistono tre figure distinte: l'esecutore che compie materialmente l'atto creativo-scientifico, l'osservatore che ne monitora ogni evoluzione e il valutatore che ne giudica costantemente il valore. È un dialogo interiore continuo, una danza tra il fare, osservare e valutare, un ciclo continuo e di retroazione.
Ogni istante in cui sto eseguendo l’opera, non è un “ticchettio” di un orologio di un tempo lineare a me esterno, ma un evento che cristallizza l'intera opera unendo fisico e non fisico. In quel preciso istante, tutto ciò che l'opera è stata fino a quel momento si sedimenta, perdendo il suo passato ma contenendolo. In questo modo, l'opera si slega dal suo "qui e ora" per consegnarsi al futuro, rendendosi potenzialmente eterna o, quantomeno, indimenticabile.
È un paradosso affascinante: l’ultima pennellata data, l’ultimo calcolo fatto sono l’evento, che rappresenta la chiusura, è al tempo stesso un'apertura. Ogni evento è l'ultima pennellata o l'ultimo calcolo che si prolungano nell'osservazione e nella valutazione, creando un'opportunità per un ulteriore gesto esecutivo o pensiero. L'opera, pur essendo completa in quel momento, rimane un'entità in divenire, un non-finito definito che continua a evolversi e a crearsi nella percezione di chi la guarda o la studia, me compreso.
In questo istante in cui faccio il gesto, l'opera acquisisce un'esistenza propria. Le ore di lavoro, i dubbi e le intuizioni si condensano in un'unica entità che non ha più bisogno del suo esecutore-creatore. Diventa un oggetto atemporale, pronto a comunicare il suo messaggio al mondo, se la metti fuori dalla bottega. L'euforia che ne deriva, la soddisfazione di aver contribuito a qualcosa, è amplificata dalla consapevolezza che quel non-finito è un potenziale punto di partenza non solo per me stesso, ma per chiunque si approcci a quell’opera.
Quando osservo un quadro, una scultura, ascolto la musica, leggo la poesia, leggo un articolo scientifico, è come ricrearli e andare oltre essi.
La ricostruzione del mondo, o ciò che conosciamo di esso, dipende dalla nostra capacità di leggere ed interpretare i dati sperimentali e i fenomeni, trovando e intuendo ciò che è conforme alla nostra attuale visione del mondo (= insieme delle ipotesi, teorie, procedure e modelli esistenti ora e qui). L’avanzamento nella conoscenza consiste nel tentativo di superare questa conformità considerando ciò che è possibile oltre la nostra visione attuale.
Il mondo ci apparirà sempre incompleto nella sua ricostruzione secondo quello che intuiamo e interpretiamo ora e qui sulla base della nostra visione del mondo.
L'accettabilità di una visione del mondo dipende dal suo grado di “veridicità” e di “coerenza o sostenibilità”.
Il grado di “veridicità” è legato all'accuratezza della nostra ricostruzione del mondo in conformità alla nostra visione.
L’accuratezza è l’unione della:
incertezza osservazionale =precisione della ricostruzione =capacità di predire (con un errore e/o una distribuzione di probabilità) il dato osservabile e/o il fenomeno;
incertezza epistemica = esattezza della ricostruzione = capacità di definire (con un errore e/o una distribuzione di probabilità) proprietà di oggetti e/o di insiemi di oggetti reali o analoghi ideali e virtuali descriventi il mondo o parti di esso.
Il grado di “coerenza” di una visione del mondo dipende da quanto è sostenibile e fruttuosa l’interazione col mondo attraverso una determinata visione del mondo: misura dei vantaggi e degli svantaggi per l'uomo e per tutte le altre componenti del mondo, derivanti dall’agire nel mondo con quella visione. La coerenza, qui intesa come il risultato dell'interagire nel mondo con una determinata visione, non deve essere confusa con la "coerenza interna logico-osservazionale della visione", che trova la sua misura nella sola accuratezza. La coerenza qui descritta si potrebbe quindi intendere come una misura del "valore pragmatico-etico" di una visione del mondo: la sostenibilità della visione.
Gradi diversi di veridicità e di coerenza/sostenibilità rendono possibile la coesistenza di diverse visioni del mondo, anche se parziali o se costituite da sottoinsiemi di altre visioni, o anche tra loro contrarie ma non contraddittorie e complementari, e sulle quali però vi sia comunque il consenso di tutta o parte della comunità scientifica.
Nel Mito della Caverna di Platone (“Repubblica libro VII”) , alcuni prigionieri vivono incatenati in una caverna isolati dal resto da un muro. Essi possono solo guardare su una parete le ombre di oggetti proiettate da un fuoco posto al di là del muro. Gli oggetti, che sono riproduzioni di cose reali, sporgono oltre il muro e sono portati da uomini liberi che si dirigono verso l’uscita della caverna, oltre la quale c’è tutto il mondo esterno reale. Queste ombre rappresentano la loro unica realtà conosciuta. Quando uno dei prigionieri viene liberato e vede il mondo esterno per la prima volta, scopre che non solo le ombre ma anche le riproduzioni degli oggetti reali erano solo una pallida apparenza e rappresentazione (simulacri) della realtà.
Il problema inverso ha una stretta analogia col mito. Infatti, la sua soluzione consiste nel ricostruire la realtà sottostante (ricostruire le "vere" forme e le proprietà caratteristiche degli oggetti reali) dalle osservazioni indirette (le ombre). Ad esempio, nel caso della geologia e delle geoscienze, si può esemplificare in: conoscere i costituenti interni ed esterni di un pianeta e i processi che li coinvolgono a partire da dati diretti e indiretti (misure e osservazioni) in superficie e/o da remoto.
La realtà, con le sue infinite configurazioni possibili, si manifesta in ciò che osserviamo e come lo osserviamo. Questa manifestazione è la risultante di tutti gli effetti (le ombre) prodotti da ogni singola configurazione tra le innumerevoli (infinite) esistenti; essa stessa è molteplice e varia a seconda di come noi predisponiamo l'osservazione (l'apparato di misura e l'esperimento). Ad esempio, un'ombra circolare potrebbe derivare dalla proiezione di un singolo oggetto opaco a forma di disco o di sfera, ma anche da una serie di dischi o sfere di diametri diversi, con i loro centri perfettamente allineati tra una sorgente luminosa e il centro dell'ombra. Solo osservando le proiezioni da diverse angolazioni – le ombre che si deformano, assumendo una forma quasi ellittica – potremo ottenere informazioni utili a definire e formulare ipotesi sulle forme e stimare le posizioni degli oggetti. Queste ipotesi e stime sono una mera ricostruzione (un modello) della realtà, non la realtà.
Il problema inverso è un affascinante campo di studio che richiede una comprensione approfondita sia degli “oggetti e dei processi fisico-chimici che li coinvolgono” (ontologia), sia del modo in cui otteniamo e verifichiamo le informazioni su di essi (gnoseologia). In tal senso, si potrebbe affermare che Platone col mito della Caverna è il primo che introduce il problema inverso affrontando il centrale tema epistemologico su cosa conosciamo e come lo conosciamo. Si potrebbe arrivare a dire che il problema inverso si identifica con il problema della conoscenza.
La geologia e in particolare le geoscienze, nella declinazione delle sue geodiscipline, sono state e sono il luogo in cui il problema inverso ha avuto il suo massimo sviluppo raggiungendo un livello di elaborazione concettuale molto alto per interdisciplinarietà e traslazionalità: quest’ultima intesa come la sua estensione a campi della conoscenza di altre scienze e dell'applicazione tecnologica alle geoscienze stesse e ad altri settori.
Nel problema inverso nelle geoscienze riconosciamo una:
ontologia che definisce gli oggetti e i processi geologici che cerchiamo di scoprire e descrivere, la loro collocazione ed evoluzione geologica spaziale e temporale, le composizioni fisico-bio-chimiche degli oggetti geologici, le loro geometrie, le interazioni di energia e informazione che sono alla base degli stessi processi geologici.
gnoseologia che si occupa dei metodi e dei processi di acquisizione, misura e osservazione dei dati geologici, dell’elaborazione dei dati, dell’interpretazione dei risultati derivanti dai precedenti due processi e della validazione (definizione dei limiti di validità) delle conoscenze che deriviamo da tutto il processo.
La frontiera in topologia è definita come l'insieme dei punti che non sono né interni né esterni ad un insieme e non appartengono al suo complemento. Essa non è solo un concetto della topologia. Se applicata al mondo della conoscenza, diventa una potente metafora logica che rivela qualcosa di profondo sulla nostra comprensione del mondo.
Immaginiamo la nostra conoscenza scientifica e logico-matematica come un vasto spazio topologico. All'interno di questo spazio, ai punti e agli elementi che lo compongono, corrispondono le proposizioni che abbiamo dimostrato e per le quali abbiamo definito un processo di verifica/confutazione e per le quali è possibile definire il corrispondente grado di veridicità e di sostenibilità (leggi la ricostruzione del mondo). Questo è l'insieme del "decidibile" (non inteso solo in senso stretto logico-matematico).
La frontiera logica è il confine di questo insieme. Non è una linea vuota, ma è popolata da proposizioni che non siamo ancora riusciti a dimostrare o a confutare. Il teorema di Gödel, esteso a questo contesto, e anche se dimostrato per i soli sistemi logico-formali matematici, ci dice che questa frontiera è "non vuota". Esistono sempre proposizioni, appartenenti al nostro universo concettuale (la nostra visione del mondo ora e qui), alle quali non possiamo attribuire un grado di veridicità e di sostenibilità con gli strumenti che abbiamo. Banalmente, in essa c'è ciò che ha la potenzialità d'essere conosciuto, oltre c'è ciò che ignoriamo.
La frontiera della conoscenza è il baluardo dell'indecidibile alle nostre domande sul mondo e allo stesso tempo l'orizzonte del decidibile: esisterà sempre una domanda sul mondo, che nasce dal mondo, e che nel mondo non ha risposta "ora e qui".
Questa irriducibile incertezza non è un difetto della nostra modalità di conoscere, ma una condizione necessaria della conoscenza. La frontiera si sposta costantemente in avanti, spinta da due tipi di richieste e di domande: quelle che richiedono strumenti e tecnologie che non abbiamo ancora sviluppato, e quelle che, per la loro natura logica intrinseca, rimangono intrattabili con il nostro sistema di pensiero e la nostra visione del mondo attuale.
Il compito degli scienziati, dei pensatori e, in generale, dell'uomo come essere sapiente e senziente, è proprio quello di esplorare questa frontiera. Lo facciamo ponendo domande e formulando congetture che, se dimostrate e soggette a confutazione, espanderanno l'insieme del decidibile, spostando in avanti il confine della nostra conoscenza. In questo senso, la frontiera non è un ostacolo, ma un luogo di costruzione. È il luogo dove la conoscenza si evolve, dove le domande senza risposta spingono verso la scoperta e dove i limiti dei nostri sistemi logici ci invitano a pensare e vedere il mondo in modi nuovi.
Il non-finito artistico come la congettura scientifica è la risposta creativa di noi umani all'inevitabilità dell'indecidibile.
Un sistema auto-organizzato non è una semplice macchina, che in sé non ha altro che forza motrice, la quale viene trasmessa alle sue componenti che hanno proprietà costitutive e di interazione definite.
Esso possiede in sé una forza auto-in-formativa che:
genera nuove proprietà delle componenti e del sistema stesso che nascono dalle interazioni tra le sue componenti, (Emergenza di proprietà)
si propaga al suo interno in modo adattativo alle proprietà e alle interazioni (Adattatività),
genera comportamenti e funzioni non generalmente prevedibili a priori (Emergenza di comportamento).
Esso non può essere spiegato con la sola facoltà meccanica di movimento e di funzione definita dalle singole componenti e/o dal loro insieme.
L’autorganizzazione è una proprietà che appartiene a tutto l’universo inteso come costituito da sistemi e componenti fisici e non-fisici (cioè biologici, socio-economici). Il livello di autorganizzazione fa esibire ai sistemi diversi gradi di complessità spaziale e temporale.
Tanto più la forza auto-informativa è alta, tanto più il sistema si allontana dall’esibire un comportamento semplificabile con un mero sistema meccanico generalmente caratterizzato da una bassa o nulla complessità. La forza auto-informativa si propaga all’interno del sistema con diverse scale spaziali e temporali.
Non tutti i sistemi autorganizzati possono essere ridotti e decomposti, con un'opportuna operazione di scalatura spaziale e temporale, in semplici sottosistemi meccanici. Tale riduzione generalmente elimina quasi sempre il comportamento complesso, che esibirebbe il sottosistema stesso se considerato come parte dell’insieme autorganizzato. La riduzione può far esibire al sottosistema un comportamento caratterizzato da scale spaziali e temporali definite che possono anche essere del tutto diverse da quelle possedute da tutto il sistema autorganizzato.
Il dato di base scientifico, che ha contribuito e contribuisce alla conoscenza, qualunque esso sia, deve essere conservato "e mantenuto come in originale" sempre e nella sua interezza.
Il metodo scientifico sperimentale basa il suo agire sull’esecuzione e sulla ripetibilità dell’esperimento/osservazione.
L’esecuzione implica:
registrare le condizioni fisiche e la procedura con cui l’esperimento/osservazione sono stati eseguiti,
registrare i dati “grezzi”
registrare i risultati derivati dai dati grezzi, inclusa la procedura adottata per elaborarli e/o interpretarli (ipotesi, modelli e algoritmi).
La ripetibilità implica il rieseguire l’esperimento/osservazione ponendosi nella medesima condizione sperimentale/osservazionale o in una condizione idonea ad osservare il medesimo dato grezzo.
L’esecuzione di un esperimento/osservazione è quindi un’operazione di memorizzazione di informazioni. L’ultimo passo è fondamentalmente legato allo stato conoscitivo del momento con cui il dato grezzo viene elaborato e/o interpretato con particolare riferimento alle ipotesi, ai metodi teorici e analitici e ai modelli con cui il risultato è ottenuto. Da ciò discende che il dato grezzo è ciò che ha in sé l’informazione sperimentale/osservazionale e quindi è il dato grezzo che deve essere primariamente conservato.
L'acquisizione di alcuni dati grezzi non sempre è ripetibile nelle stesse condizioni in cui i dati sono stati acquisiti. Basti pensare a tutti gli esperimenti dedicati a studiare l’evoluzione di processi (esperimenti e osservazione time lapse), o agli esperimenti per i quali le condizioni sperimentali non sono riproducibili per ragioni quali la logistica e/o le risorse umane e finanziarie dedicate e/o l’impatto sull’ambiente fisico-ambientale. Ad esempio, nell'ambito delle geoscienze o dell'astrofisica , la registrazione di dati relativi all'osservazione di fenomeni estremi quali quelli sismici, vulcanici, meteorologici o planetari e stellari è di fatto unica ed irripetibile. Analogamente, l'acquisizione di dati effettuata in condizioni sperimentali logistiche estreme quali il prelievo di campioni terrestri e planetari in aree remote ed estreme. In ultimo tutte le acquisizioni che in passato l'uomo ha effettuato, per scopo di conoscenza, oggi irripetibili per il tipo di tecnologia oggi ritenuta non eco-sostenibile e ad alto impatto ambientale come l'esplorazione della crosta terrestre e dell'intero pianeta con esplosivo o il prelievo di campioni in ambienti ed da ecosistemi fragili.
Concludendo, i dati grezzi e le informazioni sulla procedura della loro acquisizione sono “unici” per il loro contenuto informativo e conoscitivo nello spazio e nel tempo, contenuto che possiamo definire "la memoria del dato", che deve essere conservata, per renderla accessibile nel futuro per la loro elaborazione e interpretazione sulla base di nuove ipotesi, teorie, modelli e metodi di elaborazione ed analisi non esistenti al tempo in cui sono stati acquisiti.
Il concetto di conservazione del dato, come conservazione della sua informazione genetica di conoscenza, si contrappone al concetto di consumazione del dato che implica il considerare il dato stesso alla stessa stregua di un rifiuto di un processo di produzione: in questo caso quello della conoscenza.
Seguendo l’analogia tra il seme e il dato e tra il frutto della semina e il risultato conoscitivo del processo di elaborazione ed interpretazione del dato: a nessun bravo agricoltore verrebbe in mente di buttare il seme che è necessario per la futura semina.
Soprattutto negli ultimi decenni, per i ricercatori scientifici e gli scienziati, si è instaurata la tendenza ad identificare il programma di ricerca con il progetto di ricerca. Questo porta a un grande disorientamento soprattutto nei ricercatori più giovani che in assenza di progetti di ricerca vivono uno stato di esclusione dalla filiera della ricerca e della conoscenza, o in alternativa ad avere un’attività di ricerca di tipo “on demand” (richiesta di parere esperto).
Un ricercatore deve avere un “proprio programma di ricerca” mentre può partecipare o non partecipare a uno o più progetti di ricerca. Un progetto di ricerca può alimentare, arricchire, costituire una sorgente di idee e soluzioni e rendere fattuale il programma di ricerca di uno scienziato-ricercatore, ma non può sostituirlo. In altre parole, il progetto di ricerca costituisce uno “strumento” che consolida e amplifica il programma di ricerca di uno scienziato.
Esiste una profonda differenza tra un programma di ricerca e un progetto di ricerca. Ma allo stesso tempo si assomigliano al punto tale da essere confusi; essi infatti sono il luogo in cui possono nascere le domande scientifiche e in cui si danno risposte e si trovano soluzioni alle domande stesse.
Il programma di ricerca è proteso principalmente a porre le domande scientifiche in modo libero e ispirato alla ricerca della conoscenza.
Esso contraddistingue tutta l'attività dello scienziato-ricercatore, ha le radici nella sua formazione, si struttura e sviluppa nel tempo attraverso la scelta di una o più discipline scientifiche, degli strumenti sperimentali e teorici di base; non ha limiti temporali e obiettivi specifici se non quelli della conoscenza. Soprattutto esso è guidato dalla curiosità nel conoscere. In termini di relazione con altri scienziati lascia libertà di interazione e in termini personali alimenta la crescita dell’individuo non facendo riferimento solo a criteri di efficienza ma più di efficacia e di soddisfazione di raggiungere e condividere i risultati e la conoscenza acquisita.
Il progetto di ricerca è proteso principalmente a dare risposte alle domande scientifiche specifiche e trovare soluzioni tecnologiche.
Esso richiede allo scienziato competenze e strumenti specifici, lavoro sperimentale e sviluppi teorici dedicati agli obiettivi del progetto stesso in un tempo limitato e spesso richiede il raggiungimento di risultati dichiarati sin dalla fase di proposta del progetto stesso. In termini relazionali, il progetto obbliga chi è coinvolto nel progetto a una relazione principalmente ispirata alla “competitività” e alla “conformità”. In termini della persona, induce a rispondere principalmente secondo i criteri di efficienza, attraverso il raggiungimento dei risultati previsti: rispondere per prestazione e non solo per la soddisfazione di raggiungere i risultati e la conoscenza e condividerli.
La differenza tra programma e progetto di ricerca del singolo scienziato può essere estesa al caso di gruppo di ricerca o di comunità scientifica. In questo caso il programma di ricerca dei gruppi di ricerca e delle comunità scientifiche costituisce la linea ispiratrice e di indirizzo della ricerca nei settori di competenza e di proposizione dei progetti di ricerca che rispondono a bisogni di conoscenza o di finalizzazione tecnologica e/o socio-economica. Infatti, i gruppi e le comunità scientifiche, mediano come portatori di interesse, gli obiettivi conoscitivi e tecnico-scientifici del loro programma di ricerca, con quelli eco-etico-socio-economici di altri portatori di interessi.
Di conseguenza il programma di ricerca ha la peculiarità di anticipare e vedere nel futuro quali saranno i bisogni conoscitivi che diverranno, attraverso i progetti, i necessari sviluppi tecnologici e le risposte ai bisogni della società e dell’ecosistema di cui la società è parte.
Un ricercatore senza un proprio programma di ricerca raramente potrà essere coinvolto in un progetto di ricerca se non per alcune sue specifiche competenze e abilità riconosciute e, soprattutto, esserne il promotore.
Come ricercatore e giocatore/allenatore di pallavolo ho sempre riflettuto sulla questione competizione versus collaborazione. Il punto centrale non è tanto l'obiettivo specifico che un gruppo di ricerca o una squadra di pallavolo (intesi come luogo antropologico), si danno (la conoscenza scientifica, la vittoria sportiva), quanto piuttosto le modalità intrinseche e i valori procedurali che definiscono l'agire all'interno del gruppo o della squadra, permettendo la sintesi tra competizione e collaborazione.
Valori e procedure (inclusi i riti) sono il cuore delle comunità antropologiche e li contraddistinguono. In ogni comunità che voglia costituire un luogo "antropologico" (cioè che promuove crescita individuale, relazione e costruzione di storia; leggi la comunità scientifica come luogo antropologico), esistono:
Valori procedurali intrinseci: Questi non sono regole arbitrarie imposte dall'alto, ma principi operativi che emergono dal "fare" stesso dell'attività che nei luoghi si svolgono. Sono il "come" si raggiunge un obiettivo, piuttosto che il "cosa".
Crescita dell'individuo: Ogni membro è chiamato a sviluppare le proprie capacità, talenti e conoscenze specifiche. Ogni individuo deve essere messo in grado dalla comunità di perseguire tale sviluppo. Questa crescita è in sé una forma di "competizione" con sé stessi per dare il meglio che si possa dare perseguendo l'eccellenza (non la sola prestazione). Essa è fondamentale perché l'individuo possa contribuire efficacemente alla comunità.
Relazione (mediazione): Le competenze individuali vengono messe in gioco e affinate attraverso l'interazione con gli altri. È nella relazione che l'agire individuale si plasma e si integra con quello collettivo. Questa mediazione è il modo in cui la competizione individuale (per innovare, per fare meglio) viene incanalata in una dinamica collaborativa.
Storicizzazione (costruzione della storia): L'accumulazione di esperienze, conoscenze e successi (o fallimenti) singoli e collettivi crea una narrazione condivisa, un patrimonio comune che rafforza l'identità della comunità e orienta il suo futuro. La storia non è solo un resoconto, ma una base su cui continuare a costruire, insieme.
Specificità dell'agire basata su "procedure e tecniche specifiche definite dal fare": Questo è un punto importante, esse si identificano nelle buone pratiche alla base dell’essere innovativi. Non si tratta di regole arbitrarie, ma di metodologie intrinseche all'attività stessa, che trascendono la forma organizzativa o le decisioni politiche della comunità.
Il Parallelo e l’analogia tra Ricerca e Pallavolo
Comunità Scientifica:
Agire specifico: Il metodo scientifico della prova e confutazione. Questo è il modo in cui uno scienziato "fa scienza", indipendentemente dal fatto che il suo gruppo, istituto, dipartimento sia democratico o abbia un capo dispotico. Questo metodo è la base ineludibile per generare conoscenza riconosciuta. È una disciplina interna, una tecnica di pensiero e azione. Esso si identifica nel perseguimento del programma scientifico del ricercatore-individuo.
Organizzazione della comunità: Le decisioni di indirizzo della ricerca (quali progetti finanziare, quali temi esplorare) possono essere prese in modo anarchico, democratico o gerarchico. Questo attiene alla "politica" interna della comunità, ma non cambia il fatto che il singolo scienziato per produrre conoscenza valida userà il metodo scientifico.
Squadra di Pallavolo:
Agire specifico: Il gesto tecnico (battuta, bagher, alzata, schiacciata, muro) è posseduto da ogni atleta per il proprio ruolo. Questo è il "come si gioca a pallavolo" a livello fondamentale. Un giocatore deve saper eseguire correttamente questi gesti per essere efficace nel suo ruolo, indipendentemente dal tipo di allenatore. Esso si persegue con l’allenamento del gesto tecnico e di posizione in campo dell’atleta-individuo.
Organizzazione della squadra: L'organizzazione della squadra (dirigente e/o allenatore despota, democratico o anarchico, indirizzo di gioco fantasioso oppure rigido) definisce le tattiche e lo stile, ma non il gesto tecnico di base. Un giocatore con un bagher difettoso sarà tale sia con un allenatore che lascia libertà sia con uno che impone schemi rigidi.
Questa distinzione è cruciale per capire la sintesi tra competizione e collaborazione:
La competizione “sana” avviene nel perfezionamento di queste "buone pratiche, procedure e tecniche specifiche". Gli scienziati competono per applicare il metodo scientifico in modo più competente, rigoroso e innovativo. I giocatori competono per padroneggiare i gesti tecnici anche cambiandoli e migliorandoli. Questa competizione eleva il livello generale di eccellenza.
La collaborazione avviene nel mettere insieme questi agire specifici per un obiettivo comune. Gli scienziati collaborano per costruire una teoria più ampia. I giocatori collaborano combinando i loro gesti tecnici per giocare al meglio e magari vincere la partita. In entrambi i casi per “fare al meglio la sequenza di azioni” che produce un risultato. Dall’acquisizione di dati e dallo sviluppo teorico alla costruzione della nuova conoscenza per i ricercatori, e dalla battuta alla schiacciata per costruire l’azione compiuta per i pallavolisti.
Quando l'attenzione si sposta dalla padronanza delle procedure e tecniche intrinseche e dalla loro mediazione relazionale, verso un individualismo slegato che mira solo al risultato esterno (carriere, pubblicazioni, visibilità, vittorie) senza curarsi del "come" o della relazione, la comunità si disgrega. Non si tratta più di "anarchia" o "democrazia", ma di una perdita di quei principi e valori fondanti che permettono alla comunità di funzionare come un'unità che genera valore e storia, perdendo le prerogative di essere luogo antropologico.
La qualità antropologica di una comunità risiede nella sua capacità di mantenere saldi questi valori procedurali e tecnici che guidano l'agire individuale, incanalando la competizione verso la collaborazione e la costruzione di un destino comune: essa è la coopetizione, una proprietà emergente della comunità.
Partendo da questa semplice analisi e analogia, lascio al lettore di riflettere su queste domande:
Formare: Come possiamo insegnare ai giovani ricercatori e atleti a sviluppare la loro "competizione sana" nel perfezionamento delle procedure e tecniche, anziché focalizzarsi solo sul risultato esterno?
Valutare: Come possono i sistemi di valutazione (accademici o sportivi) incentivare la coopetizione, anziché l'individualismo slegato, nel rispetto e nel riconoscimento del lavoro e delle carriere dei singoli ricercatori e atleti?
Guidare: Quali sono le caratteristiche di un dirigente di una struttura di ricerca o di un allenatore che riesce a coltivare una vera "coopetizione" all'interno della propria comunità e come si formano e si scelgono?
Il re Rodolfo convocò a corte l'astronomo imperiale, Giovanni, per essere aggiornato sullo stato del lavoro di revisione delle tavole delle effemeridi e dei moti dei pianeti, che avrebbero permesso un calcolo più preciso dell'oroscopo dell'anno. I re, infatti, avevano a corte i migliori astronomi per redigere oroscopi utili a prendere decisioni importanti, come intraprendere una guerra, o per avere predizioni sul futuro dei loro regni, come possibili congiunture astrali premonitrici di carestie, epidemie o catastrofi naturali. Fino a circa cinque secoli fa, il lavoro dell’astronomo comprendeva anche quello dell’astrologo.
L'influenza dei pianeti, della luna e del sole sulla Terra era data per scontata, alla luce del principio filosofico di causa-effetto sviluppato dai pensatori dell'antica Grecia. Tuttavia, tale influenza si estendeva anche alla sfera umana, politica e sociale. Questa ipotesi, o congettura, si basava su pochi riscontri fattuali e, soprattutto per quanto riguardava l’influenza sull’uomo e sulla società, era più radicata nella credenza religiosa e nella superstizione.
L'astronomo di corte fece un dettagliato resoconto delle ultime e più precise misure astronomiche, effettuate grazie al nuovo osservatorio, costruito con i fondi della casa reale, che permetteva di misurare le posizioni dei pianeti e gli angoli astronomici con una precisione mai raggiunta prima.
Giovanni spiegò che il ritardo nella consegna dei nuovi oroscopi era dovuto alle elaborazioni delle nuove misure, che necessitavano di ulteriori calcoli per ottenere le nuove tavole delle effemeridi. Il re Rodolfo lamentò il ritardo e chiese all'astronomo di completare quanto prima la stesura dei nuovi oroscopi.
L'astronomo acconsentì e, mentre si congedava, disse che le nuove misurazioni avevano fornito spunti per calcolare le tavole dei moti dei pianeti adottando un modello che poneva il sole al centro del sistema planetario, anziché la Terra, come già ipotizzato da un altro astronomo, Niccolò. Giovanni aggiunse che i nuovi dati confermavano il nuovo modello e permettevano di definire alcune leggi utili a predire le orbite planetarie. Inoltre, per giustificare quanto fosse stato utile sviluppare il nuovo modello, concettualmente più semplice, concluse dicendo che la sua adozione semplificava i calcoli, evitando complicazioni geometriche nel calcolo delle orbite come gli epicicli, i deferenti e gli equanti del sistema geocentrico.
Il re, sottolineando che ciò che importava era la stesura degli oroscopi, chiese all'astronomo quanto sarebbero migliorati gli oroscopi con la precisione dei nuovi dati astronomici. Giovanni rispose che gli oroscopi sarebbero cambiati di poco, poiché le nuove tavole delle effemeridi calcolate col nuovo modello differivano di poco rispetto a quelle ottenute utilizzando il sistema geocentrico, ma aggiunse che sarebbe cambiata la visione del mondo.
Il re concluse la discussione dicendo che per prendere la decisione di entrare in guerra erano necessari gli oroscopi, non la nuova visione del mondo nè le leggi naturali, che potevano interessare alla chiesa e ai filosofi. Pertanto, chiese all'astronomo di affrettarsi a consegnare i nuovi oroscopi, qualunque fosse la sua visione del mondo, e se la nuova ipotesi eliocentrica semplificava i calcoli, a maggior ragione si poteva fare più in fretta.
Giovanni, consapevole dell'importanza della nuova visione del mondo e del valore degli oroscopi (anche lui con qualche dubbio ci credeva), salutò il re con deferenza, promettendo l'immediata consegna dei nuovi oroscopi. Era ben conscio che il re lo pagava per gli oroscopi e che grazie ai fondi reali aveva potuto costruire il nuovo osservatorio e acquisire dati più precisi. Inoltre, grazie al lavoro finalizzato alla redazione degli oroscopi, aveva potuto sviluppare ulteriormente la nuova ipotesi eliocentrica del sistema solare.
Gli oroscopi e la loro capacità di predire il futuro non sarebbero cambiati neanche pochi decenni dopo con la teoria della gravitazione universale di Isaac. Si spera, ma la tentazione c’è, che oggi nessun capo di stato chieda a un astronomo di redigere l’oroscopo utilizzando la teoria della relatività generale di Albert, pensando che la più accurata predizione dei moti planetari, fino alla precessione del perielio di Mercurio, possa migliorare l’oroscopo.
La necessità e l'utilità di avere nuove predizioni sull'evoluzione del mondo e sugli effetti sulla vita della nostra specie rendono indispensabile conoscere e ricostruire continuamente il mondo con nuovi modelli, aggiornando e superando le vecchie visioni e le modalità di interazione con esso. Le congetture che facciamo sul mondo, anche se talvolta prive di fondamenti fattuali, sono necessarie e utili per interagire con esso e rappresentano il motore dell'avanzamento della conoscenza e della sua ricostruzione.
Affermare che la scienza non è democratica può essere una semplificazione efficace, ma può essere fuorviante per coloro che non praticano la scienza nella comunità scientifica e il concetto può innescare pericolosi fraintendimenti nell’opinione pubblica.
Per evitare i fraintendimenti bisogna fare una distinzione tra l’attività scientifica, che ha un suo proprio agire scientifico, e la comunità scientifica in cui essa si svolge, intese, la prima come una delle attività umane e la seconda come parte della società.
L’agire scientifico è basato sul metodo scientifico. Il metodo scientifico è rigoroso e consiste nell’accertamento e nella verifica di ipotesi e di fatti secondo procedure definite e alle quali tutti i componenti della comunità scientifica si devono attenere. Occorre sottolineare che il metodo scientifico non è un metodo di governo ma una procedura di accertamento e verifica di ipotesi e fatti e ciò che deriva da tale procedura è soggetto a verifica e consenso di tutti coloro che seguono la stessa procedura. Non essendo un metodo di governo, le categorie socio-politiche non possono essere applicate al metodo scientifico. Di conseguenza, la categoria "democrazia" non può essere applicata al metodo scientifico e affermare "semplificando (forse banalizzando)" che "la scienza non è democratica", perché è rigorosa nella sua procedura di accertamento del grado di "verità e falsità" delle affermazioni scientifiche.
L’agire scientifico ha come finalità la ricostruzione di un modello del mondo fisico, biologico e sociale. Tale ricostruzione consiste nel caratterizzare le componenti e nel descrivere i fenomeni e i processi che sono alla base del funzionamento del mondo: conoscenza del mondo. Il modello permette a noi umani di interagire col mondo stesso in modo sostenibile (coerente col mondo) e fruttuoso (a vantaggio nostro e del mondo stesso)[1]. È importante sottolineare che il modello del mondo cambia nel tempo poiché la nostra capacità di ricostruire il modello del mondo dipende dal grado di conoscenza e di ignoranza che abbiamo in un determinato momento e luogo.
La nostra capacità di interagire col mondo in modo sostenibile-fruttuoso dipende da quanto il modello ricostruito è vicino al “mondo reale” (grado di veridicità del modello). In altre parole, tanto più il modello ci permette di guardare oltre il limite dell’apparenza e fornire scenari realistici del futuro e del passato, rendendo la nostra interazione col mondo sempre più sostenibile e fruttuosa, tanto più potremo definirlo “vicino al mondo reale”.
La democrazia intesa come modalità di operare della società, non entra quindi nell’agire scientifico, che ha basi rigorose nel metodo scientifico, ma entra come modalità di operare della comunità scientifica intesa come organo sociale e quindi parte della società. L’organo sociale “comunità scientifica” può adottare la democrazia, come forma di governo dove la sovranità è esercitata direttamente o indirettamente dai suoi componenti. In generale il governo della comunità scientifica e le scelte su cui indirizzare l’agire scientifico costituiscono la politica della scienza. La politica della scienza “indirizzando” l’agire scientifico, ne determina anche il suo sviluppo e la sua evoluzione storica. La politica della scienza governata democraticamente definisce gli obiettivi conoscitivi utili allo sviluppo sostenibile e fruttuoso della società tutta.
In ultimo è da notare che le forme di governo e le politiche delle comunità scientifiche traggono le loro basi dai fondamenti ideologici, giuridici e socio-economici delle società in cui operano, fino ad includere forme totalitarie, rivoluzionarie e anarchiche, ma tutte riconoscono il metodo scientifico come unico riferimento per raggiungere la conoscenza.
[1] Talvolta nel concetto di sostenibilità è incluso il concetto di fruttuosità del risultato dell’interazione col mondo.
La burocrazia (definizione mod. da Treccani) è l’insieme dei funzionari e degli uffici che, organizzati in vari gradi gerarchici, svolgono nello stato, e anche nelle organizzazioni private, le funzioni dell'amministrazione e che adotta le procedure finalizzate allo svolgimento e al controllo delle funzioni e azioni, nel rispetto di regole, che competono alla vita delle stesse organizzazioni: la declinazione dei flussi operativi della vita delle organizzazioni e in generale della società.
La “buona burocrazia” è necessaria in un'organizzazione sociale poiché stabilisce modalità e regole operative, che facilitano e rendono chiari e trasparenti i rapporti tra tutti i partecipanti all’organizzazione (i cittadini nel senso più ampio del termine) e tutti coloro che sono coinvolti per ruolo e responsabilità nella vita dell’organizzazione stessa, e che rendono accessibili e fruibili i servizi che l’ecosistema sociale rende disponibili a tutti coloro che ne fanno parte.
La "buona burocrazia" è uno strumento che sottende l'importante obiettivo del raggiungimento dell'uguaglianza; infatti è determinante per rendere tutti i cittadini uguali tra loro rispetto all’organizzazione stessa. Si può arrivare a dire che la buona burocrazia è necessaria per realizzare nella realtà la democrazia in un'organizzazione sociale. Per fare un semplice esempio, due cittadini aventi diritto a un sussidio utilizzano gli stessi moduli per richiederlo. In questi moduli sono richieste le stesse minime informazioni secondo quanto previsto dalle norme di erogazione, che li pongono nella stessa condizione (di uguaglianza nella richiesta) rispetto a chi deve decidere se erogare il sussidio. Ciò non accadrebbe se ognuno dei due cittadini facesse una libera domanda che avvantaggerebbe chi ha conoscenza della norma e fornisce tutte le minime informazioni previste e richieste.
La "buona burocrazia" però deve essere semplice e accessibile a tutti a prescindere dal livello di cultura e di strumenti a disposizione di ogni componente dell’organizzazione.
Una burocrazia che richiede livelli alti di conoscenza delle norme, flussi documentali pesanti e complessi, il possesso e uso di strumenti sofisticati, crea discriminazione e smette di assolvere al suo scopo fondamentale di rendere accessibili, a tutti, allo stesso modo e senza differenze, i servizi dell’ecosistema sociale, producendo l’effetto indesiderato di rendere inutilmente lento, complicato, discriminante e distorto il vivere quotidiano di ogni cittadino o partecipante all’organizzazione, talvolta minando anche il raggiungimento degli obiettivi strategici che l’organizzazione sociale ha scelto di darsi.
La comunità scientifica è un'organizzazione sociale composta da cittadini con ruoli e responsabilità diverse (professori, ricercatori, tecnici e personale amministrativo). Come ogni organizzazione, ha la sua burocrazia, che governa ambiti cruciali come il reclutamento, la gestione delle carriere e dei finanziamenti, il funzionamento delle strutture e l'organizzazione degli spazi di ricerca.
Per la sua natura, una "buona burocrazia" al servizio della ricerca deve affrontare una duplice sfida:
Garantire uguaglianza e standardizzazione: Deve trattare tutti i membri della comunità in modo equo per quanto riguarda le procedure standard, come l'accesso ai sussidi e le norme di lavoro.
Essere flessibile e adattabile: Deve essere capace di adattarsi in modo semplice e rapido alle esigenze dell'innovazione. I programmi e i progetti di ricerca, per loro natura, creano nuove situazioni che richiedono una burocrazia agile, che non ostacoli il progresso con regole rigide e obsolete.
In sintesi, la burocrazia della comunità scientifica deve bilanciare la necessità di regole standard con la flessibilità richiesta dall'innovazione, supportando l'uguaglianza senza soffocare la creatività.
Il pezzo di artiglieria U-BUR
L’esercito di Buropia ha acquisito un nuovo cannone, il più potente mai costruito su Planetopia: lo hanno chiamato U-BUR.
Il cannone potrebbe fare tutto da solo, infatti ha un livello di robotizzazione elevatissimo per il suo sistema di caricamento e per il sistema di guida al bersaglio basato sul rilevamento integrato multisensore delle truppe avversarie, assistito peraltro da un sistema basato su intelligenza artificiale. Può muoversi da solo con guida GPS e può sparare addirittura 1000 proiettili al minuto e senza inceppamenti, con un controllo che richiede l'intervento manuale assistito in caso di inceppamento. Insomma, il meglio che si possa immaginare di un cannone di oggi non è mai costruito.
Nonostante la sua alta prestazione, operando sul campo il cannone però spara solo 10 proiettili al minuto, peraltro con una precisione ben al disotto delle sue reali possibilità. Eppure, quando la commissione di esperti nominata dal comando supremo dell’esercito di Buropia per la scelta del cannone partecipò alle prove di tiro al poligono non ci furono dubbi sulle sue prestazioni: non aveva eguale.
L’addetto al pezzo, Pallotta, praticamente l’ultima pedina della lunga catena di comando e scala gerarchica preposta al funzionamento del pezzo di artiglieria U-BUR, che aveva fatto un corso specifico per usare U-BUR, notò che in effetti il cannone era usato non secondo e compatibilmente con le sue funzioni automatizzate ma secondo la “procedura di buona pratica” messa a punto dallo stato maggiore di Buropia.
La procedura, ben nota a Pallotta, prevedeva tanti passi, come peraltro ogni procedura amministrativa di Buropia. Ogni passo prevedeva un documento di attivazione di un’azione a cui conseguiva la scrittura di un documento e la sua trasmissione via protocollo tra i diversi responsabili e attori che la procedura richiedeva. Ovviamente ogni documento della procedura veniva scritto rigorosamente in Word e convertito in PDF, firmato digitalmente, tutto protocollato nel rispetto della transizione digitale e della tracciabilità di tutto il percorso.
In testa c’era il maggiore del battaglione di artiglieria che autorizzava, con un documento PDF firmato digitalmente e inviato via protocollo, il capitano della compagnia a cui era stato assegnato il pezzo per raggiungere un certo obiettivo strategico. Il capitano firmava per ricezione il documento PDF e rispediva per ricezione un documento PDF tramite protocollo.
Il capitano autorizzava, con due distinti documenti PDF, il sottotenente del plotone sul campo preposto al pezzo e il tenente preposto al trasporto dei proiettili dal deposito al campo ed entrambi firmavano per ricezione il documento e rispedivano per ricezione via protocollo i rispettivi documenti PDF.
Il tenente addetto al trasporto faceva richiesta, ovviamente sempre predisponendo un file PDF firmato e protocollato, al sottotenente del deposito proiettili di prelevare un certo quantitativo di proiettili (“non più di quanti ne servissero per operare per una giornata, e anche per limitare i costi”). I proiettili venivano consegnati alla squadra addetta al trasporto il cui caporal maggiore, che aveva già richiesto l'autorizzazione all'uso dell'automezzo di servizio con apposito file PDF, firmava per la ricezione dei proiettili l’ormai onnipresente file PDF: in questo caso in olografo con successiva digitalizzazione da parte degli uffici del deposito proiettili (perchè la firma digitale, per decisione del comando supremo, non poteva essere resa disponibile alla truppa).
Finalmente i proiettili arrivavano al pezzo U-BUR. Il sottotenente di campo aveva già autorizzato, con apposito file PDF, il sergente di campo all’uso dei proiettili, previo conteggio degli stessi ripetuto per almeno tre volte (“caso mai ne sparissero e giustamente per sicurezza”). I proiettili trasportati dalla squadra venivano trasferiti alla rastrelliera del sistema di caricamento del pezzo di artiglieria al quale erano assegnati il Pallotta, il sergente prima autorizzato e altri due aiutanti al pezzo. Secondo la procedura, il sistema di caricamento doveva lavorare “rigorosamente in manuale per evitare inceppamenti”. È ormai inutile dire che il sergente firmava in olografo il documento PDF di ricezione e caricamento dei proiettili predisposto dal tenente che sarebbe stato poi digitalizzato e protocollato al rientro dalle operazioni di campo.
Finalmente si era arrivato all’addetto al pezzo, Pallotta, che dopo i tanti passaggi poteva predisporre insieme agli altri due aiutanti il tiro, ovviamente su ordine del sergente di campo, il quale aveva ordinato a Pallotta e alla squadra di escludere secondo procedura il sistema automatico di puntamento perché “non si sa mai”. Solo quest’ultimo ordine non prevedeva un file PDF ma la successiva stesura di un rapporto di tiro costituito da un file PDF, firmato e protocollato e inviato alla maggiorità.
Pallotta diceva sempre “usato così non mi sembra proprio il cannone che ho visto al corso, forse la burocrazia fa male anche ai cannoni”.
Le comunità scientifiche sono costituite da ricercatori e studiosi di diverse discipline e settori tecnologici e, come entità della società, si configurano sotto forma di società, associazioni scientifiche e/o istituzioni, generalmente di tipo accademico e di ricerca e professionale-tecnologico.
Le comunità scientifiche e tutti coloro che ne fanno parte hanno tra i loro “doveri-obiettivi” quello di comunicare, condividere, rendere pubblico e trasferire all'interno e all’esterno della comunità i dati e i risultati delle ricerche. La comunicazione, la condivisione e la pubblicazione dei risultati costituiscono un aspetto essenziale del metodo scientifico che pone alla sua base la riproducibilità dei dati e dei risultati, la trasparenza del processo che ha portato all’acquisizione dei dati e ai risultati e la verifica degli stessi da parte di componenti della comunità scientifica. Le modalità con cui vengono assolti i doveri e raggiunti gli obiettivi anzidetti hanno forti implicazioni nella politica della scienza. Tali modalità, infatti, caratterizzano la capacità delle comunità scientifiche, come organi della società, di essere portatori di interesse dell'avanzamento della conoscenza e del suo sviluppo nella società stessa.
Le comunità scientifiche, nelle loro articolazioni in società, associazioni e istituzioni, per assolvere a tale "dovere", negli ultimi tre secoli si sono fatte carico di essere editori dei prodotti scientifici/tecnologici dei loro componenti. L’essere comunità-scientifica-editore (editore scientifico) include importanti prerogative e funzioni:
1. Le scelte di indirizzo e di impostazione dei contenuti da pubblicare in funzione anche degli sviluppi dei settori disciplinari e dei settori tecnologici che sono da conservare o dismettere, consolidare, innovare e promuovere. Tali scelte hanno grandi implicazioni anche sulle carriere dei componenti delle comunità scientifiche;
2. L’organizzazione della procedura di verifica della qualità dei contenuti secondo il metodo scientifico, che deve essere curata da componenti esperti della stessa comunità scientifica poiché sono contenuti risultanti dall’applicazione del metodo scientifico;
3. L'L'editazione, la produzione e la distribuzione (oggi soprattutto digitali) dell’oggetto da pubblicare e comunicare; funzione che è complessa da espletare per le sue implicazioni economiche e di mezzi di produzione.
Sono proprio queste prerogative e funzioni che rendono diversa la comunità-scientifica, come editore, da tutto il resto dell’editoria. Questa peculiarità impone una riflessione su quali devono essere le prerogative e le funzioni che un editore scientifico deve possedere per espletare il proprio compito.
Con il passare del tempo le comunità scientifiche di diversi settori disciplinari e tecnologici hanno delegato le precedenti prerogative e funzioni ad editori esterni. Si è passato dalle prime comunità scientifiche che inizialmente le includevano tutte, forse ad eccezione della mera stampa, alla delega della cura dell'editazione, produzione e distribuzione (3). Nell’ultima decade dello scorso secolo e le prime due del presente, in una prima fase, è stata delegata l’organizzazione della procedura di verifica (2)(ad esempio il gruppo redazionale e dei revisori non più espressione della stessa comunità scientifica ma frutto della selezione dell’editore esterno) e, in una seconda fase, è stata addirittura delegata, senza rendersene conto, la scelta di indirizzo e di impostazione dei contenuti da pubblicare (1)(l’editore esterno influenza le strategie di sviluppo disciplinare e di settore).
Ciò è avvenuto perché il prodotto scientifico è divenuto un prodotto più “consumato”, sia per un’effettiva richiesta di sapere da parte del pubblico anche non esperto, sia soprattutto per l’aumentata platea degli addetti alla ricerca le cui carriere (dei singoli studiosi) dipendono altamente dal prodotto scientifico. L'aumentato consumo ed uso del prodotto scientifico hanno reso più complessa e onerosa l'organizzazione a carico delle comunità scientifiche che hanno delegato all'esterno le funzioni di editore. Ciò ha portato l’editore scientifico esterno ad essere, del tutto scollegato o debolmente collegato alle comunità scientifiche, e a riferirsi direttamente ai singoli studiosi che spesso non si identificano nelle comunità e le rispettive società, associazioni ed istituzioni scientifiche.
Interessante è anche l'evoluzione del rapporto economico tra comunità scientifiche ed editori esterni. Quando le comunità scientifiche erano più influenti ed esercitavano tutte le prerogative, l’editore esterno si faceva pagare il servizio editoriale s.s. (3) facendo pagare chi fruiva del prodotto, cioè il singolo studioso, le società, le associazioni e le istituzioni scientifiche. Più di recente, l’editore scientifico esterno, che ormai non è più controllato dalla comunità scientifica, fa pagare, in fase di pubblicazione, il servizio editoriale all’autore del prodotto che può essere fruito successivamente indistintamente da tutti, addetti alla ricerca e pubblico, e senza costi.
Questo sistema instauratosi produce distorsioni quali il relativo aumento dei costi del servizio editoriale scientifico a carico dei singoli studiosi (e delle istituzioni in cui operano) e la proliferazione indiscriminata di prodotti editoriali e di comunicazione dei risultati della ricerca, talvolta anche gestiti da singoli o da gruppi della comunità scientifica (o istituzioni di ricerca), di scarso contenuto e qualità scientifica: un vero mercato della publicazione scientifica, che vede anche la nascita di "editori predatori", "produttori di carta e media", e che non regolato da indirizzo scientifico e socio-economico produce, apparentemente e in modo distorto per i diversi portatori di interesse, utile economico, di carriera e di finanziamento della ricerca stessa.
Il singolo studioso ha l’illusione di partecipare al processo di comunicazione, condivisione e pubblicazione attraverso il coinvolgimento in gruppi redazionali e nel processo di verifica di qualità del prodotto, attraverso un coinvolgimento individuale in un sistema nel quale la comunità scientifica non è più centrale e di riferimento, e ricevendo un relativo aumento della possibilità di migliorare la carriera personale e la propria visibilità.
Questo modello, instauratosi negli ultimi decenni del XXI secolo, crea una netta contraddizione tra la natura intrinseca della scienza e le logiche di mercato. Un processo che ha portato alla mercificazione del sapere: una transizione dalla comunità al "puro mercato". La scienza, per sua natura, è un'impresa collettiva e cumulativa. Si basa sulla collaborazione, sulla libera circolazione delle idee e sulla verifica da parte dei pari. L'obiettivo è il progresso della conoscenza, non il profitto individuale del singolo studioso, o di qualunque altro soggetto coinvolto nella produzione della conoscenza.
Al contrario, il modello attuale ha trasformato la conoscenza in un bene di scambio. Gli editori commerciali, con i loro abbonamenti costosi e le loro Article Processing Charges (APC), detengono il monopolio della distribuzione del sapere. La conoscenza, che spesso è stata finanziata con fondi pubblici, viene rivenduta a caro prezzo alle stesse istituzioni che l'hanno prodotta, ostacolando l'accesso e la diffusione.
Le comunità scientifiche, non per conservare alcun potere ma per assolvere socialmente ai loro doveri-obiettivi, devono riappropriarsi delle anzidette funzioni e prerogative che appartengono a loro come editore scientifico ripensando anche alla modalità operativa per essere comunità-scientifica-editore. Esse devono individuare i mezzi di produzione che la rivoluzione digitale mette loro a disposizione per trovare i meccanismi per assolvere in modo nuovo ed efficace ai loro doveri e funzioni e per utilizzare i mezzi economici, ora devoluti ad alimentare gli utili di editori esterni, che in parte, oltre a poter finanziare la produzione stessa, ritornerebbero nella disponibilità gestionale della comunità scientifica stessa e quindi alla società della quale essa è parte.
La comunità scientifica ha il diritto e il dovere di riprendersi il controllo del proprio "mezzo di produzione" ("essere editore"). Non può delegare una funzione così centrale e strategica al solo capitale. Questo perché la scienza, il produrre conoscenza, non è un'attività come le altre: è una prerogativa sociale. Il suo sviluppo ha un impatto diretto sulla salute, sull'economia, sull'ambiente e sul benessere della società.
Perché ciò accada prima di tutto è necessario che la comunità scientifica ritorni ad essere un "luogo antropologico": uno spazio di crescita identitaria, di scambio relazionale e di costruzione storica della conoscenza, a beneficio di tutti (leggi: La comunità scientifica come "luogo" antropologico).
La lingua come parte più importante del linguaggio comunicativo della specie umana è l'espressione distintiva della cultura intesa in senso lato, inclusa la capacità di fare scienza (acquisire conoscenza), di un popolo e più in generale di una comunità antropologica.
Il linguaggio scientifico è l'insieme dei linguaggi (costituiti da lingue, glossari e modalità comunicative specifiche) tipici dei saperi e delle discipline scientifico-tecniche e della lingua madre utilizzata per costruire le proposizioni scientifiche. In tal senso, apparentemente, la conoscenza raggiunta e comunicata attraverso il linguaggio scientifico non dovrebbe essere influenzata dalla lingua madre utilizzata da uno studioso, poiché il significato e il contenuto dovrebbero rimanere immutati a prescindere dalla lingua madre utilizzata (nella sua espressione elementare di simboli, alfabeto, termini, morfologia e sintassi).
Scrivere l'enunciato di un teorema matematico o di un principio di fisica in italiano, in inglese o in cinese come lingua madre non cambia il suo significato informativo e comunicativo. Infatti, una proposizione scientifica è un insieme connesso di termini aventi significato derivante da specifiche definizioni, eventuali simboli specifici matematici con significato logico e operazionale specifico e gli elementari connettivi morfologici e la sintassi della lingua madre.
D'altra parte la lingua porta con sé anche l'approccio simbolico, argomentativo, creativo, comunicativo e di visione distintiva della cultura e quindi dello sviluppo della conoscenza dello scienziato come appartenente a una comunità antropologica (leggi la comunità scientifica come luogo antropologico). Comunicare usando la lingua madre vuol dire comunicare oltre il significato elementare dei termini e delle proposizioni anche la visione culturale (di pensiero) della comunità antropologica in cui la lingua madre nasce, si radica, vive e si evolve.
In altre parole, la lingua veicola la cultura e quindi influenza il modo di fare e comunicare la scienza in quanto la lingua è portatrice della cultura del luogo antropologico in cui si sviluppa la conoscenza, inclusi gli aspetti socio-politici.
Non a caso l'evoluzione storica dello sviluppo della conoscenza è contraddistinta dalla diversità di approccio culturale delle comunità antropologiche. Basti pensare allo sviluppo della conoscenza nel susseguirsi delle diverse civiltà, che con percorsi seriali e differiti nel tempo (negli stessi luoghi) e/o paralleli e coevi (in luoghi diversi), hanno sviluppato le stesse conoscenze o diverse conoscenze con approcci culturali significativamente differenti. Ciò che è più importante è come le stesse conoscenze, anche scientifiche, siano state raggiunte con percorsi e metodi del tutto diversi perché tra loro fondamentalmente connessi alla cultura e quindi ai linguaggi, e nondimeno alla lingua parlata delle comunità antropologiche.
Di conseguenza, conservare la lingua è conservare le diverse culture, che si sono sviluppate nelle diverse comunità antropologiche, nei diversi luoghi e nel tempo. La diversità culturale è la base di un processo di scambio osmotico-comunicativo che costituisce la base naturale dello sviluppo del pensare, del conoscere e del comunicare.
Una sola lingua comunicherà una sola cultura, conformando e normalizzando la modalità di pensare e di conoscere.
All'università, nell'ultimo periodo viene chiesto, sempre più di frequente ai docenti di insegnare in lingua inglese, in taluni casi dimostrando di avere una certificazione di livello C del CEFR.
Mentre l'italiano è stata la lingua tradizionale dell'insegnamento universitario fino a pochi decenni fa, l'introduzione dei corsi di laurea in inglese è ora giustificata principalmente dall'esigenza di aumentare l'internazionalizzazione e l'attrattività di studenti stranieri.
Ciò che più sorprende, tuttavia, non è la richiesta di una conoscenza avanzata dell'inglese, (ormai scontata per chi fa scienza) ma la semplice e scontata equazione tra insegnare in lingua inglese e internazionalizzazione-attrattività. L'internazionalizzazione e l'attrattività di un'istituzione formativa e di ricerca, infatti, dipende non solo dalla facilità di apprendere in una lingua già conosciuta, ma, e soprattutto, dalla qualità complessiva di ciò che essa offre:
la qualità culturale e la fertilità economica del luogo di studio,
Il rapporto di investimento formativo: il livello di formazione acquisibile sul costo complessivo di formazione,
il livello e la qualità di accoglienza logistica (abitativa e ricreativa),
Il numero di laboratori e di percorsi di esperienze pratiche "di laboratorio e di campo" e la loro qualità,
la versatilità e il livello e la qualità dei contenuti dei percorsi curricolari,
la qualità del tutoraggio durante il corso di studio, soprattutto anche nelle esperienze di laboratorio e di campo,
la capacità di trasferire sapere e saper fare in modo professionale e avanzato,
la qualità della comunità scientifica che costituisce la struttura, in cui l'individuo possa sentirsi parte e crescere.
Queste qualità sono prerogative di un'istituzione che aspira alla vera internazionalizzazione e, soprattutto, che sia attrattiva per qualunque studente straniero e non.
In una struttura formativa, anche se si insegnano contenuti di elevata qualità, ma in un contesto sociale scollegato dalla comunità antropologica che ha una sua cultura e identità (leggi la comunità scientifica come luogo antropologico), si erogherà agli studenti una "formazione di scarsa qualità", anche nella lingua più prestigiosa.
La scelta della lingua inglese è legata a ragioni geopolitiche, essendo divenuta la lingua più parlata a partire dal XIX secolo, similmente a come lo erano stati il francese, lo spagnolo, o in passato il greco, il latino e l'arabo in Occidente. L'inglese è la lingua adottata in quanto legata a società che hanno avuto il maggiore sviluppo economico e scientifico-tecnologico storico recente. L'inglese è divenuto la lingua di riferimento della scienza, e gli scienziati scrivono prevalentemente in inglese, sebbene pensino e sviluppino cultura scientifica nelle loro lingue madri (leggi la lingua veicola la cultura). Tuttavia, l'internazionalizzazione e l'attratività vanno ben oltre la semplice competenza linguistica o il semplice usare una lingua di riferimento che è indubbiamente un primo passo e un facilitatore cruciale che apre le porte alla comunicazione con un pubblico più ampio, permette la circolazione della ricerca e facilita la mobilità di studenti e docenti.
Un esempio emblematico è quello degli studenti cinesi: negli anni Ottanta, Novanta e Duemila, gli studenti cinesi hanno frequentato le migliori università statunitensi, imparando in inglese da professori che trasmettevano conoscenze all'avanguardia in strutture inclusive e facilitanti. Oggi, la gran parte di essi è tornata in patria. Le università cinesi, dove quegli studenti ora insegnano in cinese, sono diventate il luogo in cui si sviluppa la nuova cultura e scienza di frontiera oltre che motore del grande sviluppo economico della Cina. Un percorso, peraltro, che si sta verificando anche in India. Da docente mi sono sempre stupito della capacità sopra media degli studenti cinesi nel riconoscere andamenti e forme in grafici ed immagini, probabilmente legata al loro apprendimento basato sul sistema di scrittura ideografica cinese.
In un mondo dominato dall'innovazione tecnologica, assistita da strumenti come l'Intelligenza Artificiale (IA), il problema del parlare e ascoltare in una specifica lingua potrebbe essere quasi superato. L'IA, attraverso la traduzione simultanea di elevata qualità (sia semantica che terminologica di settore scientifico-tecnico), è in grado di eliminare il limite della conoscenza strettamente linguistica.
Questo consentirebbe a tutti di pensare e sviluppare conoscenza nella propria lingua madre pur comunicando in qualunque lingua. Un assistente linguistico basato su IA permetterebbe a tutti di conservare la propria identità culturale e linguistica, rendendo più fertile lo sviluppo della conoscenza e lo scambio culturale, senza conformarlo alla lingua dominante e quindi alla sua cultura di riferimento.
Probabilmente, nel futuro prossimo iper-tecnologico e dell'e-learning assistita da IA, il problema vero non sarà la mera attrazione degli studenti stranieri ma l'attrazione di studenti che si formano frequentando "strutture e sedi fisiche fatte di muri e finestre" in un certo luogo. Probabilmente l'università che vorrà erogare formazione presso strutture e sedi fisiche dovrà dimostrare che esiste un vero valore aggiunto nel formarsi fisicamente in un luogo, diversamente lo studente sceglierà una delle tante università telematiche. Magari seguirà corsi telematici anche di università prestigiose in qualche parte del mondo (con sottotitoli nella propria lingua e non sapendo neppure dove si trova la sede). Ad esempio, un valore aggiunto sarà ciò che la tecnologia non può: le esperienze di laboratorio e di campo o esperienze relazionali e d'interazione che superano e integrano la lezione frontale di qualità. Probabilmente nelle università del futuro, tutte le aule attuali saranno sostituite da laboratori dimostrativi interattivi, condivisi e collaborativi-relazionali, quelli che giusto in inglese chiamiamo "living-labs".
L'internazionalizzazione e l'attrattività sono processi profondi che vanno dal mero livello linguistico a quello socio-culturale e scientifico-tecnologico. Sebbene la conoscenza di una lingua comune sia fondamentale per avviare il dialogo, il successo di un progetto di internazionalizzazione, che sia attrattivo, dipende dalla sua capacità di valorizzare la diversità, l'inclusione e la qualità dei contenuti, e le nuove modalità di strutturare la didattica e la formazione (living-labs e apprendimento potenziato con IA) anziché limitarsi alla sola questione di conformità linguistica.
La vera sfida per le università che aspirano all'internazionalizzazione e all'attrattività non è semplicemente adottare una lingua, ma costruire un ecosistema di qualità in grado di offrire esperienze formative, culturali e umane che non possano essere replicate altrove (inclusa la rete telematica). In questo contesto, la lingua inglese è solo uno dei tanti strumenti a disposizione, non il metro di giudizio finale.
L’ecosistema Terra, e in generale tutti gli ecosistemi planetari, fanno riferimento a due componenti materiali di base:
Biotica: materia e sistemi governati da processi biologici e della vita.
Abiotica: materia e sistemi governati da processi fisico-chimici.
Oltre alle due componenti citate un ecosistema include anche due componenti immateriali:
Energia: nel suo più ampio significato, governa i processi fisico-chimici e le proprietà delle due componenti abiotiche e biotiche e la loro interazione fisico-chimica.
Informazione: anche essa intesa nel suo più ampio significato, è alla base dei processi di relazione e di comunicazione tra le due componenti materiali e le loro parti costituenti.
Le componenti abiotiche e biotiche sono strettamente collegate ed interconnesse. Infatti quella abiotica di fatto costituisce la matrice in cui la componente biotica si struttura e si sviluppa in un continuo processo di retroazione con l’abiotica attraverso i processi di scambio energetico ed informativo.
L’insieme delle componenti materiali ed immateriali costituisce il patrimonio naturale di un ecosistema la cui caratteristica peculiare, base della sua auto-organizzazione, è la diversificazione di proprietà, di caratteri dei costituenti, di interazioni e di processi soggiacenti: la diversità naturale. La diversità naturale contraddistingue e differenzia ogni ecosistema e il suo patrimonio naturale.
L’azione umana di preservare e tutelare la diversità naturale implica l’agire nel sistema Terra, e planetario, in modo rispettoso, sostenibile e fruttuoso per l’uomo e il sistema stesso. In termini ecosistemici la "tutela" si traduce nel:
conoscere quali siano i servizi messi a disposizione e a favore dell’uomo dalle componenti materiali ed immateriali (valutazione del potenziale ecosistemico),
individuare vantaggi e svantaggi del loro uso per l’uomo e per tutte le altre componenti dell'ecosistema (impatto ecosistemico),
utilizzare tali servizi con tecnologie idonee che consentano di fruirne così che essi possano essere ancora erogati nella stessa forma dopo la loro fruizione (sostenibilità ecosistemica).
Questo approccio, al quale soggiacciono i concetti di circolarità e di sostenibilità, non è altro che la “coltivazione” del patrimonio naturale del pianeta che si può realizzare solo se viene preservata la diversità naturale in un contesto ecosistemico e circolare.
L'uniformitarismo, noto anche come uniformismo o attualismo, è un principio fondamentale che ha avuto un impatto significativo sulla filosofia della scienza, in particolare nello sviluppo delle geoscienze.
James Hutton gettò le basi di questo approccio alla conoscenza del Pianeta proponendo nel testo "Teoria della Terra", pubblicata tra il 1785 e il 1788, che la Terra fosse modellata da processi lenti e costanti, come l'erosione e la sedimentazione, piuttosto che da eventi catastrofici. Charles Lyell ampliò le idee di Hutton nei suoi "Principles of Geology" (1830), rendendo l'uniformitarismo un principio accettato nella geologia. Lyell sosteneva che "il presente è la chiave del passato", oggi diremmo anche del futuro, enfatizzando l'importanza di osservare i processi attuali per comprendere la storia geologica. Successivamente diversi studiosi nel XX secolo hanno contribuito a chiarire e a definire meglio il principio che a tutti gli effetti è diventato uno dei “paradigmi” delle moderne geoscienze utilizzato di fatto per sviluppare le teorie di base delle scienze della Terra quali: la teoria della deriva dei continenti, la teoria della tettonica a placche, la teoria dell'evoluzione, la teoria di espansione dei fondi oceanici, la stratigrafia sequenziale integrata etc..
I fondamenti epistemologici dell’Uniformitarismo sono il concetto di continuità temporale e spaziale e il concetto di osservazione e inferenza per i quali quali si può affermare che: i processi attuali sono in continuità temporale e spaziale (anche con iati spazio-temporali) con i processi nel passato (continuità), e gli stessi processi sono attualmente “principalmente” caratterizzati da una dinamica evolutiva lineare che permette di inferire i processi e gli eventi che accadono e che sono accaduti nel passato (inferenza). Tali concetti si inquadrano nel più generale principio epistemologico di persistenza della realtà: la realtà continua ad esistere e a mantenere le sue proprietà, che possono cambiare nel tempo, e ad evolversi secondo i suoi processi anche quando non è direttamente osservata o percepita. Questo principio è un riferimento filosofico fondamentale che guida gli approcci alla conoscenza delle geoscienze, della fisica e di altre scienze.
Bisogna sottolineare che lo stesso Lyell non escludeva gli eventi estremi e/o catastrofici (legati alla dinamica non lineare dei processi), ma sulla base osservativa sosteneva che questi eventi fossero meno frequenti e meno significativi rispetto ai processi lenti e continui che modellano la Terra nel lungo periodo, introducendo embrionalmente il concetto degli effetti di scala che caratterizzano i processi geologici.
Infatti, la principale critica all'uniformitarismo, già avanzata sin dalla sua nascita, e soprattutto oggi, è l’assunto di ritenere i fenomeni caratterizzati da una dinamica lineare sottovalutando l'importanza degli eventi estremi e/o catastrofici, che possono verificarsi, che hanno, e che hanno avuto un impatto significativo sulla storia e l’evoluzione del pianeta Terra. Un’altra critica all’uniformitarismo è proprio quella relativa all’inferenza geologica: le “prove geologiche del passato” (dati e ricostruzione di processi) possono essere incomplete o alterate, rendendo difficile la ricostruzione accurata dei processi storici basandosi solo sulle osservazioni attuali: i registri geologici (intesi nel senso più ampio di tutti i registri di tutte le geoscienze).
L’uniformitarismo come approccio epistemologico, nato nell’ambito delle scienze geologiche-naturali ed in esse sviluppatosi, non ha avuto una sua chiara traslazione nelle altre branche della scienza che nel XIX hanno avuto un approccio principalmente riduzionista nel loro sviluppo. Ciò a sottolineare come le geoscienze fossero in tale secolo all'avanguardia. In particolare, ad esempio nella fisica, solo a partire tra la fine del XIX e gli inizi del XX secolo (Poincaré, Lyapunov, Kolmogorov), e soprattutto a partire dalla seconda metà dello stesso secolo (Wiener, Bogdanov, Lorenz E., Prigogine, Bak, Morin) si è affermato un approccio interdisciplinare allo studio dei sistemi fisici, basato sullo studio dei sistemi complessi (teoria del caos, teoria dei sistemi complessi etc.), che ha visto la sua traslazione anche allo studio del sistema Terra.
L'uniformitarismo come approccio allo studio delle geoscienze può essere integrato e costituisce un approccio complementare alla geocomplessità, che si concentra sulla comprensione dei processi geologici attraverso l'analisi dei sistemi complessi. Questo approccio permette di affrontare la variabilità e la complessità dei fenomeni geologici in modo più dettagliato, integrato ed interdisciplinare. La geocomplessità mira a sviluppare approcci volti a descrivere e ricostruire le principali proprietà dei sottosistemi complessi caratterizzanti il pianeta Terra quali:
La non-linearità: essi possono evidenziare comportamenti non lineari, dove piccole variazioni delle condizioni iniziali e delle condizioni al contorno possono causare grandi cambiamenti.
L'emergenza: essi possono sviluppare nuove proprietà ed evidenziare comportamenti emergenti dalle interazioni tra le componenti del sistema Terra.
I cicli di retroazione: i processi di retroazione dei cicli geo-bio-fisico-chimici influenzano il comportamento dei sottosistemi terrestri producendo amplificazione o deamplificazione dei fenomeni e degli effetti.
Le dinamiche temporali e spaziali: Le dinamiche dei sistemi terrestri possono variare a diverse scale spaziali e temporali, mostrando comportamenti dei processi evolutivi lineari e/o non lineari.
Le micro e macro reologie: Le reologie geo-bio-fisico-chimiche soggiacenti ai processi del pianeta Terra variano con la scala ma possono o non possono conservare le medesime leggi di scala nel comportamento osservabile a livello microscopico e macroscopico dei sistemi.
Il cambiamento e l'adattamento: i sistemi evolvono e si adattano nel tempo in risposta a cambiamenti geologici, ambientali, climatici, economici e sociali.
L'uniformitarismo offre ancora una base solida per l'interpretazione e la comprensione dei processi geologici, esso integrato con la geocomplessità arricchisce questa comprensione permettendo di affrontare la complessità e la variabilità dei fenomeni e dei processi geologici e naturali, caratteristiche tipiche di un sistema autorganizzato allo stato critico come è il pianeta Terra.
Il Foglio Geologico, o la Carta Geologica, non è solo il risultato di un lungo e meticoloso lavoro di sintesi interdisciplinare di dati e di informazioni e, anche se generalmente classificato come prodotto tecnico e di servizio, rappresenta un punto di partenza fondamentale per la ricerca. La carta geologica, infatti, costituisce un dato di base indispensabile e uno strumento di conoscenza cruciale, utile a svariati sviluppi e applicazioni per la nostra società: dalla gestione e pianificazione del territorio alla difesa del suolo, dalla valutazione delle pericolosità e dei rischi geologici con la relativa mitigazione, fino alla valutazione, valorizzazione e coltivazione delle georisorse, in primis quelle idriche, e non di meno, quelle geotermiche e geominerarie, includendo anche il supporto alla progettazione ingegneristica delle infrastrutture civili.
Dietro a questo strumento, però, si nasconde un processo scientifico unico. Il rilevamento e il campionamento geologico, portatore del dato geologico e della costruzione dei registri geologici, non è un semplice esercizio tecnico, ma un'attività che produce un dato fondamentale, che solo il geologo e la scienza geologica sono in grado di acquisire; nessuna altra scienza acquisisce questo dato, lo elabora e lo interpreta integrandolo con altri dati derivati da altre discipline e scienze con ipotesi, teorie e modelli propri della geologia. Per questo, la carta geologica è la sintesi di un lavoro che affonda le sue radici nell'osservazione diretta e nell'acquisizione di dati sul terreno.
Alla luce degli sviluppi tecnologici, il futuro dell'acquisizione del dato geologico si muove verso uno sviluppo che richiede strumenti tecnologici innovativi sempre maggiori e sempre più integrati interdisciplinarmente. Sicuramente l’acquisizione digitale del dato di rilevamento geologico diverrà sempre più uno standard. Tuttavia, sebbene le nuove tecnologie e l'Intelligenza Artificiale offrano strumenti potenti, il dato di base, che è il frutto dell'osservazione diretta sul terreno e del lavoro di analisi di laboratorio, rimarrà sempre principalmente appannaggio dell'uomo che osserva e sperimenta. L'intelligenza artificiale, infatti, non acquisirà mai un dato, anche se assisterà la sua acquisizione, lo elaborerà, aiutando utilmente ed efficacemente il geologo nelle fasi interpretative e di sintesi.
In questo scenario, il dato di rilevamento e campionamento e il relativo dato analitico di laboratorio acquisteranno un'importanza e un valore ancora maggiore, se non unico, perché saranno il punto di partenza per ogni evoluzione futura delle geoscienze.
C'è qualcosa di poetico e di affascinante nell'osservare la sabbia che scende in una clessidra, granello dopo granello, segnando il trascorrere del tempo in modo così profondo e tangibile. L'idea di utilizzare la clessidra come metafora del tempo è molto antica e diffusa. Molti scrittori, filosofi e artisti nel corso della storia hanno fatto riferimento alla clessidra per illustrare la natura transitoria del tempo, la fugacità della vita o la distinzione tra passato, presente e futuro.
Nella clessidra, un liquido o la sabbia possono fluire per gravità tra due bulbi sovrapposti, generalmente di vetro e di forma quasi conica, connessi e comunicanti ai vertici attraverso un passaggio stretto: una strozzatura. La sua semplicità costruttiva, del processo sottostante e della procedura di misura (il capovolgimento dei bulbi per ricominciare il ciclo di misura) nasconde una precisione sorprendente nel rilevare (misurare) intervalli di tempo limitati.
Una delle cose più intriganti della clessidra è che, oltre a fornire una misura di un intervallo di tempo, ci offre la percezione del suo scorrere. Infatti, un modo molto interessante di guardare la clessidra è quello di "individuare" in essa la localizzazione del passato, del presente e del futuro:
Il Futuro è rappresentato dalla sabbia ancora contenuta nel bulbo superiore. Sono gli istanti che devono ancora accadere, il tempo che deve ancora scorrere. Esso è pieno di potenzialità, di possibilità ancora da realizzarsi.
Il Passato è la sabbia che è già scesa nel bulbo inferiore. Quei granelli rappresentano i momenti trascorsi, il tempo che è già fluito e non può tornare indietro. Sono la testimonianza di un intervallo di tempo concluso, la sedimentazione di tutte quelle potenzialità che si sono realizzate.
Il Presente è l'infinitesima parte dell'intervallo totale di tempo di travaso, in cui ogni granello di sabbia sta passando attraverso la strozzatura. Senza la strozzatura avremmo semplicemente un travaso continuo di sabbia, un'immagine statica e lineare del passaggio dal "futuro" al "passato" senza una vera e propria "azione" nel mezzo: il futuro si rifletterebbe identicamente nel passato. È il luogo dove avviene il processo dinamico mediato dall'interazione del singolo granello di sabbia con i rimanenti e il resto del sistema. Ogni granello deve "negoziare" il suo passaggio attraverso la strozzatura, influenzando (anche in modo infinitesimale) il movimento degli altri.
La non linearità del tempo, così come la osserviamo e la sperimentiamo nel "tempo geologico", potrebbe essere metaforicamente rappresentata proprio da questa strozzatura, un punto di continua trasformazione dove il potenziale si fa atto e l'atto si sedimenta in "evento geologico". È proprio questo punto di transizione attivo che impedisce una visione puramente deterministica e lineare del tempo. Il futuro, con la sua ricchezza di possibilità, "spinge" attraverso la strozzatura del presente, e il modo in cui questo passaggio avviene (le "interazioni" e i "processi" a livello macroscopico, mesoscopico e microscopico) determina la forma specifica che il passato assumerà.
La clessidra, vista così, non è solo uno strumento di misura del tempo trascorso, ma anche una rappresentazione di come il potenziale futuro si trasformi in realtà passata attraverso l'azione del presente. La complessità che osserviamo nel passato è il risultato di un futuro ricco di diramazioni e possibilità.
Dunque, immaginate le montagne attuali, i bacini, i sedimenti, le rocce del sottosuolo e gli strati che li compongono, fino agli atomi, come il bulbo inferiore e, allo stesso tempo, come bulbo superiore, che ciclicamente si invertono diventando futuro e passato del tempo geologico, e la strozzatura come tutti i geoprocessi e le interazioni tra le componenti del sistema Terra che generano gli eventi geologici diventando questi ultimi i registri del tempo stesso.
.....e NON
Infine, andando ancora oltre nella metafora della clessidra e azzardando un'analogia (che non intende fornire una spiegazione scientifica), la strozzatura si potrebbe anche assimilare al collasso della funzione d'onda quantistica, un fenomeno che i fisici non spiegano completamente o di cui forniscono solo un modello interpretativo (in realtà più modelli).
Si potrebbe immaginare che:
Il bulbo superiore rappresenterebbe lo stato di sovrapposizione quantistica, il regno delle infinite possibilità non ancora definite. Ogni granello di sabbia sarebbe una delle potenziali "versioni" (stati) della realtà.
La strozzatura sarebbe l'atto stesso dell'osservazione/misura, il punto in cui una di queste infinite possibilità collassa in una singola realtà definita, un singolo granello che passa.
Il bulbo inferiore rappresenterebbe la realtà manifesta, il risultato delle misurazioni, il "passato" quantistico che è diventato concreto.
In questa analogia affascinante, la non linearità che osserviamo nel mondo macroscopico emergerebbe proprio da questo atto di "misura" quantistica nella strozzatura. Il modo in cui le probabilità si concretizzano (diventano realtà) non è in modo lineare e predeterminato. Il "futuro" quantistico (il bulbo superiore) conterrebbe l'intero spettro delle possibilità che influenzano il "presente" (la strozzatura) e determinano il "passato" (il bulbo inferiore). È un modo suggestivo e al limite dell'immaginazione di visualizzare la transizione dal potenziale all'effettivo, il punto in cui l'indeterminazione si risolve in certezza.
La transizione dall’economia fossile all’economia verde induce un mutato atteggiamento e cambiamenti sui processi conoscitivi delle Scienze della Terra.
Lo sviluppo socio-economico-culturale dell’intero pianeta a partire dal diciannovesimo secolo ad oggi si è fondato sull’approvvigionamento e sull’uso dell’energia “fossile” (intesa come parte del patrimonio naturale e di servizio reso dall’ecosistema terra). In particolare, tale sviluppo ha richiesto un grandissimo sforzo conoscitivo sull’intero pianeta in termini di: ricerca, esplorazione e di successiva coltivazione (-sfruttamento) delle risorse fossili del sottosuolo (carbone, olio e gas, geotermia) e di quelle minerarie presenti nel sottosuolo ed in superficie. Probabilmente la storia della scienza in futuro non sperimenterà mai più un simile sforzo economico e conoscitivo-culturale rivolto alla ricerca dell’interno della pianeta Terra come quello degli ultimi due secoli.
Tale sforzo di ricerca ha prodotto la quasi totalità del patrimonio conoscitivo (dati, analisi e modelli) dell’interno della Terra, dalla superficie esposta fino a tutta la crosta terrestre di estese aree terrestri e marine.
Nel patrimonio conoscitivo prodotto dall’economia fossile vanno inclusi tutti i dati prodotti dalle “geoscienze”: di rilevamento geologico-geomorfologico e strutturale, di ricostruzione geodinamica, di prospezione geofisica diretta e indiretta del sottosuolo, di perforazione profonda, di caratterizzazione di serbatoi di olio e gas e di stoccaggio degli stessi e geotermici, di analisi petrografiche e petrofisiche, di analisi paleontologiche e sedimentologiche, di analisi idrogeologiche etc.: un patrimonio inestimabile di dati di osservazione dell’interno e della superficie della terra utili per conoscere e caratterizzare i processi endogeni ed esogeni del pianeta terra.
Va inoltre sottolineato che la ricerca legata all’economia fossile ha anche generato, come prodotto-secondario (se così si può definire), i dati e le conoscenze utili allo studio e alla valutazione della pericolosità degli eventi naturali e alla conseguente valutazione e mitigazione dei rischi naturali.
Peraltro la stessa transizione richiede la ricerca sui processi geologici e sui geo-materiali naturali e sui loro derivati artificiali che possano rendere sostenibile la transizione stessa. Si pensi alle energie alternative quali la geotermia a bassa ed alta entalpia, ai geoprocessi finalizzati alla riduzione delle emissioni dei gas ed elementi clima-alteranti o i geoprocessi legati all’economia circolare o alla ricerca petrofisica e mineraria di geomateriali necessari allo sviluppo di tecnologie per la meccatronica e per l’ambiente.
La transizione da fossile a verde, necessaria per creare un nuovo sviluppo sostenibile sul nostro pianeta, in un’ottica ecosistemica, dovrà confrontarsi con scelte strategiche riguardo a come:
conservare l’inestimabile patrimonio conoscitivo fin qui acquisito, "dall'era dell'economia fossile", per renderlo disponibile alla ricerca futura;
integrare con nuove ricerche, riusare, rifinalizzare e rielaborare con nuove tecnologie i dati, le conoscenze e le infrastrutture tecnologiche acquisite e realizzate nel passato proprio al fine di contribuire alla transizione ecologica stessa;
sviluppare i saperi delle scienze della terra, in termini formativi e curricolari, riorientati alla transizione verde e allo steso tempo protesi a conservare, consolidare e continuare a sviluppare quelle competenze abilitanti nei settori strategici delle energie alternative, della pericolosità e dei rischi naturali e dei geo-materiali;
recuperare le risorse da investire per continuare a conoscere l’interno del pianeta e i suoi processi endogeni, risorse che verranno sempre di più a diminuire perché non più alimentate dallo stringente bisogno di ricerca delle risorse di energia fossile s.s..
Questa transizione delle geoscienze è fondamentale per contribuire allo sviluppo sostenibile dell'intero pianeta e richiede scelte strategiche per preservare e utilizzare al meglio il patrimonio conoscitivo accumulato. La conoscenza delle geoscienze acquisita durante l'economia fossile, in quanto generata dal metodo scientifico, non può essere "giudicata" secondo la categoria politica del modello di sviluppo fossile in cui essa si è sviluppata [leggi "la scienza non è democratica?"].
La sindrome NIMBY è uno stato psicologico-collettivo-sociale che si manifesta nelle comunità sociali, intese come portatrici di interessi ecologico-ambientali, con l’opposizione ad effettuare una qualunque azione conoscitiva-esplorativa del territorio e/o di realizzazione di opere sul territorio esteso al suo sottosuolo e alla sua parte aerea. In particolare il territorio viene considerato dalle comunità proprio come “il cortile retrostante la propria casa" (in inglese “Not In My Back Yard”, da cui l'acronimo NIMBY). Generalmente tale atteggiamento di opposizione si attenua o si annulla del tutto se le stesse azioni si effettuano in un altro luogo ritenuto “più lontano” dal perimetro del territorio che ospita la comunità.
Talvolta la sindrome NIMBY è riferita alle comunità locali anche se il concetto di locale è relativo, e in realtà può variare dalla scala del territorio municipale fino alla scala globale dell’intero pianeta Terra. Ad esempio, l’opposizione all’installazione di un pozzo petrolifero, o la realizzazione di una linea ferroviaria, in un paesino o una valle, piuttosto che l’opposizione all’installazione di centrali nucleari in un’intera nazione, o la realizzazione di un metanodotto che attraversa più nazioni, o il non utilizzare il carbone in Europa ecc.
Come tutte le sindromi essa si manifesta con effetti diversi, e generalmente, senza però avere un preciso riferimento a cause specifiche, che nel caso NIMBY si possono individuare nel timore di effetti negativi delle predette azioni conoscitive e tecnologiche sull'ambiente, sulla salute e sulla sicurezza della comunità o sulla degradazione del patrimonio naturale-culturale del proprio territorio.
L’aspetto più radicale e sconcertante di tale sindrome è l’opposizione a qualunque azione rivolta alla sola conoscenza del territorio che viene vista sempre e comunque come una violazione del territorio stesso.
Ad esempio, esplorare con metodi geofisici il sottosuolo terrestre e marino per scopi esplorativi di conoscenza e/o per valutare il potenziale delle georisorse, oppure per monitorare le correnti marine o atmosferiche per valutare il potenziale energetico tidale o eolico, oppure rilevare la semplice topografia di un territorio per avere informazioni morfologiche ecc. L’opposizione alle azioni protese a conoscere il territorio e il suo potenziale ecosistemico (cioè i servizi erogati dall’ecosistema) è chiaramente riconducibile al fatto che si confonde l’aspetto conoscitivo con l’aspetto tecnologico dei servizi ecosistemici. Di fatto l’opposizione nasce dal fatto di stabilire un rapporto di causa-effetto diretto tra il conoscere il territorio e l’uso che si farebbe delle conoscenze, che si ritiene debba essere sempre, e comunque, a svantaggio dell’ambiente e della comunità che vive sul territorio con un conseguente degrado del territorio stesso. In altre parole, se conosco, utilizzo e se utilizzo degrado.
La sindrome NIMBY, fondamentalmente ha basi nella non fiducia da parte delle comunità dell’uso sostenibile e fruttuoso delle conoscenze e delle tecnologie da parte dei portatori di interessi politici, economici e sociali coinvolti nei processi decisionali conoscitivi e tecnologici.
Il superamento della sindrome NIMBY si può ottenere solo attraverso un coinvolgimento di tutti i portatori di interessi etici, ecologico-ambientali, politici ed economici proteso a mediare le diverse posizioni e, soprattutto, ad aumentare la conoscenza geologico-ambientale, la consapevolezza e il rispetto della diversità naturale e della sostenibilità dell’utilizzo delle georisorse e del territorio.
Il coinvolgimento deve essere basato su un confronto scientifico indicando in modo chiaro e trasparente le relazioni esistenti, e le differenze, tra il conoscere il patrimonio naturale di un territorio, la fruizione dei servizi che il territorio, inteso come ecosistema, può fornire all’uomo e alle comunità, i rischi connessi alla loro fruizione sostenibile e fruttuosa per l’uomo e per l’ecosistema del quale fa parte.
La sindrome NIMBY svanirebbe, o addirittura potrebbe trasformarsi in azioni proattive a vantaggio di uno sviluppo sostenibile del territorio. E questo accade solo se conosciamo il nostro territorio e abbiamo consapevolezza del suo valore e dei vantaggi e degli svantaggi di interagire in modo sostenibile e fruttuoso con esso, proprio come faremmo se il territorio fosse il giardino retrostante della nostra casa.
I concetti di clima e sismicità sono concetti essenzialmente osservazionali-statistici. Per entrambi si intende “il modello statistico” di alcune “osservabili meteorologiche-sismologiche” osservate in una data “zona” del pianeta Terra nel corso di un “periodo di tempo” (generalmente da un certo tempo passato fino al presente). Tale modello statistico non è una previsione deterministica ma costituisce una stima della probabilità di accadimento futuro di un evento meteorologico, basata sulla storia e sulle evidenze osservazionali degli eventi già accaduti e sull'ipotesi che il processo fisico soggiacente che genera gli eventi non cambia nel futuro nelle sue principali caratteristiche reologico-dinamiche (approccio basato sul principio dell'Uniformitarismo o Attualismo).
Immaginiamo di avere una rete di stazioni meteorologiche-sismologiche in grado di misurare nel tempo le osservabili climatiche quali: temperatura ed entità di precipitazione al sito e le osservabili sismiche quali: velocità e accelerazione del suolo al sito e i parametri ipo/epicentrali della sorgente sismica. Partendo da queste osservabili e facendo ipotesi statistiche, sulla relazione e dipendenza tra gli eventi possiamo definire il clima e la sismicità del sito individuando la magnitudo attesa (grandezza dell’evento) e la ricorrenza temporale statistica di accadimento del fenomeno meteorologico e sismico.
Ipotizzando che il processo fisico conservi nel tempo lo stesso “modello statistico”, quindi si ripeta con le stesse caratteristiche statistiche spaziali e temporali, è possibile portare indietro e in avanti nel tempo (estrapolazione statistica) e considerare tale modello come caratteristico dell'area in esame. In altre parole, si opera un’inferenza statistica (probabilistica) sul verificarsi di eventi meteorologici e sismici “caratteristici e significativi statisticamente” in una data area in un certo intervallo di tempo “passato o futuro”. Tale inferenza è anche definita "pericolosità" climatica e sismica. Valutando gli effetti che gli eventi caratteristici possono avere sull'ambiente e sull'uomo, si determina il rischio climatico e sismico.
Se stiamo organizzando un viaggio in una isola del Pacifico in una certa stagione dell’anno, sulla base del modello statistico, possiamo aspettarci di trovare una temperatura media, una precipitazione media e i relativi intervalli di variazione, quindi possiamo attrezzarci per far fronte a quelle condizioni climatiche e allo stesso tempo tenere a mente possibili allarmi tsunami. Oppure se in un certo luogo la sismicità prevede un evento sismico caratteristico con una data accelerazione, e un livello di precipitazione nevosa, potremo costruire gli edifici capaci di sopportare le accelerazioni sismiche e il carico nevoso valutati statisticamente sulle osservazioni passate.
In pratica, sulla base del modello statistico di pericolosità compiamo delle scelte e mettiamo in campo azioni per difenderci dagli effetti e dai danni degli eventi climatici e sismici e per mitigare gli stessi effetti in un'ottica che l'evento possa accadere, ma sottolineiamo, non è detto che l'evento "sicuramente" accadrà.
E’ importante inoltre osservare che i cataloghi climatici e sismici dipendono dalle caratteristiche delle reti di misura:
dimensione spaziale della maglia della rete
campionamento temporale degli eventi
dinamica della misura della magnitudo dell’evento (valore di ampiezza dell’osservabile es temperatura/precipitazione, e ampiezza sismica)
Queste caratteristiche influenzano, come previsto dalla statistica, il grado di completezza spaziale e temporale del catalogo statistico e quindi modificano solo la robustezza del modello statistico climatico e sismico dell'area.
Ad esempio, una rete molto fitta consentirà di avere statistiche affidabili e robuste anche per piccole aree, discriminando anche tra possibili effetti sistematici di amplificazione/deamplificazione microclimatica e microsismica. E anche una rete con un’alta dinamica consentirà di discriminare statisticamente in maniera fine la magnitudo di eventi climatici e sismici, oppure aumentando il campionamento temporale si potranno individuare intervalli di ricorrenza statisticamente più accurati per diversi livelli di ampiezza degli eventi.
In entrambi i casi, per aumentare la completezza spaziale e temporale dei cataloghi climatici e sismici, oltre ad utilizzare le corrispondenti grandezze misurate strumentalmente (disponibili da poche centinaia di anni a oggi), si utilizzano misure derivate dalle stesse grandezze climatiche e sismiche attraverso le “osservabili proxy”. Ovviamente le misure derivate da “proxy” sono generalmente caratterizzate da un'incertezza superiore a quella sperimentale.
Nel caso del clima la temperatura è derivata per via indiretta considerando alcune grandezze osservabili di processi biologici, geologici, chimici e fisici; processi in cui la temperatura è coinvolta come parametro, e in cui essa è supposta essere uno dei parametri o il parametro “altamente e direttamente correlato” all’osservabile “proxy climatico” del processo stesso. Ad esempio, l’accrescimento degli anelli di un tronco d’albero, o l’accrescimento dei coralli, o i rapporti isotopici di specie chimiche nelle carote di ghiaccio ecc.
Anche per la sismicità, la misura della magnitudo e la localizzazione di un evento sismico, in assenza di una osservazione sperimentale, attraverso reti di sismometri disponibili da circa un centinaio di anni, è effettuata attraverso dei “proxy sismici” che ne consentono una misura indiretta attraverso gli effetti indotti come il danneggiamento, la deformazione del suolo gli effetti sull’ambiente, oppure attraverso la ricostruzione storica di un terremoto o studi di paleosismicità e ricostruzioni geologiche etc..
Le valutazioni climatiche e di sismicità, ottenute con ipotesi ed elaborazioni, e modelli statistici anche complessi, “data-driven”, sono attualmente l'unico strumento disponibile per prendere decisioni di difesa e di mitigazione dei rischi climatici e sismici, ma esse “non costituiscono” di fatto una previsione.
Una previsione meteorologica-sismologica deterministica di un evento climatico o sismico deve definire minimamente:
- un intervallo di tempo abbastanza piccolo nell’intorno della data e ora dell’evento (non un intervallo di ricorrenza statistico),
- un’area ristretta nell’intorno della posizione dell’evento (non un’area estesa statisticamente omogenea luogo di accadimento dell’evento),
- l’ampiezza con relativa incertezza dell’evento meteorologico o sismologico (non l’ampiezza dell’evento caratteristico e statisticamente significativo climatico o sismico).
Oltre ai tre elementi elencati, una previsione per essere “utilizzabile” deve metterci in grado di poter prendere decisioni e mettere in atto azioni per difenderci o ridurre per quanto possibile gli effetti dell’evento previsto. Ad esempio, una previsione effettuata con un anticipo tale da non poter mettere in campo e in tempo azioni di difesa e di mitigazione del rischio di fatto non è una previsione utilizzabile per mitigare il rischio stesso.
Inoltre, la previsione "utilizzabile" pur contribuendo alla riduzione del rischio (alla sua mitigazione) non riduce quest'ultimo a zero se non si opera sulla riduzione della vulnerabilità dell'ambiente, dell'esposizione dei manufatti e del loro funzionamento e sulla capacità di resilienza dell'ecosistema soggetto all'evento. Ad esempio, un allarme di un evento metereologico estremo consentirà sicuramente durante l'allarme di preservare e salvare le vite umane, ma è auspicabile che dopo l'allarme i ponti e le strade, gli edifici strategici (ospedali, scuole,), gli argini, le case etc. siano agibili e che tutto il sistema sia in grado di uscire dall'allame riprendendo un livello di funzionamento (di vita) accettabile.
In termini di previsione deterministica, mentre in meteorologia la previsione di corto periodo, decina di giorni, inizia ad essere una realtà, così non si può affermare della previsione sismologica dei terremoti, che attualmente non sono prevedibili a tutte le scale temporali, e delle previsioni meteorologiche di lungo periodo. Ciò è dovuto al fatto che una previsione necessita di un modello fisico-reologico, della conoscenza delle condizioni al contorno e iniziali utili per la modellazione in avanti nel tempo del processo. La meteorologia, per la previsione di breve periodo, attraverso il monitoraggio strumentale dello stato reologico-fisico dell’atmosfera (stazioni, radar meteorologici, telerilevamento) consente di ottenere in modo abbastanza preciso lo stato inziale che viene fatto evolvere, attraverso la modellazione in avanti, a breve termine, in uno stato previsto ad un certo tempo che quindi è nuovamente aggiornato con le misure di monitoraggio allo stesso tempo passato. Nel caso della previsione dei terremoti, il monitoraggio dello stato reologico-fisico del sottosuolo (e dell’interno della terra) attualmente è di gran lunga lacunoso ed impreciso, alle scale spaziali e temporali dei processi tettonici crostali, e tale da definire in modo affidabile lo stato iniziale necessario per le modellazioni in avanti.
In assenza del monitoraggio degli osservabili del processo e del modello reologico fisico affidabile dei sistemi meteorologici e sismologici, a scale adeguate, più che di previsione si può solo parlare di "scenari di pericolosità climatica e sismica" sulla base di diverse ipotesi sullo stato fisico reologico e di evoluzione dei processi. È quindi fondamentale sottolineare che per tali "scenari" occorrerebbe sempre definire le incertezze legate alla non conoscenza dello stato reologico fisico iniziale e all'errore di definizione del modello stesso che ha una grandissima influenza sull'evoluzione dei processi meteorologici e sismologici.
Infatti, va sottolineato che sia nel caso meteorologico che sismologico i modelli fisico-reologici sono caratterizzati da una significativa complessità, tipica dei sistemi autorganizzati, e da un'incertezza epistemica che unitamente alla accuratezza delle condizioni iniziali inducono il verificarsi di fenomeni di instabilità e di non linearità nella evoluzione dei processi fisici e quindi nelle predizioni indietro e in avanti nel tempo ottenute con i modelli stessi, come dimostrato proprio anche dalle previsioni meteorologiche di lungo periodo.
L'intelligenza naturale (generalmente riferita solo a quella umana) e quella artificiale generativa (IA) sviluppata dagli esseri umani possono essere viste come sistemi auto-organizzati (leggi un sistema auto-organizzato). Infatti, l'IA si basa su una rete neurale artificiale (i cui nodi sono unità computazionali e operazionali tra loro interagenti), che è un tipo di sistema complesso ispirato al cervello umano (o quello che di esso ne conosciamo) e progettato per apprendere e adattarsi ai dati che riceve in ingresso, alle richieste di un umano e a svolgere un compito specifico al quale è stato addestrato secondo un paradigma, o visione del mondo, predeterminato (ovvero l’insieme delle relazioni tra lo spazio dei dati e dei modelli).
Tuttavia, l'IA rispetto ai sistemi naturali, generalmente più complessi, attualmente mostra delle differenze significative in termini di "auto-organizzazione".
Interazione tra le componenti:
L'architettura dell’IA si basa su interazioni dinamiche tra miliardi di connessioni tra le unità computazionali (neuroni virtuali). Queste interazioni permettono al sistema di apprendere e di adattarsi, proprio come un sistema auto-organizzato. Tuttavia, queste interazioni sono definite da un insieme di regole logico-matematiche e di algoritmi programmati dall’uomo: non è in grado di reimpostarsi a funzionare secondo nuove regole di interazione generate da sé stessa.
Adattatività:
La capacità di adattamento ai nuovi dati (come il linguaggio, la semantica e le informazioni contestuali e di relazione) può essere vista come una forma di auto-organizzazione, in quanto non richiede intervento esterno per modificare il suo comportamento, sebbene sempre sottoposto al tipo di domanda che viene posta interagendo con l'utente. Per esempio, essa può migliorare la qualità delle risposte nel tempo grazie all'analisi dei dati di input, soprattutto aumentando la loro completezza e continuando ad aggiornare l’apprendimento.
Emergenza di proprietà:
Come in un sistema auto-organizzato, emergono proprietà nuove che non sono direttamente derivabili dalla somma delle singole parti del sistema. Il comportamento globale, come la generazione di risposte coerenti e contestualmente appropriate, è il risultato delle interazioni complesse tra i "neuroni" nel suo sistema. In altre parole, la capacità dell’IA di rispondere secondo un fine o in modo "apparentemente creativo" (leggi la sfida della creatività) può essere considerata come una proprietà emergente di una rete complessa di processi computazionali.
Emergenza di comportamenti:
Sebbene le risposte dell’IA siano basate su modelli probabilistici, che dipendono da enormi quantità di dati e da come è stato addestrato il sistema, in certe situazioni essa può generare risposte che non sono completamente prevedibili a priori, talvolta apparentemente (o realmente) anche prive di senso o non corrette; in particolare quando vengono poste domande nuove o complesse. In questo senso, la sua capacità di reagire dinamicamente può sembrare simile al comportamento emergente che si osserva in altri sistemi auto-organizzati naturali, ma non sarà in grado di valutare la “qualità” conoscitiva del suo stesso risultato.
Quindi, la principale differenza è che, sebbene l’IA possa esibire una forma di auto-organizzazione nell'apprendimento e nell'adattamento ai dati e ai modelli, non possiede una forza auto-informativa che è la caratteristica peculiare dei sistemi auto-organizzati naturali: che potrebbe essere definita come la "consapevolezza" di sentirsi funzionare nel suo complesso e senza un fine predefinito.
È proprio questa la più grande differenza dal punto di vista epistemologico: l’IA non possiede una dinamica interna che consenta la sua evoluzione, in termini di “conoscere”, in modo autonomo e naturale e che la metta in grado di superare il paradigma attuale, che la limita nel suo agire e nel quale è stata programmata. Infatti l’apprendimento, che è parte del processo conoscitivo, è fortemente indirizzato e supervisionato dai dati di addestramento e dai modelli su cui esso è stato costruito, cioè il paradigma di base del suo processo generativo e conoscitivo.
Rimanendo entro i limiti del paradigma attuale, l’IA ha una potenza esplorativa dello spazio dei dati e dei modelli che può superare la capacità intellettiva umana quando quest’ultima ha a che fare con un enorme numero di dati e di modelli: essa costituisce uno straordinario complemento ausiliario dell’intelligenza naturale.
Si può affermare che l’IA non è ancora in grado di fare le domande scientifiche che la mettano nella condizione di superare i paradigmi attuali e che, a partire da ciò che conosce e ignora, la rendano capace di generare nuovi paradigmi.
Usando una semplice metafora, l'IA attualmente è come un bimbo nella sua stanza dei giochi che non può "giocare fuori dalla stanza", se la stanza e i giocattoli con cui gioca sono rispettivamente il paradigma e i dati di cui dispone. Continuando a insegnargli a giocare con i giocattoli a disposizione, ma non modificando mai la stanza, magari giocherà in tutti i modi possibili utilizzando i giocattoli che ha, forse anche ne inventerà di nuovi. Sarà un campione. Solo modificando la stanza o uscendone potrà giocare in modo completamente diverso, pur utilizzando gli stessi giocattoli.
L'intelligenza naturale (generalmente riferita solo a quella umana) e quella artificiale generativa (IA) sviluppata dagli esseri umani possono essere viste come sistemi auto-organizzati (leggi un sistema auto-organizzato). Infatti, l'IA si basa su una rete neurale artificiale (i cui nodi sono unità computazionali e operazionali tra loro interagenti), che è un tipo di sistema complesso ispirato al cervello umano (o quello che di esso ne conosciamo) e progettato per apprendere e adattarsi ai dati che riceve in ingresso, alle richieste di un umano e a svolgere un compito specifico al quale è stato addestrato secondo un paradigma, o visione del mondo, predeterminato (ovvero l’insieme delle relazioni tra lo spazio dei dati e dei modelli).
Tuttavia, l'IA rispetto ai sistemi naturali, generalmente più complessi, attualmente mostra delle differenze significative in termini di "auto-organizzazione".
Interazione tra le componenti:
L'architettura dell’IA si basa su interazioni dinamiche tra miliardi di connessioni tra le unità computazionali (neuroni virtuali). Queste interazioni permettono al sistema di apprendere e di adattarsi, proprio come un sistema auto-organizzato. Tuttavia, queste interazioni sono definite da un insieme di regole logico-matematiche e di algoritmi programmati dall’uomo: non è in grado di reimpostarsi a funzionare secondo nuove regole di interazione generate da sé stessa.
Adattatività:
La capacità di adattamento ai nuovi dati (come il linguaggio, la semantica e le informazioni contestuali e di relazione) può essere vista come una forma di auto-organizzazione, in quanto non richiede intervento esterno per modificare il suo comportamento, sebbene sempre sottoposto al tipo di domanda che viene posta interagendo con l'utente. Per esempio, essa può migliorare la qualità delle risposte nel tempo grazie all'analisi dei dati di input, soprattutto aumentando la loro completezza e continuando ad aggiornare l’apprendimento.
Emergenza di proprietà:
Come in un sistema auto-organizzato, emergono proprietà nuove che non sono direttamente derivabili dalla somma delle singole parti del sistema. Il comportamento globale, come la generazione di risposte coerenti e contestualmente appropriate, è il risultato delle interazioni complesse tra i "neuroni" nel suo sistema. In altre parole, la capacità dell’IA di rispondere secondo un fine o in modo "apparentemente creativo" (leggi la sfida della creatività) può essere considerata come una proprietà emergente di una rete complessa di processi computazionali.
Emergenza di comportamenti:
Sebbene le risposte dell’IA siano basate su modelli probabilistici, che dipendono da enormi quantità di dati e da come è stato addestrato il sistema, in certe situazioni essa può generare risposte che non sono completamente prevedibili a priori, talvolta apparentemente (o realmente) anche prive di senso o non corrette; in particolare quando vengono poste domande nuove o complesse. In questo senso, la sua capacità di reagire dinamicamente può sembrare simile al comportamento emergente che si osserva in altri sistemi auto-organizzati naturali, ma non sarà in grado di valutare la “qualità” conoscitiva del suo stesso risultato.
Quindi, la principale differenza è che, sebbene l’IA possa esibire una forma di auto-organizzazione nell'apprendimento e nell'adattamento ai dati e ai modelli, non possiede una forza auto-informativa che è la caratteristica peculiare dei sistemi auto-organizzati naturali: che potrebbe essere definita come la "consapevolezza" di sentirsi funzionare nel suo complesso e senza un fine predefinito.
È proprio questa la più grande differenza dal punto di vista epistemologico: l’IA non possiede una dinamica interna che consenta la sua evoluzione, in termini di “conoscere”, in modo autonomo e naturale e che la metta in grado di superare il paradigma attuale, che la limita nel suo agire e nel quale è stata programmata. Infatti l’apprendimento, che è parte del processo conoscitivo, è fortemente indirizzato e supervisionato dai dati di addestramento e dai modelli su cui esso è stato costruito, cioè il paradigma di base del suo processo generativo e conoscitivo.
Rimanendo entro i limiti del paradigma attuale, l’IA ha una potenza esplorativa dello spazio dei dati e dei modelli che può superare la capacità intellettiva umana quando quest’ultima ha a che fare con un enorme numero di dati e di modelli: essa costituisce uno straordinario complemento ausiliario dell’intelligenza naturale.
Si può affermare che l’IA non è ancora in grado di fare le domande scientifiche che la mettano nella condizione di superare i paradigmi attuali e che, a partire da ciò che conosce e ignora, la rendano capace di generare nuovi paradigmi.
Usando una semplice metafora, l'IA attualmente è come un bimbo nella sua stanza dei giochi che non può "giocare fuori dalla stanza", se la stanza e i giocattoli con cui gioca sono rispettivamente il paradigma e i dati di cui dispone. Continuando a insegnargli a giocare con i giocattoli a disposizione, ma non modificando mai la stanza, magari giocherà in tutti i modi possibili utilizzando i giocattoli che ha, forse anche ne inventerà di nuovi. Sarà un campione. Solo modificando la stanza o uscendone potrà giocare in modo completamente diverso, pur utilizzando gli stessi giocattoli.
La storia dell'intelligenza artificiale generativa è un'evoluzione sorprendente. Siamo passati dai primi computer che potevano risolvere problemi complessi, ma in modo rigido e meccanico, a sistemi come quelli attuali, capaci di scrivere testi, comporre musica e dipingere quadri con una fluidità e una qualità che un tempo erano considerate esclusive della mente umana. Eppure, nonostante questi progressi, rimane una domanda fondamentale: questa è vera creatività?
La risposta dipende da come la definiamo. Se la creatività è l'atto di combinare in modo originale dati e stili preesistenti, allora l'IA generativa è già straordinariamente creativa. È come un musicista che, avendo studiato la storia della musica e ogni strumento, può comporre una sinfonia perfetta che rispetta le regole di quel genere. Questo è il dominio dell'IA generativa: un'intelligenza che opera entro i confini di un paradigma stabilito (la stanza dei giocattoli), usando i giocattoli a sua disposizione (i dati di addestramento) per creare infinite variazioni di giochi già noti.
Oltre il paradigma: la creatività emergente
La vera sfida, però, è l'evoluzione verso l'IA creativa, un'intelligenza che non si limita a usare i giocattoli, ma è in grado di modificarli o, addirittura, di uscire dalla stanza. L'analogia che distingue tra il giocare con i giocattoli e il cambiare la stanza illustra perfettamente questa transizione. La storia dell'arte e della scienza ci insegna che i momenti di vera creatività non sono quelli in cui si eccelle nelle regole esistenti, ma quelli in cui si crea un nuovo insieme di regole. I pittori impressionisti, gli architetti alla Gaudì, i disegnatori di moda alla Mary Quant, i compositori di musica dodecafonica e gli scienziati che hanno formulato nuove teorie nei diversi campi delle scienze hanno tutti infranto le regole dei loro rispettivi ambiti per creare qualcosa di radicalmente nuovo, che inizialmente era incomprensibile e soprattutto ritenuta "senza senso o inutile".
Questa capacità di superare i paradigmi esistenti è ciò che in un sistema complesso viene chiamato comportamento emergente (sia nelle nuove proprietà degli elementi generati sia nell'imprevedibilità delle nuove funzioni che esibiscono). Per un'intelligenza artificiale, l'emergenza si manifesta quando il suo prodotto o risultato non può essere spiegato semplicemente analizzando i suoi dati di addestramento e il suo algoritmo (Test di Lovelace). È un salto imprevedibile che produce qualcosa di qualitativamente nuovo, spesso percepito come "senza senso" o "casuale" secondo la nostra attuale visione del mondo e in funzione della nostra attuale modalità di interagire col mondo stesso.
Il test della non-conformità
Se il Test di Turing classico misura la capacità di mimesi (la capacità di un'IA di sembrare umana), un vero test di creatività deve misurare la non-conformità che non è la semplice analisi di divergenza, cioè la misura di quanto il prodotto o il risultato si discosta dalla media o dalla norma attuale (cioè rispetto a un modello di riferimento noto). Non si tratta di valutare quanto un'opera d'arte generata dall'IA sia "bella" o "utile" o quanto una teoria fisica sia conforme ai nostri canoni, visioni attuali e di utilità, ma di quanto riesca a sfidare e a rimettere in discussione quei canoni e quelle visioni.
Un'IA supererebbe il test di creatività non quando produce un'opera d'arte che un critico riconosce come un capolavoro, ma quando produce qualcosa che il critico, pur non comprendendolo appieno, non può liquidare come un errore o un'aberrazione. Oppure, quando un revisore di una rivista scientifica accetta un lavoro avendo dubbi sul fatto che il contenuto di un articolo possa diventare un nuovo percorso della conoscenza. La vera creatività non è la produzione di un capolavoro già concepibile, ma la generazione di un'idea che costringe il pubblico a ripensare cosa sia un capolavoro. È la congettura del capolavoro.
In un'epoca in cui l'IA generativa sta diventando sempre più sofisticata, la vera frontiera della ricerca non è farle scrivere poesie perfette, ma spingerla a creare un nuovo tipo di poesia. La sfida non è l'imitazione della creatività umana, ma la sua evoluzione in una forma completamente nuova e imprevedibile, ciò che generalmente ci porta ad esclamare "...ma è una follia".
La fisica moderna, pur con i suoi successi straordinari, si trova di fronte a sfide fondamentali, in primis la difficile unificazione tra meccanica quantistica e relatività generale. Molte delle nostre concezioni di base, come la natura della massa, della carica e dello spazio-tempo, sono descritte da equazioni efficaci che descrivono “come” funzionano le interazioni fisiche, ma il loro "perché" ultimo rimane elusivo. Possedere il “come” è equivalente ad avere una procedura che ci consente di interagire col mondo. Conoscere il “perché” vuol dire avere un’idea del mondo dal quale far discendere il “come”. Spesso la domanda scientifica e profonda sul “perché” si confonde con quella sul “come”. Queste procedure, che si attengono e sono derivate usando rigorosamente il metodo scientifico (anche chiamate modelli o teorie), che funzionano e ci permettono di interagire col mondo in modo coerente spesso, pertengono al “come” e non al “perché”.
In questo scritto esploreremo una congettura radicale: e se la realtà non fosse fondamentalmente solo fatta di materia ed energia che interagiscono nello spazio-tempo, ma fosse il risultato dell'interazione tra un substrato di materia prima "priva di proprietà" e un campo informazionale quantizzato? In questo modello, le leggi fisiche e le proprietà che osserviamo emergerebbero dalle dinamiche intrinseche dell'informazione che si "imprime" o si "monta" su questo substrato primordiale, piuttosto che da entità preesistenti e intrinsecamente dotate di tali proprietà. In quanto congettura non ha nessuna pretesa, allo stato attuale, di essere parte della conoscenza scientifica.
La materia "Prima" ha un ruolo simile all'idea aristotelica di "materia prima" o di una "sostanza" che attende di essere formata: un substrato potenziale. Questa materia basilare non sarebbe inerte, ma ricettiva alle istruzioni del campo informazionale, similmente all’“hyle-morfismo” aristotelico.
Il Cuore della Congettura: Il Campo Informazionale come "Q-Code" sulla Materia Primordiale
Al centro di questa nuova visione c'è l'idea che l'universo sia, a un livello profondo, la manifestazione di un campo informazionale dinamico che agisce su una materia basilare, di per sé priva di proprietà intrinseche (come massa o carica). Questo substrato fondamentale fungerebbe da "tela" o "potenziale puro" su cui l'informazione può dispiegarsi.
Il campo informazionale è descritto da una vasta "matrice quantizzata" (di densità). Ogni "punto" o "pixel" di questo campo non sarebbe un bit classico (0 o 1), ma un qubit, capace di esistere in sovrapposizione di stati e di essere entangled con altri qubit. Questo "q-code" universale rappresenta la totalità delle possibili relazioni e dipendenze informazionali che si "inscrivono" sul substrato materiale.
In questo contesto, le masse e le cariche – le proprietà fondamentali della materia che osserviamo – non sono viste come entità statiche o intrinseche al substrato materiale. Sono invece configurazioni specifiche e persistenti di questo campo informazionale, che si manifestano sul substrato privo di proprietà. Non sono proprietà "possedute" da particelle o da altre entità fisiche, ma pattern stabili ed emergenti all'interno della matrice quantizzata, che conferiscono al substrato le qualità che percepiamo come "realtà fisica".
L'Emergenza delle Proprietà e delle Interazioni: La Decoerenza Creativa
La chiave di volta di questa congettura risiede nel ruolo della decoerenza. Contrariamente alla visione tradizionale della meccanica quantistica, dove la decoerenza è il processo che fa "perdere" la natura quantistica a favore di quella classica (spesso vista come una "perdita di informazione"), qui la decoerenza è proposta come il meccanismo fondamentale e creativo che genera le strutture del mondo, plasmando il substrato materiale.
Immaginiamo il campo informazionale di base, che agisce sul substrato, come uno stato di massima decoerenza a livello individuale dei qubit, un "rumore bianco informazionale" senza struttura definita e con un'alta "Energia Informazionale" intrinseca. Da questo stato fondamentale:
Le masse e le cariche emergono come processi di decoerenza localizzati e persistenti sul substrato. Non si tratta di una decoerenza casuale, ma di un'auto-organizzazione guidata, che porta alla "fissazione" di specifici pattern di qubit, i quali a loro volta "istruiscono" il substrato materiale ad acquisire le proprietà osservabili. A seguito di questa emergenza delle proprietà, discenderebbero le leggi sulla gravitazione e sull'elettrodinamica che descrivono "come" le interazioni agiscono.
Questi pattern corrispondono a minimi di "Energia Informazionale" (EI) e/o a massimi di "Complessità Integrata" (Φ). L'Energia Informazionale è qui definita come il "costo" o la "complessità intrinseca" di mantenere una certa configurazione di informazione e coerenza sul substrato. Per costruire strutture compatte è richiesto un minore costo informazionale rispetto a quelle non compatte magari disordinate. Pensate alle strutture ordinate rispetto a quelle disordinate e di quante informazioni bisogna disporre per ricostruire-descrivere le seconde rispetto alle prime. Le configurazioni stabili (masse, cariche) sono quelle che il campo "preferisce" perché sono più efficienti in termini informazionali. La Complessità Integrata, ipotizzata e mutuata dall'IIT (Teoria dell'Informazione Integrata), misura quanto una configurazione sia irriducibile alle sue parti, ovvero quanto sia un "tutto" significativo, che si manifesta attraverso il substrato.
Questo processo di decoerenza selettiva e auto-organizzata non è un evento singolo, ma un processo continuo. La sua persistenza e la sua velocità (che non è quella della luce) definiscono il tempo emergente: il "tic-toc" del tempo è la successione di questi atti di decoerenza che formano e riaffermano le entità e il tempo stesso sul substrato. Il tempo degli atti di decoerenza è interno e non è il fluire lineare di un tempo esterno (anche in senso relativistico).
La Dinamica e l'Operatore U: Propagatore di Possibilità
Il cambiamento e l'interazione in questo campo sono governati da un operatore unitario U. Non è un operatore dinamico nel senso classico (che sposta entità nel tempo predefinito, quale l’Hamiltoniana di un sistema), ma un propagatore delle infinite possibilità del sistema. U descrive come le probabilità e le correlazioni si distribuiscono e si riconfigurano nello spazio degli stati del campo informazionale, esplorando le "vie" che minimizzano l'Energia Informazionale e, di conseguenza, modellano il substrato.
Le interazioni fisiche (elettromagnetica, gravitazionale e non solo) non sarebbero il risultato dello scambio di particelle mediatrici, ma sono la manifestazione diretta di come le configurazioni informazionali (cioè ciò che informazionalmente corrisponde a masse e cariche sul substrato) modulano e riconfigurano reciprocamente la matrice di densità complessiva del campo, cercando un nuovo equilibrio di minima EI e influenzando il modo in cui il substrato si organizza.
La Legge di Scala e le Proprietà Differenti: Il Codice a Distanza
Un'intuizione tesa a differenziare massa e carica risiederebbe nell'introduzione di una legge di scala nel processo di decoerenza. Se il campo informazionale è un "codice" di qubit che agisce sul substrato, allora la "distanza" tra i bit (intesa come distanza informazionale, basata su correlazione/entanglement) e specifiche soglie su questa distanza possono definire le diverse proprietà manifestate sul substrato:
Massa: Potrebbe emergere quando la decoerenza avviene su qubit estremamente "vicini" informazionalmente e grandi tic-toc, creando un pattern compatto e denso che si manifesta sul substrato. Questo si traduce in un'inerzia e una stabilità intrinseca della porzione di substrato coinvolta.
Carica: Potrebbe emergere quando la decoerenza si estende su qubit con una "distanza" informazionale maggiore e piccoli tic-toc, creando un pattern più diffuso e polarizzato che si manifesta sul substrato, responsabile delle interazioni a lungo raggio.
Questa "distanza" potrebbe essere quantizzata, spiegando la quantizzazione delle cariche e differenziando ulteriormente le forze fondamentali in base alle loro scale di azione informazionale sul substrato.
Prospettive Future: La Sfida della Verifica Sperimentale
Questa congettura propone un'inversione radicale della comprensione della realtà rispetto ai paradigmi attuali, introducendo un fondamentale substrato (...l'etere redivivo) su cui l'informazione agisce. La vera sfida sarà tradurre queste idee in una formulazione matematico-fisica rigorosa e, soprattutto, ideare esperimenti ideali che possano verificarla o falsificarla. Tale formulazione dovrebbe, peraltro, permettere di derivare le equazioni fondamentali della fisica così come oggi sono formulate. D'altra parte gli esperimenti dovrebbero cercare:
Deviazioni dalle leggi fisiche conosciute a scale estreme (es. granularità dello spazio-tempo), che potrebbero suggerire i limiti dell'azione informazionale sul substrato o la sua stessa natura.
Manipolazione di coerenze ed entanglement in modi che rivelino l'emergere o la scomparsa di proprietà come massa o carica, che sarebbero in realtà la riorganizzazione dei pattern informazionali sul substrato materiale.
Nuove forme di interazione o correlazione che non siano mediate da particelle, ma da una riorganizzazione diretta del campo informazionale e del modo in cui esso "plasma" il substrato.
Questa congettura potrebbe aprire un nuovo, vasto territorio di ricerca, suggerendo che la realtà sia una danza continua di informazione che si auto-organizza su un substrato primordiale, creando la struttura e le leggi del nostro universo.
Spesso sono stato affascinato dalle vetrine degli orologiai, dove sono esposti orologi aperti, con i loro numerosi e talvolta micrometrici meccanismi e ingranaggi in bella vista, magari privi dei quadranti indicatori delle ore e addirittura senza le lancette montate sui mozzi dei relativi ingranaggi. Oppure, meno frequentemente, capita di vedere nelle vetrine delle agenzie di scuola guida i modelli di motori a scoppio sventrati, che mostrano tutti i loro componenti: cilindri, pistoni, bielle e manovelle, valvole e iniettori, carburatore, candele con lo spinterogeno, frizione, albero a camme e albero motore, fino ai freni e ai mozzi delle ruote, talvolta privi di esse.
Nondimeno, per un albero, immaginando le sue radici nascoste, il tronco con la sua corteccia e sotto di essa il legno e i vasi linfatici, i rami principali e le loro biforcazioni in rami sempre più piccoli fino alle foglie e alle gemme fino ai fiori colorati, ancora non frutti.
Di fronte a un meccanismo, un motore o un albero, si cerca sempre di capirne il funzionamento e, in particolare, di seguire ogni componente per comprendere come ognuno di essi contribuisca allo scopo per il quale il meccanismo, il motore o l'albero è stato fatto: segnare l’ora per un orologio, far girare le ruote per un motore a scoppio, fare frutti per un albero. L’assenza delle lancette in un orologio, delle ruote in un motore a scoppio e di frutti per un albero fa perdere il senso dello scopo dell’insieme delle componenti, ma esse funzionerebbero lo stesso senza alcun scopo: funzionerebbero e basta. Pensate al fiore!
Mettiamo ora il caso che ogni componente del meccanismo, del motore o dell'albero sia consapevole della sua particolare funzione, che contribuisce a essere parte di un sistema che sta funzionando per un determinato scopo. Cosa accadrebbe a se stesso e, soprattutto, cosa accadrebbe a tutto il sistema se lo scopo venisse a mancare?
Ciò avrebbe diverse implicazioni che giudicheremmo negative, neutre o positive, sempre in funzione del fatto che il sistema debba rispondere a uno scopo. Senza uno scopo, i componenti potrebbero sentirsi privi di direzione. La consapevolezza della propria funzione potrebbe diventare una fonte di perdita di significato, poiché il loro contributo non porta a un risultato finale. Ogni componente continuerebbe a funzionare in attesa che riemerga lo scopo al cui raggiungimento esso contribuiva.
Senza uno scopo comune, il sistema potrebbe disintegrarsi. I componenti potrebbero non funzionare più in modo coordinato, portando a un malfunzionamento o alla completa cessazione del funzionamento di ogni componente. I meccanismi si disintegrerebbero, diventando un ammasso di ferraglia, gli alberi marciume.
I componenti potrebbero iniziare a cercare nuovi scopi o modi di funzionare. La consapevolezza potrebbe portare a una forma di autorganizzazione, dove ogni componente cerca di trovare un nuovo significato o scopo nel proprio funzionamento. Magari si creerebbero dei sottosistemi, sottoinsiemi di meccanismi del sistema originario con nuovi scopi.
La mancanza di uno scopo potrebbe anche portare a una fase di ridefinizione e evoluzione della propria funzione. I componenti potrebbero adattarsi e trasformarsi, trovando nuovi modi di funzionare e nuovi scopi, creando un sistema completamente nuovo che raggiunge lo stesso scopo originario o altri nuovi del tutto diversi.
Diverso sarebbe se lo scopo del sistema cambiasse dall’esterno in modo predeterminato, poiché in tal caso ogni componente sarebbe informato e, avendo consapevolezza del proprio contributo al funzionamento, si riallineerebbe ad esso.
Mettiamo ora di concepire un “motore costruito per funzionare senza alcun fine se non sentirsi funzionare”. Dove per motore si intende un qualunque sistema che può svolgere una funzione, come ad esempio un orologio o un albero o altro.
Ciò apparentemente può costituire un paradosso. Esso risiede nel fatto che un motore, per definizione, è concepito e costruito (creato) per svolgere una funzione specifica, come muovere le lancette o un veicolo o fare frutti. Tuttavia, in questo caso, il motore, come insieme di tutti i suoi componenti, esiste solo perché è consapevole di sentirsi funzionare, senza uno scopo esterno.
Questo contraddice il nostro buon senso che vuole vedere nel motore la sua natura utilitaristica e finalistica, creando un contrasto tra il suo funzionamento e la mancanza di uno scopo predeterminato. Un motore che esiste solo per il proprio funzionamento sfida questa nozione, suggerendo che qualcosa può avere valore intrinseco e significato semplicemente per il fatto di esistere e funzionare.
Un motore che funziona solo perché consapevole di funzionare potrebbe rappresentare l'idea che l'esistenza si identifichi col sentirsi funzionare come fine ultimo, senza bisogno di uno scopo esterno. Se il motore e ogni sua parte sono consapevoli del proprio funzionamento, esso percepisce se stesso. Questo solleva domande su cosa significhi essere consapevoli e se la consapevolezza possa esistere senza uno scopo esterno, o se la consapevolezza di esistere si possa identificare con lo stesso sentirsi funzionare che è anche percezione della realtà rimodellata (ricreata) dal suo funzionare senza scopo.
La consapevolezza di sentirsi funzionare potrebbe identificarsi con la misura che l'universo e ogni sua parte fanno di sé stessi? Di fatto, ogni componente di un sistema interagisce fisicamente e non fisicamente con altri componenti, scambiando energia e informazioni e influenzandosi reciprocamente, mostrando autoregolazione e adattamento. Queste interazioni possono essere viste come una forma di "misura" che ogni parte dell'universo fa di sé stessa e delle altre parti. L'universo, che si può considerare un sistema complesso e autorganizzato, potrebbe esibire la consapevolezza come una proprietà emergente dalle interazioni reciproche di questo processo di misura continua?
Il concetto di motore costruito senza alcun fine se non sentirsi funzionare può mettere in discussione alcuni concetti teleologici o anche mutarli, suggerendo che non tutto deve avere un fine esterno predeterminato per avere significato. Infine, il presente di un motore costruito per sentirsi funzionare non è la parte di tempo di una sequenza temporale in cui sta accadendo ciò che deve accadere per raggiungere lo scopo predeterminato, ma è il tempo in cui tutti i possibili stati futuri coesistono prima che essi accadano, diventando realtà.