PILLOLE DI SCIENZA
NUMERO 21
MARZO 2024Esperienza al CusMiBio
(Le immagini presenti nell’articolo non giungono da un sito, ma le ho scattate personalmente)
Questa esperienza viene sviluppata come una simulazione di un'analisi reale. Viene realizzata, pertanto, anche per permettere ai partecipanti di immergersi in un mondo universale e lavorativo a cui potrebbero ambire. È un momento di crescita che può fluire in una presa di coscienza sul proprio futuro.
Dunque, vi riporto due paragrafi dove possiate trovare tutte le informazioni desiderate!
INTRODUZIONE ALL'ESPERIENZA
Il CusMiBio (Centro Università degli Studi di Milano, in particolare “Scuola per la diffusione delle Bioscienze") si propone dal 2004 come collegamento tra il mondo scolastico e lavorativo. Nel 2019, tale progetto, trova interazioni con l’organizzazione COSP (Centro per l’Orientamento di Ateneo allo Studio e alle Professioni) per consolidare la propria struttura amministrativa e didattica.
Il CusMiBio diffonde cultura ed attività rivolte, principalmente, a studenti di scuole superiori.
Tali attività si differenziano in due progetti nominati: “Una settimana da ricercatore” e “Sperimenta il BioLab”. Il primo vede un accesso programmato (concorso con valutazione), il secondo un accesso libero (iscrizione libera a pagamento).
Nel presente articolo porteremo la nostra attenzione su un’attività in laboratorio alla quale ho partecipato: “Chi è il colpevole?”
Qui i partecipanti diventano scienziati nel mondo della biologia e genetica forense per risolvere un omicidio attraverso l’analisi del DNA: dovranno esaminare specifici marcatori di DNA (microsatelliti) per identificare profili univoci che portino alla scorperta del colpevole.
Il progetto, dunque, richiede particolare attenzione ai dettagli, responsabilità ed applicazione etica delle scienze biologiche nella società. Il progetto ci immerge in una prospettiva dove il sistema scientifico sfocia in quello giuridico.
Ad ogni modo, il costo di partecipazione ammonta a 14 euro per una durata di tre ore. Prima di partecipare, i responsabili consigliano di approfondire le proprie conoscenze sulla struttura del DNA e su PCR (Polymerase Chain Reaction).
PCR consiste nell’amplificazione specifica di tratti di DNA mediante reazioni a catena della DNA polimerasi. Questo metodo di analisi di DNA vanta:
maggiore rapidità (da 60 a 90 minuti)
manualità e semplicità
automatizzazione
facilità nella visualizzazione dei risultati attraverso elettroforesi
Elettroforesi
E’ una tecnica in grado di separare molecole di dimensioni differenti attraverso un gel su un campo elettrico.
RELAZIONE DELL'ESPERIENZA
Materiale allestito al singolo:
Ciotola
Vetrino in plastica contenente fessure
Vetrino
Micropipetta da 20 microlitri
Provetta con colorante
Provetta con acqua
Contenitore di rifiuti
Scatola di puntali
Power supply e centrifuga
Presa elettrica da 220 V
Flashgel
Microlitri di DNA in freezer
Come svolgere l’esperimento:
il campione della vittima è indicato con V
il campione principale prelevato viene indicato con SC
le lettere dei campioni dei sospettati seguono l’ordine alfabetico (io ero la lettera I)
vengono estratti i vari DNA per poi applicare la PCR
Esercizio in preparazione all’esperimento
Scopo: allenare l’utilizzo delle micropipette: formare 5 gocce di acqua di 5 microlitri sul vetrino, tramite una pipetta con un puntale.
N.B. le gocce devono risultare della stessa dimensione.
Successivamente prelevare 5 microlitri di colorante, porre uno strato di plastica bucato in una ciotola d’acqua e rilasciare la goccia di colorante. Ripetere l’operazione per tutte le gocce.
- Rimuovere dal freezer le provette di DNA ed aggiungere al loro interno 2 microlitri di colorante.
- Centrifugare le provette fino ad unire tutta la sostanza sul fondo
- Recuperare il gel
- Porre il gel nell’apposito apparecchio da flashgel
- Sistemare all’interno dei pozzetti i campioni centrifugati
- Azionare l’alimentatore a 150V
- Attendere che i frammenti di DNA si allontanino in base al loro peso molecolare
NUMERO 20
DICEMBRE 2023Più profondo di una melodia - i benefici neurologici della musica
Come ogni forma d’arte, la musica si nutre di soggettività e acquisisce per ognuno un valore differente; ogni definizione sembrerebbe limitante per un’espressione così universale e profonda, che unisce le persone e, allo stesso tempo, fa vibrare l’individualità, si alimenta dell’emozione e ne plasma di nuove, ed è figlia della ragionata armonia matematica quanto del sottile genio dell’ispirazione. I più grandi maestri la identificano come espressione più alta dell’ingegno umano: per Beethoven “la musica è una rivelazione, più alta di qualsiasi saggezza e di qualsiasi filosofia”, Debussy pensava che “la musica contenesse una libertà, più di qualsiasi altra arte, non limitandosi solo alla riproduzione esatta della natura, ma ai legami misteriosi tra la natura e l’immaginazione”.
A dare un’importanza “scientifica” a quest’arte furono per primi i pitagorici, che ne studiavano le regole per le loro intrinseche proprietà matematiche, le quali portarono Marziano Capella ad inserirla fra le discipline “razionali” del quadrivio; quello fra musica matematica è infatti “da sempre un dialogo fitto e profondo”, come scrive Eli Manor nel saggio La musica dai numeri. Le proporzioni ritmico-temporali e armoniche sono riconducibili non solo alle frazioni ma addirittura ad integrali e logaritmi: per citare degli esempi celebri, si ipotizza che le stesse opere di Bach siano governate da una logica matematica; inoltre, ci sono riscontri della sequenza di Fibonacci e della sezione aurea nelle sonate per pianoforte di Mozart¹. Il senso di armonia e ordine che percepiamo in una musica di qualità deriva quindi da proporzioni presenti universalmente nella realtà fisica in cui viviamo, che percepiamo come gradevoli a livello inconscio. Perché se è vero che la matematica è il linguaggio della natura, come Galileo affermava, alla luce di questi risultati possiamo poeticamente pensare che la musica dia voce alla matematica, e dunque alla realtà.
Su un piano più pratico, è scientificamente dimostrato come la fruizione della musica, soprattutto a partire dall’infanzia, stimoli lo sviluppo delle capacità computative. In particolare, quando si suona e si impara a riprodurre una melodia sulla base di durata e altezza delle note, si allena il pensiero spazio-temporale, fondamentale nella matematica; inoltre viene stimolato anche il pensiero logico e teorico, responsabile della visualizzazione di quantità astratte sia musicali sia numeriche¹. Un’infografica del 2007 dell’Università della California riporta che i bambini delle elementari che avevano seguito programmi musicali avanzati avevano prestazioni in matematica migliori del 20% rispetto ai loro coetanei²; inoltre, secondo la Dottoressa Emma Gray, psicologa educativa al British Cognitive Beahaviour Therapy and Counselling Service di Londra, gli studenti che, durante l’apprendimento, ascoltano musica classica con 60-70 battiti al minuto, raggiungono in media un punteggio più alto del 12% nelle prove di matematica.³
Un’altra associazione fondamentale è quella fra musica e linguaggio. Infatti, imparare a distinguere i suoni si applica non solo alle note, ma anche alla comprensione orale, poiché vengono stimolate le medesime aree acustiche e motorie. È stato osservato che quando i bambini imparano a suonare vengono sviluppate delle distinzioni neurofisiologiche fra gli input sonori che aiutano a migliorare anche in campo letterario: sempre stando all’infografica californiana, dopo solo 20 giorni di corsi di musica l’intelligenza linguistica dei bambini in età prescolare aumenta del 90%². Inoltre, secondo uno studio di Christina Zhao e Patricia K. Kuhl dell'University of Washington, anche nei piccoli di nove mesi, se sottoposti ad ascolto musicale mentre giocano, la capacità di riconoscere gli schemi linguistici orali diventa più marcata⁴. Il contatto con la musica prepara quindi il nostro cervello ad imparare a parlare nell’infanzia, ma anche ad apprendere come isolare i suoni di una lingua straniera e riconoscere le parole all’interno del pattern sonoro; a questo si unisce una memoria verbale/fonologica più allenata e una capacità di concentrazione sull’ascolto più fine.
L’importanza neurologica della musica risiede quindi nella sua capacità di attivare e coordinare numerose aree cerebrali, migliorando le nostre capacità cognitive in generale. Quando ascoltiamo un brano, si attivano entrambi gli emisferi del cervello: se ci concentriamo sul linguaggio di una canzone o l’aspetto tecnico della melodia, si allena l'emisfero sinistro, deputato alla logica, dunque si agisce su miglioramento della memoria, della motricità, del senso del ritmo e della coordinazione corporea; al contrario, lasciandosi trasportare emotivamente dalla melodia si fa maggiore affidamento sull’emisfero destro, più intuitivo, portando ad un incremento della creatività e una maggiore coordinazione fra le diverse aree. Infine, dato che l’ascolto non è settoriale, viene promossa la cooperazione fra entrambi gli emisferi ⁵.
Così facendo, l’ascolto, e ancor di più l’esecuzione della musica, aumentano la neuroplasticità e aumentano la connettività delle fibre bianche del cervello, promuovendo la sinaptogenesi, cioè la creazione di nuovi collegamenti fra i neuroni⁶.
Le numerose proprietà benefiche della musica potrebbero anche essere attribuite, più semplicemente, all’effetto positivo che ha sulla condizione generale del nostro organismo e dunque sull’aumento della nostra performance. Infatti, in seguito ad uno studio realizzato dall’Université de Bourgogne, è risaputo che l’ascolto di musica, in quanto attività piacevole, stimola il rilascio di dopamina nel cervello: si tratta di un neurotrasmettitore che esercita il controllo sul movimento, sulla capacità di attenzione e di apprendimento, sulla sensazione di piacere e sul meccanismo del sonno; per questi effetti, è anche mediatore della creatività e della fantasia.
Il Professor Mauro Porta, neurologo presso l’IRCCS Ospedale Galeazzi-Sant’Ambrogio, afferma inoltre che grazie ad una melodia gradevole viene inoltre aumentata la secrezione della serotonina, l’ormone della serenità, della pace e dell’assenza di dolore; la musica è responsabile anche di alterne secrezioni di cortisolo (in particolare la musica più “energetica”), che è “l’ormone dello stress” e regola il metabolismo energetico. Infine, alcuni brani possono generare specifici stati d’animo come calma e serenità, condizioni che permettono al potenziale del nostro cervello di essere sfruttato al massimo⁷.
Infine, la musica è benefica anche dal punto di vista fisico, come si legge sulla Gazzetta dello Sport. Ascoltare durante l’allenamento canzoni ritmate e cariche, indicativamente da 130 a 140 battiti per minuto, aumenta la resistenza, aiuta a seguire con più precisione i movimenti e a creare il giusto stato d’animo, diminuendo anche del 10% la percezione della fatica⁸. Va menzionato anche come l’atto fisico di suonare uno strumento eserciti la coordinazione occhio-manuale ed affini la manualità di precisione.
Un altro aspetto interessante è il possibile uso della musica come strumento per migliorare la memorizzazione. Molti studenti, infatti, ascoltano musica durante lo studio, un’abitudine che, se adatta al profilo personale del ragazzo, aiuta ad isolarsi e mantenere la concentrazione, oltre che a godere dei numerosi effetti sopra riportati. A questo si unisce anche la possibilità di “ancorare” le informazioni da memorizzare alle emozioni che la musica ci ispira, come riporta una tesi dell’Università Ca ’Foscari di Venezia; infatti, le determinate situazioni emotive riconducibili al brano ascoltato, vengono immagazzinate con più stabilità che dati concreti ¹⁰. Per questa ragione ascoltare canzoni in lingua straniera può essere un valido mezzo per ampliare il proprio lessico, memorizzando i testi con più facilità e divertimento che non farlo con una tabella stampata.
In conclusione, possiamo affermare che la musica può aiutare a migliorare la vita accademica di uno studente. Secondo i ricercatori dell’American Psychological Association fra gli studenti della Columbia Britannica, il 13% di coloro che avevano partecipato ad almeno un corso di musica, in particolare di strumento, ha ottenuto valutazioni più alte in scienze, matematica e inglese⁹. Al di là del risultato accademico, imparare a suonare seriamente uno strumento richiede la creazione di una forma mentis caratterizzata da disciplina, costanza e metodo.
Non dobbiamo dimenticare che rappresenta soprattutto un’occasione per arricchire noi stessi, sia attraverso la scoperta di diversi generi musicali che con l’apprendimento di uno strumento. Dopo tanti dati scientifici oggettivi, dobbiamo ricordare le parole del giornalista Tiziano Terzani, poiché “La musica è matematica, ma la matematica non basta a spiegare la musica”: ciò che una melodia può esprimere va ben oltre qualsiasi numero o evidenza scientifica. La musica è una via per scoprire noi stessi, approfondire le nostre emozioni e poterle esprimere positivamente: un musicista “sa” come la melodia prodotta dal proprio strumento può nascere davvero dalla propria anima, dando voce ai sentimenti più autentici in noi. I vibranti concerti di Mozart decorano ogni atmosfera con la loro spontanea eleganza, le sonate di Beethoven ci sferzano con la loro capacità di evocare la complessità dell’animo umano, Debussy dipinge sogni con la delicatezza di un impressionista che gioca con la luce; Dvorak è un trionfo di eroica grandezza, Fauré può far struggere fino alle lacrime e Bach eleva i suoi arpeggi come le guglie di una cattedrale gotica. Senza dimenticare, dopo i grandi maestri del passato, di tutte le canzoni che sono state le colonne sonore delle nostre vite, dall’energia dei Queen alla drammaticità di Adele; ognuno ha dei brani che conservano ricordi come scrigni di note – quella canzone energica che riesce sempre a motivarci, o quella melodia che ci calma come un balsamo invisibile.
Oltre a conoscere ed impreziosire noi stessi, la musica può unirci agli altri; non solo essere una passione comune da condividere, ma anche un viaggio nel tempo e nello spazio: grazie allo streaming online possiamo ascoltare melodie da tutto il mondo e di tutte le epoche, conoscendo nuovi paesaggi sonori.
È una fonte inesauribile di ispirazione per sé stessa e per la nostra creatività: quanto è perfetto scrivere lasciandosi ispirare dalla musica, componendo uno spartito di parole, che possa cantare al lettore con la stessa forza emotiva!
La musica ci permette di connetterci al mondo, e allo stesso tempo di chiuderci in noi stessi, dimenticando tutto al di fuori del fluire delle note. Come le tele di un pittore, può “decorare” le giornate, potenziare ogni sensazione, impreziosire ogni momento. Davvero credo di non aver mai passato un giorno senza musica: è qualcosa che più si conosce più appare infinito, come se quindi non ci fosse abbastanza tempo per ascoltare e suonare tutte le melodie che vorremmo. E se non vogliamo fidarci dei sentimenti dei musicisti nutriti dalla loro stessa arte, non possiamo rimanere indifferenti a come generazioni di filosofi si siano inchinati a lei, fino a portare pure l'anti idealista Nietzsche ad affermare che “senza musica, la vita sarebbe un errore”.
CITAZIONI:¹Santos-Luiz, Carlos. "The learning of music as a means to improve mathematical skills." Proceedings of the International Symposium of Performance Science. 2007. ²https://elearninginfographics.com/the-benefits-of-music-education-infographic/ ³https://www.studenti.it/scuola-canzoni-che-fanno-prendere-voti-alti.html⁴https://www.lescienze.it/news/2016/04/28/news/educazione_musicale_neonati_capacita_linguaggio-3067309/⁵https://www.stateofmind.it/2021/05/musica-cervello/⁶https://online.universita.zanichelli.it/proverbio/files/2019/04/Anteprima_Proverbio.pdf ⁷ https://www.iodonna.it/benessere/salute-e-psicologia/2023/03/22/musica-e-cervello-il-cosiddetto-effetto-mozart-e-le-proprieta-cognitive-e-terapeutiche-del-suono/⁸https://www.gazzetta.it/native-adv/lg-longoform02-la-musica-che-aiuta-a-fare-sport.shtml?refresh_ce-cp ⁹https://www.corriere.it/scuola/maturita/notizie/chi-studia-musica-va-meglio-matematica-scienze-54ecd610-974b-11e9-8e4d-b6b35f2a9094.shtml ¹⁰http://dspace.unive.it/bitstream/handle/10579/9989/836330-1203427.pdf?sequence=2
Martina Cucchi
L’invenzione di un nuovo sistema di numerazione
Sistema di numerazione?
Un sistema di numerazione è una forma di espressione e di rappresentazione simbolica di "numeri".
Nel corso della storia un vasto numero di popolazioni si è dilettato alla produzione di un proprio sistema.
Tra i primi vi è il sistema di numerazione uniformato dai babilonesi ( si veda https://upload.wikimedia.org/wikipedia/commons/d/d6/Babylonian_numerals.svg ).
Nel mondo contemporaneo e con il fenomeno della globalizzazione, è stato determinato un sistema di numerazione, adottato ma molteplici Paesi, di origine indù-arabo: il sistema decimale.
Il presente è un sistema numerico di tipo "posizionale", in quanto il valore delle cifre è dato dalla loro posizione. Inoltre, viene definito decimale in quanto basato sulle dieci cifre
(0 - 1 - 2 - 3 - 4 - 5 - 6 - 7 - 8 - 9).
L'origine di tale sistema decimale?
Il nostro sistema di numerazione si diffonde, nel continente europeo dal tredicesimo secolo, grazie all’influenza araba. Prima di quanto, venivano utilizzati i numeri romani e gli abachi (alcuni strumenti utili per effettuare alcuni calcoli).
Il mondo arabo trae, nel 650 a.C., il proprio sistema dalla popolazione indiana: quando un vescovo siriano, Severus Sebok, introduce nove segni indiani utilizzati per comporre i numeri.
In seguito, vi è un ulteriore riferimento al loro sistema. Infatti, nel 772, Al-Mansur riceve da alcuni astronomi indiani un'opera in campo astronomico, detta Sindhind, con la spiegazione dell'utilizzo delle nove cifre indiane. Negli anni successivi, l'opera viene tradotta in lingua araba.
Nel secolo successivo, lo scienziato Al-Khwarizmi attinge alla precedente opera per stipulare due trattati aritmetici. La prima, che risale al 850 d.C., giunge a noi in lingua latina: “De numero indorum”. Nel medesimo, vi si riporta l'attesa esposizione del sistema di numerazione indiano e degli algoritmi per eseguire alcuni calcoli. Inoltre, Al-Khwarizmi ci introduce all'utilizzo degli algoritmi algebrici. Infatti, il termine “algoritmo” si ricava da una rielaborazione del nome “Al-Khwarizmi”.
Lo studio e l'approfondimento del sistema indiano, negli anni successivi, prosegue. A testimonianza di quanto abbiamo il “Kitab al Fusul Fi al-Hisab al-Hindi” del 314 o lo scienziato Al-Biruni nel 1020.
Nel decimo secolo i sistemi fondamentali arabi si ricondussero a tre: termini in scrittura numerica, sistema sessagesimale di derivazione babilonese (numeri come lettere alfabetiche) ed il sistema di numerazione indiano.
L'arrivo del terzo sistema di numerazione giunse in Europa solo dal tredicesimo secolo. Un grande impatto ebbe il testo del 1002 di Leonardo Fibonacci, detto Leonardo Pisano, che ci espone come compiere le differenti operazioni.
Da decimale a esadecimale?
Avendo come base il sistema decimale, si sono sviluppati molteplici metodi di numerazione. Tra questi vi è il sistema di esadecimale.
Questo è un sistema numerico posizionale in base sedici e, dunque, costituito dal medesimo numero di simboli:
le cifre 0 - 1 - 2 - 3 - 4 - 5 - 6 - 7 - 8 - 9
le lettere A - B - C - D - E - F
Per rappresentare un numero, avente solo cifre, nel sistema esadecimale è necessario racchiuderlo in due parentesi tonde indicando la base 16 (se viene omessa si sottintende la base 10).
Il più recente sistema occidentale?
Quasi trent'anni fa, nel 1994, in Alaska, un gruppo di studenti dell'istituto Kaktovik, guidati dal loro insegnante William Bartley, propone il primo nuovo sistema numerico occidentale dell'ultimo secolo.
Il loro sistema di numerazione si discosta particolarmente da quello decimale, sia in forma visiva che in forma concettuale.
Tale sistema è detto "Kaktovik Inupiaq", dal nome del loro villaggio.
L’Origine di Kaktovik Inupiaq?
I nove studenti di una classe dell’istituto citato notarono di non avere abbastanza simboli indù-arabi per rappresentare i numeri Inupiaq (gruppo di lingue del nord-Alaska).
Dunque, affrontarono la mancanza percepita ed idearono 10 nuovi simboli: difficili da ricordare. In seguito, la classe collaborò allo sviluppo di un nuovo sistema di numerazione: ora in base 20.
Tale sistema, inoltre, rispecchia le caratteristiche di un sistema ideale:
Semplicità: memorizzazione semplice
Iconicità: distinta relazione tra il simbolo ed il simboleggiato
Efficienza: possibile scriverli rapidamente
Distintività: differenti da altri sistemi di numerazione
Estetica: visivamente piacevoli
Come si utilizza?
La lingua Inuit dell'Alaska prevede un utilizzo di un conteggio avente base il corpo umano. Ad intenderci, il numero 5 si indica con il termine "braccio", in quanto una singola mano presenta solitamente cinque dita; mentre il numero "venti" viene indicato dall'intero corpo, poiché è il numero complessivo delle dita.
Nella lingua Inupiaq non vi è stato istituito un termine per indicare il numero nullo, in quanto non esistente nella lingua Inupiaq. Questo, in seguito, è stato proposto incrociando le braccia sopra il capo quasi a formare una "x": lo spazio intermedio tra la testa e le braccia raffigura il vuoto, il nulla. Successivamente, venne aggiunta una sottobase pari a 5: il cinque forma la parte superiore della cifra ed il resto forma la parte inferiore.
I numeri da uno a diciannove, dunque, sono resi con un sistema di valori in base 20 (si riporta immagine figurativa di Amanda Montañez: https://hips.hearstapps.com/hmg-prod/images/kaktovik-graphic-d1-38-64416f883b1d7.jpg?resize=980:* ).
I numeri successi, come il sistema decimali, si formano con l’unione dei simboli presenti in tabella.
Applicati nei calcoli?
Gli studenti ha progettato alcuni abachi (telai di conteggio) in base 20 nel laboratorio scolastico. Questo è costituito da due differenti sezioni: la superiore presenta 3 perline aventi i valori della sottobase 5; mentre nella sezione inferiore emergono 4 perline aventi i valori restanti.
Inoltre, nei calcoli aritmetici vi si sono riscontrate alcune facilità: la somma di due cifre appare come la loro somma.
Ad esempio “2 + 2 = 4” corrisponde a + =
Ad esempio “4 - 1 = 3” corrisponde a − =
Riscontrano anche una semplificazione nell'approccio alla “divisione lunga”, in quanto gli aspetti visivi semplificano i calcoli.
Ad esempio 6 x 3 = 18 corrisponde a * = ( * ) + ( * ) =
Ad esempio 30.561/61= 501 corrisponde a questi simboli:
Nero: divisore
Viola: il divisore entra una volta nelle prime due cifre del dividendo (1 nel quoziente). In seguito, si aggiunge nelle due cifre successive, ma ruotato a formare un cinque (la prossima cifra del quoziente è un cinque rosso). Le ultime due cifre (azzurro) si abbinano una sola volta (uno nel quoziente).
Gli studenti possono dotarsi, inoltre, dei calcoli intermedi con un sistema di “chunking” (sistema per risolvere semplici divisioni mediante sottrazione ripetuta).
Ad affiancarli vi è anche una tabella con i prodotti di ogni cifra base, a seguire i prodotti di basi e sottobasi ed, infine, il prodotto di ogni sottobase (riporto alcune tabelle che ho sviluppato basandomi su Wikipedia ed utilizzando le loro immagini).
L’affermazione del sistema Kaktovik Inupiaq
Nel 1996, la commissione per la Storia, la Lingua e la Cultura Inuit adottò ufficialmente i numeri e, nel 1998 il Consiglio Circumpolare Inuit promosse in Canada lo studio di questo innovativo sistema numerico.
Inoltre, l'organizzazione Script Encoding Initiative dell'Università della California ha permesso, nello scorso anno, l'inclusione del nuovo sistema numerico in Unicode.
Oggi anche Google presenta l'intenzione di creare un apposito font per questo sistema.
Dunque, nel corso della storia si sono susseguiti ed affermati molteplici sistemi di numerazione. Alcuni si caratterizzano da una propria originalità, mentre in altri è maggiormente evidente una base di partenza già esistente. Nel presente articolo, infatti, ho riportato 3 sistemi che differiscono per la loro base iniziale: la base del sistema decimale si caratterizza per un valore di dieci, l’esagesimale per base sedici ed il EsquireKaktovik Inupiaq per base venti.
Oggi, con l'evoluzione non ci siamo fermati e, forse, un giorno i numeri, come li concepiamo ora, saranno considerati “arcaici”, come oggi noi vediamo i geroglifici.
Fonti consultate:https://www.esquire.com/it/lifestyle/tecnologia/a43658104/nuovo-sistema-numerico/ (anche fonte immagini)https://en.wikipedia.org/wiki/Kaktovik_numerals (anche fonte immagini)https://web.math.unifi.it/archimede/note_storia/numeri/numeri1/node3.htmlhttps://www.scientificamerican.com/article/a-number-system-invented-by-inuit-schoolchildren-will-make-its-silicon-valley-debut1/
Elisa Maria De Stefano
NUMERO 19
OTTOBRE 2023Tutta colpa di un cappello
Un bosone a tavola
Nel 2012, all’interno del Large Hadron Collider di Ginevra, per la prima volta è stato rilevato un bosone di Higgs.
Un anno dopo, i fisici Peter Higgs e Francois Englert ottengono il premio Nobel per la fisica per aver teorizzato l’esistenza della cosiddetta “god particle”, la “particella di Dio”.
Contemporaneamente a questi eventi giornalisti di tutto il mondo pubblicano la notizia della scoperta, magnificando il risultato ottenuto con eloquenza pomposa: mentre fisici da tutto il mondo alzano collettivamente gli occhi al cielo, la ‘PARTICELLA DI DIO’ riempie prime pagine ovunque.
Ma dopo il suo effimero momento di gloria, viene dimenticata nel giro di poche settimane, scomparendo nel nulla…
Davvero un peccato, perché dietro al polveroso nome del bosone di Higgs si nascondono storie affascinanti di teorie balzane, lotte teoriche all’ultimo sangue e scodelle.
Volete saperne di più? Allora partiamo dalle basi.
Innanzitutto, cosa sono i bosoni? Si tratta di particelle subatomiche (più piccole di un atomo) che seguono la statistica di Bose-Einstein.
Cosa vuol dire questo? In realtà è piuttosto semplice: al contrario dei fermioni, i loro cugini snob, in una zona di spazio possono coesistere un numero infinito di bosoni con lo stesso stato quantico (cioè con lo stesso comportamento e caratteristiche).
Come un esercito di fantasmi, i bosoni possono ammassarsi senza alcun limite di numero in uno spazio limitato.
Tra queste particelle vi sono dei bosoni particolari, detti bosoni di gauge (dall’inglese per “calibro”), i quali mediano le forze fondamentali.
Che accidenti significa? Presto detto: secondo il Modello Standard della fisica, tutte le forze fondamentali dell’universo esistono sotto forma di campi costituiti da particelle portatrici di energia (i bosoni di gauge per l’appunto).
Facciamo un esempio con la forza elettromagnetica: secondo la teoria sopra citata, una calamita è attirata dal metallo del vostro frigorifero perché all’interno del loro campo magnetico essi si stanno scambiando energia grazie a bosoni specifici, cioè dei fotoni.
Senza fotoni l’attrazione magnetica sarebbe impossibile.
Qui arriviamo al problema: perché il Modello Standard funzioni, tutti questi bosoni di gauge devono avere massa nulla. Il motivo di ciò si può trovare nella famosa equazione massa-energia (E=mc*2) di Einstein: una delle sue conseguenze è che un corpo dotato di massa dovrebbe ricevere un’energia infinita per raggiungere la velocità della luce.
Poiché l’energia infinita non è mai stata vista da nessuna parte, si teorizza che un corpo alla velocità della luce non abbia massa: dato che il Modello Standard presuppone una velocità bosonica uguale a quella della luce, i nostri amici subatomici non possono avere massa (alla faccia della prova costume).
Dov’è il problema? Due bosoni di gauge, rispettivamente denominati W e Z, durante molteplici esperimenti di misura sono risultati possessori di massa non nulla.
Naturalmente fisici da ogni dove hanno subito cominciato una lotta all’ultimo sangue con le proprie apparecchiature scientifiche per fare quadrare i calcoli, ma niente da fare: i bastardissimi bosoni W/Z continuavano imperterriti a mantenere la loro massa.
Dato che tutto (o quasi) il nostro sapere in materia di fisica dipende dal Modello Standard, trovarci una falla del genere non è esattamente qualcosa da prendere alla leggera.
Per risolvere quest’aberrazione fisica arrivò in aiuto dei colleghi Peter Higgs con un’ipotesi ancora più balorda del problema originale: e se a dare la massa inspiegabile a W e Z fosse un altro bosone?
Così nacque l’idea del bosone di Higgs, particella fondamentale dell'omonimo campo di Higgs.
Ecco, qui arriviamo alle scodelle e ai cappelli. I campi fisici “normali” (come quello magnetico) sono simmetrici e hanno valore zero nel loro punto zero, come una scodella: fate rotolare una pallina in una scodella e vedrete che si muove nello stesso modo in tutte le direzioni, perché la curvatura della scodella è uguale in tutte le direzioni. Allo stesso modo, in un campo fisico normale i bosoni si muovono nello stesso modo in ogni direzione: tale proprietà è la simmetria.
Inoltre, se aspettate abbastanza, prima o poi la pallina si fermerà vicino al centro piatto della scodella rimanendo in equilibrio. Questo punto d’equilibrio, in un campo fisico, è il punto dove esso vale esattamente zero e dove non ci sono bosoni.
Piuttosto complicato, eh? Bene, il campo di Higgs è un campo che esiste anche senza bosoni di Higgs. L’equivalente di una balordaggine simile sarebbe un termosifone che scalda l’intero universo, anche se di pochi gradi, persino da spento.
Per questo motivo tale campo è visualizzato come un cappello a sombrero: nel punto zero, invece di essere piatto perché nullo ha un valore positivo, dunque ha un rigonfiamento come il citato cappello.
Se lasciaste muovere una pallina sul cappello a sombrero notereste che si muove come nella scodella solo verso il bordo del cappello: se provaste a spingere la palla contro la cupola del cappello, la vedreste oscillare un po’ e poi fermarsi.
Ora, buon Dio, siamo arrivati al punto: immaginate che la pallina di prima sia un bosone W.
Normalmente si muove a velocità della luce con la sua brava massa nulla, come la palla sul bordo del cappello: in alcune situazioni, tuttavia, “impatta” contro il campo di Higgs come contro la cupola del sombrero e rallenta, guadagnando una massa.
In sostanza il campo di Higgs è come una palude di fango universale, la quale rallenta alcune particelle che l’attraversano dandogli una massa finita. Dato che questa è una teoria dalla balordaggine insuperabile, naturalmente il campo di Higgs conferisce massa ANCHE al suo stesso bosone.
Nel momento in cui avviene tale conversione di energia in massa si dovrebbe poter misurare l’azione del bosone di Higgs, come è effettivamente successo nel collisore di particelle di Ginevra. Tutto è bene quel che finisce bene.
O FORSE NO! Infatti, in fin dei conti, non si ha nessuna garanzia che la particella rilevata dal collisore sia quella teorizzata da Higgs: semplicemente la sua massa rientra nell’insieme dei valori ipotizzati per il nuovo bosone.
Non è bello pensare che oltre mezzo secolo di ricerche e teorie potrebbero essere rese vane da un misterioso barbatrucco quantico? Addio e sogni d’oro, futuri fisici teorici.
Alessandro Pace
NUMERO 18
MAGGIO 2023Strani nuovi mondi al Bachelet
Un PCTO alla scoperta degli esopianeti
Tatooine è un nome più accattivante di Kepler-16b, un esopianeta in un sistema binario da cui è davvero possibile ammirare due soli nel cielo; ma anche Kamino, il pianeta ricoperto completamente da un oceano, potrebbe avere dei gemelli nella nostra galassia, come Kepler 22-b. Tantissimi, variegati, misteriosi: gli esopianeti sono oggetti piuttosto comuni nella nostra galassia, ma affascinano da sempre la nostra fantasia, anche grazie alle loro bizzarre caratteristiche; si passa da Kelt 9-b, così caldo che le molecole di idrogeno nella sua atmosfera durante il suo “giorno” si disgregano in singoli atomi, al gigante ghiacciato intorno alla stella WDJ0914+1914, due volte più grande della nana attorno a cui orbita, o ancora a Wasp-12b, talmente deformato dalla gravità della sua stella da avere una forma a uovo, e oltre troviamo l’atmosfera color magenta di GJ 504 b… una galassia di strani nuovi mondi, tutta da esplorare.
Fra gennaio e marzo si è svolto, internamente al nostro istituto, un progetto di PCTO riguardante gli esopianeti, gestito dalle professoresse Ferretti e Piana e rivolto agli alunni delle classi terze dell’indirizzo scientifico. Nell’arco di una decina di lezioni, sono state affrontate sia spiegazioni teoriche che attività pratiche legate alla ricerca di pianeti extrasolari.
Gli esopianeti sono generalmente pianeti non appartenenti al nostro sistema solare, ma orbitanti intorno ad altre stelle.
Già Democrito o Giordano Bruno ammettevano la possibilità di “altri mondi”, ma la conferma della loro esistenza giunse solo nel 1995, quando Michel Mayor e Didier Queloz scoprirono il primo pianeta extrasolare: 51 Pegasi b; i due astronomi dell’Osservatorio di Ginevra sono stati insigniti nel 2019 del premio Nobel per la Fisica per questa eccezionale osservazione, prima di una lunga serie.
Sono infatti in corso molti programmi dedicati alla ricerca di esopianeti. Centri dedicati, come il Transiting Exoplanet Survey Satellite della NASA, ma anche i telescopi spaziali TESS, l’europeo Cheops o JWST raccolgono dati in proposito; uno strumento apposito si trova anche a bordo della Stazione Spaziale Internazionale.
Al 31 marzo 2022, NASA confermava l’esistenza di ben 5322 esopianeti, mentre 9434 candidati sono in fase di accertamento; è stato stimato che ci sia mediamente un pianeta per ogni stella nella galassia. Sul sito della NASA è disponibile l’elenco completo degli esopianeti conosciuti e le loro caratteristiche (Missions | Discovery – Exoplanet Exploration: Planets Beyond our Solar System), oltre che alcuni modelli 3D per “navigare” nello spazio dal proprio computer (Strange New Worlds | Explore – Exoplanet Exploration: Planets Beyond our Solar System).
L'esopianeta più vicino alla Terra è Proxima Centauri b, a soli 4 anni luce di distanza: leggermente più grande del nostro pianeta, si troverebbe nella zona abitabile del suo sistema, e potrebbe avere acqua liquida sulla sua superficie.
A interessare maggiormente la ricerca di possibili forme di vita, sono quei pianeti extrasolari alla giusta distanza dalla loro stella: grazie ad un periodo stabile e a temperature “nella media” che permettono la presenza di acqua liquida, potrebbe esserci la possibilità che uno di questi ospiti degli organismi viventi.
Prima di ragionare sulla grande domanda “siamo soli nell’Universo?”, però, torniamo alle nostre lezioni teoriche…
Dopo una presentazione generale dell’argomento, sono state introdotte le leggi di Keplero, fondamentali e universali per ogni sistema planetario (non solo il nostro sistema solare); gli alunni partecipanti si sono inoltre cimentati nel verificare questi modelli matematici sfruttando fogli di calcoli informatici, applicandoli alle orbite del satellite artificiale Explorer 33.
Un altro punto di vitale importanza è la comprensione del “metodo dei transiti”. Osservare direttamente un esopianeta è quasi impossibile, a causa delle grandi distanze e delle sue dimensioni relativamente piccole; per questo per trovarli vengono utilizzati vari metodi indiretti, come rilevare il transito del pianeta che “passando davanti” alla sua stella durante l’orbita, blocca una piccola percentuale della sua luce; dal valore di questa variazione è possibile dedurre anche altre caratteristiche del pianeta, oltre alla sua semplice presenza, come la dimensione ed il periodo orbitale. La composizione chimica della superficie viene invece dedotta analizzando lo spettro della luce della stella dopo esser filtrato attraverso l’atmosfera dell’esopianeta: a questo proposito il JWST ha dato prova di poter effettuare analisi accurate come non mai, come nella recente mappatura chimica del gigante gassoso WASP-39 b,
Per un primo approccio all’argomento, sono state impiegate delle schede fornite dal sito della NASA, grazie alle quali è stato possibile svolgere, a partire da svariati grafici, dei primi calcoli per dedurre approssimativamente le dimensioni e il periodo di rivoluzione dei pianeti analizzati.
Successivamente, è stata eseguita una prova pratica del metodo dei transiti, grazie ad un modellino realizzato dalle docenti. Attorno ad una lampadina (rappresentante la stella del sistema), sono state fatte ruotare sfere in plastica di diverse dimensioni (rappresentanti differenti esopianeti), grazie ad un braccio collegato ad un motorino; un rilevatore Arduino equipaggiato con una fotocellula rilevava la variazione di luminosità associata al passaggio dell’oggetto davanti alla fonte di luce, registrando numerose misurazioni per secondo e inviandole al computer. A partire dai dati raccolti, gli studenti hanno elaborato delle tabelle Excel per elaborare i grafici associati ad ogni sfera e calcolarne il raggio; il risultato ottenuto è stato poi confrontato con la reale misura presa direttamente sulle sfere, dimostrando che l’esperimento si è concluso con un certo successo.
L’elaborazione dati ha richiesto un certo tempo, ma ha permesso di esercitarsi con uno dei software più usati, approcciandosi alla scrittura delle formule nel foglio di lavoro e al problem solving sulla base delle proprie conoscenze matematiche pregresse. Ci si è inoltre resi conto che l’errore è un aspetto da tenere presente durante progetti scientifici, non in quanto negativo ma come consapevolezza della fluttuazione nelle misure, dovuta a possibili imprecisioni e alla sensibilità degli strumenti a disposizione.
L’attività voleva mostrare come un astrofisico lavorerebbe, sfruttando i dati di un modellino, raccolti direttamente a scuola. Un possibile approccio più “realistico” per approfondire e continuare l’attività potrebbe consistere nell’utilizzo dei reali dati raccolti durante le osservazioni professionali, per esempio il progetto citizen science della NASA “Planet Hunter” (Planet Hunters TESS | Zooniverse - People-powered research): la piattaforma permette a chiunque di analizzare le osservazioni di TESS per segnalare la presenza di possibili transiti legati ad esopianeti, per contribuire alla ricerca. Un’altra attività coinvolgente, svolgibile da chiunque voglia partecipare al progetto, per sentirsi un po’ più scienziati, forse anche più piccoli davanti all’immensità dell’Universo, ma anche un po’ più vicini a questi lontani mondi, che non vediamo l’ora di poter conoscere meglio.
FONTI:Overview | What is an Exoplanet? – Exoplanet Exploration: Planets Beyond our Solar System Quando è stato scoperto il primo pianeta extra-solare? - Focus.it Missions | Discovery – Exoplanet Exploration: Planets Beyond our Solar System ESA’s exoplanet missions First Giant Planet around White Dwarf Found | ESO NASA’s Webb Reveals an Exoplanet Atmosphere as Never Seen Before
Martina Cucchi
NUMERO 17
MARZO 2023Tycho Brahe: “The Old Astronomer”
Comment of a poem by Sarah Williams
This is the story of an old astronomer, the story of Kepler’s teacher, the story of a man of science. This is to remember his name, long-forgotten but worthy of recognition.
Sarah Williams (December 1837 – 25 April 1868) was an English poet and novelist. “Twilight Hours: A Legacy of Verse”, her second book of poetry, includes her most famous poem, "The Old Astronomer". The second half of the fourth stanza is widely quoted and referenced on the web: “Though my soul may set in darkness, it will rise in perfect light; I have loved the stars too truly to be fearful of the night.”; those lines are particularly appreciated by professional and amateur astronomers, and they have been included in the anthology “The Best-Loved Poems of the American People” [Continua in Lingue...]
NUMERO 16
DICEMBRE 2022Ordigni atomici:
facciamo chiarezza
In una crisi internazionale come quella che stiamo vivendo dal 24 febbraio scorso ad oggi, si sente spesso parlare della possibilità di un attacco nucleare, in una situazione d’incertezza e continua evoluzione; è importante dunque cercare di capire anche sotto l’aspetto scientifico gli effettivi rischi di un ordigno atomico e il suo funzionamento.
Le bombe nucleari sfruttano reazioni a livello atomico, cioè la fissione o la fusione; durante questi processi, una parte della massa iniziale viene convertita in energia, secondo la famosa equivalenza E=mc2. Per quanto il valore della massa convertita sia piccolo, moltiplicandolo per il quadrato della velocità della luce si ottengono immani quantità d’energia. Negli odierni ordigni nucleari convenzionali la reazione atomica della fissione avviene pressappoco così:
Il nucleo è formato da isotopi di elementi pesanti radioattivi, come URANIO-235 o PLUTONIO-239, che avendo una massa atomica superiore a 230 tendono a decadere verso atomi più leggeri e stabili, rilasciando fasci di elettroni, nuclei di elio o raggi gamma. La reazione inizia quando un neutrone infatti colpisce un nucleo pesante, lo divide in due nuclei minori e rilascia un neutrone, che andrà a sua volta ad urtare un nucleo pesante vicino. Per innescare il processo è quindi necessario che l’elemento pesante raggiunga una massa critica entro la quale gli atomi siano abbastanza vicini per venir colpiti dai neutroni liberati con un'alta probabilità: per ottenerla possono essere usati vari metodi d’innesco, ad esempio può essere fatto detonare del comune esplosivo intorno ad una sfera di plutonio, che viene quindi compresso dall’onda d’urto (sistema a implosione).
La bomba all'idrogeno, o bomba H, sfrutta il processo di fissione per generare altissime temperature e pressioni che innescano invece la fusione termonucleare: due atomi di idrogeno si uniscono creando un nucleo di elio e liberando moltissima energia, con un processo analogo a quello che avviene nelle stelle. Con un’esplosione incommensurabilmente più energetica rispetto ai tradizionali ordigni a fissione, una bomba H da 11 megatoni, come la prima testata dagli USA (nemmeno la più potente), avrebbe il potenziale per cancellare una metropoli da 20 milioni di abitanti.
È importante anche precisare cosa si intenda per “bomba sporca”, che lo stesso Vladimir Putin sospetta gli Ucraini vogliano prima o poi lanciare verso il territorio russo. Denominata “dispositivo di dispersione radiologica”, si tratta di una comune bomba esplosiva, contenente però materiale radioattivo (anche se non propriamente considerata “nucleare”, poiché non genera reazioni nucleari durante lo scoppio). Per fabbricarla basterebbero dei rifiuti radioattivi (come quelli prodotti dalle centrali energetiche o dagli ospedali), che si disperderebbero come fumi e polveri a seguito della detonazione; questi dovrebbero diffondersi solo per qualche chilometro, ma in caso di vento potrebbero arrivare “involontariamente” anche molto più lontano.
La terrificante pericolosità delle armi nucleari è data dalla combinazione di vari effetti devastanti: il primo è l’esplosione vera e propria, che distrugge ogni cosa circostante con la sola energia sprigionata; questa causa anche un contraccolpo “meccanico” (l’onda d’urto) a seguito delle variazioni anomale di pressione dell’aria circostante, tale onda è in grado di abbattere interi edifici. A questo si somma un flash d’energia termica che, oltre ad ustionare, può incendiare istantaneamente i materiali infiammabili, con una temperatura di anche 20 milioni di gradi. Infine, la radiazione diretta dell’esplosione, con dispersione di neutroni, raggi alfa (cioè nuclei di elio, formati da due protoni e due neutroni) e gamma (radiazione elettromagnetica ad altissima energia), che arriva a livelli di radioattività di 30Gy/h. Basti pensare che la maggior parte delle persone si ammala dopo essere stata esposta a 1Gy.
Nel medio-lungo termine, agisce invece la radioattività indiretta. Alcune bombe sono dette a bassa efficienza, perché la maggior parte del materiale radioattivo non partecipa alla fissione, ma viene volutamente disperso attraverso la detonazione; questo, insieme ad altra materia che viene irradiata (come terra risucchiata dal suolo dall’esplosione), viene scaraventata in aria in una tipica nube a forma di fungo. La ricaduta di queste polveri radioattive è detta fallout: le più pesanti cadono da qualche ora a un paio di giorni verso il suolo, contaminando qualsiasi cosa sulla superficie (fallout locale); altre vengono disperse a grandi distanze dai venti (fallout troposferico, influenzato dalle condizioni meteorologiche), mentre le più sottili rimangono in atmosfera e vengono distribuite nel corso di anni su tutto il pianeta (fallout stratosferico).
Il problema della radioattività sono le radiazioni ionizzanti: queste possono danneggiare irrimediabilmente la molecola di DNA contenuta nel nucleo delle cellule e se la molecola di DNA viene alterata, l’informazione contenuta viene danneggiata la cellula mutata potrebbe replicarsi esponenzialmente, creando un tumore.
Una delle forme più comuni a seguito di contaminazione nucleare è il tumore alla tiroide, causato dall’accumulo dell’isotopo radioattivo iodio-131 (prodotto dalla fissione di uranio e plutonio) nella ghiandola (per questo le pillole allo iodio sono considerate preventive in caso di esposizione a radiazione: dovrebbero infatti saturare con iodio non radioattivo la tiroide, affinché non assorba ulteriormente l’isotopo radioattivo). La probabilità di sviluppare un cancro e ovviamente legata alla quantità di radiazione assorbita, anche se non esiste una dose minima entro la quale si può essere certi di non riportare danni.
Le fonti di questo articolo:https://www.youtube.com/watch?v=htuZXVwvf84https://tg24.sky.it/mondo/2022/10/01/guerra-russia-ucraina-nucleare#02https://tg24.sky.it/mondo/2022/10/04/russia-putin-test-nucleare-ucrainahttps://www.ansa.it/sito/notizie/mondo/2022/10/27/putin-non-useremo-larma-nucleare-in-ucraina_0bac77ae-8aaf-48ac-bb4a-18fa1db9754a.htmlhttps://it.m.wikipedia.org/wiki/Bombardamenti_atomici_di_Hiroshima_e_Nagasaki#:~:text=L'esplosione%20si%20verific%C3%B2%20a,distrutti%20dalla%20forza%20dell'esplosione.https://www.youtube.com/watch?v=oDETa3ktK8Mhttps://www.youtube.com/watch?v=-WPh8rT0wH8https://www.youtube.com/watch?v=VNWX06NkitEhttps://www.focus.it/scienza/energia/che-cos-e-una-bomba-sporcahttps://www.focus.it/cultura/storia/e-se-la-bomba-di-hiroshima-cadesse-su-milanohttps://www.focus.it/cultura/storia/la-mappa-animata-di-tutte-le-esplosioni-atomichehttps://www.focus.it/scienza/scienze/bomba-allidrogeno-che-cose-e-come-funzionahttps://www.focus.it/cultura/storia/le-origini-top-secret-del-progetto-manhattan-bomba-atomicahttps://www.geopop.it/la-bomba-zar-la-bomba-allidrogeno-piu-potente-dellurss/https://www.geopop.it/chi-possiede-piu-armi-nucleari-i-maggiori-arsenali-dei-paesi-nel-mondo/https://www.geopop.it/come-funziona-il-protocollo-russo-per-il-lancio-della-bomba-atomica-e-chi-puo-autorizzarlo/ https://tg24.sky.it/mondo/approfondimenti/effetti-bomba-atomica#08https://www.inquinamento-italia.com/le-esplosioni-nucleari-conseguenze-e-radioattivita-fallout-radioattivo-radiazioni/https://www.ilmessaggero.it/mondo/guerra_nucleare_bomba_atomica_come_funziona_che_effetti_ha_come_salvarsi_raggio_radiazioni-6592424.htmlhttps://www.airc.it/cancro/informazioni-tumori/cose-il-cancro/radiazioni-ionizzanti-cancro#:~:text=Le%20radiazioni%20ionizzanti%20sono%20un,varia%20da%20tumore%20a%20tumore.https://m.my-personaltrainer.it/salute/radicali-liberi.html
Martina Cucchi
NUMERO 15
GIUGNO 2022Focus Academy
Tramite il giornale d'Istituto B-Log, alcuni studenti hanno partecipato al laboratorio "Focus Academy" della rivista Focus, che si è concluso con la pubblicazione, sul numero di aprile 2022, di due brevi contributi nella sezione dedicata alle scuole, che riportiamo di seguito.
Fusione nucleare:
una soluzione dalle stelle
La soluzione alla crisi energetica o un traguardo irrealizzabile? Ecco cosa sono la fusione nucleare e i suoi reattori, promessa di un’energia illimitata, pulita e sicura…
Immaginate di avere la potenza di una stella a vostra disposizione, di poter controllare il meccanismo che permette al sole ogni giorno di brillare e che alimenta ogni astro dell'universo: lo scopo dei reattori a fusione è proprio quello di replicare una reazione di fusione nucleare in modo controllato e sicuro, per sfruttare l'energia prodotta.
Nella reazione di fusione nucleare i nuclei atomici (costituiti da protoni e neutroni) di elementi leggeri si fondono formando nuclei di elementi più pesanti e neutroni. La massa complessiva dei nuovi atomi prodotti è però inferiore alla somma di quella delle particelle iniziali, infatti la piccola differenza di massa è stata tramutata in enormi quantità d’energia, secondo la famosa formula di Einstein E=mc²: l’energia ottenuta è data dal prodotto fra la minuscola massa persa m e il quadrato della velocità della luce c², ovvero circa 90.000.000.000.000.000 Km; per quanto la massa “scomparsa” sia infinitesimale, dunque, moltiplicandola per un valore tanto elevato si ottengono quantità smisurate di energia. Infatti, a parità di massa, la fusione rilascia quasi quattro milioni di volte più energia di una reazione di combustione di carbone, petrolio o gas e quattro volte di più rispetto alle reazioni di fissione. Il rapporto fra l’energia fornita al reattore per farlo funzionare e quella prodotta dalla fusione è detto Q: se Q è minore di 1 vuol dire che si è immessa più energia di quella poi prodotta (quindi si è in perdita), se Q è uguale a 1 le due si sono equilibrate, mentre se Q supera 1 si è prodotta più energia di quella usata per alimentare la macchina (quindi si ha un guadagno utile). Finora nessun esperimento ha però mai generato più energia di quanta sia necessaria per far funzionare il reattore stesso.
Per alimentare dei reattori si punta in particolare sull’utilizzo di deuterio (un isotopo dell’idrogeno il cui nucleo è composto da un protone e un neutrone) e trizio (un isotopo dell’idrogeno formato da un protone e due neutroni), la cui fusione genera un nucleo di elio e un neutrone libero. Questa sarebbe infatti la reazione più semplice da ottenere, inoltre il deuterio è semplice da reperire, poiché è presente in quantità significative nell'acqua di mare (30 g /m 3); il trizio, invece, è un materiale radioattivo con un tempo di decadimento di 12,36 anni, non esiste in natura in quantità significative, ma può essere generato.
Infatti, la parete dei futuri tokamak sarà ricoperta da uno strato di litio (che è reperibile in 30 parti per milione nelle rocce e negli oceani): gli atomi del litio assorbiranno i neutroni prodotti dalla fusione (i quali trasportano l'80% dell'energia prodotta), trasformandosi in trizio ed elio, che potranno venir riciclati per alimentare nuove fusioni, e generando inoltre calore, che potrà essere prodotto per attivare delle turbine al vapore e relativi generatori di elettricità, come nelle classiche centrali termoelettriche.
Affinché la reazione di fusione avvenga, però, è necessario che i nuclei si avvicinino a tal punto da superare le forze di repulsione dovute alle due cariche positive dei protoni, cosicché le forze di attrazione nucleare prevalgano. Per questo è necessario che i nuclei si trovino a 10-13 decimi di mm, quindi gli atomi devono urtarsi con velocità molto alte, cioè la loro energia cinetica (e quindi la temperatura) devono essere molto elevate, così che il gas possa passare allo stato di plasma; sono infatti necessari di circa 100 milioni di gradi centigradi (cioè più di sei volte la temperatura dell'interno del sole) e elevatissime pressioni per dar luogo ad un evento di fusione artificiale controllato.
La reazione di fusione avrà luogo all’interno di un tokamak, una struttura di forma toroidale, cioè una ciambella cava in cui sarà contenuto il plasma. Le particelle del plasma, però, si muoverebbero in modo caotico colpendo le pareti del reattore: vista la loro altissima temperatura, sarebbe un problema sia avere un materiale in grado di resisterle, sia perché toccando le pareti si raffredderebbero prima di raggiungere la temperatura necessaria. La soluzione è “semplicemente” non fargli toccare le pareti: mettendo il nucleo di fusione sottovuoto e generando attorno ad esso un intenso campo magnetico, le particelle sarebbero costrette a seguire traiettorie a spirale attorno alle linee di forza del campo ed il plasma rimarrebbe quindi in sospensione, senza toccare le pareti.
I prototipi sperimentali Joint European Torus (JET, vicino a Oxford) e ITER (International Thermonuclear Experimental Reactor, in costruzione a Cadarache in Francia) sono reattori che sfruttano appunto il principio del confinamento magnetico.
Il 21 dicembre 2021 JET ha avviato una reazione di fusione producendo 59 megajoule in cinque secondi, sostenendo un valore Q di 0,33. L'obiettivo di JET non è però produrre energia ma fungere da dimostratore e “cavia” per il progetto maggiore ITER: la produzione di energia “duratura” è infatti essenziale per studiare il comportamento del plasma al fine di sviluppare il processo futuro. Jet è inoltre dotato di un centinaio di strumenti che acquisiscono fino a 18 gigabyte di dati per ogni impulso di plasma, proprio per imparare tutto il possibile da questa esperienza scientifica. In compenso, il volume totale del plasma di JET è di 90 metri cubi, decisamente minore di quello futuro di ITER, da 840 m3.
© ITER Organization, http://www.iter.org/
Se gli ingegneri applicassero le stesse condizioni di JET a ITER, probabilmente questo raggiungerebbe un Q di 10, ossia dieci volte l'energia immessa.
La costruzione dell'installazione scientifica ITER è in corso dal 2010 mentre gli esperimenti di fusione dovrebbero iniziare nel 2025, con una fase operativa di 20 anni.
ITER è progettato per un guadagno di potenza di fusione Q ≥ 10 (cioè per 50 MW di potenza di riscaldamento iniettata, produrrà 500 MW di potenza di fusione per impulsi lunghi da 400 a 600 secondi), ma non si tratterà ancora di una centrale energetica vera e propria, ma di un altro prototipo sperimentale. Il suo successore sarà dunque DEMO, l'ultimo reattore di ricerca sulla fusione nucleare previsto per il 2050, a cui seguiranno reattori commerciali veri e propri.
L’inserimento di reattori a fusione nella rete energetica non solo risponderebbe con la loro efficienza alla crescente domanda di elettricità, ma diminuirebbe significativamente le nostre emissioni, dato che la fusione non emette sottoprodotti nocivi, anidride carbonica o altri gas serra.
Anche per quanto riguarda il rischio radioattivo, sarebbero molto più sicuri dei reattori a fissione, poiché non producono scorie nucleari ad alta attività e di lunga durata (i materiali potrebbero essere riciclati entro 100 anni, mentre il plutonio usato nei reattori a fissione necessita di 3 milioni e mezzo di anni per estinguere la sua carica radioattiva). Inoltre, se si verificassero dei problemi (come lo spegnimento dei generatori elettrici), il plasma non avrebbe più una fonte energetica e si raffredderebbe in pochi secondi interrompendo la reazione, che non potrebbe comunque continuare poiché la quantità di carburante presente è minima; dunque, non c'è rischio di una reazione a catena e relative esplosione o fusione del nocciolo.
Martina Cucchi
Fonti:https://it.wikipedia.org/wiki/Fusione_nucleare#:~:text=In%20chimica%20nucleare%20e%20in,di%20un%20nuovo%20elemento%20chimicohttp://www.fusione.enea.it/WHAT/fusion1.html.it https://www.focus.it/scienza/energia/fusione-nucleare-record-protagonisti https://www.euro-fusion.org/devices/jet/ https://www.iter.org/sci/whatisfusion https://www.iter.org/mach/Tokamak https://www.iter.org/sci/fusionfuels https://www.iter.org/sci/Fusion https://www.iter.org/machDisegni cosmici
Martina Cucchi
Galassia medusa (ESO 137-001)
Nell’ammasso di galassie Abell 3627, a circa 220 milioni di anni luce di distanza, una galassia a spirale sfreccia a 7 milioni di km/h nel mare cosmo, lasciando scie di gas e polveri luminose dietro di sé, dei “tentacoli” lunghi 400.000 anni luce
Credit:NASA/CXC/UAH/M.Sun et al; Optical: NASA, ESA, & the Hubble Heritage Team (STScI/AURA)
Galassia girino (UGC 10214)
A circa 400 milioni di anni luce dalla Terra, nella costellazione del Dragone, una galassia a spirale lascia una coda di stelle, lunga circa 280.000 anni luce, forse il residuo di uno scontro o sfioramento con un’altra galassia, che è stata scagliata via insieme a gas e polveri.
Credit: NASA
Nebulosa testa di cavallo (B33)
Nella costellazione di orione, una nube oscura galoppa a 1500 anni luce da noi: una zona particolarmente densa di polveri opache è stata casualmente modellata da campi magnetici in questa figura equina
Credit: Aldo Mottino & Carlos Colazo, OAC, C�rdoba; Hubble Legacy Archive
Nebulosa cuore (IC 1805)
E’ San Valentino nella costellazione di Cassiopea: due grosse aree apparentemente vuote all’intero di questo ammasso stellare aperto rendono la nebulosa simile ad un "cuore" di luce rossastra, emesso dall’abbondante idrogeno di cui è composta; al centro, nuove stelle sono in formazione.
Nebulosa occhio di gatto (NGC 6543)
I gatti controllano veramente l’umanità, osservandola dalla costellazione del Dragone: qui una stella morente ha espulso la sua massa in una serie di impulsi a intervalli di 1.500 anni (forse a causa dell’attività magnetica stellare o dell’influsso gravitazionale delle stelle vicine), creando vari gusci di polvere attorno a sé che assomigliano all’iride di un occhio felino, con la stella nella pupilla.
Credit: NASA, ESA, HEIC, and The Hubble Heritage Team (STScI/AURA)
Nebulosa occhio (NGC 7293)
Dalla costellazione dell’Acquario, l’universo veglia su di noi da 10 600 anni con un immenso occhio celeste, formato dalla nebulosa planetaria generata dall’espulsione degli strati di gas di una stella morente; nella brillante iride, la nana bianca risplende rendendo fluorescente il materiale intorno a lei.
Crediti: NASA, ESA, e C.R. O’Dell (Vanderbilt University)
Nebulosa rosetta (NGC 2237)
La costellazione dell’Unicorno (sì esiste) ci manda un omaggio floreale ampio 100.000 anni luce: dall’ammasso di stelle aperto NGC 2244, si diramano petali di gas a base idrogeno ionizzato che brilla di luce rossa grazie all’energia emessa dalle stelle blu che si stanno formando nel suo centro.
Credit: Adam Block & Tim Puckett
Nebulosa velo (NGC 6960)
Nella regione NGC 6960, i coloratissimi resti di una supernova si estendono per 110 anni luce; dopo esser stati soffiati via dal vento stellare prima dell’esplosione, i gas residui hanno formato delicati filamenti che continuano ad espandersi ed ondeggiare, come un sottile velo al vento.
Credit: ESA/Hubble & NASA, Z. Levay
Nebulosa fiamma
A poca distanza dalla nebulosa testa di cavallo, qualcosa va a fuoco nel complesso nebuloso di Orione, dove delle sorgenti infrarosse e radio ultracompatte ionizzano il loro disco di accrescimento, illuminandolo come una fiamma gigantesca.
Credit: Team ARO
Nebulosa aquila (M16)
All’interno della nebulosa ad emissione nella costellazione del Serpente, un’immensa aquila di idrogeno ionizzato prende il volo: composta da gas freddo e polvere, si estende per 9,5 anni luce, mentre le radiazioni delle giovani stelle nella sua metà superiore stanno illuminando ed erodendo la struttura.
Credits: NASA, ESA and the Hubble Heritage Team (STScI/AURA)
Nebulosa farfalla (NGC 6302)
Una nebulosa planetaria bipolare si libra nella costellazione di Scorpione, sbattendo ali di silicati, carbonati e ghiaccio grandi 3 anni luce. La sua stella centrale, mai osservata direttamente ma dall’eccezionale temperatura di più di 200.000 kelvin, ha espulso la sua massa formando questi due grandi lobi ricchi di addensamenti e zone fortemente ionizzate.
Credit: NASA/ESA/Hubble
Nebulosa formica (MZ3)
Nella costellazione meridionale della Norma, una mostruosa formica zampetta intorno ai resti della sua nova: nonostante la violenza con cui la stella morente abbia espulso i suoi gas, questi si sono disposti in due lobi geometrici che ricordano il corpo di un grande insetto, mentre getti orizzontali ne formano le zampe.
Credit: NASA/Space Telescope Science Institute
NUMERO 14
APRILE 2022CO2: la prima tessera del domino climatico
Il famigerato cambiamento climatico è una realtà, ma soprattutto è un fenomeno che si sta già verificando, influendo sul nostro presente e che, in mancanza di un intervento efficace e tempestivo, si intensificherà nell’immediato futuro.
Per fare chiarezza, partiamo dal celeberrimo effetto serra, che non è un processo completamente antropico e negativo. Esso è di base un fenomeno naturale indispensabile per la vita sulla Terra (senza di esso, infatti, la temperatura sarebbe di 30°C inferiore rispetto alla media attuale): la radiazione solare che colpisce il suolo viene costantemente immagazzinata dal terreno e poi nuovamente rilasciata nell’atmosfera sotto forma di calore; alcuni gas come il vapore acqueo (H2O), il biossido di carbonio (CO2), il biossido di azoto (N2O) e il metano (CH4) hanno la proprietà di trattenere la radiazione termica riemessa dal terreno (lasciando però filtrare quella luminosa), reindirizzandola parzialmente verso la superficie e conservandone una parte.
La massiccia immissione di gas serra nell’atmosfera causata dalle attività antropiche di combustione dei combustibili fossili (quali petrolio e carbone), però, ha intensificato questo fenomeno, portando ad un aumento globale delle temperature. Secondo delle misurazioni effettuate da Charles David Keeling a partire dagli anni ’50 sul monte Mauna Loa (Hawaii), la quantità di CO2 presente nell’atmosfera ha subito un aumento significativo: dalle 280 parti per milione stimate nell’età preindustriale, alle 300 parte per milione negli anni ’70, fino ad arrivare alle 415 parti per milione odierne; si è verificato dunque un aumento percentuale della CO2 del 50%.
Di conseguenza, le temperature sono aumentate globalmente di 1,1°C nell’ultimo secolo, un evento mai registrato nell’epoca dell’Olocene (ovvero il lungo periodo interglaciale di stabilità climatica iniziato circa 10.000 anni fa, che ha permesso lo sviluppo della vita umana).
Un cambiamento così marcato mette a dura prova il sistema del pianeta, basato su delicati equilibri e reazioni causa-effetto estremamente complesse e numerose, sviluppatesi in milioni di anni: una modificazione in uno dei tanti processi di autoregolazione del pianeta potrebbe innescare un effetto domino su tutti gli altri. Come scrisse Edward Lorentz nel 1972, può il battito d’ali di una farfalla in Brasile scatenare un tornado in Texas? La risposta è, purtroppo sì, ma il battito d’ali provocato dall’umanità è un’emissione di 33 miliardi di tonnellate di CO2 annue (2019).
Il primo rischio è che si inneschi un feedback positivo di riscaldamento dell’atmosfera. Una massa d’aria calda, espandendosi e aumentando l’energia delle proprie particelle, può contenere una quantità maggiore di vapore in sospensione; allo stesso tempo, il vapore d’acqua è un gas serra, che comporta dunque un riscaldamento dell’atmosfera, che ad una temperatura maggiore potrà contenere sempre più gas, innescando un processo di autoalimentazione: ecco la prima fila di tessere del nostro domino cadere rovinosamente spingendosi a vicenda, abbattendosi su di noi sotto forma di eventi climatici estremi.
Un’atmosfera più calda immagazzina infatti il calore più a lungo prima di rilasciarlo e in quantità maggiore (+7% di umidità per ogni 1°C di riscaldamento); quindi, le precipitazioni tenderanno ad essere sempre più scarse ma più intense, con alluvioni intervallate da periodi di siccità prolungati. Nell’area mediterranea e tropicale, dove il clima diventerà più arido, soprattutto in primavera ed estate, le precipitazioni diminuiranno del 20-30% (perché tenderanno a spostarsi verso i poli); in questo modo, le zone già piovose avranno ancora più precipitazioni, mentre in quelle secche la siccità sarà sempre più accentuata. Inoltre, le precipitazioni saranno sì meno frequenti, ma anche molto più intense e distruttive.
Circa il 30% dell’anidride carbonica presente in atmosfera viene assorbita dagli oceani: la CO2 si immette infatti in soluzione nell’acqua, producendo acido carbonico e ioni di carbonato e idrogeno che diminuiscono il Ph dell’acqua (l’acidità è già aumentata del 26%); questo porta a una riduzione del carbonio di cui gli organismi calcificanti, come molluschi e coralli, hanno bisogno per costruire e mantenere i loro gusci e scheletri, che potrebbero addirittura iniziare a dissolversi.
L’aumento delle temperature porta però ad altre numerose, drammatiche conseguenze: lo scioglimento dei ghiacciai, il relativo innalzamento del livello del mare, l’intensificazione dei fenomeni climatici estremi, l’aumento della frequenza degli incendi e la distruzione degli ecosistemi.
In media sono state perse 267 miliardi di tonnellate di ghiaccio all'anno, con un'impennata del 130% tra il 2000 e il 2019. Attualmente, i ghiacciai continentali stanno cedendo più acqua rispetto alle grandi calotte polari, in particolare quelli dell’Alaska e delle Ande, mentre i ghiacciai alpini detengono il primato mondiale per quanto riguarda la riduzione dello spessore medio, pari a circa un metro all'anno (-60% dall’inizio del secolo).
Le grandi calotte polari, invece, stanno accelerando molto più in fretta il ritmo di fusione: la Groenlandia dal 2000 a oggi ha aumentato la perdita di ghiaccio del 162%, mentre l'Antartide del 436%. Queste in particolare vanno infatti incontro ad un altro catastrofico punto di non ritorno…
La neve ed il ghiaccio hanno infatti una riflettività (albedo) dell’80% che riflette la maggior parte della radiazione solare che li colpisce; se il ghiaccio si ritira, però, la crescente porzione di terreno o acqua scoperta assorbirà più radiazione termica, che verrà a sua volta trasmessa all’atmosfera; questa sì riscalderà ulteriormente, fondendo più ghiaccio e lasciando esposta una superficie di terreno continuamente maggiore, che incrementerà sempre di più la quantità di calore ricevuta, innescando un processo di autoalimentazione. Questo è uno dei motivi per cui le zone polari si stanno riscaldando più velocemente rispetto al resto del globo.
La Groenlandia, che aveva accumulato nei millenni uno strato di 3km di ghiaccio, sta attualmente perdendo 10.000 metri cubi di ghiaccio al secondo: il punto di non ritorno per la penisola è stato già superato e il futuro scioglimento totale dei ghiacci è purtroppo una realtà quasi certa. Al di là della perdita di questo ambiente unico, quali rischi comporta nel concreto?
Il livello del mare sta già aumentando di 3,5 mm l’anno (+26 cm complessivamente), numero che crescerà relativamente allo scioglimento dei ghiacciai (+7 m per la Groenlandia e +55m dalla completa fusione dell’Antartide). Nell’immediato, l’11% della popolazione mondiale abita in zone costiere che rischiano di essere sommerse, inoltre con l’aumentare delle alte maree e dell’intrusione delle acque marine nelle zone costiere, l’acqua salata penetrerà nel terreno riducendone la fertilità (come sta accadendo sul delta del Nilo) e contaminando le falde acquifere.
Un altro problema è la modificazione delle correnti oceaniche: il sistema della Corrente del Golfo dell’Oceano Atlantico ha raggiunto i suoi minimi storici in oltre mille anni, con una diminuzione del 15%, a causa dell’eccessiva affluenza d’acqua dolce nel Nord Atlantico (proveniente dalle precipitazioni nel Nord America e dai ghiacciai) che diminuisce il livello di salinità delle acque superficiali provenienti da sud. Questo altera i normali cicli climatici, causando periodi di siccità più lunghi, interrotti da improvvise e violente piogge. Inoltre, l’accumulo di acqua dolce negli strati superficiali potrebbe limitare la produzione di fitoplancton e dunque anche la quantità di flora ittica.
Inoltre, i poli, naturalmente più freddi, riscaldano normalmente l’aria calda proveniente dalle latitudini più basse, che una volta raffreddata diviene più pesante e ridiscende verso l’Equatore. Con il riscaldamento delle calotte artiche questo meccanismo di circolazione atmosferica potrebbe venir meno, contribuendo alle già citate alterazioni meteorologiche.
I grandi alleati del pianeta per lo smaltimento dell’anidride carbonica sono da sempre le piante. Le foreste coprono il 31% delle terre emerse del pianeta (3,9 miliardi di ettari) e, grazie a processi come la fotosintesi clorofilliana, assorbono 11,6 Gt di CO2 all'anno, mentre producono oltre il 40% dell’ossigeno atmosferico; inoltre, sono habitat per l’80% della biodiversità terrestre. Si tratta di un meccanismo di regolazione e scambio ben orchestrato che ha garantito la sopravvivenza della vita per migliaia di anni.
Oggi, quasi la metà della superficie forestale, però, non esiste più: si stima che dei 6.000 miliardi di alberi presenti all’inizio della rivoluzione agricola, oggi ne restino solo 3.000 miliardi. Negli ultimi 30 anni, infatti, sono stati deforestati 420 milioni di ettari di terreno, gran parte dei quali in aree tropicali. La deforestazione tropicale oggi distrugge 13 milioni di ettari all’anno, di cui 10 milioni vengono impiegati per usi agricoli (in particolare pascoli, piantagioni di soia e olio di palma) e contribuisce al 13% del totale delle emissioni di gas serra (5,3 miliardi di CO2). Il più grande polmone verde del pianeta, la foresta pluviale amazzonica, sta rilasciato nell'atmosfera il 20% in più di anidride carbonica di quanta ne abbia assorbita negli ultimi dieci anni: dal 2010 al 2019 il bacino amazzonico brasiliano ha emesso 16,6 miliardi di tonnellate di CO2 mentre ne ha assorbite solo 13,9 tonnellate. Superata la distruzione del 25% dell’ecosistema amazzonico, la foresta non sarà infatti più̀ in grado di svolgere le sue funzioni ecologiche e potrebbe arrivare al collasso, lasciando dietro di sé erosione, siccità̀ e aride savane; già il 40% della sua superficie è interessata dalla savanizzazione, cioè la diminuzione della densità della copertura arboricola (fondamentale per trattenere l’umidità e regolare il ciclo idrologico locale) in favore della formazione di ampie distese di erba, simili per caratteristiche e stagioni a quelle africane.
Infine, la combinazione di deforestazione - spesso legata a pratiche illegali -, agricoltura intensiva, zootecnia e cambiamenti climatici, sfocia nell’aumento esponenziale degli incendi, che stanno minacciando globalmente 265 specie animali e vegetali a rischio.
Da giugno 2019 a febbraio 2020, l’Australia è stata colpita da più di 15.000 roghi, che hanno incenerito 19 milioni di ettari, rilasciando in atmosfera 900 milioni di tonnellate di anidride carbonica, uccidendo 3 miliardi di vertebrati ed eliminando quasi totalmente gli habitat di ben 191 specie minacciate.
Anche in questi due casi, dunque, la natura stessa sta amplificando esponenzialmente le emissioni di anidride carbonica, a causa degli effetti estesi del riscaldamento globale causato dalla CO2 stessa. Il quadro è ormai sconvolgentemente chiaro: dopo la nostra spinta iniziale, file e file delle tessere del nostro domino climatico planetario continuano a cadere inesorabilmente le une sulle altre, spingendo a loro volta altre catene che crollano sempre più velocemente; i capi di tutti i filari staranno già oscillando pericolosamente e, una volta caduti, non sarà più possibile rimetterli in piedi, né arrestare il crollo di tutte le tessere davanti a loro. Vogliamo rimanere impotenti a guardare la Terra autodistruggersi? O meglio, distruggere noi: il pianeta ha già attraversato cinque estinzioni di massa, la scomparsa dell’umanità sarebbe solo una sesta rivoluzione per esso. Nel corso di numerosi trattati, ultimo dei quali l’accordo di Parigi, è stato calcolato che il sistema non potrebbe sopportare un aumento di 1,5° C a livello globale: siamo già arrivati a 1,1°C, il margine che ci rimane è di appena 0,4°C; come possiamo non superarlo?
Per trovare una soluzione, analizziamo separatamente alcune delle cause principali di emissioni…
L'agricoltura produce circa il 20% delle emissioni di Co2. È comprensibile pensare che questo dato sia “lecito”, dato che sembra essere necessario alla nostra alimentazione, ma l’agricoltura intensiva è ormai eccessiva, non abbiamo davvero bisogno di tutto questo cibo: ogni anno nel mondo viene sprecato infatti quasi 1 miliardo di tonnellate di cibo (17% di tutto quello prodotto). L’iperproduzione, infatti, è volta più a soddisfare il mercato e la finanza che i nostri reali bisogni alimentari. L’allevamento da solo libera 9,69 miliardi di tonnellate di CO2. Consideriamo che il consumo medio annuo nei paesi sviluppati di carne è pari a 77 kg pro-capite, mentre il consumo consigliato sarebbe di massimo 100 gr al giorno, ovvero 36,5 kg all’anno: globalmente, mangiamo quindi più del doppio della carne che dovremmo; una semplice correzione nella dieta, oltre che a giovare alla nostra salute, ridurrebbe di più di 4,5 miliardi le emissioni di CO2 mondiali.
Nel 2018, i trasporti hanno costituito il 25 % delle emissioni di gas a effetto serra nell’UE, di cui 72% dal trasporto su strada. Ipotizzando che annualmente si percorrono circa 20.000km in auto, si possono emettere oltre 100 g di Co2 per km, anche con automobili moderne come la Renault Megane, la Toyota CH-R e la FIAT 500l, gravando di 2000kg annui sul monte delle emissioni. Scegliendo di acquistare auto a emissioni ridotte (per il cui acquisto sono presenti vari incentivi e sgravi dal bollo) è però possibile ridurre notevolmente questa cifra, fino ad azzerarla grazie alle auto elettriche. Banalmente, quando è possibile è sempre preferibile spostarsi a piedi o in bici o usufruire utopicamente dei mezzi pubblici: ogni km in meno alla guida sono fino a 100g in meno di CO2 nell’ambiente!
Anche se l’elettrico ha formalmente 0 emissioni, comunque, questa energia va comunque prodotta: i combustibili fossili soddisfano ancora circa il 75% del fabbisogno energetico mondiale, con le loro relative 34,4 miliardi di tonnellate di co2 annue (60% del totale). Le fonti di energia rinnovabili, quali eolico, fotovoltaico e idroelettrico, sono però in rapida crescita: anche se rappresentano solo il 26% della produzione mondiale, hanno subìto una forte crescita del 18% negli ultimi due anni, diventando anche economicamente sempre più convenienti ; ricordiamo anche che la Commissione europea il 13 maggio 2019 ha indicato che entro il 2030 il 32% dell’energia prodotta dai singoli Stati dovrà derivare da fonti rinnovabili.
Inoltre, si stima che il 60% dell’energia venga sprecata, dunque è necessario massimizzare l’efficienza energetica. Sarebbe perciò utile sostituire elettrodomestici e impianti di illuminazioni con modelli più recenti e di classe energetica superiore, così come curare le coperture termiche degli edifici per minimizzare la perdita di calore e dunque l’uso delle caldaie. Per esempio, un frigorifero di classe A+++ consuma in un anno 180 KWh, ma uno di classe G può superare anche i 700kWh, gravando anche sulla bolletta; per 500 ore di attività̀ una lampadina a led consuma 3 kWh (90% in meno rispetto a quelle classiche).
Infine, nel 2020 sono state prodotte 2,24 miliardi di tonnellate di rifiuti, ma solo il 15% della plastica viene riciclata. Come nel caso dell’agricoltura, il 20% delle emissioni proviene dal settore industriale, la cui produzione si sta però rendendo sovrabbondante, inutile. Pensiamo dunque a cosa e quanto compriamo, impegnandoci a non acquistare troppi oggetti superflui ma a sfruttare al meglio quelli che già possediamo, avendo cura di smaltirli adeguatamente alla fine della loro vita per contribuire all’avviamento di un’economia circolare e sostenibile.
Sebbene leggendoli tutti insieme possono sembrare impegni numerosi e gravosi, se vengono introdotti uno alla volta nelle nostre vite diverranno presto abitudini quotidiane. Ogni volta che faremo una piccola rinuncia, ad usare l’automobile o a comprare qualcosa di superfluo, ricordiamo che non è a favore di una causa astratta, ma nel nostro interesse presente e di quello delle generazioni future..
Martina Cucchi
Fonti:Documentario “Superare i limiti: la scienza del nostro pianeta”, 2021L'agricoltura.Da allevamenti e colture 17 miliardi di tonnellate di CO2 - Terra & Poli - ANSA.it.La carne: un alimento fondamentale in continua evoluzione.conferenza del prof. Filippo Giorgi “Cambiamenti climatici: evidenze scientifiche, rischi e opportunità di mitigazione” nell’ambito del progetto “Costruire il futuro” della Fondazione Bruno Kesslerhttps://sinacloud.isprambiente.it/portal/apps/webappviewer/index.html?id=a38bab6b0aee4464ade50d6cbe2e3bbcESA - Satellites highlight a 30-year rise in ocean acidificationL'intensità della Corrente del Golfo mai così debole da oltre un millennio - Le ScienzeCorrente del Golfo mai così fredda negli ultimi mille anni, lo studio: "Europa a rischio, punto di non ritorno più vicino" - Il Fatto QuotidianoClima, lo scioglimento dei ghiacciai accelerato negli ultimi 20 anni - Terra & Poli - ANSA.itAntartide, a rischio un terzo delle piattaforme di ghiaccio - Terra & Poli - ANSA.itProgetto Fire response in Amazzonia | WWF ItaliaPubblicazioni - WWF ItaliaUn mondo di CO₂Obiettivo 13: Promuovere azioni, a tutti i livelli, per combattere il cambiamento climatico - ONU ItaliaInquinamento atmosferico — Agenzia europea dell'ambientehttps://www.eea.europa.eu/data-and-maps/indicators/#c0=30&c12-operator=or&b_start=0Il colore degli occhi
Una delle parti più affascinanti del corpo umano sono sicuramente gli occhi e, quindi, il loro colore; anche se abbiamo tonalità simili, la concentrazione del colore può cambiare molto e rende infatti unico ognuno di noi.
I nostri occhi possono essere di vari colori come grigi, verdi, nocciola, ambra, azzurri e molti altri, per questo qualcuno dice che rispecchiano e ci dicono la nostra e la personalità degli altri.
Una grande parte delle persone del mondo ha gli occhi di colore marrone (circa l’80%), il secondo colore degli occhi più diffuso sul nostro pianeta è l’azzurro (circa il 10% delle persone infatti ha gli occhi di questo colore) , la tonalità di arancione dell’ambra e il colore del nocciola caratterizzano il 5% della popolazione ognuno, mentre il colore più raro degli occhi è il verde che si vede negli occhi di circa il 2% delle persone.
Ma partiamo dal principio, da cosa dipende il colore degli occhi?
Dipende dalle informazioni genetiche trasmesse dai genitori; attraverso geni già noti coinvolti nella pigmentazione della melanina e nella struttura e morfologia dell’iride, da fattori ambientali quali la latitudine e l’area geografica dalla quale si proviene, inoltre anche dalla distribuzione della pigmentazione nell'iride, che influisce sul modo in cui la luce si diffonde quando passa attraverso gli occhi.
L’occhio è composto da molte parti tra cui l’iride, la parte colorata; questa è una membrana sottile e di forma circolare che controlla l’apertura della pupilla; contiene anche la melanina, prodotta dai geni, che in grande presenza da agli occhi il colore marrone, quando è presente in quantità differente gli occhi avranno poi diverse sfumature e colori.
Inoltre quando dai nostri genitori ereditiamo il colore degli occhi di un certo tipo questo prevarrà rispetto agli altri colori.
Nel mondo ci sono persone che hanno il colore dei propri occhi differente, questa particolarità è chiamata eterocromia, Una particolarità degli occhi che hanno solo poche persone è l’eterocromia, in cui il colore delle iridi è diverso, in alcune persone si vede molto bene perché hanno gli occhi di due colori differenti mentre in altri potrebbe esserci solo una leggera differenza e solitamente si eredita dai genitori.
Questo succede sempre a causa della melanina perché più concentrata in un occhio che nell' altro.
Inoltre il colore degli occhi inoltre può cambiare: fa parte dell’iride anche un muscolo che si dilata e si contrae per controllare le dimensioni della pupilla.
Quando la luce intorno a noi è debole le dimensioni della pupilla diventano maggiori mentre quando intorno a noi abbiamo una forte illuminazione la pupilla diventa più piccola. Si restringe anche quando si guarda attentamente oggetti vicini mentre più lontani la sua grandezza rimane la stessa.
Al variare delle dimensioni della pupilla anche il colore dell’iride cambia di poco.
Altri cambiamenti del colore degli occhi avvengono quando proviamo delle emozioni, la pupilla si ingrandisce o restringe e il colore dell’iride varia di poco. Soprattutto per le persone con gli occhi più chiari anche l’età può cambiare il colore degli occhi di queste persone ma questo non succede a tutti.
E voi sapevate queste particolarità del colore degli occhi?
Thomas Tedesco
Fonti:allaboutvision.commy-personaltrainer.itvisiondirect.itstileitalianoocchiali.comPiù veloci della luce
(con la fantasia)
(con la fantasia)
Tutti hanno sognato almeno una volta di poter essere più veloci della luce, per visitare stelle lontane o semplicemente essere un lampo nella vita quotidiana; purtroppo, nessuno ci è mai riuscito e la fisica sostiene, come molti hanno spesso sentito, che nulla potrà mai.
La velocità della luce è infatti una costante fondamentale delle leggi fisiche, indicata con c (da celeritas, velocità in latino) e dal valore di 299.792,458 chilometri al secondo (misurata nel vuoto). Secondo le leggi di Maxwell, questo valore è sempre il medesimo, indipendentemente dalla direzione, dal verso e dalla fonte luminosa: la stessa frequenza di radiazione elettromagnetica emessa da una stella o da una supernova avrà la stessa velocità di quella riflessa da un oggetto o generata da una lampadina. Fino ad oggi, non è stata scoperta nessuna particella in grado di superare la velocità c ed è dunque risaputo che la luce è l’elemento più veloce del nostro Universo.
Ma perché?
Supponiamo, tralasciando le difficoltà tecniche, di voler accelerare un oggetto oltre la velocità c: secondo la formula classica, l’energia cinetica necessaria ad accelerare un oggetto fino ad una certa velocità è data dalla metà del prodotto fra la velocità e la massa dell’oggetto (m x v :2). ipotizzando quindi di voler portare alla velocità della luce un grammo di materia, basterebbe usare 12.500.000 kWh (1 x c2 :2), che, anche se è un’energia elevata, non incontra alcuna contraddizione matematica; a questo punto, nulla ci vieterebbe di portarlo ad una velocità superiore di c, semplicemente fornendo più energia.
Questa formula, però, anche se comunque adatta a calcoli approssimati per le situazioni quotidiane (che trattano velocità molto minori di c), non è corretta e va rimpiazzata con quella scoperta da Einstein, secondo cui l’energia totale di un corpo in movimento è data dal prodotto fra la sua massa, il quadrato della velocità della luce e il fattore di Lorentz corrispondente alla velocità a cui vogliamo portare il corpo (m x c2 x y). Il fattore di Lorentz, indicato con y e derivante dalle leggi di trasformazione di questo matematico, cresce con la velocità dell’oggetto: per velocità quotidiane, è praticamente uguale ad uno (a 1000km/h vale appena 1,00000000000043), quindi influisce in modo impercettibile sulla nostra formula; più la velocità aumenta, però, più il fattore di Lorentz cresce con essa, in un grafico a parabola che, arrivati a 300.000 km/s, punta verticalmente verso l’alto, parallelo all’asse delle ordinate: per c, y assume perciò valore tendente a più infinito e non è perciò possibile fornire infinita energia ad un oggetto. Ecco come c si presenta di nuovo come una barriera invalicabile.
Se le dimostrazioni matematiche non vi avessero ancora convinto, analizziamo un caso pratico di relatività. Immaginate di trovarvi seduti al centro di un vagone di un treno in viaggio: siete fermi rispetto al vostro sedile o al trasporto nella sua complessità, ma vi state comunque muovendo rispetto alla terra con la velocità del vostro mezzo.
Se lanciaste una pallina mentre siete seduti al vostro sedile con una velocità di 2 m/s, la sua velocità rispetto a voi e al sedile sarebbe sì di 2 m/s, ma rispetto ad un sistema di riferimento esterno, per esempio un amico che vi guarda dalla banchina, la velocità della pallina sarebbe data dalla somma di quella del treno e dei vostri passi, quindi andrebbe complessivamente più veloce di 2m/s.
Ora, anziché lanciare un oggetto, immaginate di sparare un piccolo raggio di luce verso la parete della cabina: potreste aspettarvi che anche in questo caso, rispetto ad un sistema di riferimento esterno, la sua velocità sia maggiore di c, perchè andrebbe sommata a quella del treno, ma non è così; la luce infatti manterrebbe la sua velocità costante di 300.000km/s indipendentemente dal sistema di riferimento, non potrebbe accelerare insieme al vagone.
Infatti, se ripetete la prova, ponendovi esattamente al centro del vagone, mandano un fascio luminoso A verso la direzione in cui si trova il treno e un fascio di luce B in verso opposto (quindi all’indietro rispetto al moto del treno), secondo un osservatore esterno, B arriverebbe alla parete della carrozza prima di A: questo perché B ed A manterranno sempre velocità c, ma il vagone è in movimento, quindi la parete di fondo si sposterà “andando contro” il raggio B (che la raggiungerà in un tempo minore) mentre quella davanti a voi si allontanerà dal punto in cui i raggi sono stati inviati e il fascio A dovrà quindi “rincorrerla” (arrivando dopo). Non c’è modo di aumentare la velocità della luce.
Anche se banalmente accendessi una torcia nella direzione in cui cammino, o una stella mandasse raggi di luce nella direzione verso la quale sta ruotando, quella luce avrebbe sempre la stessa velocità, anche se la sua fonte si muove.
Inoltre, superare c non infrangerebbe solamente delle regole matematiche, ma creerebbe anche dei veri e propri paradossi… Ipotizziamo di avere un mezzo capace di comunicare un messaggio a velocità infinita (ma si verificherebbe un caso analogo anche per velocità leggermente superiori a c) e di voler inviare un messaggio a un’astronave in moto rispetto alla Terra: l’invio del messaggio da terra e la ricezione dall’astronave sarebbero dunque simultanei. Se dall’astronave ci rispondessero immediatamente, però, sempre inviando il messaggio a velocità infinita, questo sarebbe rappresentato nel grafico spaziotempo da un segmento parallelo all’asse dello spazio dell’astronave in movimento (che è inclinato rispetto a quello del sistema di riferimento della terra) e il messaggio di risposta ci raggiungerebbe perciò nel passato, prima del primo invio. Per come conosciamo la realtà, non avrebbe senso, ma è perfettamente in linea con le teorie fisiche moderne.
Dunque, non possiamo fare altro che rassegnarci a viaggiare più lentamente di 300.000km/s. L’unica cosa più veloce della luce è però la fantasia: da sempre la fantascienza ha escogitato (o sfruttato) scappatoie per superare l’ostacolo delle distanze interstellare e delle velocità limitate, fornendo idee interessanti anche dal punto di vista teorico-scientifico.
Una prima ipotesi, proposta nel 1967 dal fisico Gerald Feinbergh furono i tachioni: particelle aventi una massa “immaginaria” (cioè un numero con quadrato negativo) la cui velocità aumenta al diminuire dell’energia; queste particelle immaginarie potrebbero viaggiare dunque solo a velocità iperluminari e, secondo quanto spiegato prima col grafico, trasmettere messaggi nel passato. Purtroppo, a meno che voi non siate il dottor Wells di The Flash, non abbiamo idea di come creare particelle del genere, sempre ammesso che la loro esistenza sia possibile, dato che ad oggi non ne esiste evidenza.
Ispirandosi alla serie fantascientifica di Star Trek, nel 1994 il fisico teorico Miguel Alcubierre pubblicò un articolo (The Warp Drive: Hyper-fast travel within general relativity, da Classical and Quantum Gravity), al tempo piuttosto popolare, dimostrando con le formule di Einstein come il principio di funzionamento di un motore a curvatura simile a quello immaginario dell’Enterprise sia teoricamente possibile. Il nostro obiettivo principale, non è tanto viaggiare velocemente, ma impiegare un breve tempo per coprire grandi distanze e secondo questo ragionamento, le due cose non sono necessariamente collegate. Secondo la relatività generale lo spazio viene curvato dalla presenza di massa: più la massa è consistente, più la deformazione è maggiore; nulla vieta quindi che lo spazio venga deformato fino a far allontanare o avvicinare due punti a velocità superiori di c (è quello che succede infatti nei buchi neri, dove lo stiramento dello spazio è superiore a c e dunque la luce non riesce a fuggire). Immaginando di avere un ipotetico congegno capace di manipolare questa proprietà dello spazio, alterandone la geometria, si potrebbe pensare di espandere lo spazio davanti a noi e contrarre quello dietro, mantenendo invece la “bolla” in cui viaggiamo inalterata: sostanzialmente, ridurremo la distanza da percorrere; quindi, anche viaggiando più lentamente di c, potremmo comunque coprire distanze immense in relativamente poco tempo. Sebbene le dimostrazioni pubblicate da Alcubierre dimostrino come questo sia matematicamente e teoricamente possibile, nessuno ha idea di come creare un congegno come questo: per modellare così lo spazio avremmo bisogno forse di sconosciuta materia con massa negativa, o quantità enormi di energia; inoltre, la bolla in cui la nostra astronave immaginaria dovrebbe viaggiare sarebbe isolata dal resto dell’Universo, incapace perciò di cambiare rotta o comunicare con l’esterno. Anche in questo caso, perciò, le nostre idee non lascerebbero lo spazioporto.
La dilatazione dello spazio-tempo (un fenomeno esistente, previsto dalla relatività e provato molteplici volte) ci viene però in aiuto per un altro viaggio immaginario: l’astronave relativistica. Ipotizziamo di avere un razzo capace di un'accelerazione costante di 9,8m/s (ovvero g, l’accelerazione gravitazionale della terra): anche se è un’accelerazione piuttosto bassa, in un anno di viaggio porterebbe comunque l’astronave al 70% della velocità della luce e soprattutto, creerebbe un sistema di riferimento inerziale fra la Terra e sé stesso, perciò gli astronauti a bordo dell’astronave percepirebbero il tempo scorrere più lentamente rispetto a chi è sulla Terra, mentre il loro spazio si contrarrebbe (in pratica, per i viaggiatori passerebbe meno tempo rispetto a come scorre sul nostro pianeta). Anche se questo concetto sembra piuttosto contradditorio, si tratta di un fenomeno che si verifica per qualsiasi corpo in movimento, ma essendo legato al fattore di Lorentz (citato in precedenza), è impossibile da percepire nell’esperienza comune: la dilatazione del tempo di un oggetto in movimento rispetto ad un sistema di riferimento considerato in quiete è data dal tempo misurato nel sistema di riferimento diviso il fattore di Lorentz della velocità (dividendo per circa 1 con velocità quotidiana, il risultato è pressoché identico al dividendo). Aumentando la velocità, però, ha effetti significativi: per gli occupanti di un’astronave in viaggio in questo modo verso Proxima Centauri (a 4,3 anni luce dalla Terra), fra la partenza e l’arrivo trascorrerebbero solo 7,3 anni, mentre per chi sta a terra ne sarebbero passati 8,4 (l’astronave avrebbe un fattore di Lorentz y=1,15).
Accrescendo la distanza da percorrere, si aumenterebbe esponenzialmente anche il “tempo risparmiato”: per raggiungere Vega (a 27 anni luce) si percepirebbero solo 6,6 anni di viaggio stando a bordo dell’astronave, per arrivare al centro della Via Lattea (30.000 anni luce di distanza) appena 20 anni e solamente 28 anni per raggiungere la galassia di Andromeda (a 2.000.000 di anni luce da noi); è evidente come quindi ci si sposterebbe apparentemente più velocemente della luce. Evidentemente, però, non disponiamo neanche lontanamente di tecnologie che permettano di costruire un’astronave del genere e i problemi sarebbero innumerevoli e attualmente insormontabili, dalla sopravvivenza dell’equipaggio, alla propulsione e al fatto che l’ipotetica astronave si troverebbe temporalmente isolata dal resto dell’Universo (dato che altrove il tempo scorrerebbe normalmente).
Infine, un’ipotesi molto azzardata e poco plausibile, ma sfruttata nella grande maggioranza dei film di fantascienza, è l’esistenza di una sorta di quinta dimensione aggiuntiva attraverso la quale potrebbe essere possibile muoversi istantaneamente nello spazio fisico che conosciamo attraverso portali: sebbene sia uno scenario largamente sfruttato da Hollywood, dall’iperspazio di Star Wars ai wormhole di Interstellar, non esistono prove scientifiche di un fenomeno simile, né tantomeno motivazioni plausibili per cui dovrebbe esistere.
In conclusione, per le nostre conoscenze tecniche e scientifiche attuali, esplorare lo spazio è ancora un sogno impossibile, confinato alla fantascienza. Ci lascia però uno spiraglio per sognare il fatto che, comunque, la relatività ammette la possibilità dell’esistenza di alcuni dei metodi sfruttati dalla fantascienza per viaggiare nel cosmo, almeno dal punto di vista teorico. Forse non potremo mai esplorare le stelle, forse le teorie fisiche non sono sufficienti e non lo saranno mai, ma è anche vero che per i nostri antenati volare sembrava un’utopia, mentre oggi centinaia di aerei attraversano i nostri cieli ogni giorno. Nulla ci vieta perciò di lasciarci guidare dall’immaginazione per esplorare lo spazio almeno con la fantasia, e non si può mai sapere che da un’intuizione creativa nata per scherzo nasca, un giorno, l’ispirazione per una futura teoria scientifica fondata.
Martina Cucchi
Fonti:“Inseguendo un raggio di luce” di Amedeo Balbi, Rizzoli 2021Perché non si può superare la velocità della luce?, https://www.youtube.com/watch?v=DlyG1WpfJaM Il motore a curvatura di Star Trek: come potrebbe funzionare? Il Warp Drive di Alcubierre, https://www.youtube.com/watch?v=81J4xIBpzQo L'astronave relativistica e la dilatazione dei tempi, https://www.youtube.com/watch?v=xnSiFJU_rNc&t=556s
Immagini:https://cdn.pixabay.com/photo/2016/04/21/14/11/millennium-falcon-1343464_960_720.jpg https://pixabay.com/it/photos/sfondo-spazio-desktop-universo-3584229/ https://cdn.pixabay.com/photo/2021/03/05/02/57/space-6070086_960_720.jpg https://cdn.pixabay.com/photo/2015/10/16/16/22/formula-991432_960_720.jpg https://upload.wikimedia.org/wikipedia/commons/thumb/0/00/Lorentz_factor.svg/800px-Lorentz_factor.svg.png
NUMERO 13
FEBBRAIO 2022Lenti verso il cielo: da Galileo al JWST,
400 anni di telescopi
400 anni di telescopi
Correva l’anno 1609 quando Galileo Galilei puntò per la prima volta il suo perspicillum verso il cielo notturno di Venezia, e da quella notte la nostra visione dell’Universo non fu più la stessa: corpi celesti lontanissimi e irraggiungibili sembravano ora ingranditi e prossimi a noi, quasi a portata di mano, o meglio di occhio; sarebbe bastato uno sguardo per scoprire mondi alieni ed esplorare paesaggi lunari, miniere di nuova scienza e conoscenze: l’occorrente erano due sole lenti di vetro e l’innata curiosità umana per l’ignoto. Si trattava infatti di uno strumento elementare, ma rivoluzionario: una semplice coppia di lenti in vetro (un obiettivo biconvesso, convergente, e un oculare biconcavo, divergente), posta alle estremità di un tubo, permetteva di raccogliere e incanalare verso l’occhio dell’osservatore la luce proveniente dagli astri, rendendoli “quasi mille volte maggiori e più di trenta volte vicini”. Grazie al suo cannocchiale rifrattore, Galileo si rese conto che la Luna presenta crateri, valli e rilievi, che sul disco solare comparivano periodicamente delle macchie scure e che Saturno era circondato da un sistema di anelli. Decisiva fu la scoperta dei “satelliti Medicei”, 4 lune di Giove, che misero nuovamente in discussione il sistema geocentrico: se era possibile che degli oggetti celesti orbitassero attorno a qualcosa che non fosse il nostro pianeta, allora si apriva la possibilità che anche la Terra stessa ruotasse appunto intorno ad un altro corpo maggiore, il Sole, come sappiamo con certezza oggi.
Per secoli gli astronomi continuarono ad utilizzare e migliorare questo strumento incredibile, spinti sempre dalla stessa, naturale necessità: osservare il cielo, le stelle e i pianeti, e farlo con precisione sempre maggiore. Continuò così la corsa verso obiettivi sempre più grandi, lenti con superfici sempre più estese per raccogliere la maggior quantità di luce possibile, queste dimensioni e peso è però tecnicamente problematica, inoltre esse permettono di osservare aree relativamente limitate e fanno apparire i bordi degli oggetti appaiono sfocati e di colori diversi.
Il tedesco Johannes Kepler (1571-1630) realizzò a sua volta uno strumento simile dotato di due lenti convergenti, denominato telescopio astronomico, con cui effettuò misurazioni a sostegno del modello copernicano e alla base delle sue tre leggi sul moto dei pianeti.
L’inglese Isaac Newton (1642-1726) combinò alle proprietà delle lenti quelle degli specchi, sfruttando uno specchio metallico concavo per convergere la luce stellare verso uno specchio piano, sul quale si formava dunque l’immagine, visibile per l’osservatore: era nato così il telescopio riflettore, di costruzione più semplice rispetto a quello rifrattore.
Essendo la costruzione di lenti e specchi “monolitici”, cioè formati da un unico blocco, comunque tecnicamente complessa e perciò limitata, negli anni si è optato per telescopi formati da tanti piccoli specchi affiancati, che funzionano però come un pezzo unico, detti perciò “a specchi multipli”; ne è un esempio il Gran Telescopio Canarias il cui specchio dal diametro di 10,4m (attualmente il più grande del mondo) è composto da 36 segmenti.
Un’altra soluzione per aumentare l’area di raccolta della luce è l’affiancamento di più telescopi, dotati di specchi distinti, coordinandoli fra loro affinchè lavorino come un unico strumento, come avviene per gli 8 telescopi del Very Large Telescope dell’ESO, sul monte Paranal, attivato nel 1999.
Inoltre, i moderni telescopi analizzano la luce raccolta con camere e spettrografi con diverse risoluzioni spettrali, che permettono di focalizzarsi su determinate lunghezze d’onda, dato che i vari tipi di onde elettromagnetiche hanno caratteristiche diverse a seconda di come sono prodotte e come interagiscono con la materia.
Al di là delle dimensioni degli specchi, però, si pone un altro problema: l’atmosfera terrestre distorce le immagini, anche se è possibile però far fronte a ciò con sistemi di ottica adattiva che compensino queste distorsioni. Per di più, l’inquinamento luminoso, cioè la luce delle città, disturba le osservazioni astronomiche, mentre una parte delle radiazioni elettromagnetiche emesse dai corpi celesti viene assorbita dall’atmosfera stessa, che ci impedisce perciò di osservare alcuni oggetti.
L’atmosfera, così preziosa ed indispensabile per la vita, rappresenta in questo caso una barriera insormontabile. L’unica soluzione sembrerebbe svolgere le nostre osservazioni in un luogo privo di atmosfera: lo spazio. Si è aperta così l’era dei telescopi spaziali, che sfruttano i medesimi principi degli specchi di quelli utilizzati sulla terra, ma operando in orbita intorno al pianeta.
Il primo telescopio spaziale funzionante fu l’americano Orbiting Astronomical Observatory 2: lanciato nel 1968 e in funzione fino al febbraio 1973, catturò circa 8500 immagini, osservando le corone delle comete, lo spazio interstellare e più di 1200 stelle nelle frequenze ultraviolette.
Il telescopio spaziale più famoso, longevo e produttivo è però l’Hubble Space Telescope, frutto di una cooperazione fra NASA ed ESA e nominato in onore dell’astronomo statunitense Edwin Hubble. Portato in orbita terrestre bassa (a circa 547km di altitudine) dallo Space Shuttle Discovery nel 1990, la sua banda di osservazione spazia dall'ultravioletto, attraverso il visibile e nel vicino infrarosso. Inizialmente, però, le immagini ottenute da Hubble risultavano sfocate, poiché il suo specchio presentava una sottilissima differenza di spessore, che diffondeva erroneamente la luce catturata; fortunatamente, nel 1993 l’equipaggio dello shuttle Endeavour installò manualmente dei sistemi di correzione ottica per annullare questo errore, così che le immagini ottenute fossero nitide come progettato.
Il telescopio Hubble è dotato di uno specchio primario da 2,4m, che riflette la radiazione che lo colpisce sullo specchio secondario, il quale a sua volta la invia ai 5 strumenti scientifici posizionati al di là di un piccolo foro al centro dello specchio maggiore, perché possa essere analizzata e convertita in dati da inviare a terra. Hubble osserva le diverse lunghezze d’onda una alla volta, per poi combinarle in un’unica figura (per esempio, le immagini infrarosse rivelano più stelle, dato che la radiazione infrarossa attraversa con più facilità la polvere e i gas, che invece bloccano la luce blu visibile). Successivamente vengono utilizzati filtri colorati sulle immagini grigie, per evidenziare le caratteristiche di ciascuna lunghezza d’onda e mostrare, ad esempio, la posizione di elementi chimici.
Nei suoi oltre 30 anni di attività, Hubble ha effettuato più di 1,4 milioni di osservazioni. Particolarmente sorprendenti sono gli “Hubble deep fields”, immagini di porzioni di cielo ottenute con una lunga esposizione, che riescono a raccogliere perciò anche la luce di stelle e galassie più lontane e/o meno luminose. La prima, risalente al 1996, ha rivelato ben 3000 astri in una piccola porzione di cielo, creduta fino allora vuota. Le successive hanno rivelato un Universo popolato da miliardi di galassie e visioni mozzafiato. Queste immagini sorprendenti non hanno stimolato solo la ricerca scientifica, ma anche donato una nuova dimensione all’immaginario collettivo e permesso a sempre più persone di rimanere affascinate dalla bellezza del cosmo.
Guardare più lontano vuol dire però anche guardare indietro nel tempo: più le distanze fra i corpi celesti sono grandi, più tempo la luce da loro emessa impiega per raggiungerci; ciò che osserviamo sono quindi immagini inviate anche milioni di anni fa, che mostrano la struttura delle galassie più antiche, caratterizzate da forme irregolari. La luce delle prime galassie, infatti, ha viaggiato per circa 13,6 miliardi di anni prima di giungere a noi.
Hubble, appunto, ha contribuito anche alla cosmologia: uno dei suoi principali obiettivi è stato determinare la costante di Hubble, un valore necessario per stabilire la velocità con cui le galassie si allontanano le une dalle altre e dunque a quale ritmo l’Universo si sta espandendo. Da questi dati è poi possibile calcolare l’età dell’Universo, attualmente stimata a 13,8 miliardi di anni. Inoltre, le informazioni da esso raccolti aiuteranno nella ricerca delle misteriose e praticamente sconosciute materia oscura ed energia oscura. Studiando la struttura delle galassie, il telescopio ha provato anche la presenza di buchi neri supermassicci nei centri galattici e dei loro luminosissimi getti di materia, chiamati quasar; per di più, ha osservato la nascita delle stelle e la loro morte come supernovae, permettendoci di migliorare la nostra comprensione del ciclo di vita stellare.
Ma Hubble ha guardato anche più vicino, osservando i fenomeni estremi delle atmosfere gassose di Giove, Saturno e Urano, e ispezionando i “visitatori” del nostro sistema, come l’asteroide 1l/‘Oumuamua e la cometa 2l/Borisov, i primi oggetti provenienti dallo spazio interstellare osservati nel nostro sistema solare. Ultimo ma non meno importante, è stato sfruttato per analizzare le atmosfere di alcuni esopianeti, alla ricerca di tracce chimiche simili a quelle della Terra.
Il sorprendente Hubble space telescope fa parte del programma NASA Great Observatories, insieme ai telescopi spaziali Compton Gamma-Ray Observatory, Chandra X-Ray Observatory e Spitzer.
Il loro “successore ed erede” è il nuovo James Webb Space Telescope, il telescopio spaziale più grande mai realizzato, che completerà ed estenderà le scoperte di Hubble; dispone infatti di ad una copertura maggiore dello spettro elettromagnetico (tra l’arancione e il lontano infrarosso) ed a una sensibilità superiore, che gli permetterà di osservare galassie ancora più lontane ed antiche. Lanciato il 25 dicembre 2021, orbiterà a 1,5 milioni di km dalla Terra, molto più lontano rispetto ad Hubble, mantenendo la sua temperatura operativa molto bassa.
Il suo specchio principale, composto da 18 segmenti dal diametro totale di 6,5m, potrà raccogliere più luce rispetto ad Hubble (dato che ha una superficie 7 volte più estesa) e dunque rilevare oggetti dalla luminosità da 10 a 100 volte più debole, dunque più lontani e perciò più antichi. Il suo obiettivo scientifico principale è infatti la ricerca delle galassie formate dopo il Big Bang, appena 150 milioni di anni dopo la nascita dell'Universo (epoca della quale abbiamo solo un quadro teorico), determinando come le strutture stellari si siano poi evolute fino alla loro forma attuale. Studierà inoltre la formazione delle singole stelle e dei loro relativi sistemi planetari, misurandone le caratteristiche chimico-fisiche e perciò il loro potenziale di ospitare delle forme di vita. L'obiettivo della missione è di 10 anni e più di servizio, durante i quali speriamo possa sorprenderci quanto, se non più, del suo predecessore, per aprire una nuova finestra sulla bellezza dell’Universo e sul mistero del suo passato, dalla quale ognuno potrà ammirare la spettacolarità del cielo, animato dal medesimo spirito che aveva mosso Galileo a guardare attraverso il suo cannocchiale, in quella lontana notte di inizio ‘600.
Martina Cucchi
FONTIhttps://hubblesite.org/quick-facts/telescope-quick-facts https://www.youtube.com/watch?v=HbpwezGm-E4 https://en.wikipedia.org/wiki/Hubble_Space_Telescope#Flawed_mirror https://www.nasa.gov/mission_pages/hubble/about https://www.nasa.gov/content/about-facts-hubble-fast-facts https://it.wikipedia.org/wiki/Telescopio#Le_fasce_di_visibilit%C3%A0_dei_telescopi https://www.nasa.gov/feature/goddard/2018/nasa-s-first-stellar-observatory-oao-2-turns-50 https://www.esa.int/ESA_Multimedia/Images/2019/03/Gran_Telescopio_Canarias_telescope https://it.pearson.com/aree-disciplinari/scienze-matematica/articoli/cannocchiale-galileiano.html https://www.jwst.nasa.gov/content/about/faqs/facts.html https://it.wikipedia.org/wiki/Telescopio_spaziale_James_Webb https://www.nasa.gov/mission_pages/webb/science/index.html https://www.nasa.gov/mission_pages/webb/observatory/index.html https://www.nasa.gov/mission_pages/webb/instruments/index.html https://www.jwst.nasa.gov/content/about/faqs/faq.html#howdeploy https://www.media.inaf.it/2021/12/27/jwst-pannello-solare-antenna/ https://www.media.inaf.it/2021/12/25/jwst-lanciato/ https://www.esa.int/Science_Exploration/Space_Science/Webb https://www.youtube.com/watch?v=5vl8MzmYP60 https://www.focus.it/scienza/spazio/che-cos-e-e-come-e-fatto-il-james-webb-space-telescope
NUMERO 12
DICEMBRE 2021Le regole del caos
Il Nobel per la fisica 2021 allo studio dei sistemi complessi e le loro applicazioni sui modelli climatici
Il prestigioso premio Nobel 2021 per la fisica, un riconoscimento assegnato dall’Accademia reale svedese delle scienze per volontà di Alfred Nobel dal 1901, il 5 ottobre è stato assegnato per metà al professor Giorgio Parisi, "per la scoperta dell'interazione tra disordine e fluttuazioni nei sistemi fisici dalla scala atomica a quella planetaria" e per l’altra metà (ripartita in premi da un quarto ciascuno) ai professori Sykuro Manabe e Klaus Hasselman "per la modellazione fisica del clima terrestre, la quantificazione della variabilità e la previsione affidabile del riscaldamento globale" che "hanno posto le basi della nostra conoscenza del clima della Terra e di come l'umanità lo influenza".
Il riconoscimento di quest’anno è stato quindi diviso in due premi distinti (del valore di €434.500 ciascuno), entrambi però legati dallo studio del disordine, delle fluttuazioni casuali e dunque dei sistemi complessi, che interessano molte discipline oltre alla matematica, come appunto la climatologia.
Giorgio Parisi (Roma, 1948), fisico teorico dell'Università Sapienza di Roma e dell'Istituto Nazionale di Fisica Nucleare (Infn) e vicepresidente dell'Accademia dei Lincei, ha condotto ricerche di successo in questo ambito ottenendo un prestigio internazionale come “l’uomo che mise ordine nel caos”. Cosa vuol dire questa affermazione, perché la sua ricerca è tanto importante e che cos’è effettivamente un sistema complesso? Cerchiamo di trovare una risposta senza lasciarci spaventare dal loro nome…
Possiamo definire i sistemi complessi come modelli disordinati e caotici dal comportamento apparentemente casuale e imprevedibile; sono formati da vari sottosistemi che interagiscono fra di loro, con molte variabili e gradi di libertà. A causa della loro grande complessità e dell’interazione fra questi sottosistemi, anche un minuscolo cambiamento nella forma delle leggi che lo regolano ne modifica completamente il comportamento macroscopico, rendendo l’elaborazione di previsioni apparentemente impossibile.
Per fare un esempio concreto, possiamo pensare alle molecole di un gas libere di muoversi in un contenitore: potrebbero verificarsi scenari di movimento praticamente infiniti, a seconda, per esempio, di come le molecole si urtano fra loro, della loro energia, temperatura… Le leggi deterministiche della fisica classica, quindi non sono più sufficienti a descrivere questa complicata situazione e occorre basarsi perciò su leggi statistiche, che permettono di spiegare, ad esempio, un parametro macroscopico come la temperatura o la pressione con l’energia in associazione al movimento delle particelle: tali leggi sono chiamate fenomenologiche e sono l’oggetto degli studi condotti dal professor Parisi a partire dagli anni 70.
Nel campo della fisica, i sistemi complessi e i modelli usati per descriverli si estendono dalla meccanica quantistica (studio delle particelle elementari) e la fluidodinamica, alla materia condensata (caratterizzata da un grande numero di componenti legate da forti interazioni) e alla trasmissione della luce attraverso vari materiali, ma anche alla descrizione del moto dei corpi celesti e delle componenti degli atomi. Questo campo di studio è caratterizzato dunque da una profonda interdisciplinarità, dato che le leggi dei sistemi complessi, sorprendentemente, possono essere applicate anche alla biologia – come per gli eteropolimeri (polimeri composti da una sequenza di molecole differenti che possono ripiegarsi su sé stessi in molti modi differenti, come le proteine, il DNA e l'RNA,) - e alla medicina (sistema immunitario, reti neurali), passando per l’informatica (con l’intelligenza artificiale, il machine learning e i supercomputer), comprendendo addirittura il movimento dei gruppi di animali e l’andamento dell’economia e delle proiezioni in borsa.
Questo accade perché le leggi della fisica più conosciute descrivono sistemi profondamenti semplificati, in cui vengono perciò trascurate molte variabili; in realtà, analizzando ogni oggetto macroscopico, si scopre sempre una gerarchia di strutture sottostanti che ne aumentano esponenzialmente la complessità, fino a farlo apparire casuale e caotico: pensiamo per esempio con quale facilità ci immaginiamo il moto dei pianeti intorno al Sole, quando in verità molti fattori possono influenzarne le orbite, per esempio l’interazione gravitazionale dei corpi più massicci come Giove.
In particolare, lo studio dei materiali complessi è aggravato dai passaggi di stato: se l’abbassamento di temperatura di un liquido è improvviso, si può formare un solido detto corpo amorfo, cioè con una struttura microscopica disordinata simile a quella di un liquido (anziché a reticolo geometrico) ogni volta diversa, come avviene per il vetro.
Il professor Parisi si dedicò alla ricerca di modelli nascosti all’interno di questi materiali apparentemente disordinati, consentendo di descriverli (tentativo iniziato già negli ultimi decenni del XIX secolo). In particolare, si occupò dei vetri di spin, delle strutture magnetiche formate da una lega metallica composta da atomi di ferro mescolati casualmente in una griglia di altri atomi metallici (per esempio oro o rame). Ogni atomo ferroso possiede uno spin, cioè un moto angolare intrinseco ad ogni particella (grossomodo una rotazione), che in questo caso genera il fenomeno del ferromagnetismo e che possiamo dunque immaginare come un ago magnetico con un polo negativo e uno positivo; in un normale ferromagnete (una comune calamita) gli spin sono orientati tutti nella stessa direzione, ma, all’interno di uno spin glass, gli atomi di ferro sono distanti fra loro perché separati dagli altri atomi metallici, perciò gli spin si orientano a seconda della posizione dell’atomo nella griglia metallica: considerando una coppia di atomi di ferro, i loro spin potrebbero puntare nella stessa direzione o in direzioni opposte, ma se uno spin punta verso l'alto e l'altro spin vicino verso il basso, un terzo spin vicino non può essere nella stessa direzione di entrambi contemporaneamente e questo comporta un continuo cambio di direzione degli spin ferrosi. Questa condizione è chiamata “frustrazione” e un primo tentativo di descriverla matematicamente fu il modello realizzato da David Sherrington e Scott Kirkpatrick nel 1976, che presentava però delle contraddizioni; fu così che, nel 1979, Parisi migliorò e corresse il loro lavoro, ottenendo poi una conferma dell’esattezza matematica dei suoi risultati nel 2000 grazie al lavoro del matematico Francesco Guerra, fino a giungere ad una formula relativamente semplice nel 2013: grazie a questo risultato è stato insignito non solo del Nobel 2021, ma anche di altri prestigiosi riconoscimenti, come il premio Wolf (2020).
Questa legge dei sistemi complessi non permette solo di prevedere l’orientamento degli spin, ma le sue applicazioni alle tecniche di machine learning hanno permesso a Google di riconoscere il contenuto delle immagini, hanno portato allo sviluppo di nuovi algoritmi per l’ottimizzazione e l’analisi dei dati informatici e anche alla previsione dell’andamento delle glaciazioni terrestri su scale di centinaia di migliaia di anni; inoltre, il professor Parisi si sta attualmente occupando dell’analisi dei dati relativi alla pandemia di SARS-CoV-2, al fine di studiarne l’andamento e nella speranza di realizzarne previsioni efficaci. Queste innumerevoli applicazioni sono dunque la prova di come il lavoro teorico-matematico non sia fine a sé stesso e quindi inutile per la nostra quotidianità, ma di come esso possa influenzare molteplici aspetti delle nostre vite, con conseguenze sorprendenti ed inimmaginabili dalle premesse iniziali dello studio.
Anche l’atmosfera ed il clima terrestre sono sistemi complessi, il cui studio è divenuto attuale e fondamentale nella lotta al cambiamento climatico: infatti, per sconfiggere un nemico il primo passo è innanzitutto comprenderlo. È ormai assodato che questo fenomeno è legato al consumo dei combustibili fossili legato alle attività antropiche e alle relative emissioni di gas serra, principalmente anidride carbonica e metano. Questi gas a effetto serra, che comprendono anche il vapore acqueo, pur rappresentando una piccolissima parte dell’atmosfera, (la CO2, il più abbondante, rappresenta solo il 0,04 %), sono sufficienti ad assorbire parte della radiazione solare infrarossa, riscaldando l’aria circostante e la superficie terrestre sottostante. L’eccessivo incremento di questi porta dunque ad un accumulo eccessivo dell’energia termica trasportata dalle radiazioni solari e ad un conseguente aumento delle temperature, che determina importanti e note modificazioni nel clima, negli ecosistemi e nella criosfera.
Uno dei primi importanti passi nella climatologia moderna fu appunto quello del climatologo della Princeton University Syukuro Manabe (1931, Shingu-Giappone), che, negli anni 60, introdusse nell’insieme dei concetti di scambi energetici atmosferici anche il movimento verticale delle masse d’aria e che per primo considerò anche l’effetto del calore latente conservato nel vapore acqueo (cioè l’energia ceduta o assorbita durante il cambiamento di stato dell’acqua). Sviluppò così un modello semplificato dell’atmosfera formato da una colonna d’aria bidimensionale alta 40km, per studiare l’effetto dei vari gas sulla sua temperatura: realizzò così che un raddoppio della concentrazione di CO2 avrebbe causato un incremento di oltre 2°C nelle temperature globali. Nel 1975, con la pubblicazione dello sviluppo tridimensionale del modello iniziale, il professor Manabe ha posto dunque le basi per lo sviluppo dei moderni modelli climatici.
Circa dieci anni dopo, l'oceanografo e modellatore climatico Klaus Hasselmann (1931, Amburgo), del Max Plank Institute, creò un modello per collegare le condizioni metereologiche al clima, mostrando come i modelli climatici possano essere affidabili nonostante il tempo atmosferico sia mutevole. Il meteo è infatti particolarmente caotico, dato che una piccola perturbazione può innescare una catena d’eventi fino a portare a un fenomeno di vaste proporzioni, nel famoso “effetto farfalla”, termine coniato dal matematico e meteorologo Edward Lorenz nel 1972 con un articolo dal titolo “può il battito d’ali di una farfalla in Brasile scatenare un tornado in Texas?”: ovviamente, la frase non va intesa in senso letterale, ma si presta bene a dare l’idea delle conseguenze su vasta scala di un minimo cambiamento. Il lavoro di Hasselmann ha identificando inoltre dei segnali specifici lasciati sia dalle attività antropiche sia dai fenomeni naturali sul clima, delle impronte digitali dei processi climatici del pianeta, permettendo di relazionare con modelli matematici e statistici le misurazioni effettuate sperimentalmente con i modelli climatici. I suoi metodi sono stati perciò usati per confermare come l'aumento della temperatura nell'atmosfera sia dovuto alle emissioni umane di anidride carbonica.
Il messaggio che questa metà del Nobel 2021 vuole diffondere è quindi che i modelli climatici e il concetto di riscaldamento globale sono basati su teorie fisiche solide e dimostrate.
Martina Cucchi
FONTI:https://www.media.inaf.it/2021/10/05/nobel-per-la-fisica-2021-ce-anche-giorgio-parisi/https://www.lescienze.it/news/2021/10/05/news/giorgio_parisi_nobel_2021_fisica_marco_cattaneo-4970867/https://www.ansa.it/canale_scienza_tecnica/notizie/fisica_matematica/2021/10/05/alle-1145-lannuncio-dei-vincitori-del-nobel-per-la-fisica-diretta_592745dd-6f74-4cb9-814e-cd6f6e86141f.htmlhttps://www.rainews.it/dl/rainews/articoli/Premio-Nobel-per-la-Fisica-a-itaiano-giorgio-parisi-Klaus-Hasselmann-Syukuro-Manabe-160b4e69-1d65-4e98-875f-daa525ef7541.htmlhttps://www.focus.it/scienza/scienze/giorgio-parisi-nobel-per-la-fisica-2021https://www.ilgiorno.it/cultura/nobel-fisica-giorgio-parisi-1.6882557https://it.wikipedia.org/wiki/Premio_Nobel_per_la_fisicahttps://www.treccani.it/enciclopedia/sistemi-complessi-fisica-dei_%28Enciclopedia-del-Novecento%29/https://www.treccani.it/enciclopedia/spin_%28Enciclopedia-della-Scienza-e-della-Tecnica%29/https://scienzapertutti.infn.it/chiedi-allesperto/tutte-le-risposte/1764-0400-spinhttps://home.infn.it/newsletter-eu/pdf/NEWSL_INFN_86_ita_2.pdfhttps://www.youtube.com/watch?v=cw1RIquccqkThe Black Hole
Realtà o Fantascienza?
Ormai sappiamo che i buchi neri sono regioni dello spazio in cui il campo gravitazionale è talmente forte che, qualsiasi cosa vi si avvicini, viene attratta e catturata senza possibilità di sfuggirvi. Tale campo gravitazionale è talmente potente che neppure la luce è abbastanza veloce per non cadere nel suo vortice, non a caso sono detti buchi neri, perché c’è una totale assenza di luce al loro “interno”.
Nonostante i molteplici studi e le svariate prove di questi mostri spaziali, c’è ancora qualcuno che non crede nella loro esistenza, vediamo quindi di provare a fare chiarezza. Abbiamo detto che un buco nero ha un campo gravitazionale così forte da non lasciar sfuggire nessun tipo di massa o materiale, né tanto meno alcun tipo di radiazione elettromagnetica, dunque possiamo definire questa regione spaziale come una curvatura spazio-temporale al cui interno è presente un campo gravitazionale avente una velocità di fuga superiore a quella della luce. Com’è possibile? Semplice, i buchi neri, detti anche “singolarità”, in quanto non esiste niente di simile a un tale mostro, non sono altro che il risultato di diverse implosioni di masse sufficientemente elevate. La gravità domina su qualsiasi altra forza, di riflesso si verifica un collasso gravitazionale che tende a concentrare lo spazio-tempo in un punto al centro della regione, dove si pensa esserci una curvatura tendente all’infinito, e un volume pari a zero, che - come detto - viene definito “singolarità”, con caratteristiche sconosciute ed estranee alle leggi della relatività generale.
La parte appena visibile di un buco nero, che è quella più esterna, è definita come “orizzonte degli eventi”, ma perché appena visibile? Come già spiegato, i buchi neri sono talmente oscuri che sono invisibili a occhio nudo, ma si possono individuare grazie agli effetti che hanno sugli altri corpi celesti, specialmente quelli molto luminosi, che si vedono percorrere un moto curvilineo uniformemente accelerato all’interno della singolarità, fino a che la loro potente luce, affievolendosi sempre di più, non sparisce per sempre all’interno di questa oscura regione spazio-temporale. Dunque l’esistenza dei buchi neri è stata ampiamente dimostrata e nel 2019 attraverso la prima prova visiva diretta è stato possibile studiarne le caratteristiche, tra le quali la massa responsabile del potentissimo campo gravitazionale: la loro massa va da 30 fino a milioni o miliardi di volte la massa solare.
Esistono alcuni studiosi che sostengono che questi buchi, siano in realtà delle curvature “a doppia uscita”, ovvero dei passaggi per spostarsi all’interno dell’universo; assurdo vero? Eppure questa teoria non è del tutto da escludere, soprattutto per via di alcune recenti scoperte fatte sui buchi bianchi - no, non me lo sto inventando, esistono davvero, e sono tutto il contrario dei buchi neri; al posto di una curvatura data da un potentissimo campo gravitazionale, essi sono luoghi dello spazio-tempo in cui è impossibile entrare dall’esterno, ma può uscire energia, materia e luce. Come accennato, alcuni autori sono convinti che buchi neri e buchi bianchi siano collegati in qualche modo, tramite una relazione che comprende una regione di buco nero nel futuro, che interagisce a una regione di buco bianco nel passato. Stephen Hawking, riprendendo alcuni studi di Albert Einstein, esclude la possibilità che essi siano collegati, per lo meno i buchi neri originati da implosioni di massa, dunque generati da collassi gravitazionali. C’è una teoria secondo la quale ogni galassia ha al proprio centro, proprio un buco nero supermassiccio (Supermassive Black Hole, proprio come la canzone dei Muse). Secondo Hawking addirittura è una condizione necessaria: senza un buco nero, la galassia non si può formare. Questa teoria spiegherebbe, seppur parzialmente, il motivo per cui le galassie abbiano tutte, visibilmente, un moto rotatorio concentrico. La cosa incredibile sta proprio nella conferma finale degli studi di Stephen Hawking. Secondo lui, ad ogni buco nero supermassiccio al centro di ogni galassia, corrisponde un buco bianco nel punto esattamente opposto; che sia un’introduzione addirittura a degli universi paralleli? O la conferma del fatto che tramite alcuni buchi neri, è possibile uscire da alcuni buchi bianchi, muovendosi così all’interno dell’universo profondo?
Attualmente nessuno è ancora riuscito in nessun modo a osservare un esemplare di buco bianco, altrimenti definito come ipotetica finestra su altri universi, e grandi singolarità. Gli studi di Stephen Hawking porteranno sicuramente a sviluppi che riusciranno a far chiarezza, proprio come è successo per i buchi neri. Nel 1783 John Michell ipotizzò l’esistenza di oggetti di massa sufficientemente elevata in grado di trattenere la stessa luce. La “Dark Star” di John Michell, è l’oggetto misterioso che per noi è diventato oggi, il buco nero.
E voi cosa ne pensate a riguardo?
Nicolò Sordelli
Sviluppo sostenibile: sostenibilità ambientale
L'era geologica che stiamo vivendo, iniziata nella metà del XX secolo, si chiama Antropocene dal greco "anthropos", uomo, e "koinos", recente, da cui deriva "cene", utilizzato in italiano per indicare le ere geologiche. Indica il presente periodo storico condizionato da un forte impatto ambientale causato dalle attività umane.
Una soluzione per ridurre l'impatto è attuare lo sviluppo sostenibile. Esso agisce su tre diversi campi (economico, ambientale e sociale) e non esiste un riferimento che valga per tutti i campi; esistono infatti numerosi indicatori ma,ogni condizione, ha i suoi pro e i suoi contro. Sta poi al dibattito politico capire come muoversi.
Lo sviluppo sostenibile, in ambito ambientale, è la possibilità di produrre bioenergie con minor impatto per salvaguardare la biodiversità.
Conseguenze
Le conseguenze più gravi causate dalle attività umane sono: inquinamento, consumo delle risorse esauribili, deforestazione, specie a rischio e cambiamenti climatici.
Inquinamento
È un processo che altera l'aria, l'acqua e il suolo, rendendoli dannosi per persone e natura. È causato dalle sostanze chimiche, dalle polveri, dai rumori e dalle radiazioni.
Consumo delle risorse esauribili
La maggior parte dell'energia utilizzata è fornita da risorse esauribili, non rinnovabili ed estremamente dannose per l'ambiente.
Sono carbone, petrolio, gas ed energia nucleare.
Curiosità: alcuni ambientalisti pensano, che quest'ultima, sia una soluzione al surriscaldamento globale, all'innalzamento del livello dei mari e alla desertificazione; infatti ha basse emissioni di anidride carbonica e soddisfa maggiormente il fabbisogno energetico.
Deforestazione
A causa dell'aumento di popolazione e delle attività umane è risultato necessario più spazio, di conseguenza foreste e boschi sono stati sostituiti da edifici.
Le zone più colpite da deforestazione sono le foreste pluviali e le foreste tropicali.
Si stima che ogni anno, la superficie forestale, diminuisca di 4,7 milioni di ettari.
Curiosità: Se ognuno di noi consumasse meno carta o la riciclasse si potrebbe ridurre la deforestazione; infatti, ogni tonnellata di carta riciclata, salva diciassette alberi.
Specie a rischio
L'inquinamento e la deforestazione sono le principali cause che fanno diminuire la biodiversità: la varietà di vita sulla Terra. È una parte essenziale del capitale naturale, formato dall'acqua, dall'aria e dal suolo, infatti, insieme, costituiscono il corretto funzionamento dei servizi ecosistemici: il cibo e le materie prime.
Curiosità: la Red List è una lista di tutte le specie a rischio, ovvero, 8500 specie.
Cambiamenti climatici
Al giorno d’oggi assistiamo a fenomeni climatici estremi che causano problemi sia all'ambiente, ad esempio alle migrazioni dei volatili e fioriture, sia alla vita umana, attraverso le carestie, le alluvioni, le frane e le devastazioni di città intere.
Le mutazioni nel clima sono causate dalle attività umane che aumentano la presenza di anidride carbonica, metano e protossido di azoto nell'atmosfera; facendo innalzare la temperatura globale e creando così l'effetto serra.
I fenomeni che accadono più di frequente sono le inondazioni, la siccità e la crisi idrica.
Curiosità: se ognuno di noi risparmiasse energia e producesse meno rifiuti potremmo ridurli notevolmente.
Soluzioni
Alcune soluzioni sono provare ad ottenere i prodotti agricoli da meno superficie, per lasciare più spazio per gli ambienti naturali e semi-naturali; ridurre l’intensità delle lavorazioni agricole per consumare meno carburante e ridurre l'erosione del suolo (nonostante danneggia l'agricoltore, a livello economico, e la fertilità del terreno); ruotare i tipi di coltivazioni in un determinato campo, distribuire maggiormente gli animali allevati, riciclare i rifiuti, preferire l'uso di materiali biodegradabili e scegliere di utilizzare energie rinnovabili.
Water footprint
La "water footprint" è l'impronta idrica e serve a calcolare la quantità di tipi di acqua che ci sono. I tipi di acqua sono: l’acqua verde (le piogge), l'acqua blu (l’irrigazione) e l'acqua grigia (le acque di falda, fiumi, laghi e mare).
Bio
Il bio non è di per sé una soluzione. Infatti, molti prodotti bio vengono coltivati in serra e, addirittura, con l’utilizzo di ormoni.
Conclusioni
Per risolvere tutti questi problemi potremmo essere più consapevoli di quanto consumiamo e di quanto inquiniamo.
A livello mondiale dovremmo ridurre il consumo delle sostanze inquinanti, riciclare maggiormente la carta e la plastica o trovare un'alternativa e utilizzare risorse rinnovabili per produrre energia, necessaria per le attività umane.
Melissa Coniglio
Fonti: Sfide globali 2 (nuova edizione)https://www.ilpost.it/antoniopascale/2020/09/17/cose-veramente-la-sostenibilita/https://www.stellalpinasrl.com/qualche-curiosita-in-fatto-di-sostenibilita-ambientalehttps://www.eea.europa.eu/it/segnali/segnali-2020/infografica/che-cos2019e-l2019inquinamento/viewhttps://www.wwf.it/cosa-facciamo/clima/cambiamenti-climatici/https://www.wwf.it/cosa-facciamo/foreste/deforestazione/https://www.duegradi.eu/news/biodiversita/https://it.m.wikipedia.org/wiki/Wikipedia_in_italianohttps://www.google.com/amp/s/www.greenme.it/approfondire/speciali/lambientalismo-che-vuole-il-nucleare-associazioni-ed-ecologisti-pro-atomo/%3famp
La vernice mangia smog
Che cosa possiamo fare per eliminare l’inquinamento dalle strade e depurare l’aria delle case? Bella domanda, ma a cui possiamo dare una risposta.
Avete mai sentito parlare di vernici mangia-smog? No?
Airlite è una vernice a base minerale in grado di ridurre l’inquinamento delle pareti di interni ed esterni. E’ 100% ecologica perché non contiene colle, solventi, prodotti chimici e derivati del petrolio, che la rendono inodore e non infiammabile.
Dopo anni di ricerca, nel 2007 viene creato e provato il primo prototipo di Airlite all’interno del Tunnel Umberto I a Roma, uno degli ambienti più inquinati nella capitale. A dieci anni di distanza, il Tunnel risulta ancora bianco e i test fatti dall’Università La Sapienza hanno dimostrato un’effettiva riduzione degli agenti inquinanti fino al 51%.
Ma come si attiva questa speciale vernice?
Grazie ad un processo chiamato fotocatalisi (che agisce come la fotosintesi delle piante), la vernice agisce in presenza di luce e permette di creare ioni negativi dai radicali ossidanti, i quali, combinandosi con le sostanze inquinanti, si trasformano in molecole di vari tipi di sali che depurano l’aria dai principali agenti inquinanti ed impediscono la formazione di muffe e spore che possono causare gravi problemi respiratori.
Quando, invece, viene applicata sulle superfici esterne, la pittura riflette il calore dei raggi solari mantenendo freschi gli ambienti interni e aiutando a ridurre il consumo dell’energia e la generazione di CO2.
Possiamo dire che funziona come dopo un giorno di pioggia, dove l’aria è naturalmente depurata dalla creazione di ioni e, allo stesso modo, la vernice crea un habitat libero da sostanze nocive ed inquinanti.
Grazie alla sua efficacia certificata, Airlite è in grado di creare ambienti salubri e sostenibili per il benessere delle persone e dell’ambiente in cui viviamo.
Ma questa vernice può essere usata non solo nelle case e nelle facciate esterne degli edifici, bensì come pitture per progetti di street art sul tema dell'architettura sostenibile, come l'Hunting Pollution di Iena Cruz situato a Roma, l'Inception as the beginning of an idea or a concept di Camilla Falsini a Milano, il Teatrò di Yama 11 ad Abano Terme,...
In tutta Italia si possono trovare questi bellissimi murales mangia smog grazie alle varie iniziative come IKEA LOVES EARTH del 2016 che coinvolse 17 street artist in diverse città.
Penso che, come abitanti di questo pianeta, abbiamo l’obbligo morale di prenderci cura della natura e degli esseri che la abitano, cercando risorse più ecologiche e sostenibili possibili.
Pertanto c’è bisogno che ognuno di noi faccia, nel suo piccolo, qualcosa per l’ambiente, dalla raccolta dei rifiuti allo sviluppo di tecnologie sempre più ecofriendly affinché il pianeta possa sopravvivere.
Francesca Stelitano
NUMERO 11
2021Speciale Giornata della Terra 2021
Video elaborato da Martina Cucchi e Camilla Scuri per la Giornata della Terra 2021.
Le autrici ringraziano, per la concessione dei video realizzati con drone nell'ambito dei progetti PON, il professor Nicola Ghiaroni.
L'accompagnamento musicale originale è Aria sulla quarta corda, di Johann Sebastian Bach.
On fait un peu de recyclage à la française!
Continua a leggere su Lingue...
Saluti da Marte!
Che fine hanno fatto Perseverance e Ingenuity?
A caccia di vita passata nel suolo di Jezero e in volo nell’atmosfera del pianeta rosso, ecco gli ultimi successi della missione Mars 2020
Dopo un viaggio attraverso 472 milioni di km di spazio, iniziato il 30 luglio 2020 da Cape Canaveral, il rover NASA Perseverance ha tenuto il mondo con il fiato sospeso durante “sette minuti di terrore” nella sua pericolosa discesa attraverso l’atmosfera marziana. Dopo l’apertura del paracadute e il suo perfetto touchdown sul Pianeta Rosso, avvenuto il 18 febbraio 2021 in totale autonomia, però, l’interesse nei suoi confronti è calato e molti ne hanno perso le tracce. Ebbene, quell’ammartaggio è stato solo l’inizio di uno spettacolo strepitoso che vale la pena seguire fino in fondo.
Il 6 marzo, infatti, il rover ha iniziato l’esplorazione del cratere Jazero, dove è atterrato, calibrando i propri strumenti e percorrendo i suoi primi 6,5 metri fra le antichissime formazioni marziane. Gli scienziati sono praticamente certi che questa zona vicino all’equatore del pianeta, circa 3 miliardi e mezzo di anni fa, ospitasse il delta di un antico fiume, che si espanse fino ad occupare l’intero bacino formando un lago: infatti, molto probabilmente in passato su Marte esisteva un’abbondante quantità d’acqua liquida (come ci testimoniano i solchi del suolo simili a letti di fiumi prosciugati, il ghiaccio d’acqua ai poli e le falde sotterranee), che è però scomparsa, sfuggita dalla tenue atmosfera verso lo spazio o assorbita dal suolo. Impossibile non pensare all’acqua come una fonte di vita: è possibile che anche in quell’antico lago marziano si fossero sviluppati degli organismi viventi (ovviamente si parla di organismi microscopici, non omini verdi)?
Questo è uno dei principali obiettivi della missione Mars 2020, gestita dal Jet Propulsion Laboratory della NASA e facente parte del programma di esplorazione spaziale Moon to Mars (che comprende anche le missioni lunari Artemis). Perseverance è infatti il più sofisticato rover mai realizzato, dotato di ben sette strumenti scientifici primari per svolgere un’indagine scientifica di due anni, durante la quale mapperà la presenza di minerali e molecole organiche nelle rocce del cratere, studierà la geologia, la storia e il clima della zona e, soprattutto, andrà alla ricerca delle tracce lasciate da questa (ipotetica) antica vita microbiotica marziana.
Inoltre, Perseverance raccoglierà 38 campioni di suolo in appositi contenitori, che la futura missione NASA ed ESA “Mars Sample Return” recupererà da Marte nel 2026 per portarli sulla Terra nel 2031, dove potranno essere analizzati in modo approfondito.
Insomma, Mars 2020 porta Marte sempre più vicino a noi, permettendoci addirittura di esplorarlo in prima persona: il rover, infatti, è equipaggiato con ben 19 telecamere, alcune stereoscopiche, che hanno catturato più di 23.000 immagini durante la discesa nell’atmosfera, fra le quali il primo video in alta definizione del pianeta. Il suo microfono ha anche registrato il suono del vento marziano: ormai grazie alla tecnologia possiamo immergerci in un paesaggio alieno come in un film di fantascienza, anzi meglio.
Alla fine di aprile, l’intrepido esploratore robotico ha condotto un ulteriore esperimento per supportare i futuri avventurieri umani di domani: grazie al suo strumento MOXIE, ha estratto 5 grammi di ossigeno dall’anidride carbonica dell’atmosfera marziana; può sembrare poco, ma questo quantitativo dovrebbe essere sufficiente ad una persona per respirare 10 minuti e l’obiettivo è di produrne il doppio ogni ora.
Il rover Perseverance, però, nascondeva un altro tesoro al suo interno: ripiegato su sé stesso, trasportava infatti il drone Mars Helicopter Scout, meglio conosciuto come Ingenuity.
Ingenuity (il cui nome significa ingegnosità, e non ingenuità) è un piccolo elicottero studiato per volare nelle difficili condizioni di Marte: sul Pianeta Rosso, infatti, l’atmosfera è solo l’1% di quella terrestre, dunque è estremamente rarefatta e crea difficoltà nel volo. Per questo Ingenuity è leggerissimo (pesa solo 1,8kg), le sue pale in fibra di carbonio misurano più di un metro l’una e girano 8 volte più velocemente che quelle di un velivolo terrestre per poter sollevarsi in volo. I problemi però non finiscono qui, perché la gravità marziana è un terzo di quella della Terra, l’atmosfera è sferzata da forti venti e di notte la temperatura può scendere anche a -90° C, mettendo a dura prova le sue batterie al litio da ricaricare con la luce solare. L’obiettivo del piccolo drone, perciò, è semplicemente quello di essere un dimostratore tecnologico, cioè di riuscire “solo” a funzionare in questo ambiente ostile, senza svolgere esperimenti scientifici. Questa nuova tecnologia di volo si potrebbe rivelare una strategia vincente per il futuro: dei droni volanti, infatti, potrebbero superare anche i terreni più scoscesi e accidentati, atterrando in piccole aree che i rover di terra non riuscirebbero a raggiungere, trasportando strumenti e fornendo visuali dall’alto.
Il suo primo volo era programmato per il 12 aprile, ma il software ha presentato problemi nella sequenza d’avvio ed è stato necessario aggiornarlo. Ingenuity infatti opera “in autonomia”: dato che le comunicazioni impiegano 22 minuti per arrivare da Marte a noi e tornare, il piccolo elicottero è da solo e segue perciò una sequenza prescritta di comandi; il suo processore (che è praticamente come quello dei nostri cellulari), anche se non è in grado di svolgere dei veri ragionamenti, deve anche regolare il volo in base al vento marziano, alla temperatura e ai dati raccolti dalle telecamere e dagli altimetri, comunicando via wireless con la sua base sul rover Perseverance.
Dopo i test preliminari ed il ritardo, Ingenuity è finalmente riuscito a sollevarsi dal suolo marziano il 19 aprile, raggiungendo i 3 metri di quota e poi ri-atterrando nel punto di partenza, per un totale di 40 secondi di volo. Così come i fratelli Wright fecero decollare il loro primo rudimentale aereo, aprendo i confini del cielo nel lontano 1903, Ingenuity ha dimostrato per la prima volta la possibilità di eseguire un volo controllato su un altro pianeta: proprio ai due pionieri dell’aeronautica è stato infatti dedicato il suo campo di volo marziano, il Wright Brother Field, e, sempre in loro omaggio, il drone porta un frammento della tela del loro aereo sotto i pannelli solari.
Evidentemente il piccolo reperto ha portato fortuna, perché durante il secondo test, il 22 aprile, il drone è riuscito a librarsi a ben 5 m dal suolo, eseguendo con successo anche uno spostamento laterale di 2 metri. Infine, il 25 aprile, il terzo volo ha portato Ingenuity in una deviazione verso nord di addirittura 50 metri e ritorno, alla velocità di 2 metri al secondo. Ancora più ambizioso è stato il programma del 30 aprile, durante il quale il drone ha effettuato una scansione aerea dell’area a sud del Wright Brothers Filed: grazie alle immagini raccolte, è stata realizzata una mappa 3D della zona, che ha permesso di individuare un altro sito idoneo a diventare il suo nuovo campo base. Durante il suo quinto volo, infatti, Ingenuity ha lasciato il Wrigt Brothers Field per atterrare 130 metri a sud, trasferendosi nella sua nuova, momentanea casa.
Ingenuity ha dunque completato con successo la prima fase della sua missione come dimostratore tecnologico e d’ora in poi seguirà il suo compagno di viaggio, il rover Perseverance, durante l’esplorazione della zona meridionale del cratere, almeno fino a quando riuscirà a tenere il passo dell’altro rover. Il piccolo drone ha decisamente superato le aspettative con questi primi voli, rendendo orgogliosi ed entusiasti i tecnici NASA del JPL e destando anche un certo interesse nei media. E’ l’inizio di una grande avventura che nessuno vuole perdersi e che possiamo finalmente seguire da Terra grazie alla grande quantità di foto, video e audio condivisi dalla NASA. Come sempre però la nostra curiosità non è mai soddisfatta e vorremmo osare ancora di più, così una domanda sorge spontanea: se e quando potremo visitare Marte di persona?
Martina Cucchi
FONTI:https://www.media.inaf.it/2020/12/23/perseverance-portacampioni/https://www.agi.it/innovazione/news/2021-04-22/perseverance-estrae-ossigeno-da-marte-12281484/https://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/04/25/marte-il-terzo-volo-del-drone-elicottero-ingenuity-_5b2bde16-22c9-4a5c-ae87-bf98ee086c94.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/04/22/marte-il-secondo-volo-del-drone-elicottero-ingenuity-_bd9b9592-7da6-44e3-9ad8-686495376995.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/04/19/marte-oggi-il-volo-del-drone-elicottero-ingenuity-diretta-alle-1215_8c572ea9-c285-457e-9f56-b373b9ce9c00.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/04/13/marte-nuovo-software-per-ingenuity_173df11f-4b8c-479d-b587-0320e278b615.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/04/22/prodotto-ossigeno-su-marte-e-la-prima-volta-_742bd87d-2cc8-47cf-9ab0-ec7d7f075c68.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/02/20/perseverance-su-marte-primo-passo-verso-il-futuro-_458ba89a-6704-4ca5-ad21-76844b96adcc.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/biotech/2021/02/23/il-video-dellarrivo-del-rover-perseverance-su-marte-_ed2145db-3246-433f-8715-7336372fd32d.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/02/24/perseverance-apre-alle-prime-passeggiate-virtuali-su-marte_e9c8a760-d6aa-4a4b-bb81-ecae01e400b3.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/03/06/marte-perseverance-ha-percorso-i-primi-metri-_7d888f99-986e-4b53-88ec-2b376f2c230d.htmlhttps://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2021/03/30/marte-al-via-le-manovre-per-il-rilascio-del-drone-ingenuity-_55c57ac6-fe46-47a7-90a3-fbc177f3fbd8.htmlhttps://www.focus.it/scienza/spazio/video-marte-secondo-volo-ingenuityhttps://www.focus.it/scienza/spazio/ingenuity-nella-storia-drone-elicottero-vola-su-martehttps://www.focus.it/scienza/spazio/ingenuity-drone-elicottero-marte-cose-saperehttps://www.media.inaf.it/2021/04/26/ingenuity-terzo-volo/https://www.media.inaf.it/2021/04/19/ingenuity-volo-drone/https://www.media.inaf.it/2021/02/18/perseverance-il-rover-e-sul-suolo-marziano/https://www.nasa.gov/press-release/touchdown-nasas-mars-perseverance-rover-safely-lands-on-red-planethttps://www.nasa.gov/press-release/nasa-s-ingenuity-mars-helicopter-succeeds-in-historic-first-flighthttps://www.nasa.gov/feature/jpl/nasa-s-ingenuity-mars-helicopter-logs-second-successful-flighthttps://edu.inaf.it/astroschede/marte/https://www.esa.int/Science_Exploration/Human_and_Robotic_Exploration/Exploration/Mars_sample_returnhttps://mars.nasa.gov/technology/helicopter/status/297/ingenuity-completes-its-fourth-flight/ https://mars.nasa.gov/news/8941/nasas-perseverance-captures-video-audio-of-fourth-ingenuity-flight/ https://mars.nasa.gov/news/8942/nasas-ingenuity-mars-helicopter-completes-first-one-way-trip/ https://www.media.inaf.it/2021/05/08/ingenuity-quinto-volo/NUMERO 10
2021 Programma Artemis: una freccia verso la Luna
Artemis mission di Martina Cucchi
Tecnica: tempere, matite, pennarelli e rifiniture digitali con Sketchbook di AutocadPortare la prima donna sulla Luna entro il 2024 per andare alla conquista di Marte
L’irraggiungibile meta del viaggio fantastico di Jules Verne, il chiarore che illuminò le romantiche melodie di Debussy e Beethoven, una silenziosa compagna di meditazione per Giacomo Leopardi, l’argentea luce notturna nei quadri di Friedrich e di Monet… la nostra Luna, unico satellite della Terra, è stata una musa ispiratrice per gli artisti d’ogni epoca e non c’è persona che non abbia mai sognato di poterla esplorare, almeno con la fantasia.
Poeticità a parte, però, analizzandola in modo oggettivo, si tratta semplicemente di una sfera con un diametro di 3476 km, no? Non emette nemmeno luce: il famoso chiaro di luna altro non è che raggi solari riflessi dalla superficie cosparsa di regoliti. Laggiù non c’è niente, nemmeno un’atmosfera consistente: solo crateri meteoritici, altipiani grigi, avvallamenti desolati e un cielo nero. Niente vita, niente ossigeno, niente di niente. Perché dovremmo interessarci ad un luogo così inospitale? Non ci stupisce che, dopo Eugene Cernan con l’Apollo 17 del 1972, nessuno ci abbia mai rimesso piede! Tanto non potremo mai viverci: non c’è acqua, no? O forse sì … Ne siete proprio sicuri?
Il 26 ottobre 2020 sono stati pubblicati sulla rivista Nature Astronomy due studi che invece annunciano, con una certa sicurezza, la presenza di acqua sulla Luna e in quantità superiore a quanto ci aspettassimo. Non immaginatevi però un cristallino lago lunare: la maggior parte della superficie si conferma essere comunque più arida dei deserti terrestri…
Il primo articolo è dedicato al telescopio volante Sofia, che ha rilevato nell’emisfero meridionale della Luna una quantità d’acqua equivalente a circa il contenuto di una lattina da 300 ml, distribuita però su una superficie ampia quanto un campo da calcio!
Il secondo studio, invece, condotto dall'Università di Boulder (Colorado) è molto più ottimista: stima infatti che piccole regioni ombrose della superficie lunare, chiamate cold traps potrebbero nascondere al loro interno dell’acqua ghiacciata: si tratta di cavità e insenature che permangono in uno stato di buio e gelo perenne (per esempio il fondo dei crateri polari), che, secondo lo studio canadese, coprono una superficie totale di circa 40.000 chilometri quadrati.
Queste scoperte risvegliano la nostra immaginazione e il sogno di una casa fra le stelle: è solo una fantasia o potremo realmente essere in grado di sfruttare quell’acqua per vivere lassù? Essa potrebbe venir usata, oltre che per bere, anche per sintetizzare ossigeno e produrre carburante… Tra il dire e il fare, comunque, ci sono di mezzo quasi 400.000km e i problemi da risolvere sono ancora molti, ma per le agenzie spaziali ritornare sulla Luna per creare un avamposto umano sembra qualcosa di più concreto che un sogno lontano, ora più che mai.
Dopo il lungo stop dell’esplorazione lunare al termine del programma Apollo, la NASA ha annunciato il nuovo ed ambizioso programma Artemis, con l'obiettivo di portare la prima donna (e riportare un uomo) sulla Luna per il 2024.
Nel dicembre 2020, la NASA ha presentato i 18 astronauti USA della nuova “generazione Artemis” come candidati per le prime missioni del programma. Questa squadra è molto diversa da quelle del programma Apollo: la metà sono donne e fra queste potrebbe dunque esserci colei che passerà alla storia come Armstrong fece nel lontano 1969. Il team verrà poi ampliato con astronauti dai vari stati che prenderanno parte al programma, a testimonianza di come Artemis non sarà più una gara fra superpotenze come le missioni spaziali degli anni ‘60, ma una sfida per l’umanità intera.
Non si tratta più infatti di qualcosa di solo americano, ma di una partnership internazionale (comunque guidata dalla NASA) che coinvolge agenzie spaziali di vari stati (come Europa, Canada e Giappone), ma anche private (ad esempio SpaceX). L’idea, come suggerisce lo slogan “we are going to stay”, è quella di dar vita ad un ampio progetto a lungo termine, con missioni frequenti e sostenibili, al fine di creare una presenza umana stabile sul nostro satellite a partire dal 2028.
La nostra prossima casa spaziale però non si troverà sulla Luna, ma piuttosto intorno ad essa. Per supportare le missioni verso la superficie, le agenzie spaziali che già collaborano per la Stazione Spaziale costruiranno il Lunar Gateway, una piccola stazione spaziale orbitante intorno al satellite, che potrebbe venir usato come una sorta di campo base in cui gli astronauti potranno “fare scalo” e attrezzarsi prima della passeggiata lunare. Come l’attuale ISS, sarà formato da moduli, cioè da tanti ambienti pressurizzati (un po’ come delle lattine a tenuta stagna) uniti insieme per creare un'unica struttura abitabile, la cui costruzione non inizierà prima del 2024.
L’intero programma Artemis, inoltre, andrà ben oltre la Luna: possiamo considerarlo infatti come un’esercitazione per allenarci e testare le tecnologie che ci serviranno in futuro per esplorare lo spazio profondo. Nel logo di Artemis campeggia infatti una linea rossa che parte dalla Terra ma prosegue oltre la Luna: che cosa potrebbe significare questo colore nello spazio, se non Marte? Queste missioni saranno infatti una prova generale per un eventuale viaggio con equipaggio verso il pianeta rosso, il sogno ancora più ambizioso (e apparentemente irrealizzabile) che accompagna l’umanità da anni.
Ma procediamo con un piccolo grande passo alla volta, perché sulla Luna prima ci dobbiamo arrivare: immaginiamoci come se fossimo astronauti Artemis per qualche minuto e percorriamo veloci come un razzo le tappe principali che ci riporteranno al grande ri-allunaggio del 2024…
Siamo nel novembre 2021 e nello storico Kennedy Space Centre, dove il veicolo più potente del mondo, il nuovo razzo Space Launch System, è già pronto al lancio sulla rampa. Alla sua sommità, ecco la capsula NASA Orion, progettata per portare gli astronauti nello spazio, ed agganciato ad essa il Service Module, il componente creato dall’Esa che fornirà energia e propulsione alla navicella.
L’Exploration Mission 1 sta per cominciare: alla fine del countdown, i mastodontici motori si accendono e la capsula Orion inizia il suo viaggio inaugurale intorno alla terra e poi intorno alla Luna. Lassù però non ci sarà nessuno: questo primo volo sarà infatti solo un test controllato da remoto, durante il quale la capsula senza equipaggio orbiterà intorno al satellite per verificare il funzionamento di tutti i sistemi.
Dopo il successo di Artemis 1, facciamo un salto nel 2023: questa volta siamo intorno alla Luna a bordo di Orion insieme ai suoi 4 astronauti e sorvoliamo la superficie per poi lanciarci a ben 8889 km dal satellite, una distanza mai raggiunta prima dall’uomo. Mentre facciamo rotta verso la Terra, ripensiamo alla superficie lunare, a come ci era sembrata vicina… Dopo due missioni orbitali, i test sono conclusi e siamo finalmente pronti a tornare laggiù.
Siamo nel fatidico 2024, in diretta dal polo sud lunare dove, per la prima volta, una donna sta camminando sulla superficie lunare: così come gli astronauti lasciano le loro impronte sulla polvere di regolite, questo momento rimarrà per sempre impresso nella storia e nei nostri ricordi. La squadra d’esplorazione preleva campioni di suolo dal sito: è proprio nell’emisfero meridionale che dovrebbe trovarsi la maggior parte dell’acqua ghiacciata ed è il momento di sapere se le nostre ipotesi sono esatte. Nessun umano aveva mai messo piede quaggiù, ma l’area è stata studiata e mappata a fondo da missioni robotiche: si tratta infatti di zone geologicamente molto interessanti perché, a differenza della Terra, per milioni di anni non sono state contaminate da agenti atmosferici o esseri viventi e rappresentano quindi una “capsula del tempo” che potrebbe aprire una finestra sul passato del sistema solare, chiarendo l’origine del nostro satellite e dei pianeti.
Dopo aver osservato questo affascinante panorama extraterrestre ed esserci divertiti saltando a gravità ridotta con la nostra tuta spaziale di ultima generazione, ci voltiamo per ammirare il nostro lander, il veicolo che dopo il viaggio su Orion ci ha permesso di scendere fino alla superficie, ma… Non possiamo ancora dirvi con esattezza come sarà! Il lander Artemis, infatti, verrà costruito da un’agenzia spaziale privata, ma non è ancora stato stabilito quale fra i vari progetti sottoposti alla NASA dalle varie compagnie verrà realizzato. La caratteristica vincente sarà la riusabilità del veicolo, in modo da abbattere i costi ed evitare di lasciare i lander usati lassù, e un lungo supporto vitale per gli astronauti, che potranno così svolgere missioni più lunghe sulla superficie.
Anche se con la fantasia siamo già laggiù, c’è però ancora molto lavoro da fare prima del 2024 e il programma ha già subito vari rallentamenti nel corso del tempo. Questo genere di missioni richiede infatti grandi sforzi, sia dal punto di vista economico che umano: ogni dettaglio deve venir minuziosamente studiato e pianificato con ore di lavoro e l’impegno di centinaia di persone. C’è bisogno di dedizione e duro lavoro, ma anche di entusiasmo e di curiosità: questo è ciò che ha spinto gli esploratori del passato a tracciare nuove rotte e approdare su nuove terre, ciò che ci ha permesso di sorpassare i limiti di ogni frontiera, prima la terra, poi il mare ed ora il cielo. Completare le prime missioni Artemis non vorrà dire solo mettere una spunta a fianco di un freddo piano di volo, ma continuare la lunga camminata iniziata con il piccolo, grande passo di Armstrong: un viaggio che, poco alla volta, ci ha portati e ci riporterà sulla nostra Luna, che ha permesso la costruzione della Stazione Spaziale Internazionale e che ci farà arrivare sempre più lontano, verso Marte e oltre, verso il domani. E’ un viaggio che non coinvolge solo le agenzie spaziali, ma che riguarda ognuno di noi: se ce la faremo sarà perchè saremo riusciti a superare le nostre paure, a guardare oltre i confini, non solo quelli dello spazio ma anche quelli degli Stati. Qualunque cosa accadrà, dobbiamo puntare in alto, sempre e comunque, sia come singoli individui, sia con grandi progetti come questo. Quindi incoccate la vostra freccia e prendete bene la mira: il bersaglio di Artemis sarà la Luna, quello di ognuno di noi un brillante futuro.
Martina Cucchi
Fonti:(NASA, ESA, Media INAF, National Geographic):https://edu.inaf.it/astroschede/luna/https://it.wikipedia.org/wiki/Eugene_Cernan#:~:text=Cernan%20%C3%A8%20l'ultimo%20uomo,UT%20del%2014%20dicembre%201972. https://www.media.inaf.it/2020/10/26/acqua-luna-sofia/ https://www.media.inaf.it/2020/10/26/acqua-sulla-luna-2/https://www.media.inaf.it/2020/10/26/acqua-sulla-luna-2/ https://www.esa.int/Science_Exploration/Human_and_Robotic_Exploration/ESA_welcomes_announcement_of_next_astronauts_to_the_Moonhttps://www.nationalgeographic.it/spazio/2020/12/una-di-queste-astronaute-potrebbe-essere-la-prima-donna-a-mettere-piede-sulla-luna https://www.nasa.gov/specials/artemis/ https://www.nasa.gov/what-is-artemis https://solarsystem.nasa.gov/news/907/moons-south-pole-in-nasas-landing-sites/ https://www.media.inaf.it/2019/08/30/artemis-luna/ https://www.youtube.com/watch?v=_T8cn2J13-4 https://www.youtube.com/watch?v=_fRSaLAEW2s https://www.nasa.gov/gateway https://www.esa.int/Science_Exploration/Human_and_Robotic_Exploration/Gateway_to_the_Moon https://www.esa.int/Science_Exploration/Human_and_Robotic_Exploration/Exploration/Gateway https://www.esa.int/Science_Exploration/Human_and_Robotic_Exploration/Orion/Orion_European_Service_Module_media_kit https://www.esa.int/Science_Exploration/Human_and_Robotic_Exploration/Orion/European_Service_Module https://www.nasa.gov/exploration/systems/sls/index.html https://www.esa.int/Science_Exploration/Human_and_Robotic_Exploration/Orion/Artemis_1 https://www.nasa.gov/feature/around-the-moon-with-nasa-s-first-launch-of-sls-with-orion https://www.nasa.gov/feature/nasa-s-first-flight-with-crew-important-step-on-long-term-return-to-the-moon-missions-to https://www.esa.int/Science_Exploration/Human_and_Robotic_Exploration/Orion/Artemis_2 https://www.esa.int/esearch?q=artemis+3 https://www.nasa.gov/press-release/nasa-publishes-artemis-plan-to-land-first-woman-next-man-on-moon-in-2024 https://www.nasa.gov/press-release/nasa-names-companies-to-develop-human-landers-for-artemis-moon-missions
Simpatia, empatia e i neuroni specchio
Empatia e simpatia sono parole spesso utilizzate come sinonimi, ma in realtà hanno significati distinti. Si coglie la prima differenza già nell’etimologia dei due termini, infatti simpatia deriva dal greco sym-patéo, parola costituita da pathos cioè “affezione, sentimento” e dal prefisso syn-, “con, insieme” e significa sentire o provare un certo sentimento con l’altro. Empatia deriva sempre dal greco en-patheia, “in” e “soffro” e fa riferimento al fatto di “sentire dentro l’altro”. La parola empatia è comparsa per la prima volta nell’ottocento con il termine tedesco Einfuhlung che indica un mezzo per l’espressione di sentimenti ed emozioni proprie ed altrui. Successivamente, nel corso del novecento, tale parola è stata ripresa dallo psicologo americano Edward Titchener, il quale coniò il termine empathy, dal quale deriva l’italiano empatia.
L’empatia è la capacità di “mettersi nei panni degli altri”, percependo le emozioni che sta provando un’altra persona, indipendentemente dalla condivisione della sua visione della realtà. Permette inoltre di simulare gli stati mentali dell’altro, in modo da riuscire a comprendere il suo comportamento. La simpatia implica un certo grado di somiglianza con l’altra persona, infatti consiste nella percezione di emozioni, stati soggettivi od esperienze in maniera simile ad un altro individuo. Ciò implica una partecipazione attiva nel vissuto interiore del soggetto che abbiamo affianco, desiderio di aiutarlo e di alleviare eventuali sentimenti negativi che sta provando.
Di conseguenza, la differenza sostanziale tra simpatia ed empatia è il fatto che si può comprendere il vissuto interiore di una persona, senza provare per lei necessariamente simpatia, al contrario si può provare simpatia senza capire sentimenti e pensieri dell’individuo con cui ci stiamo relazionando. Allo stesso tempo si può provare sia simpatia che empatia, cioè si percepiscono i sentimenti dell’altro e si prova anche un forte desiderio di aiutarlo o stargli affianco. Una frase che mette in evidenza la diversa inclinazione di questi stati mentali è: “Simpatizzare è condividere valori, passioni ed affetti, empatizzare è mostrare rispetto di fronte alle diversità, senza giudicare”.
L’empatia è un elemento sostanziale per l’essere umano, essa infatti si pone alla base della convivenza in società. La comprensione dell’altro è essenziale per saper vivere bene in una comunità e dal momento in cui l’uomo ha la necessità di relazionarsi con i suoi simili, è altrettanto necessario comprendere le affezioni e i comportamenti altrui. Il ruolo chiave dell’empatia è stato capito fin dai tempi di Aristotele, anche se poi le spiegazioni scientifiche e neurobiologiche sono state date solo in tempi recenti. Egli infatti la reputava alla base della tragedia, il genere teatrale greco per eccellenza. Il pubblico era solito immedesimarsi nei personaggi rappresentati, provando forti le emozioni e gli istinti che stavano sperimentando allo stesso tempo anche i protagonisti messi in scena. L’identificazione dei sentimenti del pubblico con quelli dei personaggi aveva un effetto purificatore, in greco antico detto katharsis e la simulazione di tali situazioni era un insegnamento di vita per gli spettatori.
La condivisione di sentimenti che avveniva durante le tragedie greche, oppure la percezione dei sentimenti di una persona cara, non sarebbe possibile senza la presenza dei neuroni a specchio.
Ma che cos’è esattamente questo tipo specifico di neuroni?
Sono stati scoperti per la prima volta nel 1991 da un’equipe di medici italiani dell’università di Parma e la squadra era guidata dal neurobiologo Giacomo Rizzolatti. È stata una scoperta casuale e non programmata! I neuroscienziati infatti stavano indagando sull’attività elettrica delle cortecce motorie, (una parte del nostro cervello) in relazione ai comportamenti mirati ad uno scopo.
Lo studio veniva condotto sui macachi a cui erano stati impiantati microelettrodi nella regione premotoria del cervello, detta F5, al fine di registrarne l’attività elettrica. I neuroni di questa regione erano di grande interesse, studi precedenti avevano già compreso che essi si attivavano sia durante l’esecuzione di azioni motorie, sia osservando gli oggetti impiegati per compiere queste azioni. Si scoprì anche che questi neuroni non erano solo impiegati nelle azioni motorie, ma anche processi sensoriali e percettivi.
L’evento svolta che ha portato alla scoperta dei neuroni specchio è stato quando l’equipe di medici stava facendo la pausa pranzo e sul monitor del computer che registrava l’attività celebrale dei macachi, si è vista l’attivazione dei neuroni premotori, nella regione F5, nonostante gli animali non stessero compiendo alcun movimento. Tuttavia, nonostante i macachi fossero fermi, i loro neuroni si attivavano nel momento in cui gli scienziati portavano il cibo alla bocca, come se loro stessi stessero eseguendo quei movimenti. Si comprese che i neuroni specchio si attivano sia quando un soggetto compie una determinata azione, che quando la si vede compiere da un altro.
Anche l’empatia dipende dalla loro attività, in particolar modo dai neuroni situati nella corteccia senso-motoria (strutture limbiche e paralimbiche). Il meccanismo specchio consente di comprendere le emozioni altrui e di rispondere conseguentemente, elemento di sostanziale importanza in natura. Infatti capire e saper riprodurre internamente le sensazioni positive o negative di un individuo, permette la sopravvivenza dell’intero gruppo.
I neuroni specchio si attivano fin dalla prima infanzia; il neonato a pochi mesi di vita è in grado di rispondere al sorriso della madre facendo altrettanto e solitamente, se ciò non accade, è indice di autismo. Sono una struttura fondamentale che consente al bambino di instaurare un’immediata relazione con la madre. Due psicologi dell’età evolutiva, Meltzoff e Moore, hanno studiato l’attività dei neuroni specchio e l’imitazione nei neonati di pochi giorni, giungendo alla conclusione che anche i bambini nati da pochissimo tempo sono in grado di imitare alcune espressioni del viso e gesti delle mani. Ipotizzano quindi che alla nascita sia già esistente un sistema specchio non formato completamente, ma che consente forme semplici di imitazione.
Alessandra Zagaria
Fonti:I neuroni specchio. Apprendimento, imitazione ed empatia. Di Silvina Catuara Solarez.L’empatia integrata. Analisi umanistica del comportamento motivazionale nella clinica e nella formazione.https://www.aiutoallapersona.it/blog/empatia-non-e-simpatiahttps://www.treccani.it/enciclopedia/empatia_%28Universo-del-Corpo%29/https://www.treccani.it/vocabolario/simpatia/https://www.crescita-personale.it/articoli/crescita-personale/emozioni/empatia-e-simpatia-le-differenze.htmlhttps://www.neuropsicomotricista.it/argomenti/657-tesi-di-laurea/il-ruolo-dell-imitazione-in-bambini-con-disturbo-dello-spettro-autistico/3451-imitazione-e-neuroni-specchio.htmlNUMERO 9
2021Storia della vaccinazioni
Come sono nati i vaccini? Origini e nascita delle teorie no-vax
Il termine “vaccino” è una derivazione del termine latino vacca, vaccae, ovvero “vacca “. La sua nascita risale al XVIII secolo, periodo nel quale il vaiolo, un virus che attacca le mucose dell’apparato respiratorio, era la prima causa di morte.
Il merito della scoperta del principio alla base del vaccino va al medico britannico Edward Jenner, il quale aveva notato che i contadini che contraevano la variante vaccina del vaiolo, più leggera di quella umana, difficilmente contraevano di nuovo il virus. Il medico decise quindi di infettare volontariamente un bambino di 8 anni con la variante vaccina del virus, e il bambino, dopo 6 settimane di convalescenza, risultò immune alla variante umana (da qui la derivazione da vaccus).
Al tempo Jenner non seppe spiegarsi con precisione cosa portasse all’immunità, ma ad oggi sappiamo che i vaccini servono a evocare una risposta del sistema immunitario ad uno specifico agente patogeno simulando una infezione da parte di quest’ultimo, in modo che sia in grado di rispondere a una vera infezione. Il principio alla base di questo meccanismo è la memoria immunologica: la capacità del sistema immunitario di ricordare quali microrganismi estranei hanno attaccato il nostro organismo in passato e di rispondere velocemente.
Durante il XIV secolo gli studi sulle vaccinazioni continuarono. Il chimico francese Louis Pasteur condusse degli studi sulle culture batteriche e su come inibirle, in modo da poter produrre dei vaccini efficienti. I suoi studi anticiparono le tecniche di allevamento moderne, in quanto erano incentrati sulle infezioni dei capi di bestiame. Mediante terapie preventive a base di agenti patogeni inibiti, riuscì ad arrestare le malattie del baco da seta, il colera dei polli e l’antrace, anche detto carbonchio. Quest’ultimo era un batterio che infettava principalmente gli animali di campagna distruggendo i loro capillari.
Il ciclo vitale del batterio era stato descritto dal suo collega e rivale tedesco Robert Koch. Egli aveva condotto studi sulla tubercolosi, proponendo la tubercolina, un estratto di bacilli tubercolari provenienti da bovini o animali da laboratorio, come terapia per la tubercolosi. Koch era entrato in conflitto con il suo collega francese circa l'efficacia delle vaccinazioni per prevenire l’infezione da carbonchio nei capi di bestiame, nonostante essa venne pubblicamente dimostrata. Nonostante ciò, ad oggi i due rivali sono considerati i padri fondatori della microbiologia moderna.
Le vaccinazioni nella storia dell’umanità hanno fatto sì che venissero debellate malattie che a lungo avevano flagellato la popolazione di tutto il globo. Nel ‘900 ebbe luogo la più grande campagna di vaccinazioni che la storia ricordi dopo quella in atto ai giorni nostri: si tratta della campagna contro la Poliomielite. La Poliomielite fu una malattia che caratterizzò la prima parte del XX secolo avendo un picco fra gli anni 40 e gli anni 50. Questa malattia in alcuni soggetti attaccava il sistema nervoso portando diverse paralisi, colpendo soprattutto i bambini. Il primo vaccino utilizzato contro la Poliomielite, venne sviluppato dallo statunitense Jonas Salk, per poi essere sostituito dal vaccino sviluppato da Albert Bruce Sabin che, oltre ad avere una modalità di somministrazione più semplice, si dimostrò più efficace.
Ad oggi, può capitare di sentir parlare di persone contrarie ai vaccini. Sin dal ‘700 nacquero numerosi associazioni “antivacciniste”, che inizialmente si schierarono contro le vaccinazioni per motivi idealisti e religiosi (l’introduzione nel corpo umano di bacilli di malattie provenienti da animali era malvista). Questo scetticismo nei riguardi dei vaccini, se pur ridotto notevolmente, ha persistito sino ai giorni nostri, ricevendo una notevole spinta grazie alla pubblicazione scientifica fraudolenta, nel 1998, di Andrew Wakefield. In questo studio il medico Britannico ha ipotizzato e sostenuto (citando dati che si sono rivelati non replicabili) un possibile legame tra la somministrazione del vaccino trivalente e l’autismo. Nonostante numerosi studi abbiano escluso tale collegamento, tuttavia, è rimasta, in talune persone, l’idea che l’autismo possa essere uno degli effetti collaterali del vaccino somministrato ai bambini.
Lo sviluppo di un vaccino, quindi, parte dal virus o dal batterio contro cui si vuole immunizzare, e consiste in una soluzione acquosa contenenti materiale biologico in grado di innescare una produzione di anticorpi.
In base al tipo di materiale biologico presente, esistono varie tipologie di vaccini: alcune prevedono l’iniezione di virus o batteri indeboliti o uccisi, mentre altre prevedono l’iniezione solo di alcune componenti dei microrganismi da cui ci si vuole proteggere. I primi vaccini contro il Sars-CoV-2 , sono stati realizzati con una tecnicologia completamente nuova, cioè sono virus a RNA messaggero. All’interno del vaccino l’mRNA è incapsulato in sfere fatte di grassi (liposomi). Iniettati nel nostro corpo , i liposomi entrano nelle cellule e liberano l’mRNA che contiene le informazioni necessarie per produrre la proteina spike del virus. Nella cellula l’mRNA viene tradotto nella proteina spike che uscita dalla cellula sarà riconosciuta come estranea dal sistema immunitario, che si attiva, preparandosi ad un eventuale contatto con il virus Sars-CoV-2.
In conclusione, i vaccini sono l’arma più efficace e veloce nel contrastare un’epidemia, in quanto permettono di prevenire l’infezione immunizzando la società. Nei paesi meno sviluppati, le vaccinazioni contro le malattie dovute a scarse condizioni igieniche, hanno portato un significativo abbassamento dei tassi di mortalità infantile, garantendo il diritto alla salute a un maggior numero di persone e proteggendo i più fragili. Una campagna di vaccinazioni ben strutturata consente di debellare un'epidemia, motivo per cui è fondamentale combattere le fake news con la divulgazione scientifica.
“Nell’era dell’informazione, l’ignoranza è una scelta” - Donald Miller
Appendice "Vari tipi di vaccini":
vaccini vivi attenuati, che vengono prodotti a partire da agenti infettivi resi non patogeni
vaccini inattivati, che vengono prodotti utilizzando virus o batteri uccisi tramite esposizione al calore oppure con sostanze chimiche
vaccini ad antigeni purificati, che vengono prodotti attraverso raffinate tecniche di purificazione delle componenti batteriche o virali
vaccini ad anatossine, che vengono prodotti utilizzando molecole provenienti dall’agente infettivo, non in grado di provocare la malattia ma sufficienti ad attivare le difese immunitarie dell’organismo
vaccini a Dna ricombinante, che vengono prodotti clonando e producendo una grande quantità di un determinato antigene.
antigene = sostanza che se introdotta nel corpo innesca una produzione di agenti antagonisti (anticorpi)
Alessandro Scibilia
Come mai troviamo tanto carini i cuccioli?
Dagli animali a Baby Yoda
La parola kindchenschema significa letteralmente “baby schema” o “segnali infantili” e con questo termine si indicano tutti i tratti morfologici esterni tipici di animali ed esseri umani in età infantile. L’etologo e zoologo Lorenz Konrad attraverso diversi esperimenti condotti nel 1943 individuò dei tratti tipici infantili quali guance paffute, occhi grandi e tondi, corpo tozzo con andatura goffa e traballante, orecchie piccole… La funzione che tali caratteri rivestono è sostanziale: permettono una maggiore probabilità di sopravvivenza dei cuccioli. Infatti i genitori o gli animali adulti, mossi dalla tenerezza per i piccoli, sono spinti a fornir loro le cure parentali necessarie alla vita.
Questi tratti sono comuni a tutte le specie ed è per questo motivo che sia l’uomo che in certi casi anche gli animali, sono portati a curare i piccoli delle altre specie. Per esempio non è raro decidere di adottare un cane, un gatto o un animale domestico, ma… come mai proviamo così tanta tenerezza per i cuccioli? La prima spiegazione è data proprio dalla presenza di tali “segnali infantili”, ma non solo. Invero l’uomo, con l’accudimento di un cucciolo, attiva il circuito del piacere/ricompensa, liberando dopamina e ossitocina, quest’ultima denominata anche come “l’ormone dell’amore”. Questo fenomeno è sostanziale anche per la prosecuzione della specie: la mamma grazie ai tratti del suo piccolo è portata a prendersene cura e a badare alla sua sopravvivenza, ciò vale non solo per gli animali, ma anche per gli esseri umani.
Parlando di kindchenschema è necessario fare riferimento anche al fenomeno della neotenia, ovvero la permanenza di caratteristiche infantili anche nell’età adulta. Un esempio è dato dalla neotenia nel cane, infatti nel corso dei millenni l’uomo ha sempre cercato di ricreare attraverso selezioni ed incroci un cane docile e fedele. Così con il passare del tempo si sono sviluppati progressivamente individui sempre più simili caratterialmente al cucciolo di lupo piuttosto che al lupo adulto. Tale regressione psichica è stata poi accompagnata anche da una regressione morfologica, per così dire fisica del lupo cucciolo, tant’è che attualmente il cane ha caratteristiche simili più al piccolo di lupo che non a quello adulto.
Che sia un cucciolo di cane, un gattino oppure un coniglietto, capita di dire: “Sei così carino ti strapazzerei di baci!” Ma di che cosa si tratta questo meccanismo psicologico?
Ciò di cui si sta parlando è la cute aggression, un’espressione dimorfica delle emozioni, come per esempio, si piange dalla gioia o in momenti di particolare tensione si ride dal nervosismo.
Nel caso della cute aggression si incorre in un forte senso di sopraffazione dovuto ad esperienze positive, frustrazione per una reazione esagerata per la quale non si trova sfogo. Secondo diversi neuroscienziati il cervello consuma molte energie, soprattutto sotto una forte stimolazione emotiva. Diventa così necessario modulare le proprie risposte emotive generando una forte emozione contrastante, in questo caso appunto frustrazione, in modo da non far sprecare troppe energie all’intero organismo. Dyer e Argon, due neuroscienziate impiegate nell’indagine sulla cute aggression, in un’intervista a Live Science hanno spiegato che: "potrebbe essere che il modo in cui cerchiamo di gestire un'emozione fortemente positiva è di darle anche una sfumatura negativa. È una specie di compensazione, ci tiene in equilibrio, e sfoga quell'energia."
Il fenomeno del “baby schema” è largamente impiegato nella televisione e cinema; un esempio è rivestito dalla figura di Baby Yoda, dal Gatto con gli stivali del film Shrek, E.T. e molti altri. Tali tratti stanno diventando sempre più accentuati e risaltati nei cartoni animati. La motivazione che ha reso Baby Yoda tanto famoso, è da ricercarsi proprio nei suoi “segnali infantili”, i suoi tipici occhioni che generano tenerezza ed attrattiva. Attualmente, i personaggi più iconici della tv sia per bambini che per adulti, sono rappresentati con caratteristiche tali da far innamorare lo spettatore a prima vista.
Fonti:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3260535/ https://it.wikipedia.org/wiki/Segnali_infantilihttps://www.focus.it/comportamento/psicologia/perche-quando-una-cosa-ci-ispira-tenerezza-viene-voglia-di-stringerlahttp://www.scienze-naturali.it/ambiente-natura/etologia/baby-schema-i-cuccioli-sono-scientificamente-piu-tenerihttps://www.vice.com/it/article/4xpgy9/ho-chiesto-a-una-neuroscienziata-perche-voglio-soffocare-di-baci-ogni-cucciolo-che-vedo
Alessandra Zagaria
NUMERO 8
NOVEMBRE 2020Asteroidi fantastici e dove trovarli
B-Lue nello spazio di Martina Cucchi
Tecnica: tempera, matite, rifiniture il digital art con Sketchbook di Autocad“Asteroide in avvicinamento: colpirà la Terra il 2 novembre!”, “il 2 novembre faremo la fine dei dinosauri, “il 2 novembre il mondo finirà”, eccetera: quante testate giornalistiche come questa avete letto ad ottobre? Beh, fortunatamente siamo ancora qui. L’asteroide incriminato questa volta era 2018VPI, ma la possibilità che impattasse con la Terra era 1 su 240 e, anche se effettivamente si fosse schiantato, il suo diametro di soli 2 metri non gli avrebbe consentito di arrivare sulla superficie causando danni, dato che si sarebbe disintegrato all’entrata in atmosfera.
Dall’Era Glaciale 4 ad Armaggedon, gli asteroidi hanno sempre dato spunto alla fantasia dei registi, ma quanto c’è di vero nella fantascienza? Anche nel nostro quotidiano, però, ci capita spesso di leggere sul web previsioni di asteroidi che si avvicineranno pericolosamente al nostro pianeta. Niente paura, però: quando gli astronomi parlano di “vicino”, parlano di milioni di km e la reale possibilità che l’asteroide si schianti sulla Terra è praticamente inesistente. Titoli sensazionalistici a parte, centinaia di oggetti ci sfiorano continuamente (sempre parlando in distanze astronomiche) o addirittura entrano nell’atmosfera terrestre: si stima infatti che ogni anno precipitino sulla Terra circa 100 tonnellate di materiale spaziale, ma la maggior parte si disintegra durante la caduta a causa dell’attrito con l’atmosfera, tramutandosi in meteore e poi in un’innocua valanga di polvere (sì, i batuffoli sotto il vostro letto potrebbero provenire dallo spazio!). Vi suggeriamo quindi di godervi lo spettacolo delle stelle cadenti delle Geminidi e delle Ursidi, visibili dal 4 al 26 dicembre, e di esprimere un desiderio: “fa che un asteroide non ci distrugga” (scherziamo!).
Il fatto che gli asteroidi vengano usati solo come argomenti di riserva però è un peccato, perché, anche se apparentemente possono sembrare solo dei grossi sassi, possono avere molte storie interessanti da raccontare, alcune che ci riportano all’origine del sistema solare stesso: per questo la sezione scientifica di B-log li elegge protagonisti dell’articolo di novembre, rassicurandovi sulle reali possibilità di un impatto catastrofico e portandovi alla scoperta di programmi spaziali degni di Hollywood.
Ma cosa sono veramente questi famigerati sassoni spaziali? In realtà gli asteroidi sono oggetti molto semplici e anche molto abbondanti: possiamo definirli come dei corpi per lo più rocciosi, generalmente di forma irregolare, con diametro compreso fra pochi metri e 200 km. È possibile incontrarli un po’ in tutto il sistema solare, ma in particolare se ne registrano alte concentrazioni nella fascia principale, cioè un anello di corpi rocciosi orbitanti intorno al Sole situato fra le orbite di Marte e Giove, e nella fascia di Kuiper, che si trova invece oltre l’orbita di Nettuno. La categoria a cui appartengono la maggior parte delle star delle apocalissi mancate sono invece i NEO (Near Earth Objects, oggetti vicini alla Terra) che, come ci dice il nome, incrociano l’orbita del nostro pianeta. A marzo 2019 ne conoscevamo quasi 20.000, ma ogni giorno ne vengono scoperti di nuovi: insomma, c’è un bel po’ di confusione spaziale intorno a noi. In particolare, i PHA (Potentially Hazardous Asteroids) sono quelli ritenuti potenzialmente pericolosi, cioè oggetti che si trovano a passare a una distanza inferiore ai 7,5 milioni di chilometri da noi e con una dimensione superiore ai 140m di diametro. Nel 2013 la NASA ne aveva catalogati ben 1400, ma nessuno di questi dovrebbe diventare pericoloso per la Terra, almeno per i prossimi 100 anni o giù di lì, quindi niente panico.
Certo, certo, anche ai dinosauri dicevano così, ma poi 66 milioni d’anni fa è arrivato il famigerato asteroide killer e tanti saluti ai nostri cari lucertoloni…
In effetti qualche disastro spaziale c’è stato anche in epoca moderna…
Il 30 giugno 1908, per esempio, un asteroide si schiantò nella foresta russa di Tunguska, abbattendo 2200 kmq di alberi e, sempre in Russia, il 15 febbraio 2013, una pioggia di detriti sopra la città di Chelyabinsk causando quasi 1000 feriti (piogge meteoritiche si verificano comunque ogni anno, ma visto che la maggior parte della superficie terrestre è disabitata nella maggior parte dei casi non se ne hanno testimonianze). Secondo il Lunar and Planetary Laboratory dell'Università dell'Arizona, il nostro pianeta presenta oltre tre milioni di crateri da impatto più grandi di 1 km di diametro, creati da altrettanti asteroidi che si sono schiantati in passato e fenomeni simili sono riscontrabili anche nel resto del sistema solare (pensate alla superficie lunare o di Marte per esempio).
Noi però abbiamo mezzi tecnologici decisamente migliori rispetto ai dinosauri per scongiurare un impatto fatale: l’ESA sta sviluppando un programma di sicurezza spaziale per cercare di proteggerci da tutto ciò che potrebbe colpirci dallo spazio (astronavi di alieni malvagi escluse). Il nome sembra uscito da un film di fantascienza: Planetary Defence Office. Uno dei suoi obiettivi chiave è fornire un pre-allarme alle aree a rischio di impatto, tramite la ricerca, l’osservazione e il monitoraggio sistematico dei corpi vicini alla terra.
I dati su oggetti vicini alla Terra e asteroidi rischiosi vengono rilevati da telescopi e sistemi radar in tutto il mondo e raccolti, fra gli altri, dal Near-Earth Object Coordination Center (NEOCC) dell'ESA con sede a Frascati. E’ inoltre in sviluppo una rete globale di telescopi automatizzati Flyeye in grado di scoprire asteroidi fino a 40 metri di diametro con un anticipo di almeno tre settimane: il primo verrà costruito in Sicilia, sul monte Mufara.
Ma cosa possiamo fare se rilevassimo un asteroide pericoloso (a parte evitare il panico di massa)? No, niente missioni umane stile Armageddon: meglio mandare le sonde a fare il lavoro sporco (e pericoloso, moooolto pericoloso)…
La NASA e l’ESA hanno già iniziato le prove generali per una possibile missione di difesa planetaria. Questo dicembre verrà lanciata la missione Double Asteroid Redirection Test (DART) della NASA, diretta verso l’asteroide Didymos e il suo piccolo satellite Didymoon. Nel 2022 la sonda DART si schianterà (di proposito, in stile BANZAAAAI!!) come un grosso proiettile proprio su Didymoon, con l’obiettivo di deviare la sua orbita.
E poi?
Nel 2024 ESA invierà un’altra sonda spaziale, Hera, alla volta del celestiale duo per osservare direttamente il luogo dell’impatto di DART, per capire quali danni la sonda americana ha effettivamente causato al piccolo Didymoon e quanto la sua orbita sia stata effettivamente modificata.
In questo modo potremo stabilire se l’idea di deviare la traiettoria di un asteroide diretto verso di noi colpendolo con un “proiettile” sia efficacie e in che modo dovrà venir attuata (per esempio quanto deve essere grande il dardo e a che velocità dovrà schiantarsi per modificare sensibilmente il moto dell’asteroide).
P.S. niente paura, Didymos è stato scelto perché molto lontano da noi, eventuali frammenti del botto non ci raggiungeranno!
Oltre che pericoli da scongiurare, però, gli asteroidi potrebbero racchiudere ricchezze e risposte per l’umanità. Nel 2017 gli USA hanno infatti considerato la fattibilità di un progetto di miniere spaziali: esistono già società private che guardano agli asteroidi come risorse quasi inesauribili di metalli preziosi e non, materie prime e acqua. Problemi tecnici e di budget a parte, un’operazione mineraria spaziale è in teoria fattibile, ma per rendere queste ipotesi concrete abbiamo bisogno di conoscere più a fondo i nostri vicini spaziali.
Ecco che entrano in gioco ancora una volta le sonde spaziali (già, per realizzare un film di fantascienza con tanto di equipaggio ci vorrà ancora un po’): sguinzagliandole poco alla volta, raccoglieranno dati e campioni che ci aiuteranno a comprendere meglio la natura di questi corpi e, paradossalmente, anche la nostra. Dopo secoli alla ricerca del segreto dell’origine della vita, forse proprio grazie a queste missioni potremo avvicinarci alla risposta…
La maggior parte degli asteroidi sono infatti residui della formazione del Sistema Solare e potrebbero quindi essere una sorta di capsula del tempo, proveniente direttamente da 4,6 miliardi d’anni fa. Gli asteroidi carbonacei contengono alte concentrazioni di composti del carbonio e dell’ossigeno, fra cui anche materiale organico e acqua, e potrebbero essere stati proprio loro, schiantandosi in passato sulla Terra, a portare queste sostanze sul nostro pianeta, gettando le basi per la nascita della vita.
Bennu, per esempio, è un asteroide NEO a base di carbonio nato 1,75 milioni di anni fa. Esso è stato scelto come meta per la missione della Nasa della sonda OSIRIS-REx, con lo scopo di recuperarne un campione da portare sulla Terra. La sonda spaziale è stata lanciata nel novembre 2016 e, dopo un viaggio di due anni, si è immessa nell’orbita dell’asteroide nel dicembre 2018, iniziando ad osservarlo e creandone una dettagliatissima mappa 3D. La raccolta dei campioni è stata effettuata il 20 ottobre in modo del tutto automatizzato: avvicinandosi superficie ma librandosi senza atterrare, OSIRIS-Rex ha catturato ben 400g di polvere superficiale di regolite grazie al suo braccio robotico. Il materiale è stato quindi stivato in attesa del 2021, quando la sonda inizierà il suo viaggio di ritorno, tornando sulla Tetta alla fine del 2023 con il suo prezioso carico.
Già un’altra sonda, Hayabusa2 dell’agenzia spaziale nipponica JAXA, sta facendo ritorno con il suo carico di campioni. Hayabusa2 (erede di Hayabusa1, il cui rientro sulla Terra è stato un po’ brusco purtroppo…) è stata infatti lanciata nel dicembre 2014 con destinazione l’asteroide carbonaceo Ryugo. Il suo nome significa in giapponese “falco pescatore” e ci dice molto sulla modalità con cui, nel 2019, ha eseguito le sue raccolte di campioni: la sonda ha prima bombardato Ryugo con un proiettile di rame per aprire un cratere e si è quindi lanciata in picchiata su di esso per raccogliere “al volo” qualche grammo di polvere. Hayabusa ha lasciato Riyugo nel novembre 2019 e, dopo un viaggio di circa un anno, il 5 dicembre 2020, è passata vicino alla Terra sganciando la capsula contenente i campioni nel deserto australiano meridionale. Ora il prezioso materiale verrà portato al Sagamihara Campus vicino a Tokyo, in Giappone, mentre la sonda madre, che non è atterrata, continuerà il suo viaggio dirigendosi verso il minuscolo asteroide 1998KY26, che dovrebbe raggiungere nel 2031. Grazie all’apertura del cratere su Ryugu, la sonda ha potuto prelevare materiale dal sottosuolo dell’asteroide, che, a differenza della polvere superficiale, non è rimasto esposto a millenni di radiazioni spaziali e potrebbe quindi essere un esempio incontaminato degli “ingredienti fondamentali” per la ricetta della vita sparsi nel Sistema Solare primordiale.
Queste missioni ci hanno permesso di osservare da vicino gli asteroidi, raccogliendo moltissime immagini e dati dalle loro superfici e, soprattutto, ci porteranno dei pezzetti di essi, per studiarli materialmente e sempre più a fondo. Muoveremo così tanti piccoli passi indietro, verso l’origine dei pianeti e della vita, e in avanti, verso future missioni nello spazio profondo, spingendoci sempre più in là.
Fonti (Esa, Nasa, Inaf, Ansa, Focus, Le Scienze e Astronews):Libri “Tutto comincia dalle stelle” e “Stelle da paura” di Margherita Hackhttps://www.focusjunior.it/scienza/spazio/quanti-meteoriti-si-abbattono-sulla-terra/ https://www.media.inaf.it/2013/08/26/asteroidi-da-tener-docchio/ https://www.esa.int/Space_in_Member_States/Luxembourg/OSIRIS-REx_et_Hera_mieux_connaitre_les_asteroides_pour_mieux_defendre_la_Terre https://www.esa.int/Safety_Security/An_Agency_for_asteroids https://www.esa.int/Safety_Security/Risky_asteroids https://www.focus.it/scienza/spazio/asteroidi-miniere-nello-spazio https://www.media.inaf.it/2017/09/20/le-miniere-spaziali-del-futuro/ https://www.ansa.it/canale_scienza_tecnica/notizie/spazio_astronomia/2018/08/30/gli-asteroidi-come-miniere-di-risorse-minerali_424cb192-79c2-4dd0-ad33-067314bcd1ba.html https://www.media.inaf.it/2020/01/03/tutte-le-stelle-cadenti-del-2020/ DART/HERAhttps://www.nasaspaceflight.com/2020/09/hera-planetary-defense-prime-contractor/ https://www.focus.it/scienza/spazio/hera-missione-esa-asteroidi-difesa https://www.esa.int/Safety_Security/Hera/Hera https://www.media.inaf.it/2019/11/27/odissea-fra-gli-asteroidi/ https://www.astronautinews.it/2018/07/hera-la-missione-esa-per-la-difesa-planetaria-sullasteroide-binario-didymos/ OSIRIS-Rexhttps://www.nasaspaceflight.com/2018/12/osiris-rex-arrives-asteroid-bennu/ https://www.lescienze.it/news/2018/12/22/news/osiris-rex_strumenti_sonda_asteroide_bennu_nasa-4233008/ https://www.media.inaf.it/tag/osiris-rex/ https://www.ansa.it/sito/notizie/topnews/2020/10/21/la-sonda-nasa-atterrata-sullasteroide_1a904914-8829-4da8-90ec-ea3535048bfe.html https://www.focus.it/ricerca?formPosted=FORM_81069_27407&search=osiris+rex&ch=&type=&sm=0&ord=0 https://www.astronautinews.it/2020/10/osiris-rex-ha-toccato-con-successo-lasteroide-bennu/ HAYABUSAhttps://www.focus.it/ricerca?search=hayabusa2&submit=Cerca https://www.nasaspaceflight.com/2019/07/hayabusa2-asteroid-ryugu-sample-return/ https://www.media.inaf.it/?s=hayabusa+2 https://www.astronautinews.it/2019/03/la-discesa-di-hayabusa2-sullasteroide-ryugu/ https://www.focus.it/scienza/spazio/il-rientro-di-hayabusa-2-e-atterrata-in-australia
Martina Cucchi
Mutamento dei ghiacciai e campagne glaciologiche del CGI
Foto di Luca Affaticati
Secondo alcuni studiosi i ghiacciai in un tempo lontano erano molto più estesi. Infatti si ipotizzò che i ghiacciai scendevano fin nelle valli: motivo per cui oggi nelle valli possiamo trovare i massi erratici.
I massi erratici sono grosse rocce con guglie molto vertiginose che si possono trovare in un fondovalle alpino o ai piedi di una collina dell'Appennino. Alcuni esempi sono il masso erratico sul Monte Cimino, in Lazio, e la Pietra Pendula, sulle Prealpi lombarde, a Torno. Il masso erratico più grande pesa 4.500 tonnellate e si trova nel Nord America.
L'ipotesi che i ghiacciai in un passato lontano erano più estesi fu formulata da Louis Agassiz, presidente dell'Associazione elvetica di scienze naturali, il quale dedusse che, molto tempo addietro, il clima della Terra era diverso da quello attuale.
Successivamente si scoprì che, in realtà, il primo ad arrivare a queste conclusioni fu uno scrittore, più precisamente Johann Wolfgang von Goethe. Egli, infatti, visitò le Alpi e, trovando dei massicci erratici, scrisse: << il ghiaccio attraversava la vallata portandoli con sé come i ghiacciai ancora oggi fanno: i blocchi rimasero là dove li osserviamo depositati dalla fusione del ghiaccio. E non sono smussati poiché essi furono trasportati lentamente e non violentemente>>.
Oggi si afferma che il clima terrestre è in continuo mutamento ed influenza la vita di alcune specie, portandole talvolta anche all'estinzione.
In passato, vi furono ere glaciali con temperature molto inferiori a quelle attuali; durante esse i ghiacciai ricoprivano la maggior parte dell'Europa, delle terre fra l'Atlantico e il Pacifico, il Nord America, l'Islanda, la Scandinavia, l'Irlanda, la Gran Bretagna, lo Stretto di Bering, la Finlandia e l'Antartide, la quale era più estesa.
In breve il mondo 15.000 anni fa era diverso da come lo vediamo noi nei tempi moderni.
All'inizio della sua esistenza, circa 4,6 miliardi di anni fa, la Terra non aveva un'atmosfera e nemmeno dell'acqua; si trovava più vicino al Sole, che era un "sole bambino" (dalla teoria "young faint sun") e emetteva il 30% in meno di energia sulla Terra rispetto ad oggi.
In antichità, quindi, la Terra dovette raffreddarsi e in quello stesso periodo vi era una numerosa attività dei meteoriti; la temperatura media era di -20°C e si iniziò a formare un'atmosfera ricca di anidride carbonica (CO2) e metano (CH4). Essi iniziarono a creare un effetto serra facendo rialzare le temperature e facendo formare gli oceani.
Nel giro di 2 miliardi di anni i microrganismi fotosintetici iniziarono a produrre ossigeno (O2), che dal punto di vista chimico è un gas reattivo, ovvero un tipo di gas capace di attaccare le sostanze con cui viene a contatto.
La produzione di ossigeno determinò l'ossidazione sulle terre e nei mari e iniziò anche a riempire l'atmosfera, evitando l'equilibrio chimico. Grazie all'ossigeno diminuirono nell'atmosfera sia il metano, sia l'anidride carbonica.
Molte glaciazioni trasformarono la terra in una "palla di neve", e l'ultima in cui accadde fu tra gli 800 e 750 milioni di anni fa, quando tutti i continenti erano intorno al Polo Sud e ricoperti di ghiaccio.
Per sciogliersi il ghiaccio ci impiegò 200 milioni di anni e proprio da tale scioglimento che iniziò a svilupparsi la vita animale.
Successivamente con la deriva dei continenti, formulata da Alfred Wegener, che si modificò il clima globale.
Negli ultimi 2 milioni di anni ci furono numerose glaciazioni e l'ultima fu nel 1850, quando i ghiacciai alpini ripresero ad espandersi.
Dal 1850 in poi, per via dell'attività industriale e dell'inquinamento che portarono ad un aumento delle temperature, i ghiacciai rimasti ai poli e in alcune zone del globo iniziarono a sciogliersi, portando ai limiti estremi le specie che abitano in quelle zone: tra cui gli orsi polari che tra qualche anno potrebbero anche arrivare ad estinguersi. Tutto questo a causa dell'uomo che, egoisticamente, continua a produrre sostanze nocive sia per sé stessi, che per il resto degli esseri viventi.
Dal 1895 ogni anno il CGI, ovvero il Comitato Glaciologico Italiano, realizza delle campagne glaciologiche per monitorare lo stato dei ghiacciai e loro variazioni storiche.
L'ultima campagna è iniziata il 17 agosto e si è conclusa il 4 settembre di quest'anno; è stata la prima edizione di Carovana dei ghiacciai, realizzata da Legambiente insieme al CGI per sensibilizzare le persone sugli effetti che stiamo provocando all’ambiente, in particolare ai ghiacciai alpini.
Questa campagna ha avuto 6 tappe: il 17 e il 18 agosto il Miage in Valle d'Aosta, dal 19 al 22 agosto il Monte Rosa in Piemonte, dal 23 al 26 agosto i ghiacciai Forni e Sforzellina in Lombardia, dal 27 al 29 agosto il ghiacciaio della Marmolada in Veneto - Trentino Alto Adige, dal 30 agosto al 1 settembre il Graduata in Trentino Alto Adige e dal 2 al 4 settembre il ghiacciaio del Montasio occidentale in Friuli Venezia Giulia.
Fonti e approfondimenti:https://ilbolive.unipd.it/it/news/clima-puo-cambiare-lha-sempre-fatto?amp https://www.google.com/amp/s/www.lanuovaecologia.it/ghiacciai-dal-1850-la-temperatura-e-aumentata-di-2-c/amp/
Melissa Coniglio
Da dove provengono le emozioni?
“....Gli uomini devono sapere che da niente altro se non dal cervello deriva la gioia, il piacere, il riso, il divertimento, il dolore, il pianto e la pena. E attraverso esso noi acquistiamo la conoscenza e le capacità critiche, e vediamo e udiamo e distinguiamo il giusto dall’errato... E attraverso il medesimo organo noi diventiamo pazzi e deliriamo, e temiamo e il terrore ci assale....” citazione di Ippocrate, V secolo a.C.
Prima di interrogarsi riguardo il loro luogo di provenienza, è bene premettere chiarendo il significato di tale parola. Nell’ambito delle neuroscienze si parla di emozione per indicare un’intensa reazione affettiva, di breve durata, che si manifesta all’improvviso determinata da uno stimolo ambientale. La parola emozione deriva dal greco emovere, cioè “muovere fuori”, perché quello che è un vissuto interiore diventa anche una manifestazione esterna. Queste infatti comportano non solo stati affettivi vissuti solo soggettivamente, ma anche reazioni fisiologiche, espressive, viscerali e psicologiche, come l’alterazione della pressione sanguigna o del ritmo respiratorio, determinano per esempio una momentanea perdita del controllo, oppure modificano la mimica facciale.
Di conseguenza quando si sente il tipico “batticuore” alla vista della persona amata, non è dato da altro che da una serie di alterazioni fisiologiche che avvengono all’interno del corpo, causate proprio dalle emozioni.
Lo studio dell’espressione esterna delle emozioni è relativamente semplice, diventa più complesso osservare da dove queste provengono. Uno dei primi neurologi che si occupò di tale indagine fu James Papez (1883-1954), egli ipotizzò che i diversi stimoli esterni giungano a cervello, più in particolare nel talamo e da qui possano intraprendere due possibili vie: quella del pensiero e del sentimento. Quando gli stimoli intraprendono la via del sentimento, arrivano direttamente dal talamo a strutture situate nell’ipotalamo, regione celebrale responsabile di regolare per esempio i riflessi o il ritmo sonno-veglia. Nel caso in cui il segnale intraprenda la via del pensiero, le sensazioni si trasmettono in percezioni, riflessioni e ricordi. Un altro neuroscienziato di grande importanza fornì un’ulteriore teoria sulla provenienza delle emozioni, facendole derivare principalmente da un’altra regione del cervello: il sistema limbico.
Secondo la sua teoria il cervello è formato da tre strutture, la prima è sede delle emozioni più primitive come per esempio la paura, la seconda è quella che consente di ampliare le risposte emozionali, tra cui le emozioni sociali e la terza ha la funzione di confrontare i processi emozionali con quelli cognitivi, controllando così le risposte emotive. La base di questa teoria è che le emozioni siano il risultato dell’unione tra le informazioni sensoriali provenienti dall’esterno, con le sensazioni provenienti dall’interno del corpo.
Le diverse teorie proposte dai più grandi neuroscienziati del tempo, mostrano che le emozioni dipendono dalla nostra mente, dalla chimica che risiede nell’organo più complesso e misterioso del nostro corpo: il cervello.
Quando si prendono in considerazione le emozioni è bene non dimenticarsi di parlare dell’empatia. Infatti questa è un elemento sostanziale dell’essere umano, può definirsi come la capacità di immedesimarsi nelle altre persone, cogliendo i loro pensieri ed emozioni. È una parola che deriva dal greco e letteralmente significa sentire-dentro, di conseguenza allude alla facoltà di percepire ed indagare sul vissuto interiore delle altre persone. Essendo l’uomo un “animale sociale”, cioè che necessita strettamente della presenza dei suoi simili, comprendere il sentito altrui è fondamentale per la sua buona integrazione nel gruppo sociale in cui vive. Il riconoscimento delle emozioni altrui è possibile grazie alla presenza di particolari tipi di neuroni, definiti “a specchio” perché appunto riflettono o rispecchiano ciò che avviene nella mente del soggetto con cui ci si sta confrontando, su di noi.
Fonti: “Neuroscienze e psicologia, il cervello e le emozioni” di Tiziana Cotrufo e Jesùs Mariano Ureña Bares
Alessandra Zagaria
NUMERO 7
OTTOBRE 2020Nobel e Focus Live
L'Accademia svedese delle scienze ha assegnato il 6 ottobre il Nobel per la fisica 2020 per metà all’inglese Roger Penrose per aver dimostrato l’esistenza dei buchi neri sulla base della teoria generale della relatività e per l'altra metà al tedesco Reinhard Genzel e all’americana Andrea Ghez per l’osservazione di uno di questi oggetti supermassicci al centro della nostra galassia.
“Buco Nero”. A cosa pensate leggendo queste due misteriose parole? Lasciate perdere i film di fantascienza quando le astronavi cercano di sfuggire alla morsa di questi mostri cosmici oppure scienziati pazzi creano delle singolarità in laboratorio: consiglio vivamente di non provarci a casa! Comunque, non arrendetevi pensando che si tratti di qualcosa di troppo complesso da capire per le nostre menti mortali. Certo, nemmeno i migliori cervelli del pianeta riescono a comprendere del tutto la natura di questi oggetti, ma è proprio il mistero che li permea a renderli affascinanti. Quindi, se vedendo un articolo di astronomia vi sentite scoraggiati, non temete: l’ignoto, ciò che non si capisce (o che non si è ancora capito) è da sempre una delle cose che terrorizzano maggiormente gli uomini. Anche le ombre in una stanza buia possono sembrare mostri spaventosi, ma non appena si accende la luce e si capisce quali oggetti abbiamo effettivamente davanti, la paura svanisce. Lasciamoci quindi “illuminare” anche sui buchi neri… Beh, qui insorge il primo problema: i buchi neri sono la nemesi della luce perché se la “mangiano”, rendendosi invisibili, appunto “neri”. Come possiamo dunque renderci conto della loro presenza?
Fra gli anni ’60 e ’70 Roger Penrose esplorò i possibili sviluppi della teoria della relatività di Einstein, ponendosi questo quesito: se l’attrazione gravitazionale di un oggetto aumenta con la sua massa, cosa succederebbe con un oggetto di densità e massa ipoteticamente infinita? Ecco quindi nato il nostro “buco nero”, un concentrato di materia che genera un potentissimo campo gravitazionale in grado di risucchiare luce e materia, e, inglobandole, di aumentare ulteriormente la propria massa. La forza di questi oggetti è tale da agire anche su grandi distanze attirando immani quantità di gas, polvere e stelle, trascinandoli in orbita intorno a sé prima di risucchiarli definitivamente. Il problema era che le teorie di Hawking e Penrose erano fondate e possibili nel ragionamento teorico, ma senza una conferma sperimentale rimanevano solo delle ipotesi. Per renderle accettabili a pieno titolo, serviva una prova dell’esistenza di questi incredibili oggetti e tale prova è giunta negli anni 2000 grazie ai team di ricerca di Reinhard Genzel e Andrea Ghez. Gli astrofisici hanno osservato nel centro della Via Lattea, in una regione denominata Sagittarius A*, un gruppo di stelle che orbitano a velocità altissima intorno a… bhe apparentemente al nulla: qualcosa di invisibile, ma dotato di una massa quattro milioni di volte superiore a quella del Sole, le sta attirando, costringendole ad un valzer cosmico sfrenato. E questo qualcosa è un buco nero super-massiccio, la conferma degli studi di Penrose e Hawking. Fenomeni simili sono stati osservati in quasi tutte le galassie e si ipotizza quindi che si trovi un buco nero al centro di ognuna.
N.B.!!!! Il Nobel è un premio molto prestigioso e antico e proprio per questo può commettere molti errori: le sue regole non sono adatte secondo me a designare le migliori menti del nostro secolo, perché hanno forti limitazioni incompatibili per il modo in cui la ricerca scientifica progredisce attualmente, cioè grazie a collaborazioni non solo fra esperti, ma anche fra discipline, creando un grande team interdisciplinare e internazionale. Il premio infatti può venir vinto da un massimo di tre persone per categoria e non può venir assegnato postumo: senza togliere nulla ai vincitori, che sono grandissimi scienziati che hanno ottenuto risultati importantissimi e meritati, trovo profondamente ingiusto che questo Nobel non sia anche dello scomparso Stephen Hawking, che diede un contributo fondamentale alla ricerca sui buchi neri, ma anche delle centinaia di ricercatori che lavorano da più di un secolo, ognuno nel proprio campo specifico, unendo le forze per raggiungere questo obiettivo comune. Personalmente, dunque, preferisco intendere questo premio non come una glorificazione di tre singoli individui, ma piuttosto come una celebrazione di una delle scoperte più importanti della nostra epoca e di tutte le persone che hanno dedicato la vita al suo raggiungimento.
Affrontiamo ora un altro tema molto ricorrente nel mondo della fantascienza e ugualmente affascinante e dai mille risvolti: rullo di tamburi… l’ingegneria genetica! Dopo aver parlato di oggetti estremamente grandi, entriamo nel mondo delle cellule con il premio Nobel per la chimica 2020, vinto il 7 ottobre dalla biochimica statunitense Jennifer Doudna e dalla microbiologa francese Emmanuelle Charpentier. Le due scienziate sono le inventrici dell’innovativo metodo di editing genetico Crispr/Cas19, che permette di manipolare il DNA di pressoché qualsiasi organismo. Questa innovativa tecnica di ‘forbici’ molecolari sfrutta un particolare frammento di RNA detto “tracrRNA”, in grado di specifici filamenti DNA, per poi “tagliarli” con estrema precisione e sostituirli, lasciando che la cellula replichi naturalmente il DNA impiantato. Grazie alla sua altissimo precisione ed efficienza, questo metodo potrà essere sfruttato per correggere filamenti difettosi e guarire malattie genetiche o tumorali, ma anche per riscrivere il genoma ottenendo caratteristiche migliori, creando per esempio coltivazioni “potenziate” più resistenti e produttive. Le sue applicazioni sono veramente infinite e sollevano un importante dibattito su fino a che punto l’uomo può spingersi nel modificare la natura prima di perdere il controllo della propria creazione. Chissà se un giorno avremo dinosauri da compagnia come in Jurassic Park?!
Se questo articolo vi ha interessato e siete a caccia di altre curiosità non più solo fantascientifiche, non potete assolutamente perdervi la fiera della scienza più futuristica di sempre: siete tutti attesi al Focus Live 2020! E’ il terzo anno che il noto canale di divulgazione scientifica organizza questo evento per gli appassionati di scienza e i curiosi in alcuni dei maggiori musei italiani. L’anno scorso per esempio, al museo della scienza e della tecnica di Milano era possibile camminare su Marte e visitare la Stazione Spaziale Internazionale grazie alla realtà aumentata, pilotare le Frecce Tricolore o un’auto di Formula 1 grazie a dei simulatori per l’addestramento, partecipare a conferenze e parlare direttamente con alcuni dei massimi specialisti italiani e ammirare gli ultimi ritrovati tecnologici, interagendo con simpatici robot o provando bracci robotici controllati da remoto. Quest’anno però, a causa dell’emergenza sanitaria, l’evento sarebbe dovuto venir annullato, ma gli organizzatori hanno deciso di reinventarsi questa fiera della scienza in modo assembramenti-free: grazie ad un canale dedicato ed eventi in Meet, Focus live arriverà direttamente nelle nostre case in formato 100% digitale. Per un evento che si propone di portarci nel futuro, quale migliore dimostrazione della potenza della tecnologia se non questa? Potrete partecipare a questa maratona scientifica ‘virtuale’ comodamente dal vostro divano dal 19 al 22 novembre: vi servono solo un device con connessione a internet e tanta curiosità. Visitate il sito ufficiale per maggiori informazioni. Siate pronti a stupirvi, il futuro è già qui!
Martina Cucchi
FONTI: https://www.lescienze.it/news/2020/10/06/news/premio_nobel_fisica_2020_buchi_neri-4811929/https://www.lescienze.it/news/2020/10/07/news/premio_nobel_chimica_2020_manipolazione_genetica_crispr-cas9-4812741/https://www.focus.it/scienza/scienze/nobel-chimica-2020https://www.focus.it/scienza/scienze/nobel-fisica-2020https://live.focus.it/?_ga=2.190881834.1601931749.1602431327-1418788319.1586366711https://www.ilfattoquotidiano.it/2020/10/06/nobel-per-la-fisica-2020-premiati-gli-scienziati-che-studiano-i-buchi-neri-roger-penrose-reinhard-genzel-e-andrea-ghez/5956165/https://www.ilfattoquotidiano.it/2020/10/07/nobel-per-chimica-a-emmanuelle-charpentier-e-jennifer-doudna-hanno-scoperto-la-tecnica-del-taglia-incolla-del-dna/5957364/https://www.ansa.it/sito/notizie/topnews/2020/10/06/nobel-fisica-ai-teorici-dei-buchi-neria_b4b16b3b-de48-4043-853d-f03b77cba72b.html#:~:text=Premiati%20Penrose%2C%20Genzel%20e%20Ghez&text=(ANSA)%20%2D%20ROMA%2C%2006,Reinhard%20Genzel%20e%20Andrea%20Ghez.https://www.ansa.it/sito/notizie/topnews/2020/10/07/nobel-chimica-alle-due-donne-del-taglia-incolla-dna_f6d6820d-3c2a-404a-b0dc-dc6a7da4e444.html#:~:text=(ANSA)%20%2D%20ROMA%2C%2007,riscrivere%20il%20codice%20della%20vita