Lezione 1. La fisica di base

1 La gravità

La gravità è una forza universale nel vero senso della parola. Non c’è sostanza, né tipo di particella che sia immune dai suoi effetti; persino la luce li subisce. Più di tre secoli or sono, fu Isaac Newton il primo a comprendere che la forza che ci tiene ancorati al suolo e che delinea la traiettoria di una palla di cannone è la stessa che mantiene la Luna in orbita attorno alla Terra. Questa forza, che più tardi venne chiamata gravità, determina una mutua attrazione tra tutti i corpi. Newton mostrò come il moto di ciascun pianeta del Sistema Solare sia l’effetto combinato dell’attrazione gravitazionale del Sole e di tutti gli altri pianeti, i quali vi contribuiscono ciascuno in misura diversa a seconda della massa e della reciproca distanza. Dalle equazioni concettualmente semplici di Newton derivano i calcoli che guidano le navicelle spaziali nell’esplorazione dei pianeti, che ci hanno avvertito con un anno di anticipo che la cometa Shomaker–Levy 9 sarebbe caduta su Giove e che infine ci consentono di stimare la massa della Via Lattea. Su scala cosmica è la gravità che domina su ogni altro tipo di forza. Ciascun livello significativo delle strutture gerarchiche presenti nel Cosmo — stelle, ammassi stellari, galassie e ammassi di galassie — è plasmato e mantenuto in equilibrio dalla forza di gravità.

Ma quali sono allora le caratteristiche della forza di gravitazione universale? Perché è così universale? Innanzitutto diciamo che una forza F è un qualcosa che può produrre una accelerazione a, cioè una variazione della velocità o una variazione della direzione del moto (che è sempre individuata dalla velocità). Per esempio, se una pietra è legata ad una fune ed è fatta girare rapidamente, essa richiede una forza per mantenersi sulla traiettoria circolare. Dobbiamo quindi ‘tirare’ la fune.

Per la seconda legge fondamentale della dinamica, la forza è eguale al prodotto della massa m per l’accelerazione (F = m * a) per cui, in base a questa legge, la massa di un corpo può pure essere considerata come una misura dell’entità della forza necessaria per ottenere una particolare accelerazione (m = F / a). Comunemente invece si pensa alla massa come alla quantità di materia di cui è costituito un corpo. In base a ciò maggiore è la massa dell’oggetto, maggiore è la forza richiesta per produrre una data accelerazione.

A queste affermazioni (sentite più volte a scuola . . . ) Newton (1642–1727) aggiunse quella sulla forza di gravità: la forza che agisce tra ogni coppia di corpi che si attraggono reciprocamente si può scrivere come

V2_L1_F1

dove M1 e M2 sono le masse che interagiscono e R è la distanza tra i loro rispettivi centri. G invece rappresenta la costante di gravitazione universale che può essere misurata anche in laboratorio e vale

V2_L1_F2

La costante G è una delle costanti più importanti della fisica. Per apprezzare il suo valore, decisamente piccolo, stimiamo la forza con cui si attraggono due masse di 1 kg, poste ad un metro una dall’altra: questa, in base a (1), è numericamente uguale a G e corrisponde al peso di un oggetto pari a un centesimo di miliardesimo di kg! Si deduce subito che la forza di gravità dev’essere molto piccola. La sua piccolezza appare in modo ancora più evidente se la si confronta, a parità di condizioni, con la forza elettrica. Posta convenzionalmente ad 1 la forza elettrica di repulsione tra due cariche uguali, per esempio due protoni, l’intensità della forza gravitazionale è pari a 10-41 cioè ad un numero che nella parte decimale presenta una successione di 40 zeri (0,000...0001). In una molecola di idrogeno, che consiste di due protoni neutralizzati da due elettroni, il legame gravitazionale tra i due protoni è più debole della rispettiva forza elettrica di un fattore 10-36. Le forze elettriche esistenti tra gli atomi e le molecole in un pezzo di roccia, in una persona, dentro un asteroide, sono decisamente predominanti rispetto alla loro mutua attrazione gravitazionale.

V2_L1_Fig1

Figura 1: Seconda legge di Keplero o legge delle aree.

La gravità invece diventa progressivamente sempre più significativa man mano che si considerano oggetti più massicci. Ma perché la gravità acquista potenza solo alle scale molto grandi? In ogni oggetto macroscopico le cariche elettriche positive e negative sono presenti grosso modo nelle stesse quantità, cosicché le forze elettriche tendono ad annullarsi. Ma per la gravità non è così. Ogni cosa ha, per così dire, una carica gravitazionale dello stesso segno e dunque attrae ogni altro oggetto. Per questo la gravità finisce per diventare la forza dominante su scala sufficientemente grande.

Un’altra caratteristica che si può dedurre dalla (1) consiste nel notare la dipendenza della forza al variare della distanza. Com’è naturale, la forza di gravità diviene sempre più intensa mano a mano che le masse interagenti si avvicinano. Se queste per esempio, dimezzano la loro distanza allora la forza aumenta di 4 volte: l’opposto succede se si allontanano. In quest’ultimo caso va pure sottolineato che, se è vero che la gravità si indebolisce all’aumentare della distanza, è altrettanto vero che questa forza non potrà mai annullarsi: così due masse, anche se le separa una distanza molto grande, ciascuna risentirà sempre della presenza dell’altra. È questo quando si dice che la gravità è una forza a lungo raggio. Pur debolissima, fa sentire i suoi effetti (in assenza di altre forze) a distanze molto grandi.

Grazie a questa legge, Newton stesso riuscì a ricavare le tre leggi introdotte da Keplero (1571–1630) e che descrivevano il moto dei pianeti attorno al Sole. Anzitutto Newton dedusse che le orbite di due corpi gravitanti possono avere anche altre forme, oltre a quella dell’ellisse come invece aveva affermato Keplero nella prima legge. L’orbita potrebbe essere anche parabolica o iperbolica e in questi casi il corpo orbitante si allontanerebbe indefinitamente dal suo compagno.

La seconda legge di Keplero descrive la velocità con la quale i pianeti si muovono. Keplero scoprì che la linea che congiunge il pianeta al Sole, che è detta raggio vettore, “spazza” aree uguali in tempi uguali, il che significa che la velocità orbitale di un pianeta cambia in funzione della sua distanza dal Sole (v. figura 1). In particolare un oggetto astronomico che orbiti attorno ad un secondo dovrà, in base a tale legge, muoversi più velocemente quando si trova nelle vicinanze dell’altro, mentre la sua velocità sarà inferiore quando si trova lontano. Sempre per merito di Newton questa seconda legge si può considerare come un caso particolare di una legge fisica molto importante e generale, quella della conservazione del momento angolare.É in base a questo principio di conservazione che noi possiamo comunemente ammirare le veloci piroette dei pattinatori: difatti il momento angolare dipende dal prodotto della massa, della velocità e della distanza dal centro di rotazione. Così semplicemente avvicinando le braccia al corpo (e quindi diminuendo la loro distanza dal centro di rotazione) la pattinatrice deve aumentare via via la sua velocità di rotazione: solo così può mantenere costante il momento angolare.

La classica immagine con la quale si identificano le galassie è in realtà una evidente conseguenza di tale principio: le zone più vicine al centro galattico muovendosi con maggiore velocità di quelle periferiche, permettono la formazione della tipica struttura a spirale dei bracci.

Vedremo che questo principio fisico è il responsabile di effetti molto strani (ed inaspettati) per gli oggetti astronomici.

Infine, nella generalizzazione teorica delle leggi di Keplero, Newton ricavò una delle più importanti relazioni di tutta l’astronomia:

V2_L1_F2

dove P misura il tempo complessivo impiegato da un pianeta per percorrere l’intera orbita attorno al Sole, a invece rappresenta la distanza del pianeta dal Sole (o meglio l’‘asse maggiore dell’orbita ellittica’). Nel caso della Terra P = 1 anno mentre a = 149,6 milioni di km e costituisce la cosiddetta unità astronomica (1 UA = distanza media Terra-Sole).

Questa formula, pur contenendo la massa del Sole (Mo) e del pianeta (Mpianeta) è abbastanza generale da poterla applicare a tutti i corpi celesti: dai satelliti di Giove (dai quali possiamo dedurre che il pianeta gigante ha una massa 318 volte maggiore di quella della Terra) fino alle stelle doppie. I sistemi binari non sono rari nella nostra Via Lattea, tanto è vero che almeno la metà di tutte le stelle fa parte di gruppi composti di due, tre o più stelle. Se una coppia è abbastanza vicina, possiamo seguire il movimento delle componenti e tracciarne l’orbita. Dunque il periodo P è facile da misurare (basta avere pazienza e rilevare le posizioni ad opportuni intervalli di tempo), mentre il semiasse a si può desumere se si conosce la distanza. Da questo si ricava la somma delle masse. Se poi disponiamo di ulteriori informazioni sul sistema si potrà risalire ai valori di ciascuna di esse. è così che si giunge a stimare la massa di oggetti singolari come le pulsar binarie o quella di oggetti, ancor più bizzarri, come i buchi neri.

1.1 Gravità e relatività

A dispetto di tutto quanto detto sopra, va detto che la legge di gravitazione di Newton non è corretta! Essa fu modificata da Einstein (1879-1955) nel 1916 per tener conto delle modifiche fatte alla teoria della relatività dove, lo stesso Einstein richiedeva esplicitamente che la velocità della luce fosse la massima possibile per “segnali” di qualsiasi natura.

Secondo Newton l’effetto della gravitazione è istantaneo, cioè se muovessimo una massa si sentirebbe istantaneamente una nuova forza a causa della nuova posizione di quella massa. Difatti la variazione di R presente nella formula (1) implica una “istantanea” variazione di F. Con tali presupposti potremmo quindi inviare dei segnali a velocità infinita. Einstein avanzò argomenti che presupponevano l’impossibilità da parte di qualsiasi sistema fisico di inviare segnali che si propagassero con velocità maggiore di quella della luce ( c = 300.000 km/s): siccome poi questo presupposto era confermato da tutte le esperienze di laboratorio, la legge di gravitazione doveva, per la gran parte dei fisici di inizio secolo, essere errata.

Einstein propose quindi una sua teoria, la teoria della relatività generale, dove corresse l’espressione di Newton in modo da tener conto dei ritardi con cui un segnale (la luce!) si propaga. Al di là della complessità matematica di questa teoria, essa in estrema sostanza afferma una cosa relativamente facile da capire:

ogni oggetto fisico che ha energia ha massa, nel senso che questo oggetto sarà attratto gravitazionalmente.

Ne segue che la luce che “ha” energia, si comporta come avesse pure una “massa”. Quando un fascio di luce che possiede e trasporta energia, passa in prossimità del Sole, vi è un'attrazione del Sole su di esso. Così la luce non procede diritta ma viene deflessa (fig. 2).

Secondo questa interpretazione, durante l’eclissi di Sole, per esempio, le stelle che stanno attorno al Sole dovrebbero apparire spostate da dove esse sarebbero se il Sole non ci fosse: e tale spostamento è stato effettivamente osservato e dell’entità aspettata.

V2_L1_Fig2

Figura 2: Deflessione della luce in prossimità di un oggetto massiccio.

Solo sulla base di questa teoria è possibile trattare situazioni che coinvolgono oggetti molto massicci come i buchi neri. Anzi l’idea stessa di buco nero è nata proprio come una conseguenza delle equazioni della relatività generale. Altre idee come la curvatura indotta dalla massa dello spazio-tempo sono proprie della concezione di Einstein della gravità. In definitiva lo studio delle proprietà fisiche di oggetti dove agiscano forze gravitazionali molto intense, come ad esempio nel collasso di nuclei stellari, va condotto tramite gli strumenti teorici forniti dalla gravitazione di Einstein.

2 L’atomo

La conoscenza della struttura della materia, di quali siano le leggi fondamentali che valgono nel dominio degli oggetti microscopici come le molecole, l’atomo, o le particelle che li costituiscono, è di un'importanza vitale per poter sperare di spiegare i fenomeni astronomici, anche di quelli che coinvolgono oggetti con masse molto grandi. Si pensi alla potenza dei metodi spettroscopici e l’interpretazione degli spettri stellari come indici (leggibili) delle sostanze responsabili dell’emissione o dell’assorbimento della luce. La conoscenza quindi delle strutture microscopiche della materia permette di affrontare i fenomeni macroscopici e di interpretarli in un quadro più ampio e coerente.

È conveniente pertanto presentare una breve sintesi dell’interpretazione moderna sulla costituzione della materia e, in fin dei conti, di come oggi viene visto l’atomo.

2.1 Costituzione dell’atomo

I vari spettri stellari sono prodotti da atomi che si trovano in differenti stati di ionizzazione e di eccitazione elettronica. Ma cosa significano tutti questi termini? Per poterli comprendere dobbiamo rifarci alla teoria quantistica della materia che, negli anni Venti del nostro secolo, diede per prima l’interpretazione corretta: in quelli anni i fisici chiarirono quale fosse la struttura e il comportamento di sistemi microscopici come l’atomo. Il modello di base ci presenta l’atomo come una nube di uno o più elettroni cioè di particelle di carica negativa che circonda un nucleo costituito da una combinazione di protoni, carichi positivamente, e neutroni, privi di carica elettrica. Le cariche del protone e dell’elettrone hanno lo stesso valore, ma segno opposto; la massa del protone è circa uguale a quella del neutrone, mentre quella dell’elettrone è 1800 volte minore. Per questo motivo la massa dell’atomo è sostanzialmente dovuta alla massa dei protoni e dei neutroni presenti nel nucleo. Al contrario le dimensioni complessive dell’atomo sono determinate dalla dimensione della nube elettronica. Si pensi che il diametro del nucleo è dalle 10.000 alle 100.000 volte inferiore di quello delle “orbite” più esterne degli elettroni. 1

Comunque poiché cariche opposte si attraggono, l’elettrone resta legato al nucleo positivo. La moderna teoria quantistica afferma che l’elettrone può occupare, a seconda dell’energia che possiede, solo determinate orbite, ciascuna corrispondente ad un valore ben preciso dell’energia. Gli elettroni che si trovano sulle orbite più interne possiedono un'energia minore di quelli collocati sulle orbite più esterne ma sono pure quelli più fortemente legati al nucleo. La teoria quantistica asserisce che questi elettroni non possono avvicinarsi al nucleo oltre un certo limite e l’orbita corrispondente, caratterizzata dall’energia minima, è detta lo stato fondamentale per l’atomo. Gli altri stati, corrispondenti a energie maggiori sono gli stati eccitati. Per modificare il proprio stato energetico, l’elettrone deve pertanto o assorbire o cedere una certa (e discreta) energia. Così un elettrone muta il suo livello energetico (per esempio diminuisce la propria energia) per “salti” discreti fino a che, partendo da uno stato eccitato, raggiunge lo stadio più basso. Nel far ciò emette l’energia in eccesso sotto forma di onda elettromagnetica cioè di radiazione.

Nel nucleo invece coesistono, strettamente legati, i neutroni e i protoni. Questi ultimi possiedono cariche dello stesso segno e quindi la forza elettrica tenderebbe a respingerli uno dall’altro. Sorge quindi immediatamente una domanda: come possono allora i protoni restare legati nel nucleo?

Ora in natura ci sono quattro forze fondamentali, forze che agiscono a distanza e che sono le responsabili della struttura dell’intero universo. La più debole di tutte è la gravità mentre, decisamente più intensa è la forza elettromagnetica (vedi parag.1), responsabile dei fenomeni elettrici e magnetici come l’attrazione e la repulsione delle cariche e causa pure della radiazione luminosa. Entrambe queste interazioni si comportano secondo la legge dell’inverso del quadrato della distanza e si fanno sentire fino a grandissime distanze. Le altre due interazioni sono invece molto più forti, ma il loro raggio d’azione è limitato alle dimensioni di un nucleo atomico. L’interazione debole interviene nelle reazioni nucleari così come la più intensa delle quattro, l’interazione forte, spesso indicata semplicemente come forza nucleare. In effetti se dei protoni vengono separati, questi si allontaneranno gli uni dagli altri per effetto dell’interazione elettromagnetica, mentre se sono sufficientemente vicini (e lo sono nel nucleo atomico), l’interazione forte prevale sulla repulsione elettromagnetica: così a causa della forza nucleare, i protoni e i neutroni rimangono fortemente vincolati nel nucleo.

2.2 Gli elementi chimici

La specificità di un elemento chimico è determinata unicamente dal numero dei protoni contenuti nel nucleo del suo atomo, un parametro detto numero atomico: per esempio l’idrogeno (simbolo H) ha numero atomico 1, l’elio (He) 2, il carbonio (C) 6, l’oro (Au) 79. Un atomo neutro possiede tanti protoni quanti sono i suoi elettroni, ma poiché gli elettroni più esterni non sono molto legati, se si trasferisce all’atomo un'energia sufficiente, uno o più di questi possono allontanarsi, trasformando così l’atomo in uno ione carico positivamente. Con il termine ione si intende pertanto un atomo che ha perso uno o più elettroni assumendo di conseguenza una carica positiva. Il carbonio che ha perso un elettrone si indica con C', l’ossigeno che ne ha persi tre con O+3 (fig.3).

La somma del numero dei neutroni e dei protoni nucleari è la massa atomica, che si indica con un numero ad esponente che precede il simbolo chimico. L’elio, 4He, ha due protoni e due neutroni, mentre il carbonio, 12C, ne ha sei di ognuno. Man mano che il numero atomico cresce, il numero del neutroni tende a salire più velocemente di quello dei protoni: così il nucleo dell’uranio, 238U è costituito da 92 protoni e 146 neutroni.

Per ciascun elemento il numero dei neutroni può variare, ed è così che si formano uno o più isotopi.

Esiste l’elio con un solo neutrone, e lo si indica con 3He, mentre il 12C, il 13C, e il 14C sono altrettante varietà del carbonio. In genere un isotopo è nettamente predominante rispetto a tutti gli altri: ad esempio, c’è solo un atomo di 3He ogni 100 mila di 4He.

V2_L1_Fig3

Figura 3: Atomi e isotopi dell’elio e del carbonio.

2.3 Decodificare il messaggio: la radiazione e gli spettri

La radiazione luminosa può essere considerata sia come un'onda che come una particella: in questo caso si parla di quanti di luce o anche di fotoni. In ogni caso la radiazione è un modo fondamentale per trasportare energia e questa è pari ad una costante h (la costante di Planck) per la frequenza ν: E = hν.

Per quanto visto, gli elettroni legati a un atomo sono obbligati a muoversi su “orbite” di raggio ben preciso. Quanto maggiore è il raggio orbitale, tanto più elevata è l’energia totale dell’elettrone. Un elettrone può quindi balzare da un'orbita più bassa a una più alta e quindi ad uno stato eccitato se assorbe un fotone la cui energia eguaglia esattamente la differenza di energia tra le due orbite. poiché però la lunghezza d’onda λ è legata alla frequenza dalla relazione λ = c/ν con c velocità della luce, la differenza di energia tra le orbite definisce pure la lunghezza d’onda λ del fotone assorbito. Al contrario, un elettrone può scendere da un'orbita eccitata a una più bassa con l’emissione di un fotone della stessa lunghezza d’onda, il che produce l’emissione di una radiazione luminosa, cioè una riga d’emissione. L’insieme delle righe di emissione o della radiazione emessa in funzione della lunghezza d’onda forma lo spettro di emissione della sorgente.

Per capire come si crea la sequenza spettrale delle righe di un elemento, consideriamo l’idrogeno in quanto il suo atomo è il più semplice essendo costituito solo da un protone nel nucleo e da un elettrone che gli orbita attorno. Un gas surriscaldato di idrogeno emette una serie di frequenze discrete che risultano legate fra loro da semplici rapporti matematici. L’emissione più intensa, la Lyman-alfa, corrisponde alla transizione dal primo stato eccitato (la seconda orbita, con n = 2) allo stato fondamentale, n = 1. Altre transizioni che finiscono a n = 1 (da 3 a 1, da 4 a 1, da 5 a 1 e così via) sono denominate Lyman-beta, Lyman-gamma ecc.; un’altra famiglia di righe è quella delle frequenze che corrispondono alle transizioni che finiscono a n = 2 invece che a n = 1 : è la serie di Balmer. Famosa, per la sua importanza in astronomia è la prima riga di questa serie, la cosiddetta H-alfa. Questa corrisponde ad una lunghezza d’onda di 6563 x 10-10 m e cade nella regione rossa dello spettro visibile. Altre serie finiscono a n = 3, n = 4e così via (v. fig. 4).

Tramite lo spettrografo, uno strumento sostanzialmente costituito da un prisma in grado di disperdere le diverse lunghezze d’onda lungo una striscia e di registrarle su una pellicola fotografica, siè in grado di analizzare la radiazione che lo attraversa. A un estremo dello spettro si troveranno le lunghezze d’onda brevi, all’altro quelle lunghe. In corrispondenza di quelle lunghezze d’onda in cui le transizioni atomiche producono un'elevata quantità d’emissione, lo spettrografo mostra una linea sottile e molto brillante che è, appunto, la riga d’emissione.

Figura 4: Atomo di idrogeno e livelli energetici.

Come l’idrogeno, gli atomi di ciascun elemento della tabella periodica emettono un particolare insieme di frequenze discrete, le quali producono un insieme caratteristico di righe nello spettro e sono dunque una sorta di impronta digitale di quel particolare elemento. Misurando la distribuzione delle righe spettrali, si riesce pertanto non solo ad individuare la sostanza responsabile della emissione ma pure si riesce a dire se un atomo ha perso qualcuno dei suoi elettroni, cioè se è ionizzato. In aggiunta, con la misura delle intensità relative delle diverse righe d’emissione, spesso è possibile dedurre la temperatura e la densità del gas. Lo spettro emesso da un gas caldo e poco denso consiste quindi principalmente di righe d’emissione che rendono possibile l’individuazione delle sostanze responsabili dell’emissione e del loro stato fisico.

Diversamente un gas molto denso, oppure opaco, o un corpo solido o liquido surriscaldato (per esempio il filamento di una lampada a incandescenza), emettono radiazioni indistintamente su tutte le possibili lunghezze d’onda. Quest’ultimo tipo di spettro è detto continuo o anche radiazione di corpo nero: in questo caso la distribuzione dell’intensità della radiazione emessa in funzione della lunghezza d’onda dipende solo dalla temperatura del corpo irraggiante. All’interno di una stella la radiazione ha uno spettro quasi esattamente di corpo nero. Uno spettro di corpo nero perfetto non ha strutture o segni distintivi che possano rivelare la natura della materia emittente. Eppure, effettuando determinate misure sullo spettro di una stella possiamo scoprire qual è la sua composizione chimica. Il Sole, per esempio, ha una temperatura superficiale di circa 5800 gradi. Ma la sua superficie è composta da strati caratterizzati da temperature lievemente differenti. Quando lo spettro continuo passa attraverso un gas più freddo posto lungo la linea di vista, si verifica l’esatto inverso dell’emissione, e cioè un assorbimento: un elettrone può essere spinto a un livello energetico più elevato da un fotone che abbia esattamente l’energia necessaria per fargli realizzare il salto orbitale:

V2_L1_Fig5

Figura 5: Analisi spettrale della radiazione luminosa.

è appunto questo processo che avviene negli strati più esterni delle stelle, dove un'atmosfera gassosa più fredda avvolge il gas caldo del disco stellare. La luce delle stelle è perciò indebolita in corrispondenza delle frequenze assorbite in questa zona, e gli spettri mostrano righe oscure, invece che brillanti, alle lunghezze d’onda caratteristiche degli atomi e degli ioni dell’atmosfera stellare. Le righe di assorbimento appaiono pertanto sovrapposte allo spettro continuo della stella. Vedremo dunque uno spettro di assorbimento quando un gas freddo, a bassa densità, viene posto di fronte a un corpo nero (o a un'analoga sorgente di radiazione continua) più caldo.

3 Particelle elementari

Parlando dell’atomo abbiamo più volte nominato le particelle che lo compongono e cioè l’elettrone, il protone e il neutrone. Per quanto riguarda la radiazione luminosa abbiamo discusso soprattutto degli stati energetici dell’elettrone in quanto strettamente collegati alle lunghezze d’onda emesse o assorbite dall’atomo. I neutroni e i protoni sono invece i responsabili della massa complessiva dell’atomo e sono strettamente legati dalla forza nucleare nel relativo nucleo. Fissato il numero di protoni nel nucleo possono sussistere diverse possibilità per il numero di neutroni e ciascuna dà origine ad un diverso isotopo dello stesso elemento.

A dispetto quindi del nome (“atomo” significa “indivisibile”) l’atomo ha una struttura e, almeno in prima approssimazione, lo si può descrivere come un insieme di queste tre particelle. E per un breve momento della storia della fisica, parve di essere giunti all’individuazione della struttura ultima della materia: alla fin fine, questa sembrava riconducibile a una combinazione straordinariamente variata di quattro soli “mattoni” fondamentali: le tre particelle dette sopra e il fotone, cioè la radiazione elettromagnetica.

Ma questa speranza si rivelò ben presto una illusione: già nel 1932 venne rilevata una nuova particella del tutto simile all’elettrone ma con carica positiva: il positrone o elettrone positivo. La vita di questa particella è solitamente molto breve, perché, incontrando un altro elettrone, si annichila con questo generando un fotone di alta energia: in sostanza una certa massa, coerentemente con la famosa legge E = mc2, si ritrova alla fine sotto forma di energia. A causa di questa proprietà, il positrone viene identificato con il termine di antiparticella dell’elettrone.

Ben presto però ci si rese conto che la caratteristica di possedere una corrispondente particella non era peculiare dell’elettrone, ma poteva essere estesa a ogni altra particella che man mano veniva scoperta.

E di particelle ne sono state scoperte in continuazione dapprima studiando i raggi provenienti dagli spazi interstellari (i raggi cosmici) e quindi con gli acceleratori terrestri. In quest'ambito i progressi fatti negli ultimi venti o trenta anni sono stati notevoli e, se pur non si può affermare di essere giunti ad una conclusione soddisfacente, sono sfociati in una teoria fondamentale, il cosiddetto modello standard. Vediamone alcune caratteristiche.

3.1 Costituenti fondamentali della materia

Secondo il modello standard, i costituenti elementari della materia sono raggruppabili in tre insiemi. Il primo insieme è formato dai cosiddetti leptoni, particelle stabili o che decadono in tempi piuttosto lunghi, prive di carica o dotate di carica unitaria. Vi fanno parte l’elettrone, il muone, il tau e i corrispondenti neutrini (v. tabella 1).

V2_L1_T1

Tabella 1: I leptoni.

Di questo gruppo le particelle più importanti sono senza dubbio l’elettrone e il relativo neutrino. In particolare quest'ultimo particella ha assunto negli ultimi anni un ruolo sempre maggiore sia per la comprensione delle reazioni che avvengono nei nuclei stellari che per le teorie cosmologiche sulle prime fasi dell’universo. E dopo la supernova del 1987 i neutrini sono diventati noti pure all’opinione pubblica: in quell'occasione e per la prima volta, l’astronomia a neutrini è diventata una scienza sperimentale.

Tra tutte le particelle subatomiche, i neutrini sono quelle che interagiscono di meno con la materia: occorrerebbe una muraglia di piombo spessa un anno luce per riuscire ad assorbirne uno. Ciò significa che i neutrini anche se possono indurre tutta una serie di reazioni con altre particelle, queste reazioni devono essere intrinsecamente assai improbabili. Per fortuna il numero di neutrini provenienti dal cosmo è elevato (dal Sole ne provengono sulla Terra 1010 per centimetro quadrato) e quindi, di tanto in tanto, se ne può rilevare qualcuno. Uno dei problemi più urgenti riguardanti il neutrino è quello della sua massa: se il neutrino dell’elettrone avesse una massa diversa da zero sarebbe possibile pensare a tutta una serie di trasformazioni tra i vari tipi di neutrino e, forse, risolvere i problemi finora riscontrati sui conteggi di neutrini, tutti inferiori ai valori teorici previsti. 2

V2_L1_Fig6

Figura 6: Dall’atomo ai quark.

Il secondo gruppo è costituito dai cosiddetti quark (v. tabella 2). Si tratta di sei particelle che si considerano prive di struttura interna, ma che sono dotate di massa variabile da circa 690 masse elettroniche, per il più leggero, a circa 340.000 masse elettroniche per il più pesante. Una caratteristica particolarmente rilevante di queste particelle è quella di possedere carica frazionaria rispetto a quella dell’elettrone. Ciascun quark è collegato, per ragioni teoriche, ad un leptone (fig. 7) e ciò mette in evidenza quanto profonda sia la simmetria della natura a livelli così fondamentali.

Un’altra caratteristica peculiare dei quark è che il modello standard dell’interazione tra di loro prevede l’impossibilità di osservarli separati, cioè liberi dall’interazione con altri quark. Questa previsione si scontra con la nostra abitudine di pensare che ciò che ha una propria individualità, prima o poi, possa essere separato da ciò a cui si trova legato: tutte le esperienze fatte per mezzo degli acceleratori di particelle non fanno però che confermare questa affermazione: i quark, pur esistendo, non si possono osservare direttamente ma solo tramite i loro effetti.

Il terzo e ultimo insieme è costituito da particelle che mediano le interazioni fra le particelle dei primi due gruppi. Il rappresentante più importante e conosciuto di questo gruppo è senza dubbio il fotone o quanto dell’interazione elettromagnetica. Questa particella possiede massa e carica nulle e, per questo motivo, si muove alla velocità della luce: anzi è la luce! In effetti l’interazione che si produce fra due cariche elettriche è, dal punto di vista della fisica moderna, l’effetto di uno scambio di fotoni. Abbiamo visto che quando un elettrone passa da uno stato energetico ad un altro emette o assorbe una tale particella. In modo del tutto analogo agiscono la forza gravitazionale e la forza nucleare: corpi soggetti a queste forze continuamente si scambiano particelle appartenenti a questo particolare gruppo.

V2_L1_T2

Tabella 2: I quark.

Utilizzando i quark come enti fondamentali, i leptoni e i quanti che mediano le interazioni, si possono ricostruire tutte le proprietà delle restanti particelle scoperte e sempre per mezzo del modello standard, si dispone di uno strumento concettuale con il quale, per la prima volta, indagare tutti quei fenomeni dove vengono scambiate tra particelle grandi quantità di energia come ad esempio nei nuclei stellari o in quelli galattici. In base a questo stesso modello è possibile ipotizzare quale sia stata l’evoluzione dall’universo nei suoi istanti iniziali e quali scenari possano presentarsi alla sua fine.

V2_L1_Fig7

Figura 7: Leptoni e quark.

4 La termodinamica

Nessun altro prodotto del pensiero scientifico ha contribuito così tanto alla discussione sulle sorti dell’universo come il secondo principio della termodinamica. Allo stesso tempo, poche discipline scientifiche contengono princìpi così oscuri. Il nominare il secondo principio spesso richiama visioni di pesanti macchine a vapore, complicati formalismi matematici e il quasi incomprensibile concetto di entropia, tutte esperienze sedimentate durante gli anni giovanili della scuola in molti di noi. Ciò nonostante tenteremo di accennare alle sue importanti conseguenze per almeno, intuire quanto sia semplice e quanto vasto sia il suo campo di applicazione.

4.1 Il secondo principio

Nel 1856 il fisico tedesco Hermann von Helmholtz enunciò quella che è forse la più lugubre previsione di tutta la storia della scienza. L’universo, affermò Helmholtz, sta morendo. Il fondamento di questa apocalittica affermazione era il cosiddetto secondo principio della termodinamica. Formulato originariamente agli inizi del XIX secolo come proposizione di natura essenzialmente tecnica riguardante l’efficienza delle macchine termiche, il secondo principio della termodinamica (spesso chiamato, più semplicemente, il “secondo principio”) si vide ben presto attribuire un significato generale, anzi, addirittura cosmico.

V2_L1_Fig8

Figura 8: La “freccia del tempo”.

Nella sua versione più semplice, il secondo principio stabilisce che il calore passa dal caldo al freddo. Si tratta di una ben nota, e ovvia, proprietà dei sistemi fisici. La vediamo all’opera ogni qual volta cuociamo una vivanda o lasciamo raffreddare una tazzina di caffè: il calore passa dalla regione dove la temperatura è più alta a quella dove la temperatura e più bassa. Non vi è, in questo, nessun mistero.

Nella materia il calore si manifesta sotto forma di agitazione molecolare. In un gas come l’aria, le molecole si muovono caoticamente in ogni direzione e si urtano fra loro. Anche in un corpo solido gli atomi si agitano energicamente. Più caldo è il corpo, più energica sarà l’agitazione molecolare. Se sono posti a contatto due corpi a diversa temperatura, la più energica agitazione molecolare del corpo più caldo comunica ben presto la sua attività alle molecole del corpo più freddo.

Il cubetto di ghiaccio che si scioglie in acqua definisce l’evoluzione spontanea del fenomeno al trascorrere del tempo: il calore si trasmette dall’acqua (calda) al ghiaccio (freddo) e non viceversa (v. figura 8). Un oggetto freddo quindi non si riscalda spontaneamente; analogamente una palla che rimbalza alla fine si ferma, ma una palla in quiete non si mette a rimbalzare spontaneamente.

Il calore, cioè l’energia, scorre seguendo un verso ben preciso, in modo unidirezionale, e questo dimostra che il processo è asimmetrico rispetto al tempo. Una pellicola cinematografica nella quale si vedesse il calore passare spontaneamente dal freddo al caldo sembrerebbe assurda, come quella che mostrasse la corrente di un fiume risalire le colline o le gocce di pioggia sollevarsi verso l'alto, fino alle nuvole. Possiamo quindi individuare una fondamentale direzionalità del flusso termico, spesso rappresentata da una freccia che, muovendo dal passato, si dirige verso il futuro. Questa “freccia del tempo” indica la natura irreversibile dei processi termodinamici e da centocinquant’anni esercita il suo fascino sugli studiosi di fisica.

Il secondo principio riconosce l’esistenza in Natura di questa fondamentale asimmetria: sebbene la quantità totale di energia debba conservarsi in qualunque processo (è questo il primo principio della termodinamica), la distribuzione dell’energia stessa cambia in modo irreversibile.

Questa affermazione comprende pure fenomeni che apparentemente non coinvolgono scambi di calore. Se, per esempio, gettiamo una goccia d’inchiostro in acqua l’evoluzione nel tempo è ben conosciuta: alla fine avremo che l’inchiostro riempirà tutto il volume d’acqua. Se poi tramite un cucchiaino, cerchiamo di raccogliere ancora tutto l’inchiostro (!), pur mettendocela tutta, non riusciremo certamente nell’intento. Un analogo fenomeno di diffusione coinvolge pure i gas: questi, inizialmente separati in due vani di uno stesso contenitore, dopo aver aperto il rubinetto che li mette in comunicazione, l’evoluzione temporale sarà quella che vede i due gas mescolarsi. Alla fine del processo si otterrà una miscela delle due sostanze. Non si è mai osservata una diversa evoluzione. Pensate un po’ se potesse accadere il contrario: l’ossigeno di questa stanza potrebbe “decidere” di uscire dal buco della serratura e dalle fessure con conseguenze, per noi, poco piacevoli! In entrambi i processi di dispersione possiamo riconoscere nettamente il loro carattere di irreversibilità.

In seguito ai lavori di Helmholtz, Rudolf Clausius e Lord Kelvin si giunse a riconoscere una grandezza chiamata entropia, che caratterizza questa irreversibilità dei cambiamenti che avvengono in un sistema fisico. Nel caso semplice di un corpo caldo a contatto con un corpo freddo, entropia può essere definita come il rapporto fra l’energia termica e la temperatura. Si consideri una piccola quantità di calore che scorra dal corpo caldo in direzione del corpo freddo; il corpo caldo perderà una certa quantità di entropia e il corpo freddo ne acquisterà una certa quantità. Poiché però è in gioco la medesima quantità di energia termica (mentre le temperature sono diverse), l' entropia acquistata dal corpo freddo sarà maggiore di quella perduta dal corpo caldo. Di conseguenza, entropia complessiva del sistema corpo caldo più corpo freddo aumenta.

Il secondo principio della termodinamica afferma quindi che entropia di un tale sistema non può mai diminuire, perché una diminuzione di essa implicherebbe che una parte del calore è passata spontaneamente dal freddo al caldo. Un'analisi più completa consente di generalizzare questa legge a tutti i sistemi chiusi:

l’entropia non diminuisce mai.

Se il sistema include un refrigerante (il comune frigorifero), che può far passare il calore dal freddo al caldo, per totalizzare entropia del sistema bisogna tener conto dell’energia consumata per far funzionare il refrigerante. Il consumo energetico aumenta esso stesso entropia. L’entropia creata dal funzionamento del refrigerante supera di gran lunga la riduzione di entropia risultante dal trasferimento di calore dal freddo al caldo.

Anche nei sistemi naturali, come quelli costituiti dagli organismi biologici o dalla formazione dei cristalli, entropia di una parte del sistema spesso diminuisce, ma questa diminuzione è sempre compensata da un aumento di entropia in un’altra parte del sistema. Nel complesso, entropia non diminuisce mai.

4.2 Dall’ordine al caos

Se l’universo come un tutto può essere considerato un sistema chiuso in base al fatto che “al di fuori di esso” non vi è nulla, allora il secondo principio della termodinamica consente di avanzare un'importante previsione: entropia totale dell’universo non diminuisce mai, ma aumenta inesorabilmente. Un buon esempio è fornito dal Sole, il quale irraggia continuamente calore nelle fredde profondità dello spazio. Il calore si diffonde in tutto l’universo e non torna mai indietro: è un processo vistosamente irreversibile. Ma ritorniamo per un momento ancora ad un esempio concreto e di diretta esperienza. Prendiamo una scatola e dividiamola in due parti con una barriera: da una parte disponiamo un certo numero di palline bianche, dall’altra delle palline nere. Se togliamo la divisione e muoviamo la scatola in modo che ci possano essere degli urti tra le palline, dopo breve tempo queste saranno tutte mescolate. L’esperienza ci dice che continuando a muovere la scatola sarà molto difficile ritornare nella situazione iniziale, tanto più difficile tanto maggiore è il numero di palline. Una interpretazione sostanzialmente analoga si dà pure della diffusione di due gas o della goccia di inchiostro che diffonde in acqua. Solo che ora possiamo evidenziare un’altra conseguenza del secondo principio.

All’inizio della prova, la disposizione delle palline era, dopo tutto, ordinata, nel senso che potevamo distinguere con un'occhiata le palline bianche dalle nere. Alla fine invece, lo stato raggiunto è di completo disordine e non riusciamo più a distinguere macroscopicamente le bianche dalle nere. Lo stesso succede per la diffusione dei gas e per la goccia d’inchiostro. L’evoluzione spontanea dei fenomeni porta quindi, non solo verso stati a maggiore entropia ma pure da situazioni di ordine a situazioni di disordine. In altre parole si passa da stati dove sussiste la capacità di distinguere e ordinare, cioè da situazioni coerenti, a stati di disordine dove questa coerenza è stata distrutta. L’affermazione che l’energia tende a disperdersi coglie quindi un altro aspetto fondamentale del secondo principio.

Siamo quindi giunti al nocciolo dell’interpretazione del secondo principio. In un qualsiasi sistema fisico l’energia si conserva al variare del tempo ma il sistema evolve nella direzione che implica 

Tutto ciò non significa che non si possano produrre configurazioni ordinate: gli atomi in un cristallo rappresentano certamente una situazione ordinata e questi in un qualche momento devono evidentemente essersi formati. Così gli atomi che vanno a formare una stella rappresentano una situazione senza dubbio più ordinata rispetto alla nube interstellare da cui provengono ma, qualunque sia la scala di grandezze coinvolte, per il secondo principio l’ordine può nascere dal caos: esso scaturisce localmente da disordine prodotto altrove.

Viene spontaneo, a questo punto, domandarsi: l’entropia dell’universo potrà continuare ad aumentare in eterno? Immaginiamo che un corpo caldo e un corpo freddo siano posti a contatto in un contenitore ermeticamente chiuso. L’energia termica scorre dal caldo verso il freddo e l’entropia aumenta, ma a poco a poco il corpo freddo si riscalderà e il corpo caldo si raffredderà fino a quando avranno entrambi la stessa temperatura. Allorché questo stato è raggiunto, non vi sarà più alcun trasferimento di calore: il sistema all’interno del contenitore avrà raggiunto una temperatura uniforme, uno stato stabile di massima entropia e di massimo disordine che prende il nome di equilibrio termodinamico. Nessun altro cambiamento ci si deve attendere finché il sistema rimane isolato; ma se i corpi vengono perturbati in qualche modo, per esempio introducendo un'ulteriore quantità di calore dall’esterno del contenitore, allora si svilupperà un'ulteriore attività termica e l’entropia aumenterà fino a un massimo, superiore al precedente.

Che cosa ci dicono, questi fondamentali princìpi termodinamici, sui cambiamenti astronomici e cosmologici? Hermann von Helmholtz, pur ignorando l’esistenza delle reazioni nucleari (quale fosse la sorgente dell’immensa energia solare era, ai suoi tempi, un mistero), capì che l’intera attività fisica dell’universo tende verso uno stato finale di equilibrio termodinamico, o di massima entropia, dopo il quale è probabile che nulla di rilevante accada per tutta l’eternità. Questa tendenza unidirezionale verso l’equilibrio e l’uniformità fu chiamata dai primi studiosi di termodinamica la morte termica dell’universo. Si ammetteva, certo, che i singoli sistemi potessero essere rivitalizzati a opera di qualche perturbazione esterna; ma poiché l’universo non ha, per definizione, alcun “esterno”, nulla avrebbe potuto impedire la morte termica del cosmo. Sembra quindi che a questa morte non sia possibile sfuggire. . .

V2_L1_Fig9