La cosmologia e i suoi misteri
L'astronomia e l'astrofisica studiano gli oggetti presenti nello spazio. Ma l'universo stesso è un grande mistero, e la scienza che lo studia è la cosmologia. In questo articolo, andremo a esplorare i segreti di questa disciplina.
La Cosmologia
La cosmologia è la scienza che ha come oggetto di studio l'universo nel suo insieme, del quale tenta di spiegare in particolare origine ed evoluzione. In questo senso, è strettamente collegata con la cosmologia intesa come branca della filosofia. In senso ontologico questa ha il compito di correggere o espungere la miriade di teorie metafisiche o religiose sulle origini del mondo. Trae le sue radici storiche nelle narrazioni religiose sull'origine di tutte le cose (cosmogonie) e nei grandi sistemi filosofico-scientifici pre-moderni (come il sistema tolemaico). Attualmente è una scienza fisica nella quale convergono diverse discipline, quali l'astronomia, l'astrofisica, la fisica delle particelle, la relatività generale. Nel mondo occidentale le prime teorie cosmologiche con alcuni fondamenti scientifici (e non puramente religiosi) furono elaborate da astronomi e filosofi dell'antica Grecia. Per quanto vi fossero voci discordanti (ad esempio Aristarco da Samo sostenne un modello nel quale la Terra ruota attorno al Sole), l'opinione più diffusa era che la Terra fosse immobile al centro dell'universo, mentre il Sole, la Luna, i pianeti e le stelle ruotassero intorno ad essa incastonati in sfere concentriche. La principale esposizione di questo sistema fu data da Tolomeo nel II secolo, motivo per il quale esso è anche noto come Sistema Tolemaico. Nel mondo greco era diffusa l'opinione che l'Universo fosse immutabile, ossia increato ed eterno. Tale posizione veniva sostenuta principalmente per evitare i gravi problemi filosofici che l'idea della creazione dell'Universo avrebbe portato: occorrerebbe infatti spiegare cosa c'era prima della creazione, e cosa l'ha causata. A queste idee si opponeva la filosofia degli stoici, che sosteneva che il mondo avesse attraversato un numero infinito di creazioni e distruzioni, e che in ognuna delle fasi di questo ciclo ogni evento terreno e celeste si fosse ripetuto esattamente allo stesso modo. L'avvento della Rivelazione ebraica portò a dei contributi originali nel dibattito cosmologico. Questi contributi si concentrano principalmente sulla questione del tempo, forse intesa come incognita costante (dal punto di vista della struttura dello spazio, il cristianesimo riprese essenzialmente il modello tolemaico). Derivando dal giudaismo, ne riprende l'idea di un Universo creato da Dio, che quindi ha avuto un principio. I primi filosofi cristiani si concentrarono quindi sulle critiche dei filosofi che sostenevano l'eternità dell'Universo, in primis sul problema di cosa facesse Dio prima di creare l'Universo, e perché avesse scelto di iniziare la creazione ad un istante anziché ad un altro, dal momento che prima della creazione il cosmo era un nulla indifferenziato. Varie soluzioni vennero prospettate per questi problemi. Origene Adamantio riprese l'idea degli stoici del ciclo eterno di creazioni e distruzioni, negando però il determinismo che obbliga ogni ciclo a ripetere esattamente i medesimi eventi del precedente. Una soluzione più originale venne da Agostino, che nel suo Le Confessioni ipotizzò per primo che il tempo non fosse un'entità eterna, ma avesse avuto inizio insieme allo spazio. In questo modo la domanda di cosa ci fosse prima della creazione cade di significato. Questa idea, estremamente moderna, ottenne il generale consenso. Fu solo nel XVI secolo che Copernico ripropose il sistema eliocentrico (o, per l'appunto, copernicano), che prese finalmente il sopravvento nel XVII secolo, grazie anche all'opera di Galileo: secondo questa teoria il Sole è immobile al centro dell'Universo, mentre la Terra e gli altri pianeti orbitano attorno ad esso. Dal punto di vista filosofico, questo passaggio segnò la fine della concezione dell'universo centrato sull'Uomo, il che provocò molte resistenze ad esempio da parte della Chiesa cattolica. Vista l'enorme importanza che ebbe anche al di fuori del campo scientifico, questo cambio di prospettiva è comunemente noto come Rivoluzione copernicana. Copernico e Galileo, ancora influenzati dal pensiero greco, ritenevano ancora le orbite planetarie essere cerchi perfetti. Un significativo passo avanti venne compiuto da Keplero che scoprì che tali orbite sono in realtà ellittiche. Nel 1687 Newton fornì una delle prime chiavi interpretative della struttura del Sistema solare e dell'Universo in generale: la legge di gravitazione universale, che unificava una serie di fenomeni (la caduta dei gravi, le maree, il moto dei pianeti); la cosmologia dei due secoli successivi fu in buona parte un tentativo di applicare le leggi della meccanica newtoniana dapprima al sistema solare e poi ad una scala più ampia. Tuttavia la reale natura delle stelle (e con essa la possibilità di stimare le distanze cosmologiche) rimase incerta fino a quasi due secoli dopo la pubblicazione della teoria di Newton. Per via della mancata osservazione del moto di parallasse, molti sostenitori del sistema copernicano avevano ipotizzato che esse fossero astri simili al Sole ma molto più lontani, e che quindi l'Universo consistesse in un mare infinito di stelle (il primo a sostenere questa tesi fu forse Giordano Bruno). Queste ipotesi trovarono conferma nel 1838, quando Bessel riuscì a misurare la parallasse (e quindi la distanza, di circa 8 anni luce) della stella 61 Cygni. Nel frattempo, nel 1785 Herschel aveva scoperto che la distribuzione delle stelle sulla volta celeste non è uniforme, ma che nella fascia circolare nota fin dall'antichità come Via Lattea il loro numero è molto più alto che altrove. Questo fatto suggeriva che il Sole fosse all'interno di un sistema di stelle a forma di disco che fu chiamato Galassia. La posizione del Sole entro la Galassia fu a lungo oggetto di controversie, finché nel 1922 l'astronomo olandese Kapteyn dimostrò che esso non è affatto vicino al centro galattico, ma semmai in una posizione piuttosto periferica: la componente stellare della nostra Galassia forma infatti un disco appiattito di circa 85.000 anni luce (26 kiloparsec) di diametro, e la distanza del Sole dal centro è circa tre quinti la lunghezza del raggio (lo spessore della fascia stellare è di circa un migliaio di anni luce). Tut tavia già dagli ultimi anni del XIX secolo l'interesse dalla cosmologia si era spostato su un'altra controversia, che opponeva coloro che sostenevano che la Galassia costituisse praticamente tutto l'Universo, e coloro che invece sostenevano che le cosiddette nebulose a spirale non erano altro che galassie simili alla nostra, che noi osserviamo dall'esterno. Questa seconda ipotesi si rivelò corretta quando nel 1924 Edwin Hubble riuscì a misurare la distanza della Galassia di Andromeda, scoprendo che essa si trova a circa due milioni di anni luce da noi: essa è quindi ben al di fuori della nostra galassia e ha dimensioni simili ad essa. Si può affermare che la cosmologia contemporanea nasce fra il 1915 ed il 1929: nel 1915, infatti, Einstein pubblicò il primo articolo riguardo alla teoria della relatività generale, mentre nel 1929 Hubble scoprì la sua famosa legge, che implica che l'Universo è in espansione. Poco tempo dopo la pubblicazione della sua teoria (che "sostituiva" la gravitazione universale newtoniana), Einstein per primo la applicò al calcolo dell'evoluzione dinamica dell'universo. Gli fu subito evidente che, assumendo che la materia sia distribuita nell'universo in modo omogeneo, anche un universo infinito tenderebbe a collassare su sé stesso. Essendo però opinione comune che l'universo fosse statico (ed eterno), Einstein ricorse all'artificio di aggiungere nelle equazioni del campo gravitazionale una costante, detta costante cosmologica (solitamente indicata con Λ), per controbilanciare questa contrazione. Questa costante non modificava minimamente le predizioni della teoria in tutti gli altri campi, ma la sua introduzione si prestava ad un altro genere di critica. Infatti, esiste un unico valore della costante cosmologica che consente di avere un universo in equilibrio statico, ed anche in questo caso l'equilibrio risulta instabile; ciò significa che per avere un universo eternamente statico il valore "fisico" della costante cosmologica dovrebbe essere esattamente quello richiesto dalla condizione di staticità. Ogni altro valore, anche estremamente prossimo a quello indicato da Einstein, conduce ad un universo in collasso o in espansione. Nel 1922 Fridman abbandonò allora l'ipotesi che l'universo sia statico (ed eterno), trovò che le soluzioni delle equazioni della relatività generale indicavano che l'universo avrebbe avuto un inizio in cui sarebbe stato infinitamente denso, e che da allora si sarebbe espanso; cinque anni dopo Lemaître arrivò allo stesso risultato in modo indipendente. Sia Fridman che Lemaître trovarono anche che nel caso da loro esaminato (e comunemente accettato anche attualmente) di un universo omogeneo ed isotropo (accettando il principio cosmologico), la metrica che risolve le equazioni del campo gravitazionale è la cosiddetta metrica di Friedman-Lemaître-Robertson-Walker. L'insieme di questa metrica e delle soluzioni trovate da Friedmann e Lemaître costituiscono il cosiddetto modello cosmologico di Friedmann-Lemaître. Pochi anni dopo queste idee teoriche trovarono una clamorosa conferma sperimentale nella scoperta di Hubble che le galassie si allontanano da noi ad una velocità proporzionale alla loro distanza, la qual cosa può essere spiegata facilmente assumendo che l'universo si stia espandendo. L'idea che l'universo abbia un inizio portò alla formulazione della teoria del Big Bang, ovvero che l'universo sia nato da una singolarità gravitazionale in cui erano concentrati tutto lo spazio-tempo e la materia dell'universo; in particolare nel 1948 Alpher, Bethe e Gamow introdussero il cosiddetto modello αβγ, che spiegava come potesse avvenire la sintesi degli elementi chimici nell'ambito della teoria del Big Bang, ovvero in un universo in rapida espansione ed in raffreddamento. Tuttavia alcuni scienziati non accettarono l'idea di un universo che non fosse eterno e proposero modelli alternativi; fra questi il più famoso e fortunato fu la teoria dello stato stazionario di Fred Hoyle, in cui l'universo sarebbe eterno e la diluizione della materia dovuta all'espansione sarebbe bilanciata da una continua creazione spontanea di particelle (1948). Per circa 20 anni la controversia fra i due modelli cosmologici fu alquanto accesa; essa giunse però ad una conclusione piuttosto rapida dopo che l'osservazione della radiazione cosmica di fondo a microonde (nel 1964 da parte di Arno Penzias e Robert Woodrow Wilson) e diverse misure della densità dei quasar non portarono al quasi totale abbandono delle teorie alternative ed all'adozione quasi unanime di quelle basate sul Big Bang. Per quanto dopo il 1970 il modello del Big Bang sia rimasto praticamente senza serie alternative, esso presentava e presenta alcune rilevanti lacune. Due fra le più importanti, che hanno condotto all'introduzione di due significative modifiche alla teoria, emersero poco dopo la scoperta della radiazione di fondo, e riguardavano l'estrema uniformità su tutto il cielo della radiazione stessa:
- il primo problema (problema dell'orizzonte) è che nei modelli standard del big bang due regioni di cielo sufficientemente lontane fra loro (ad una distanza angolare superiore a circa un grado) non possono essere entrate in contatto fra loro prima dell'epoca alla quale la radiazione di fondo è stata emessa, per cui non possono aver raggiunto un equilibrio termico alla medesima temperatura; sarebbe quindi logico attendersi disomogeneità molto più accentuate nella radiazione che osserviamo;
- il secondo problema è che nella teoria originale del big bang le fluttuazioni della radiazione cosmica di fondo sono molto più piccole di quanto sarebbe necessario per spiegare la formazione delle galassie in un tempo più breve dell'età dell'Universo.
Per risolvere il problema dell'orizzonte è stata introdotta un'idea teorica nota come inflazione, secondo la quale subito dopo il Big Bang l'universo avrebbe attraversato una fase di espansione estremamente accelerata (l'inflazione, appunto); due regioni di cielo estremamente lontane fra loro potrebbero quindi essere state in contatto (ed avere avuto il tempo di entrare in equilibrio termico) prima dell'inflazione. L'inflazione darebbe inoltre conto di numerose osservazioni (ad es. la piattezza dell'universo) altrimenti difficili da spiegare. Per quel che riguarda la crescita delle fluttuazioni fino a formare le galassie, la soluzione comunemente accettata è che esista la cosiddetta materia oscura, ovvero una forma di materia che non abbiamo ancora osservato in quanto sarebbe elettricamente neutra (e quindi non sarebbe in grado di emettere o assorbire luce); la fisica delle particelle fornisce diversi tipi di particelle di cui la materia oscura potrebbe essere costituita, ad es. i neutroni, i neutrini, o più probabilmente i cosiddetti WIMPs (Weakly Interacting Massive Particles, particelle massive debolmente interagenti). Poiché la materia oscura non sarebbe influenzata dalla radiazione di fondo, essa ha potuto iniziare il suo collasso gravitazionale (dal quale sarebbero nate le galassie) molto prima della materia normale (barionica), eliminando quindi il problema del tempo di formazione delle galassie. Anche la materia oscura spiegherebbe diverse altre osservazioni, fra cui le misurazioni delle curve di rotazione delle galassie, che furono il motivo per cui fu originariamente introdotta. Inflazione e materia oscura sono ormai entrate a far parte del cosiddetto modello standard della cosmologia, ovvero il modello accettato dalla maggior parte della comunità scientifica. Tuttavia entrambe non sono ancora considerate dimostrate, anche se ci sono concrete speranze di poter giungere ad una scoperta decisiva (ad esempio l'individuazione della particella elementare che costituirebbe la materia oscura) in tempi non troppo lunghi. D'altra parte, esistono anche alcuni sostenitori di teorie alternative, ad esempio delle cosiddette teorie MOND (da MOdified Newton Dynamics), che eliminerebbero questi problemi (in particolare il secondo) introducendo delle modifiche alla teoria della gravitazione: queste teorie godono di scarso seguito, ma non possono essere del tutto escluse. Il problema forse più importante che affligge il modello del Big Bang è attualmente quello della cosiddetta energia oscura. Infatti alla fine degli anni novanta alcune osservazioni compiute su supernovae (il loro spostamento verso il rosso) hanno evidenziato che, contrariamente a quanto atteso, l'espansione dell'universo non sta rallentando, bensì accelerando[1]. Per quanto la relatività generale fornisca un meccanismo (lo stesso che viene utilizzato da alcuni decenni per spiegare l'inflazione) attraverso il quale è possibile spiegare forme di energia che producono una sorta di gravità repulsiva, questa scoperta ha colto di sorpresa la maggior parte dei cosmologi. Al momento attuale non esiste una teoria accettata che possa spiegare da cosa derivi l'energia (subito battezzata energia oscura) che sarebbe responsabile di questa accelerazione, e che sarebbe la forma dominante di energia nel nostro universo: infatti l'energia oscura costituirebbe il 73% dell'universo, la materia oscura il 23% e la materia barionica (elettroni, protoni, neutroni, ecc.) il 4%. Si spera di poter distinguere fra i molti modelli teorici che si propongono di spiegare le proprietà dell'energia oscura (fra cui la cosiddetta quintessenza, il Chaplygin gas, i modelli DGP e KKLT e molti altri) attraverso la misura del parametro w (che caratterizza la relazione fra pressione e densità di energia dell'energia oscura, P=wρ). I modelli con w≥-1 differiscono qualitativamente da quelli con w minore di -1 . Nei primi l'Universo si espanderebbe più rapidamente che nel caso senza energia oscura, ma l'espansione avverrebbe sempre a velocità finite. Nei secondi invece l'accelerazione dovuta all'energia fantasma (espressione che indica forme di energia oscura con w minore di -1) sarebbe così forte che l'Universo finirebbe per "morire" nel cosiddetto Big Rip, (Grande Strappo), poiché l'espansione raggiungerebbe una velocità infinita. Le misure di w sono ancora più incerte di quelle riguardo all'energia oscura e al momento entrambe le possibilità sono compatibili con gli scarsi dati sperimentali disponibili. Oltre ai problemi inerenti alla materia oscura (la prova o la smentita della sua esistenza e lo studio della sua eventuale composizione) e l'energia oscura (l'esistenza di un termine cosmologico nelle equazioni di Einstein), nella cosmologia attuale restano aperte molte questioni riguardanti gli istanti iniziali dell'universo, quando la densità è confrontabile con la densità di Planck e gli effetti quantistici diventano importanti. Per fornire dati utili a restringere il campo di accettabilità delle teorie per quanto riguarda le fasi iniziali dell'evoluzione dell'universo saranno utili le nuove finestre osservative basate su messaggeri che possano attraversare la materia anche quando questa sia opaca alla radiazione, ad esempio i neutrini e le onde gravitazionali. Un altro problema ancora aperto di estremo interesse per la cosmologia è la formazione delle strutture, a tutte le scale, da quella dei superammassi di galassie, a quella galattica, a quella planetaria.
Il Big Bang
Il Big Bang (pron. inglese /biɡˈbænɡ/, in Italiano "Grande Scoppio") è un modello cosmologico basato sull'idea che l'universo iniziò a espandersi a velocità elevatissima in un tempo finito nel passato a partire da una condizione di curvatura, temperatura e densità estreme, e che questo processo continui tuttora. È il modello predominante nella comunità scientifica sulla base di prove e osservazioni astronomiche. In particolare la buona corrispondenza dell'abbondanza cosmica degli elementi leggeri come l'idrogeno e l'elio con i valori previsti in seguito al processo di nucleosintesi primordiale, e ancor più l'esistenza della radiazione cosmica di fondo, con uno spettro in linea con quello di corpo nero, hanno convinto la maggior parte degli scienziati che un evento simile al Big Bang ha avuto luogo quasi 14 miliardi di anni fa. Tuttavia la teoria ha dei limiti: procedendo idealmente a ritroso nel tempo, in un processo inverso all'espansione, densità e temperatura aumentano fino a un istante nel cui intorno questi valori tendono all'infinito e il volume tende a zero, così che le attuali teorie fisiche non sono più applicabili (singolarità). Per questo la teoria non è adeguata a descrivere la condizione iniziale, ma fornisce un'ottima descrizione dell'evoluzione dell'universo da un determinato momento in poi. Sul fronte sperimentale, negli acceleratori di particelle si studia il comportamento della materia e dell'energia in condizioni estreme, vicine a quelle in cui si sarebbe trovato l'universo durante le prime fasi del Big Bang, ma senza la possibilità di esaminare il livello di energia all'inizio dell'espansione.
«L'essenza della teoria del Big Bang sta nel fatto che l'Universo si sta espandendo e raffreddando. Lei noterà che non ho detto nulla riguardo a una "esplosione". La teoria del Big Bang descrive come il nostro universo evolve e non come esso iniziò»
(P. J. E. Peebles, 2001)
La teoria del Big Bang è stata dedotta dalle equazioni della relatività generale, risolvendole sotto condizioni particolari di natura ipotetica atte a semplificare il problema. La più importante di queste è l'ipotesi di omogeneità e l'isotropia dell'Universo, nota come principio cosmologico. Essa generalizza all'intero universo il principio copernicano. La teoria del Big Bang risultò subito in accordo con la nuova concezione della struttura dell'universo che proprio negli stessi decenni stava emergendo dall'osservazione astronomica delle nebulose. Nel 1912 Vesto Slipher aveva misurato il primo spostamento verso il rosso, detto "effetto redshift", di una "nebulosa a spirale" e aveva scoperto che la maggior parte di esse si stava allontanando dalla Terra. Egli non colse l'implicazione cosmologica della sua scoperta, infatti in quel periodo erano in corso accesi dibattiti sul fatto se queste nebulose fossero o non fossero degli "universi isola" esterni alla Via Lattea. Dieci anni dopo, Alexander Friedmann, matematico e cosmologo russo, applicò il principio cosmologico alle equazioni di campo della relatività generale, ricavandone le equazioni a lui intitolateː esse mostrano che l'universo deve essere in espansione, in contrasto con il modello di universo statico sostenuto da Einstein. Però egli non comprese che la sua teoria implicava lo spostamento verso il rosso della luce stellare e il suo contributo matematico fu completamente ignorato, sia perché privo di conferme astronomiche, sia perché poco noto nel mondo anglosassone, essendo scritto in tedesco. A partire dal 1924 Edwin Hubble, utilizzando il telescopio Hooker dell'Osservatorio di Monte Wilson, mise a punto una serie di indicatori di distanza che sono i precursori dell'attuale scala delle distanze cosmiche. Questo gli permise di calcolare la distanza di nebulose a spirale il cui redshift era già stato misurato, soprattutto da Slipher, e di mostrare che quei sistemi si trovano a enormi distanze e sono in realtà altre galassie. Nel 1927 Georges Lemaître, fisico e sacerdote cattolico belga, sviluppò le equazioni del Big Bang in modo indipendente da Friedmann e ipotizzò che l'allontanamento delle nebulose fosse dovuto all'espansione del cosmo. Infatti egli osservò che la proporzionalità fra distanza e spostamento spettrale, oggi nota come legge di Hubble, era parte integrante della teoria ed era confermata dai dati di Slipher e di Hubble. Nel 1931 Lemaître andò oltre e suggerì che l'evidente espansione del cosmo necessita di una sua contrazione andando indietro nel tempo, continuando fino a quando esso non si può più contrarre ulteriormente, concentrando tutta la massa dell'universo in un volume quasi nullo, del diametro della lunghezza di Planck, detto da Lemaître "l'atomo primitivo". Il nome "atomo" è da intendersi in senso etimologico come un riferimento all'indivisibilità di questo volume, prima del quale lo spazio e il tempo, ovvero lo Spaziotempo della teoria della relatività, non esistono. Nel 1929 Hubble pubblicò la relazione tra la distanza di una galassia e la sua velocità di allontanamento formulando quella che oggi è conosciuta come legge di Hubble. Per spiegare le osservazioni di Hubble negli anni trenta furono proposte altre idee, note come cosmologie non standard come per esempio il modello di Milne, l'universo oscillante, ideato originariamente da Friedmann e supportato da Einstein e da Richard Tolman, e l'ipotesi della luce stanca di Fritz Zwicky. Dopo la seconda guerra mondiale emersero due differenti teorie cosmologiche.
- La prima era la teoria dello stato stazionario di Fred Hoyle, in base alla quale nuova materia doveva essere creata per compensare l'espansione. In questo modello l'universo è approssimativamente lo stesso in ogni istante di tempo.
- L'altra è la teoria del Big Bang di Georges Lemaître, supportata e sviluppata da George Gamow che nel 1948 assieme a Ralph Alpher introdusse il concetto di nucleosintesi primordiale. Questa pubblicazione segnò l'inizio della cosmologia del Big Bang come scienza quantitativa. Sempre Alpher, con Robert Herman, ipotizzò nello stesso anno l'esistenza di una radiazione cosmica di fondo.
Il termine "Big Bang" fu coniato proprio da Fred Hoyle durante una trasmissione radiofonica della BBC Radio del marzo 1949 in senso dispregiativo, riferendosi ad esso come "questa idea del grosso botto". Successivamente Hoyle diede un valido contributo al tentativo di comprendere il percorso nucleare di formazione degli elementi più pesanti a partire da quelli più leggeri. Inizialmente la comunità scientifica si divise tra queste due teorie; in seguito, grazie al maggior numero di prove sperimentali, fu la seconda teoria ad essere più accettata. La scoperta e la conferma dell'esistenza della radiazione cosmica di fondo a microonde nel 1964 indicarono chiaramente il Big Bang come la migliore teoria sull'origine e sull'evoluzione dell'universo. Le conoscenze in ambito cosmologico includono la comprensione di come le galassie si siano formate nel contesto del Big Bang, la comprensione della fisica dell'universo negli istanti immediatamente successivi alla sua creazione e la conciliazione delle osservazioni con la teoria di base. Importanti passi avanti nella teoria del Big Bang sono stati fatti dalla fine degli anni novanta a seguito di importanti progressi nella tecnologia dei telescopi, nonché dall'analisi di un gran numero di dati provenienti da satelliti come COBE, il telescopio spaziale Hubble e il WMAP. Questo ha fornito ai cosmologi misure abbastanza precise di molti dei parametri riguardanti il modello del Big Bang e ha permesso anzi di intuire che si sta avendo un'accelerazione dell'espansione dell'universo. Dopo il tramonto della teoria dello stato stazionario quasi nessun scienziato nega il Big Bang come espansione dell'universo, anche se molti ne forniscono interpretazioni diverse. L'estrapolazione dell'espansione dell'universo a ritroso nel tempo utilizzando la relatività generale conduce ad una condizione di densità e temperatura talmente elevate numericamente da tendere all'infinito; questa condizione si è mantenuta in un tempo di durata infinitesima, talmente breve da risultare difficile da studiare con la fisica attuale. Questa singolarità indica il punto in cui la relatività generale perde validità. Si può continuare con questa estrapolazione fino al tempo di Planck, che è il più piccolo intervallo di tempo misurabile con le attuali leggi fisiche. La fase iniziale calda e densa denominata "Big Bang" è considerata la nascita dell'universo. In base alle misure dell'espansione riferite alle supernovae di tipo Ia, alle misure delle fluttuazioni di temperatura nella radiazione cosmica di fondo, alle misure della funzione di correlazione delle galassie e agli ultimi e più attendibili dati forniti dal telescopio-sonda spaziale Planck Surveyor dell'Agenzia Spaziale Europea, l'universo ha un'età calcolata di 13,798 ± 0,037 miliardi di anni. Il risultato di queste quattro misurazioni indipendenti è in accordo con il cosiddetto modello ΛCDM. Sulle primissime fasi del Big Bang esistono molte speculazioni. Nei modelli più comuni l'universo inizialmente era omogeneo, isotropo, con una densità energetica estremamente elevata, temperature e pressioni altissime e si stava espandendo e raffreddando molto rapidamente. All'incirca 10−37 secondi dopo l'istante iniziale, una transizione di fase causò un'inflazione cosmica, durante la quale l'universo aumentò le sue dimensioni esponenzialmente. Quando il processo di inflazione si fermò il cosmo era formato da un plasma di quark e gluoni, oltre che da tutte le altre particelle elementari. Le temperature erano così alte che il moto casuale delle particelle avveniva a velocità relativistiche e coppie particella-antiparticella di ogni tipo erano continuamente create e distrutte nelle collisioni. Ad un certo istante una reazione sconosciuta, chiamata bariogenesi, violò la conservazione del numero barionico portando ad una leggera sovrabbondanza dell'ordine di 1 parte su 30 milioni dei quark e dei leptoni sugli antiquark e sugli antileptoni. Questo processo potrebbe spiegare il predominio della materia sull'antimateria nell'universo attuale. L'universo continuò ad espandersi e la sua temperatura continuò a diminuire, quindi l'energia tipica di ogni particella andò diminuendo. La rottura della simmetria della transizione di fase portò le quattro interazioni fondamentali della fisica e i parametri delle particelle elementari nella loro forma attuale. All'incirca dopo 10−11 secondi il quadro d'insieme diventa meno speculativo, visto che le energie delle particelle diminuiscono fino a valori raggiungibili negli esperimenti di fisica delle particelle. Arrivati a 10−6 secondi quark e gluoni si combinarono per formare barioni, come protoni e neutroni. La piccola differenza presente nel numero di quark e antiquark portò ad una sovrabbondanza dei barioni sugli antibarioni. La temperatura non era più sufficientemente alta per formare nuove coppie protoni-antiprotoni e nuove coppie di neutroni-antineutroni, perciò seguì immediatamente un'annichilazione di massa che lasciò soltanto uno ogni 1010 dei protoni e neutroni originali e nessuna delle loro antiparticelle. Un processo simile avvenne al tempo di un secondo per gli elettroni e i positroni. Dopo questi due tipi di annichilazione i protoni, i neutroni e gli elettroni rimanenti non stavano più viaggiando a velocità relativistiche e la densità di energia del cosmo era dominata dai fotoni con un contributo minore dovuto ai neutrini. Qualche minuto dopo l'istante iniziale, quando la temperatura era all'incirca 109 kelvin (un miliardo di kelvin) e la densità paragonabile a quella dell'aria, i neutroni si combinarono con i protoni, formando i primi nuclei di deuterio e di elio in un processo chiamato nucleosintesi primordiale. La maggior parte dei protoni non si combinò e rimase sotto forma di nuclei di idrogeno. Quando l'universo si raffreddò il contributo della densità energetica della massa a riposo della materia arrivò a dominare gravitazionalmente il contributo della densità di energia associata alla radiazione del fotone. Dopo circa 379 000 anni gli elettroni e i vari nuclei si combinarono formando gli atomi, soprattutto idrogeno, e a partire da questo istante la radiazione si disaccoppiò dalla materia e continuò a vagare libera nello spazio. Questa radiazione fossile, che ancora oggi è visibile, è conosciuta come radiazione cosmica di fondo. Da quel momento in poi le regioni leggermente più dense rispetto alla distribuzione uniforme di materia continuarono ad attrarre gravitazionalmente la materia circostante e crebbero, aumentando la loro densità, formando nubi di gas, stelle, galassie e le altre strutture astronomiche osservabili oggi. La stella più antica individuata dagli astronomi si formò circa 400 milioni di anni dopo il Big Bang. I dettagli di questo processo dipendono dalla quantità e dal tipo di materia presente nell'universo. I tre possibili tipi di materia conosciuti sono la materia oscura fredda, la materia oscura calda e la materia barionica. La miglior misura disponibile (fornita da WMAP) mostra che la forma di materia dominante nel cosmo è la materia oscura fredda. Gli altri due tipi formano insieme meno del 18% dell'intera materia dell'universo. Dallo studio di alcune prove osservative come le supernovae di tipo Ia e la radiazione cosmica di fondo gli astrofisici ritengono che attualmente l'universo sia dominato da una misteriosa forma di energia, conosciuta come energia oscura, che apparentemente permea tutto lo spazio. Le osservazioni suggeriscono che circa il 68% di tutta la densità d'energia dell'universo attuale sia sotto questa forma. Quando il cosmo era più giovane era permeato in ugual modo dall'energia oscura, ma la forza di gravità aveva il sopravvento e rallentava l'espansione in quanto era presente meno spazio ed i vari oggetti astronomici erano più vicini tra loro. Dopo alcuni miliardi di anni la crescente abbondanza dell'energia oscura causò un'accelerazione dell'espansione dell'universo. L'energia oscura, nella sua forma più semplice, prende la forma della costante cosmologica nelle equazioni di campo di Einstein della relatività generale, ma la sua composizione e il suo meccanismo sono sconosciuti e, più in generale, i particolari della sua equazione di stato e le relazioni con il Modello standard della fisica delle particelle continuano ad essere studiati sia tramite osservazioni, sia dal punto di vista teorico. Tutta l'evoluzione cosmica successiva all'epoca inflazionaria può essere descritta rigorosamente dal modello ΛCDM, il quale utilizza le strutture indipendenti della meccanica quantistica e della relatività generale. Come descritto in precedenza, non esiste ancora un modello ben supportato che descriva i fenomeni precedenti a 10−15 secondi. Per poter risalire a tali periodi di tempo è necessaria una nuova teoria unificata, definita gravità quantistica. La comprensione dei primissimi istanti della storia dell'universo è attualmente uno dei più grandi problemi irrisolti della fisica. La teoria del Big Bang si basa su due ipotesi fondamentali: l'universalità delle leggi della fisica e il principio cosmologico che afferma che su larga scala l'universo è omogeneo e isotropo. Queste idee erano inizialmente considerate dei postulati, ma attualmente si sta provando a verificare ciascuna delle due. Per esempio la prima ipotesi è stata verificata da osservazioni che mostrano che la più ampia discrepanza possibile del valore della costante di struttura fine nel corso della storia dell'universo è nell'ordine di 10−5. Inoltre la relatività generale ha superato test severi sulla scala del sistema solare e delle stelle binarie, mentre estrapolazioni su scale cosmologiche sono state convalidate da successi empirici di vari aspetti della teoria del Big Bang. Se il cosmo su larga scala appare isotropo dal punto di osservazione della Terra, il principio cosmologico può essere ricavato dal più semplice principio copernicano che afferma che non è presente alcun osservatore privilegiato nell'universo. A questo rispetto il principio cosmologico è stato confermato con un'incertezza di 10−5 attraverso le osservazioni della radiazione cosmica di fondo. L'universo è risultato essere omogeneo su larga scala entro un ordine di grandezza del 10%. La relatività generale descrive lo spaziotempo attraverso una metrica che determina le distanze che separano i punti vicini. Gli stessi punti, che possono essere galassie, stelle o altri oggetti, sono specificati usando una carta o "griglia" che è posizionata al di sopra dello spaziotempo. Il principio cosmologico implica che la metrica dovrebbe essere omogenea e isotropa su larga scala, il che individua univocamente la metrica di Friedmann - Lemaître - Robertson - Walker (metrica FLRW). Questa metrica contiene un fattore di scala che descrive come la dimensione dell'universo cambia con il tempo. Questo consente di definire un opportuno sistema di coordinate, chiamate coordinate comoventi. Adottando questo sistema di coordinate la griglia si espande assieme all'universo e gli oggetti che si stanno muovendo solo a causa dell'espansione dell'universo rimangono in punti fissi della griglia. Mentre le loro coordinate comoventi rimangono costanti, le distanze fisiche tra due punti comoventi si espandono proporzionalmente al fattore di scala dell'universo. Il Big Bang non è stata un'esplosione di materia che si muove verso l'esterno per riempire un universo vuoto. È invece lo spazio stesso che si espande con il tempo dappertutto e aumenta la distanza fisica tra due punti comoventi. Poiché la metrica FLRW assume una distribuzione uniforme della massa e dell'energia, è applicabile al nostro universo solo su larga scala, in quanto le concentrazioni locali di materia, come la nostra galassia, sono legate gravitazionalmente e come tali non possono risentire dell'espansione su larga scala dello spazio. La metrica di Fridman-Lemaître-Robertson-Walker (FLRW) è una metrica di Riemann soluzione delle equazioni di campo della relatività generale. Essa descrive a grande scala un universo omogeneo e isotropo, in espansione o in contrazione. A seconda delle preferenze di tipo geografico/storico, essa è variamente chiamata con i nomi di un sottoinsieme degli scienziati che vi hanno contribuito; ad esempio la Friedmann-Robertson-Walker (FRW) o la Robertson-Walker (RW); quest'ultima è in realtà da considerare più restrittiva, in quanto assume alcuni prerequisiti che non sono altrettanto generali. Prende il nome da Aleksandr Fridman (o Friedmann a seconda della traslitterazione), Georges Lemaître, Howard Robertson e Arthur Walker. Le soluzioni alla metrica FLRW per un fluido a densità e pressione costante sono date dalle equazioni di Friedmann. La metrica FLRW viene utilizzata come prima approssimazione per il modello standard della cosmologia del big bang. Poiché essa assume che l'universo sia omogeneo, alcuni testi divulgativi asseriscono erroneamente che il modello del big bang non spiega la non-omogeneità osservata (stelle, galassie, ammassi, superammassi). In realtà la metrica FLRW è utilizzata come prima approssimazione perché semplice da usare nei calcoli e i modelli che tengono conto della non-omogeneità dell'universo vi sono aggiunti come estensioni. La maggior parte dei cosmologi crede infatti che l'universo osservabile sia ben approssimato da un modello quasi FLRW, cioè un modello che segue la metrica FLRW con la presenza aggiuntiva di fluttuazioni primordiali di densità. In un modello strettamente FLRW non esistono ammassi di galassie, galassie o stelle, poiché sono oggetti molto più densi di una qualsiasi parte tipica dell'universo (circa 1 atomo per metro cubo oggi). Tuttavia per brevità si usa chiamare il modello quasi FLRW semplicemente FLRW. Al 2003 le implicazioni teoriche delle varie estensioni alla metrica FLRW sembrano essere comprese e il traguardo è di renderle coerenti con le osservazioni dei satelliti COBE e WMAP. L'espansione metrica dello spazio è l'aumento medio della distanza misurata tra due oggetti nell'universo al variare del tempo. Si tratta di un'espansione intrinseca, cioè è definita dalla continua "creazione" di spazio e non dal movimento in uno spazio preesistente. L'espansione metrica è una caratteristica fondamentale della teoria del Big Bang ed è espressa matematicamente dalla metrica di Friedmann - Lemaître - Robertson - Walker. Questo modello è valido nell'epoca attuale solo su scale relativamente ampie, ovvero all'incirca dalla scala dei superammassi galattici; su scale minori la materia, sotto l'influenza dell'attrazione gravitazionale, si è concentrata in agglomerati che non si espandono, ma continuano ad allontanarsi gli uni dagli altri. L'espansione è causata in parte dall'inerzia conseguente alla spinta del Big bang e in parte da una forza repulsiva di cui non si conosce la natura, chiamata energia oscura, che costituirebbe una costante cosmologica responsabile dell'accelerazione dell'espansione. L'inerzia ha dominato l'espansione nella prima parte della storia dell'universo, mentre, in base al modello Lambda-CDM, la costante cosmologica dominerà l'espansione nel futuro. La velocità con la quale le galassie sembrano allontanarsi le une dalle altre a causa dell'espansione dell'universo è detta velocità di recessione. Più è lontana la galassia osservata, più è alta la velocità di recessione e maggiore è il suo redshift. Distanza e velocità di allontanamento (o recessione) sono quindi proporzionali. Recentemente è stata misurata una velocità di recessione pari a 74.03km/s per megaparsec (1Mpc = 3.2614 milioni di anni luce ca.). Questi risultati sono stati stimati grazie ai dati raccolti dal Telescopio spaziale Hubble osservando 70 stelle pulsanti chiamate Variabili Cefeidi nella Grande Nube di Magellano. Ancora più recentemente la misurazione della velocità di recessione è stata effettuata utilizzando le stelle giganti rosse e studiandone il flash dell'elio. Secondo questo metodo il tasso di espansione dell'Universo è di 69.8 chilometri al secondo per megaparsec. Il 17 settembre 2019 è uscito un nuovo studio di un gruppo di ricercatori guidati da Ihn Jee il quale, basandosi stavolta sui dati forniti dalle lenti gravitazionali di due galassie, ha stimato una velocità di recessione pari a 82,4km/s per megaparsec. L'espansione metrica porta a velocità di allontanamento che superano la velocità della luce c e a distanze che superano di c volte l'età dell'universo; questo fatto provoca spesso confusione tra esperti e principianti. La velocità della luce non ha particolare significato su scale cosmologiche. Una valutazione più completa può essere data dal fatto che l'interpretazione dell'espansione metrica dello spazio continua a fornire paradossi che sono ancora materia di dibattito. L'opinione prevalente è quella di Michał Chodorowski, il quale afferma che: a differenza dell'espansione del substrato cosmico, l'espansione dello spazio è inosservabile. Lo spaziotempo, su scala cosmologica, è altamente ricurvo e, come risultato, l'espansione dell'universo è inerente alla relatività generale, poiché non può essere compresa con la sola relatività speciale. Le immagini sulla destra mostrano la geometria su larga scala dell'universo in base al modello Lambda-CDM. Due dimensioni spaziali sono state omesse, lasciando una dimensione spaziale e una temporale. Il cerchio finale stretto del diagramma corrisponde ad un tempo cosmologico di 700 milioni di anni dopo il Big Bang; il cerchio superiore più largo rappresenta un tempo cosmologico di 18 miliardi di anni, dove è possibile vedere l'inizio dell'accelerazione dell'espansione che domina alla fine di questo modello. Le linee viola (i "paralleli") rappresentano il tempo cosmologico alla distanza di un miliardo di anni dal Big Bang, mentre le linee azzurre (i "meridiani") rappresentano la distanza comovente con un intervallo di un miliardo di anni. La linea marrone nel diagramma è la linea universo della Terra (o, nei primissimi istanti, della materia che si aggregò per formare la Terra), mentre la linea gialla è la linea universo delle quasar più distanti conosciute. La linea rossa è un raggio di luce emesso da un quasar all'incirca 13 miliardi di anni fa e che raggiunge la Terra ai nostri giorni. La linea arancione rappresenta la distanza attuale tra il quasar e la Terra, circa 28 miliardi di anni luce. In base al principio di equivalenza della relatività generale, le regole della relatività speciale sono localmente valide in porzioni ristrette dello spaziotempo che sono approssimativamente piatte. In particolare, la luce viaggia sempre localmente alla velocità c; nel diagramma precedente, questo vuol dire che i raggi di luce formano localmente un angolo di 45º con le linee della griglia. Questo però non vuol dire che la luce abbia percorso uno spazio pari a ct in un tempo t, come mostrato dalla linea rossa. Mentre il raggio luminoso viaggia sempre localmente a velocità c, il suo tempo per percorrere la distanza (all'incirca 13 miliardi di anni) non è correlato alla distanza percorsa in qualsiasi modo semplice. Infatti la distanza percorsa è ambigua a causa del cambiamento di scala dell'universo. Tuttavia è possibile individuare due distanze che sembrano fisicamente importanti: la distanza tra la Terra e il quasar quando la luce è emessa e la distanza tra di loro all'epoca attuale. La prima distanza è all'incirca 4 miliardi di anni luce, molto minore di ct. La seconda distanza (mostrata dalla linea arancione) è all'incirca di 28 miliardi di anni, cioè è molto maggiore di ct. Si può notare che la luce impiega più di 4 miliardi di anni per raggiungere la Terra anche se è stata emessa dalla distanza di 4 miliardi di anni luce. Infatti si può vedere nel diagramma che la luce si sta allontanando dalla Terra quando è stata emessa, nel senso che la distanza metrica dalla Terra aumentò con il tempo cosmologico per i primi miliardi di anni del suo viaggio. Nessuno di questi comportamenti proviene da una proprietà dell'espansione metrica, ma proviene semplicemente da un principio locale della relatività generale integrato su una superficie curva. Si noti che l'universo non si sta espandendo nel vuoto; è presente semplicemente più spazio in tempi futuri rispetto a quanto ce ne fosse in tempi precedenti. Inoltre tale notazione di "più spazio" è locale, non globale: non è possibile sapere quanto spazio sia presente in totale. L'espansione dello spazio è talvolta descritta come una forza che agisce sugli oggetti e li allontana tra loro. Anche se questa è una descrizione accurata della costante cosmologica, non è un'immagine reale del fenomeno generale di espansione. Per la maggior parte della storia dell'universo, l'espansione è stata causata principalmente dall'inerzia. La materia nel giovane universo si stava allontanando soprattutto per l'effetto iniziale dell'inflazione cosmica ed ha continuato a farlo per inerzia, anche se a un ritmo sempre più basso a causa dell'effetto attrattivo della gravità. Oltre al rallentamento dell'espansione, la gravità causò l'addensarsi della materia che generò stelle e galassie. Queste stelle e galassie non si allontanarono tra loro successivamente, poiché non vi era presente nessuna forza che permettesse ciò. Non ci sono sostanziali differenze tra l'espansione inerziale dell'universo e la separazione inerziale di oggetti vicini nel vuoto: il primo caso è semplicemente una generalizzazione su larga scala del secondo. Un tipo di espansione locale uniforme della materia può essere descritta localmente dalla metrica di Friedmann - Lemaître - Robertson - Walker, la stessa metrica che descrive l'espansione dell'universo nel suo complesso. Questa situazione cambia considerando l'introduzione di una costante cosmologica. Questo termine ha l'effetto di una forza repulsiva tra gli oggetti che è proporzionale (non inversamente proporzionale) alla distanza. A differenza dell'inerzia, essa agisce direttamente sugli oggetti legati gravitazionalmente e anche sugli atomi. Tuttavia, questa forza non causa la crescita costante degli oggetti o la loro distruzione; a meno che essi non siano debolmente legati, essi saranno semplicemente portati in uno stato di equilibrio che è leggermente diverso da quello che sarebbe stato altrimenti. Poiché l'universo si espande e la materia si allontana, l'attrazione gravitazionale diminuisce (poiché è proporzionale alla densità), mentre la repulsione dovuta alla costante cosmologica aumenta; quindi il destino ultimo dell'universo descritto dal modello Lambda-CDM è un'espansione sempre maggiore dovuta alla costante cosmologica. Tuttavia l'unico effetto visibile localmente dell'accelerazione dell'espansione è la scomparsa delle galassie più lontane. Infatti, gli oggetti gravitazionalmente legati, come la Via Lattea, non si espandono. L'espansione dello spazio è spesso illustrata con modelli che mostrano solo la grandezza dello spazio in un determinato istante di tempo, lasciando implicita la dimensione temporale. Nel "modello a palla" è presente una palla sferica che viene gonfiata partendo da una dimensione iniziale nulla (che rappresenta il Big Bang). Una palla ha una curvatura positiva mentre le osservazioni suggeriscono che l'universo sia spazialmente piatto, ma questa incongruenza può essere eliminata ipotizzando che il pallone sia molto largo così da poter essere considerato piatto entro i limiti dell'osservazione. Quest'analogia può portare confusione poiché può far pensare che il Big Bang abbia avuto luogo a partire dal centro del pallone. I punti non appartenenti alla superficie non hanno alcun significato, anche se sono stati occupati in tempi precedenti. Nel "modello del pane con l'uva" è possibile immaginare un pezzo di pane con l'uva che si sta espandendo. Il pane (cioè lo spazio) si espande nel suo complesso, ma l'uva (cioè gli oggetti gravitazionalmente legati) non si espandono, ma si limitano ad allontanarsi l'uno dall'altro. Tutti questi modelli hanno il problema concettuale di richiedere una forza esterna che agisce sullo spazio in ogni istante di tempo per permettere l'espansione. Diversamente dall'espansione reale, questi modelli prevedono un'interazione elettromagnetica tra i vari elementi e questi, dopo una spinta iniziale, non continueranno ad espandersi. Per meglio comprendere come funziona l'espansione metrica, di seguito viene riportato brevemente cos'è la metrica. La metrica definisce come una distanza possa essere misurata tra due punti vicini nello spazio, nei termini del sistema di coordinate di questi punti. Un sistema di coordinate localizza i punti in uno spazio (di qualunque dimensione) tramite l'assegnazione di numeri univoci, chiamati coordinate, ad ogni punto. La metrica è quindi una formula che converte le coordinate dei due punti in una distanza. Per esempio, si può considerare la misura della distanza fra due punti sulla superficie terrestre, cioè un caso di geometria non euclidea. Poiché la superficie terrestre è bidimensionale, i punti possono essere individuati attraverso 2 coordinate, per esempio la latitudine e la longitudine. Per utilizzare una metrica bisogna specificare le coordinate utilizzate e, in questo caso, è possibile scegliere sia il sistema di coordinate dato dalla latitudine e longitudine, sia i 3 assi di riferimento (x, y, z) del sistema cartesiano. Dopo aver scelto un sistema di riferimento, il valore numerico delle coordinate di qualunque coppia di punti è univocamente determinato, cioè basato sulle proprietà dello spazio preso in considerazione, ed è possibile determinare la metrica appropriata al sistema. Sulla superficie curva della Terra, questo effetto può essere visto nei viaggi aerei a lunga percorrenza, in cui la distanza tra due punti è misurata tramite la circonferenza massima e non attraverso la linea retta che passa all'interno della Terra. In linea teorica questo effetto, causato dalla curvatura della superficie, è visibile anche per piccole distanze, ma in pratica per due punti vicini la curvatura della superficie terrestre è così piccola che può essere esclusa nel caso di calcolo delle distanze. I punti della superficie terrestre possono essere determinati dando due coordinate. Poiché lo spaziotempo è quadridimensionale, è necessario fornire quattro coordinate per determinare la posizione dei punti. Le coordinate più utili da utilizzare in cosmologia sono le coordinate comoventi. Poiché lo spazio su larga scala sembra essere euclideo, è possibile specificare le coordinate spaziali nei termini delle coordinate x, y, e z, anche se sono utilizzati altri tipi, come le coordinate sferiche. La quarta coordinata richiesta è il tempo, che è specificato nelle coordinate comoventi come tempo cosmologico. Sebbene la geometria a larga scala dell'universo sembri essere euclidea, la stessa cosa non si può dire per la metrica dello spaziotempo. La natura non-euclidea dello spaziotempo si manifesta dal fatto che la distanza tra punti con le coordinate spaziali costanti, aumenta con il tempo piuttosto che rimanere costante. In cosmologia con orizzonte cosmologico si definisce il limite di osservabilità dell'universo da parte di un ipotetico osservatore terrestre causato dagli effetti cosmologici. L'esistenza, le proprietà e il significato dell'orizzonte cosmologico sono direttamente correlati al modello cosmologico che viene preso in considerazione. In ogni caso è opportuno notare che l'orizzonte cosmologico non è il limite effettivo dell'universo, ma solo un limite osservativo. Si consideri come paragone quello di un osservatore che non è in grado di percepire visivamente i limiti dell'oceano che sta attraversando: analogamente per l'osservatore terrestre è possibile vedere soltanto la luce che proviene da aree dello spazio poste all'interno dell'orizzonte cosmologico. La differenza però consiste nel fatto che l'orizzonte cosmologico è un concetto dinamico, poiché in ogni momento ci perviene "nuova" luce che amplia l'orizzonte stesso. Talvolta ci si riferisce all'orizzonte cosmologico come all'universo osservabile, volendo sottolineare come quello visibile sia un universo decisamente più piccolo (di diversi ordini di grandezza) rispetto all'universo che esiste oltre i limiti della osservazione percepita. facendo un esempio concreto di tale grandezza: se l'intero orizzonte cosmologico fosse contenuto in una sfera del diametro di una moneta, e se la teoria inflazionaria fosse corretta, l'universo che giace oltre questo orizzonte sarebbe grande quanto l'intero globo terrestre. Partendo dalla considerazione che la velocità della luce ha un valore finito, quella che arriva a noi da oggetti molto distanti ce li mostra come erano quando la luce era partita. Ad esempio, ora noi osserviamo la galassia di Andromeda, che dista due milioni di anni luce, come risultava due milioni di anni fa. Se si pensa che con gli strumenti a nostra disposizione, oggigiorno possiamo osservare oggetti del profondo cielo quali galassie, ammassi globulari e quasar lontani 13 miliardi di anni luce, è come se vedessimo l'universo quando era molto giovane. In base alla legge di Hubble, si sa che quanto più una galassia è distante, tanto più la velocità con cui si allontana è maggiore (cioè essa ha un alto redshift). Se stiamo guardando un oggetto lontano dieci miliardi di anni luce e lo volessimo vedere come era 5 miliardi di anni fa dovremo attendere ancora 5 miliardi di anni; possiamo perciò affermare che ci sono zone dello spazio-tempo, in ogni istante, alle quali noi non possiamo avere accesso; d'altra parte ad osservatori di altre galassie non è accessibile parte del nostro passato. Quindi il nostro orizzonte cosmologico, cioè quella sezione dello spazio-tempo a noi accessibile, è definito solo per un dato istante e solo per una data condizione di osservazione; quello che resta al di fuori di esso a noi è precluso, tanto più per l'osservazione visiva. Si può dire che due oggetti, in uno spazio, sono in contatto causale se esiste la possibilità di comunicare per mezzo di un segnale e quindi provocare una reazione da parte dell'oggetto che riceve il segnale stesso. Siccome il segnale viaggia a una velocità finita, l'effetto potrà essere sentito solamente dopo un certo tempo. Esiste un notevole grado di omogeneità ed isotropia anche in regioni dell'universo molto lontane, tanto da essere ognuna al di fuori dell'orizzonte causale dell'altra; poco dopo l'introduzione della teoria del Big Bang, è apparso subito problematico ai cosmologi spiegare come sia stato possibile lo scambio di informazione che ha permesso a queste regioni di assumere le stesse proprietà, se le distanze erano superiori a quelle che i segnali avrebbero potuto percorrere dall'inizio fino ad oggi. Per risolvere questo problema, nel 1979 Alan Guth propose allora una modifica al modello del Big Bang, proponendo il cosiddetto modello inflazionario, secondo il quale nei primissimi istanti dopo il Big Bang (per la precisione {\displaystyle 10^{-35}} secondi dopo) l'universo ha subito una rapidissima espansione detta inflazione che nel giro di {\displaystyle 10^{-32}} secondi gli ha fatto aumentare le dimensioni di un fattore {\displaystyle 10^{30}}; successivamente tutto sarebbe proseguito secondo la classica teoria del Big Bang. Prima della fase inflativa l'universo era così piccolo che le galassie si trovavano in contatto causa-effetto, e verrebbe così risolta la questione dell'orizzonte. Secondo Guth ciò che produsse l'inflazione è da ricercare nell'unificazione delle quattro interazioni fondamentali forza gravitazionale, elettromagnetica, nucleare debole e nucleare forte; queste forze non sarebbero altro che manifestazioni diverse di un'unica interazione fondamentale. Nei primi istanti di vita dell'universo, a causa della temperatura estremamente elevata, esse erano unificate, e solo in seguito, a causa dell'espansione e del raffreddamento esse si sarebbero diversificate. Le prove osservative principali e più dirette della teoria del Big Bang sono:
- l'espansione secondo la legge di Hubble, che si può osservare nel redshift delle galassie;
- le misure dettagliate della radiazione cosmica di fondo;
- l'abbondanza degli elementi leggeri.
Questi sono talvolta chiamati i tre pilastri della teoria del Big Bang. Altri tipi di prove supportano il quadro d'insieme, come ad esempio molte proprietà della struttura a grande scala dell'universo, che sono previste a causa della crescita gravitazionale della struttura nella teoria standard del Big Bang. Le osservazioni delle galassie e dei quasar mostrano che questi oggetti presentano il fenomeno del redshift, vale a dire che la loro luce emessa è spostata verso lunghezze d'onda maggiori. Questo fenomeno può essere osservato prendendo in esame lo spettro delle frequenze di un oggetto e confrontandolo con il modello spettroscopico delle linee di emissione o delle linee di assorbimento, che corrisponde agli atomi degli elementi chimici che interagiscono con la luce. Questi redshift sono omogenei, isotropi e distribuiti uniformemente tra gli oggetti osservati in tutte le direzioni. Per alcune galassie è possibile calcolare la loro distanza dalla Terra attraverso la scala delle distanze cosmiche. Quando le velocità di allontanamento vengono confrontate con queste distanze, viene riscontrata una relazione lineare, nota come legge di Hubble. In cosmologia, con nucleosintesi primordiale (in inglese Big Bang nucleosynthesis, da cui l'acronimo BBN) si denomina, secondo la teoria del Big Bang, il processo di produzione degli elementi chimici durante le prime fasi dell'universo. Si ritiene che questa nucleosintesi sia stata responsabile della formazione dell'idrogeno (H-1 oppure H), del suo isotopo deuterio (H-2 o D), degli isotopi dell'elio He-3 e He-4 e dell'isotopo del litio Li-7. La nucleosintesi primordiale ha due caratteristiche peculiari:
- La sua durata è stata di circa tre minuti, dopodiché la temperatura e la densità dell'universo sono cadute sotto i valori richiesti per la fusione nucleare. La brevità del processo è importante perché ha fatto sì che elementi più pesanti del berillio non si siano formati, mentre ha mantenuto elementi leggeri come il deuterio
- È stata ubiquitaria nell'intero universo
Il parametro chiave che consente di calcolare gli effetti della nucleosintesi è il numero di fotoni per barione. Questo parametro corrisponde alla temperatura ed alla densità dell'universo iniziale e permette di determinare le condizioni sotto le quali la fusione nucleare ha avuto luogo. Da ciò si può derivare l'abbondanza cosmica degli elementi. Nonostante il rapporto fotoni/barioni sia importante per determinare tale abbondanza, il valore preciso è lievemente diverso. In base all'attuale teoria del Big Bang la nucleosintesi risulta in 25% di elio-4, circa 1% di deuterio, tracce di litio e berillio e nessun altro elemento pesante. La misura dell'abbondanza osservata è considerata una prova della teoria. La nucleosintesi primordiale comincia circa un minuto dopo il Big Bang, quando l'universo si è raffreddato abbastanza per la bariogenesi, cioè la formazione di protoni e neutroni stabili. In base a semplici considerazioni termodinamiche, è possibile calcolare l'abbondanza di protoni e neutroni: la frazione vede un maggior numero di protoni, in quanto la massa più grande dei neutroni causa un loro decadimento spontaneo in protoni chiamato decadimento beta, con periodo di dimezzamento di circa 15 minuti. Una delle caratteristiche della nucleosintesi è che le leggi fisiche e le costanti che regolano il comportamento della materia a queste energie è noto: per questo motivo vengono eliminate le incertezze tipiche degli studi cosmologici sui primi minuti di vita dell'universo. Mentre si espande, l'universo si raffredda. Neutroni liberi e protoni sono meno stabili dei nuclei di elio e sono quindi portati a creare elio-4. Però la formazione dell'elio-4 richiede, come passo intermedio, la formazione del deuterio. Durante la nucleosintesi la temperatura è più alta dell'energia nucleare del deuterio e per questo ogni atomo di deuterio che si forma è subito distrutto (situazione nota come collo di bottiglia del deuterio). Quindi la formazione dell'elio-4 è ritardata fino al momento in cui l'universo è abbastanza freddo per la formazione del deuterio (circa T = 0.1 MeV). Subito dopo, a tre minuti dal Big Bang, l'universo diventa troppo freddo perché possa avvenire la fusione nucleare. A questo punto l'abbondanza di elementi è fissata e cambia solo quando prodotti radioattivi della nucleosintesi decadono. La storia della nucleosintesi primordiale comincia con i calcoli effettuati da Ralph Alpher e George Gamow negli anni quaranta. Negli anni settanta, la densità dei barioni calcolata secondo la nucleosintesi portò a molte discussioni in quanto era di molto inferiore alla massa dell'universo osservata basandosi sui calcoli della velocità di espansione. Queste discussioni furono in gran parte risolte postulando l'esistenza della materia oscura. La nucleosintesi primordiale non produce elementi più pesanti del berillio. Non esiste un nucleo stabile con 8 nucleoni, quindi c'è stato un rallentamento nella nucleosintesi che ha fermato il processo. Nelle stelle, il collo di bottiglia viene passato con triplici collisioni dei nuclei di elio-4 (processo tre alfa). Comunque questo processo richiede decine di centinaia di anni per convertire una massa significativa di elio in carbonio, e quindi non è stato possibile convertire grandi quantità di elio nei minuti successivi al Big Bang. La nucleosintesi ha creato circa 25% di elio-4 e questo numero è insensibile alle condizioni dell'universo. Il motivo per cui questo accade è che l'elio-4 è talmente stabile che non decade e molto difficilmente si combina con altri nuclei per formare atomi più pesanti. Finché l'universo è stato estremamente caldo, permettendo a neutroni e protoni di trasformarsi l'uno nell'altro, il loro rapporto era di 1 (N) a 7 (P). Quando l'universo si è raffreddato i neutroni si sono fusi con i protoni per formare nuclei del nuovo elemento: ogni 16 nucleoni (2 neutroni e 14 protoni), 4 di questi (ovvero il 25%) si sono combinati in elio-4. Un'analogia è pensare all'elio-4 come cenere, e la quantità di cenere che si forma quando si brucia completamente un pezzo di legno è indipendente dal modo in cui uno lo brucia. L'abbondanza di elio-4 è importante in quanto c'è molto più elio-4 nell'universo che quanto possa essersi formato con la nucleosintesi stellare. In più, offre un importante test per la teoria del Big Bang. Se la quantità di elio osservata è molto diversa dal 25%, questa teoria viene messa in crisi. Sarebbe questo il caso se la prima quantità di elio-4 fosse molto più piccola del 25%, in quanto è difficile distruggere tali atomi. Per alcuni anni, intorno al 1995, le osservazioni suggerivano che fosse proprio questo il caso, e gli astrofisici parlavano di una crisi della nucleosintesi primordiale, ma osservazioni seguenti riconfermavano la teoria. Il deuterio è in qualche modo l'opposto dell'elio-4, in quanto quest'ultimo è molto stabile e difficile da distruggere, mentre il deuterio è instabile e facile da separare. Dal momento che l'elio-4 è molto stabile, c'è una forte tendenza da parte di due nuclei di deuterio di combinarsi per formare l'atomo elio-4. L'unica ragione per cui la nucleosintesi non converte tutti gli atomi di deuterio dell'universo in elio è che l'espansione dell'universo lo ha raffreddato ed ha fermato subito questa conversione. Come conseguenza la quantità di deuterio è molto condizionata dalle condizioni iniziali. Più denso è l'universo, più deuterio ha tempo di convertirsi in elio-4 e meno deuterio rimane. Non ci sono processi post-Big Bang che produrrebbero tale quantità di deuterio. Per questo motivo le osservazioni dell'abbondanza di deuterio suggeriscono che l'universo non sia infinitamente vecchio, come sostenuto anche dalla teoria del Big Bang. Durante gli anni settanta furono compiuti grandi sforzi per trovare processi che potessero produrre deuterio. Il problema era che mentre la concentrazione di deuterio nell'universo è alta rispetto al modello del Big Bang come totale, è troppo alta per entrare nel modello che presume che la maggior parte dell'universo consista di protoni e neutroni. Questa divergenza, tra le osservazioni del deuterio e dell'espansione dell'universo, ha richiesto grandi sforzi per trovare processi che possano produrre tale isotopo. Dopo decenni di prove, si raggiunse il consenso dicendo che questi processi erano improbabili e la spiegazione standard ora usata per spiegare l'abbondanza di deuterio è che l'universo non consiste principalmente di barioni e che la materia oscura costituisce la maggior parte della massa dell'universo. Risulta molto difficile trovare un altro processo che possa produrre deuterio tramite una fusione nucleare. Questo processo richiederebbe una temperatura alta abbastanza per produrre l'isotopo, ma non così alta da produrre elio-4, e richiederebbe inoltre un immediato raffreddamento a temperature non-nucleari dopo un paio di minuti. Inoltre è necessario che il deuterio sia spazzato via prima che si ritrasformi. Produrre il deuterio tramite fissione, è anche molto difficile. Il problema in questo processo è, di nuovo, l'instabilità dell'isotopo e che le collisioni con altri nuclei atomici probabilmente li fanno fondere o rilasciare neutroni liberi o particelle alfa. Negli anni settanta si è cercato di usare i raggi cosmici per produrre il deuterio. Queste prove si rivelarono inutili per la creazione dell'isotopo, ma inaspettatamente crearono altri elementi leggeri. In aggiunta allo scenario normale della nucleosintesi, ci sono molti scenari non standard. Non devono però esser confusi con la cosmologia non standard: uno scenario della nucleosintesi non standard vuole che il Big Bang sia accaduto, ma aggiunge altra fisica per vedere come questa modifichi l'abbondanza degli elementi. Tra questi "pezzi di fisica" aggiunti, ci sono il rilassamento o la rimozione dell'omogeneità, o l'inserimento di nuove particelle come i neutrini. Ci sono stati motivi per cui effettuare ricerche sulla nucleosintesi non standard. Il primo è di interesse storico: risolvere i problemi sorti dalle previsioni sulla nucleosintesi e dalle osservazioni. Questo si è dimostrato di scarsa utilità in quanto le inconsistenze furono risolte da migliori osservazioni, ed in molti casi il cambiamento della nucleosintesi ha fatto sì che ci furono più divergenze. Il secondo motivo, centro della nucleosintesi non standard all'inizio del XXI secolo, vede l'uso della nucleosintesi per limitare la fisica sconosciuta o speculativa. Per esempio, la nucleosintesi standard vuole che non ci siano strane ipotetiche particelle coinvolte nel processo. Si potrebbe aggiungere un'ipotetica particella (un neutrino ad esempio) e vedere cosa succede prima che la nucleosintesi predica quantità molto differenti dalle osservazioni. Ciò è stato compiuto con successo per limitare la massa di un neutrino tauonico stabile. Osservazioni dettagliate sulla morfologia e distribuzione delle galassie e dei quasar forniscono una prova convincente della teoria del Big Bang. La combinazione delle osservazioni e delle teorie suggerisce che i primi quasar e le prime galassie si formarono circa un miliardo di anni dopo il Big Bang e da allora si formarono le strutture più grandi, come gli ammassi e i superammassi galattici. Le popolazioni stellari si sono evolute nel tempo, perciò le galassie più distanti (che vengono osservate così come erano nel giovane universo) appaiono molto diverse dalle galassie a noi più vicine, in quanto queste ultime sono osservate in uno stato più recente. Inoltre, le galassie che si sono formate in periodi relativamente recenti appaiono decisamente diverse rispetto a quelle che si formarono ad una distanza simile, ma subito dopo il Big Bang. Queste osservazioni sono portate come prove contro il modello dello stato stazionario. Le osservazioni della formazione stellare, della distribuzione di galassie e quasar e le strutture a larga scala sono in accordo con le previsioni del Big Bang (per quel che riguarda la formazione di queste strutture nell'universo) e stanno contribuendo a completare tutti i dettagli della teoria. Dopo alcune controversie, l'età dell'universo, come stimato dalla costante di Hubble e dalla radiazione di fondo, è consistente (vale a dire leggermente maggiore) con le età delle stelle più vecchie, misurate applicando la teoria dell'evoluzione stellare agli ammassi globulari e attraverso la datazione radiometrica di singole stelle di Popolazione II. La previsione che la temperatura della radiazione di fondo fosse più alta in passato è stata confermata sperimentalmente dalle osservazioni delle linee di emissioni sensibili alla temperatura nelle nubi di gas con alto spostamento verso il rosso. Questa previsione implica inoltre che l'ampiezza dell'effetto Sunyaev-Zel'dovich negli ammassi di galassie non dipende direttamente dal loro spostamento verso il rosso: questo sembra essere abbastanza vero, ma l'ampiezza dipende da proprietà dell'ammasso, che cambiano sostanzialmente solo su un arco di tempo cosmico, perciò una verifica abbastanza precisa è impossibile da svolgere. Mentre ormai pochi ricercatori mettono in dubbio il fatto che sia avvenuto il Big Bang, la comunità scientifica era divisa in passato tra chi sosteneva questa teoria e chi riteneva possibili altri modelli cosmologici. In questo contesto di acceso dibattito furono sollevati molti problemi inerenti alla teoria del Big Bang e la sua capacità di riprodurre le osservazioni cosmologiche. Ormai questi problemi sono perlopiù ricordati principalmente per il loro interesse storico; le soluzioni ad essi sono state ottenute o attraverso modifiche alla teoria o come risultato di osservazioni migliori. Altre questioni, come il problema della cuspide degli aloni galattici, la grande presenza di galassie nane e la natura della materia oscura fredda, non sono considerate irrisolvibili e si suppone di venirne a capo attraverso ulteriori perfezionamenti di tale teoria. Le idee centrali nella teoria del Big Bang (vale a dire l'espansione, lo stato iniziale ad elevata temperatura, la formazione dell'elio, la formazione delle galassie) sono state confermate da parecchie osservazioni indipendenti tra loro, che includono l'abbondanza degli elementi leggeri, la radiazione cosmica di fondo, la struttura a grande scala dell'universo e le supernovae di tipo Ia, e perciò non possono più essere messe in dubbio come caratteristiche importanti e reali del nostro universo. Gli attuali accurati modelli del Big Bang ricorrono a vari fenomeni fisici "esotici", che non sono stati ancora osservati negli esperimenti effettuati nei laboratori terrestri o non sono stati incorporati nel Modello standard della fisica delle particelle. Fra questi fenomeni l'esistenza dell'energia oscura e della materia oscura sono considerate le ipotesi più solide, mentre l'inflazione cosmica e la bariogenesi sono teorie più speculative: esse forniscono spiegazioni soddisfacenti per importanti caratteristiche dell'universo nelle epoche più antiche, ma potrebbero essere sostituite da idee alternative senza compromettere il resto della teoria. Le spiegazioni di tali fenomeni sono ancora argomento dei settori più avanzati della ricerca fisica. Il problema dell'orizzonte nasce dalla premessa che non esiste alcuna interazione capace di trasmettere informazione a velocità superiore a quella della luce. In un universo con un'età finita, ciò comporta un limite, detto orizzonte di particella, sulla massima distanza tra due qualsiasi regioni di spazio che sono in rapporto causale tra loro. L'isotropia osservata nella radiazione cosmica di fondo è problematica al riguardo: se l'universo fosse stato dominato dalla radiazione o dalla materia per tutto l'arco di tempo che arriva fino all'istante dell'ultimo scattering, l'orizzonte di particella relativo a quell'istante dovrebbe corrispondere a due gradi nel cielo. Quindi non ci sarebbe alcun meccanismo che possa portare regioni più ampie di cielo ad avere la stessa temperatura. Una soluzione a questa apparente incoerenza è fornita dalla teoria inflazionaria, nella quale un campo di energia scalare omogeneo e isotropo dominò l'universo in un periodo di tempo che precede la bariogenesi. Durante l'inflazione, l'universo subì un'espansione esponenziale e l'orizzonte delle particelle si espanse molto più rapidamente di quanto supposto in precedenza, perciò anche quelle regioni, che sono attualmente poste su lati opposti dell'universo osservabile, sono bene all'interno del reciproco orizzonte delle particelle. L'isotropia osservata nella radiazione di fondo deriva dal fatto che tutto l'universo osservabile era in rapporto causale prima dell'inizio dell'inflazione e perciò si era già portato in una condizione di equilibrio termico. Il principio di indeterminazione di Heisenberg prevede che durante la fase inflazionaria ci siano state fluttuazioni termiche quantistiche, che si sarebbero ingrandite su scala cosmica. Queste fluttuazioni sono i fondamenti di tutti gli attuali modelli sulla struttura dell'universo. L'inflazione prevede che le fluttuazioni primordiali siano all'incirca invarianti di scala e gaussiane; ciò è stato accuratamente confermato dalle misure della radiazione di fondo. Se il processo inflazionario ha davvero avuto luogo, l'espansione esponenziale deve aver spinto ampie regioni dello spazio ben oltre il nostro orizzonte osservabile.
Una singolarità gravitazionale è un punto dello spaziotempo in cui l'energia del campo gravitazionale tende a un valore infinito, così come la densità e la curvatura. I teoremi di Penrose-Hawking dimostrano l'esistenza di una singolarità all'inizio del tempo cosmico, tuttavia assumono la validità della relatività generale benché essa non sia applicabile prima del tempo in cui l'universo raggiunse la temperatura di Planck. Una teoria di gravità quantistica potrebbe portare a soluzioni prive di singolarità. Alcuni dei problemi posti dalla singolarità:
- la causa dell'espansione iniziale e della nascita dell'universo dal "nulla"
- la possibilità dell'esistenza di uno spaziotempo precedente
- l'inconciliabilità in condizioni così estreme della relatività generale con la meccanica quantistica
- una possibile violazione della legge di conservazione dell'energia
Alcune teorie (prive di verifiche) che tentano una soluzione nell'ambito della cosmologia quantistica, rendendo non più necessaria la singolarità iniziale:
- modelli che includono uno stato originale senza inizio, come lo stato "senza frontiere" di Hartle-Hawking, nel quale l'intero spaziotempo è finito ma senza confini; ciò implica che il Big Bang costituisca un limite del tempo, ma senza la necessità di una singolarità iniziale; anche la cosmologia dal potenziale quantistico elimina la singolarità affermando l'eternità dell'universo, come un fluido di gravitoni;
- modelli di mondo-brana della teoria delle stringhe, nei quali l'inflazione è dovuta al movimento delle "brane" (enti proposti nella teoria delle stringhe). I modelli di mondo-brana includono:
- il modello pre-Big Bang (cosmologia di stringa);
- il modello ekpirotico, nel quale il Big Bang è il risultato di una collisione tra brane e può essere ciclico;
- il Big Bounce, una variante del modello ciclico classico, nel quale le collisioni avvengono periodicamente nell'ambito della gravità quantistica.
- la nascita di universi a partire da un buco bianco (selezione naturale cosmologica).
- alcune varianti del modello ciclico (cosmologia ciclica conforme, modello di Baum-Frampton), applicabili all'universo aperto anziché solo a quello chiuso.
- l'universo a energia totale nulla, nato da una fluttuazione del vuoto quantistico senza violare il principio di conservazione dell'energia.
- la teoria dell'inflazione caotica, nella quale eventi inflativi avvengono casualmente all'interno di una "schiuma quanto-gravitazionale" (falso vuoto), dando luogo a molteplici universi che si espandono come bolle a partire dal proprio Big Bang.
Molte di queste ipotesi si basano sulle tre principali teorie proposte in cosmologia, non verificate sperimentalmente: l'inflazione, la teoria delle stringhe e la gravità quantistica a loop (queste ultime due teorie non prettamente cosmologiche); ognuna di esse ha un proprio modo di concepire il Big Bang. In alcune di queste ipotesi esso viene proposto come un evento in un universo più grande e più vecchio (o come un multiverso, risolvendo anche la questione del principio antropico) e non come l'inizio letterale di tutta la realtà. Il problema dell'universo piatto (conosciuto anche come il problema dell'universo vecchio) è un problema osservativo, associato alla metrica di Friedmann - Lemaître - Robertson - Walker.[56] L'universo può avere una curvatura spaziale positiva, negativa o nulla in funzione della sua densità totale di energia. Avrà curvatura negativa se la sua densità è inferiore alla densità critica, positiva se è maggiore e nulla se la densità coincide con quella critica (nel qual caso lo spazio viene definito piatto). Il problema è che ogni minima divergenza dalla densità critica aumenta con il tempo e ancora oggi l'universo rimane molto vicino all'essere piatto. Dato che una scala naturale dei tempi per l'inizio della deviazione dalla piattezza potrebbe essere il tempo di Planck, 10−43 secondi, il fatto che l'universo non abbia raggiunto né la morte termica né il Big Crunch dopo miliardi di anni, richiede una spiegazione. Per esempio, anche all'epoca relativamente "vecchia" di pochi minuti (il tempo della nucleosintesi), la densità dell'universo deve essersi trovata entro circa una parte su 1014 dal suo valore critico, altrimenti l'universo non esisterebbe così com'è oggi. Dal punto di vista matematico, il problema della piattezza scaturisce dall'equazione di Fridman, scritta nella forma con Lambda=0. Ciò è in netta contraddizione col fatto che l'universo in passato dovesse essere molto curvato. Sembra invece che più si torni indietro nel tempo più l'universo risulta piatto. Sempre in base alle formule precedenti infatti, l'universo doveva essere piatto entro 10−14 al tempo della nucleosintesi, al tempo di Planck entro 10−60 e così via. Il problema maggiore sorge quando si considera il fatto che se l'universo non avesse avuto una curvatura così ben calibrata, sarebbe collassato su se stesso o si sarebbe espanso in maniera estremamente rapida se la sua curvatura fosse stata differente anche solo di una minuscola frazione. Di conseguenza sarebbe stato molto più probabile osservare un universo estremamente curvato e quindi molto diverso dall'universo attuale, piuttosto che un universo estremamente piatto come sembrano indicare le osservazioni. Una soluzione a questo problema è fornita dall'inflazione. Durante il periodo inflazionario, lo spaziotempo si espanse, fino al punto che la sua curvatura sarebbe stata resa piatta. Pertanto, si ritiene che l'inflazione portò l'universo ad uno stato spaziale sostanzialmente piatto, con all'incirca l'esatta densità critica. L'obiezione riguardante il monopolo magnetico fu sollevata alla fine degli anni settanta. Le teorie della grande unificazione prevedevano un difetto topologico nello spazio, che si sarebbe manifestato sotto forma di monopoli magnetici. Questi oggetti potrebbero essere prodotti in maniera efficiente nelle primissime fasi dell'universo (con temperature molto elevate), dando una densità più alta di quella che è consistente con le osservazioni, dato che durante le ricerche non sono mai stati osservati monopoli. Questo problema può essere anche risolto con l'inflazione cosmica, che rimuove tutti i difetti dall'universo osservabile nello stesso modo in cui essa porta la geometria dell'universo ad essere piatta. Una soluzione al problema dell'orizzonte, della geometria piatta e del monopolo magnetico alternativa all'inflazione cosmica è data dall'ipotesi di curvatura di Weyl. Non si conosce ancora il motivo per cui nell'universo attuale sia presente solo materia e non antimateria. È generalmente accettato il fatto che l'universo, quando era giovane e caldo, era in equilibrio e conteneva un egual numero di barioni e antibarioni. Ciò nonostante, le osservazioni indicano che l'universo, incluse le sue regioni più distanti, è fatto quasi esclusivamente di materia. Un processo sconosciuto chiamato bariogenesi creò questa asimmetria. Affinché questo processo accadesse, dovevano essere soddisfatte le condizioni di Sakharov. Queste richiedono che il numero barionico non fosse conservato, che la simmetria C e la simmetria CP fossero violate e che l'universo avesse perso il suo equilibrio termodinamico. Tutte queste condizioni sono verificate nel Modello standard, ma gli effetti non sono abbastanza forti da spiegare l'attuale asimmetria. Alla metà degli anni novanta, le osservazioni riguardanti gli ammassi globulari sembravano essere in contraddizione con il Big Bang. Le simulazioni al computer, che confrontavano le osservazioni delle varie popolazioni stellari dei vari ammassi, indicarono che essi avessero un'età di circa 15 miliardi di anni (che era in contrasto con l'età dell'universo, circa 13,7 miliardi di anni). Questo problema fu risolto alla fine degli anni novanta, quando nuove simulazioni al computer, che includevano gli effetti della massa persa a causa del vento stellare, indicarono un'età molto più giovane per gli ammassi globulari. Restano aperte alcune questioni, su come misurare accuratamente l'età di questi ammassi, ma si pensa che questi oggetti siano tra i più vecchi dell'intero universo. Durante degli studi effettuati negli anni sessanta, l'astronomo Halton Arp individuò dei possibili collegamenti tra alcune galassie con dei quasar e si riteneva che entrambi questi oggetti, essendo vicini a causa di queste interazioni, avessero avuto un redshift simile per via della legge di Hubble. Al contrario di quanto atteso, si calcolò un'estrema diversità tra i valori dei due redshift, come nel caso della galassia NCG 4319, e questo dato sembrava mettere in crisi l'idea dell'espansione dell'universo, poiché due oggetti vicini devono avere un simile spostamento verso il rosso dovuto all'espansione del cosmo. Per risolvere questo problema, che avrebbe colpito le basi della teoria del Big Bang, si è ipotizzato che la differenza nei redshift sia dovuta al fatto che queste due galassie, generalmente molto attive, abbiano "espulso" il quasar; a questo punto la differenza dei redshift non sarebbe da attribuire a cause cosmologiche, ma a caratteri locali del sistema considerato.
Radiazione cosmica di fondo
In cosmologia la radiazione cosmica di fondo, detta anche radiazione di fondo, abbreviata in CMBR (dall'inglese Cosmic Microwave Background Radiation), è la radiazione elettromagnetica che permea l'universo, considerata come prova del modello del Big Bang. Nonostante lo spazio tra stelle e galassie appaia nero con un telescopio ottico tradizionale, tramite un radiotelescopio è possibile rilevare una debole radiazione isotropa che non è associata ad alcuna stella, galassia o altro corpo celeste e che ha intensità maggiore nella regione delle microonde dello spettro elettromagnetico. La CMBR venne scoperta nel 1964 dagli astronomi statunitensi Arno Penzias e Robert Woodrow Wilson al termine di uno studio avviato nel 1940, che li portò a conseguire il Premio Nobel per la fisica nel 1978. La radiazione di fondo è definibile come la radiazione residua proveniente dalle fasi iniziali della nascita dell'universo in accordo con il modello del Big Bang, di cui è considerata una conferma chiave. Nelle fasi iniziali della vita, prima della formazione di stelle e pianeti, l'universo aveva dimensioni molto più contenute di quelle attuali, era molto più caldo e permeato da una radiazione uniforme in stretta interazione con il plasma di idrogeno. L'elevata energia dei fotoni impediva agli elettroni di legarsi ai protoni, impedendo la formazione degli atomi. Con l'espansione dell'universo, sia il plasma sia la radiazione iniziarono a raffreddarsi, fino a raggiungere una temperatura a cui la minor energia dei fotoni non era più in grado di impedire la formazione dei primi atomi stabili. Questi non poterono più assorbire la radiazione termica, cosicché l'universo, che fino a quel momento era stato una sorta di nebbia opaca, diventò trasparente alla radiazione. I fotoni che esistevano in quel momento iniziarono a propagarsi, divenendo meno energetici, dal momento che andavano a riempire un universo più grande. Misure precise della radiazione cosmica di fondo sono fondamentali per la cosmologia, dal momento che qualsiasi modello proposto dell'universo deve essere in grado di spiegare questa radiazione. La CMB ha uno spettro termico di corpo nero a una temperatura di 2,725 K, quindi lo spettro presenta dei picchi nella zona delle microonde alla frequenza di 160,2 GHz, corrispondenti a una lunghezza d'onda di 1,9 millimetri. L'emissione è quasi, ma non del tutto, uniforme in tutte le direzioni, e mostra un andamento molto specifico corrispondente a quello che si otterrebbe da un gas molto caldo e quasi uniforme che si espandesse fino alle attuali dimensioni dell'universo. In particolare, la distribuzione spaziale dell'energia dello spettro (cioè la differenza osservata in funzione della distanza delle regioni del cielo) contiene piccole anisotropie, o irregolarità, che variano con la dimensione della regione in esame. Queste anisotropie sono state misurate in dettaglio, e corrispondono a quanto ci si aspetterebbe se piccole oscillazioni termiche, generate da fluttuazioni quantistiche della materia in uno spazio ristretto, si fossero espanse fino alla dimensione dello spazio attualmente osservabile. Questo è ancora un settore molto attivo di studio, con gli scienziati che cercano sia dati più accurati (per esempio con la sonda Planck) sia una migliore interpretazione delle condizioni iniziali di espansione. Anche se molti processi differenti possono produrre la forma generale di uno spettro di corpo nero, nessun modello diverso dal Big Bang ha finora spiegato le fluttuazioni. Per questo la maggior parte dei cosmologi ritiene che il modello del Big Bang sia quello che dà la miglior interpretazione della radiazione di fondo. La radiazione cosmica di fondo è isotropa fino a circa una parte su 100.000: infatti il valore quadratico medio delle variazioni è di solo 18 µK.[5][6]. Lo spettrofotometro FIRAS (Far-Infrared Absolute Spectrophotometer) montato sul COBE della NASA, ha accuratamente misurato il suo spettro. I membri del progetto FIRAS hanno confrontato la CMB con la radiazione di corpo nero del riferimento interno dello strumento, e hanno trovato che gli spettri corrispondono entro l'errore sperimentale. Hanno concluso che qualsiasi deviazione dalla forma del corpo nero che potrebbe ancora non essere stata individuata nello spettro della CMB nella gamma di lunghezze d'onda 0,5-5 mm, deve avere un valore quadratico medio ponderato al massimo di 50 parti per milione (0,005%) rispetto al picco di luminosità della CMB. Questo ha reso lo spettro della CMB lo spettro di corpo nero misurato con più precisione in natura. La radiazione cosmica di fondo è forse la previsione principale del modello del Big Bang. Inoltre, la cosmologia inflazionaria prevede che dopo circa 10−37 secondi, l'universo appena nato abbia subito una crescita esponenziale che appianò quasi tutte le disomogeneità. A questo seguì la rottura spontanea di simmetria, un tipo di transizione di fase che ha fissato le interazioni fondamentali e le particelle elementari nella loro forma attuale. Dopo 10−6 secondi, l'universo primordiale era costituito da un plasma caldissimo di fotoni, elettroni, e barioni. I fotoni interagivano continuamente con il plasma attraverso lo scattering Thomson. L'espansione dell'universo, con il conseguente raffreddamento adiabatico, ha causato il raffreddamento del plasma fino a rendere possibile la combinazione degli elettroni con i protoni, per dare così luogo agli atomi di idrogeno. Questo evento di ricombinazione è avvenuto quando la temperatura era scesa a circa 3000 K, cioè quando l'età dell'universo era di circa 379 000 anni. A questo punto, i fotoni hanno potuto allontanarsi dagli atomi ora elettricamente neutri e hanno iniziato a viaggiare liberamente nello spazio, con il conseguente disaccoppiamento tra la materia e la radiazione. Da allora la temperatura di colore dei fotoni ha continuato a diminuire; attualmente ha raggiunto i 2,725 K, e continua a scendere mentre l'universo si espande. Secondo il modello del Big Bang, la radiazione che misuriamo oggi nel cielo proviene da una superficie sferica chiamata superficie di ultimo scattering. Questo rappresenta l'insieme dei punti nello spazio in cui si ritiene sia avvenuto l'evento di disaccoppiamento, a meno di 400 000 anni dopo il Big Bang[14]; i fotoni che ci hanno appena raggiunto provengono da questo remoto punto nel tempo. L'età stimata dell'Universo è di 13,75 miliardi di anni. Tuttavia, poiché l'Universo ha continuato ad espandersi da allora, la distanza comovente dalla Terra al bordo dell'universo osservabile è ora di almeno 46,5 miliardi anni luce. La teoria del Big Bang suggerisce che la radiazione cosmica di fondo riempia tutto lo spazio osservabile, e che la maggior parte dell'energia di radiazione nell'universo sia nella radiazione cosmica di fondo, che costituisce una frazione di circa 6 × 10−5 della densità totale dell'universo. Due dei più grandi successi della teoria del big bang sono la previsione del suo spettro quasi perfetto di corpo nero e la previsione dettagliata delle anisotropie della radiazione cosmica di fondo. La sonda WMAP ha misurato con precisione queste anisotropie su tutto il cielo fino a scale angolari di 0,2 gradi. Queste possono essere usate per stimare i parametri del modello Lambda-CDM standard del Big Bang. Alcune informazioni, come ad esempio la forma dell'universo, possono essere ottenute direttamente dalla radiazione cosmica di fondo, mentre altre, come la costante di Hubble, non sono collegate e devono essere dedotte da altre misurazioni. Il valore di quest'ultima dà lo spostamento verso il rosso delle galassie (da interpretare come la velocità di recessione) in proporzione alla loro distanza. La radiazione di fondo venne predetta nel 1948 da George Gamow, Ralph Alpher e Robert Herman. Alpher e Herman sono stati in grado di stimare la temperatura della radiazione cosmica di fondo a 5 K, anche se due anni dopo la ricalcolano a 28 K. Anche se ci sono state diverse stime precedenti della temperatura dello spazio, queste soffrivano di due difetti. In primo luogo, erano misure della temperatura effettiva dello spazio e non lasciavano supporre che lo spazio sia stato riempito con uno spettro termico di Planck. Poi, dipendono dalla nostra posizione speciale ai margini della Via Lattea e non specificano che la radiazione è isotropa. Le stime produrrebbero previsioni molto diverse se la Terra si trovasse in un altro punto dell'universo. I risultati del 1948 di Alpher e Herman vennero discussi fino al 1955, quando ognuno di loro lasciò il Laboratorio di Fisica Applicata della Johns Hopkins University. La maggioranza della comunità astronomica, tuttavia, non era ancora particolarmente interessata ai temi della cosmologia. La predizione di Alpher e Herman fu riscoperta da Yakov Zel'dovich all'inizio degli anni 1960, e indipendentemente predetta da Robert Dicke contemporaneamente. La prima pubblicazione della radiazione di fondo come un fenomeno rilevabile apparve in un breve elaborato degli astrofisici sovietici A. G. Doroshkevich e Igor Novikov, nella primavera del 1964. Nel 1964, David Todd Wilkinson e Peter Roll, colleghi di Robert Dicke all'Università di Princeton, iniziarono la costruzione di un radiometro Dicke per misurare la radiazione cosmica di fondo. Nel 1965, Arno Penzias e Robert Woodrow Wilson ai Bell Laboratories nelle vicinanze di Holmdel Township, New Jersey, costruirono un radiometro Dicke che intendevano utilizzare per la radioastronomia e gli esperimenti di comunicazione via satellite. Tale strumento soffriva di un eccesso di temperatura dell'antenna di 3,5 K che non riuscivano a spiegare. Dopo aver ricevuto una telefonata proveniente da Crawford Hill, Dicke disse una frase che divenne famosa: "Boys, we've been scooped" (che in italiano suonerebbe più o meno come "Ragazzi, ci hanno rubato lo scoop!"). Una riunione tra i gruppi di Princeton e Crawford Hill stabilì che la temperatura di disturbo dell'antenna era effettivamente dovuta dalla radiazione cosmica di fondo. Penzias e Wilson ricevettero il Premio Nobel per la fisica nel 1978 per tale scoperta. L'interpretazione della radiazione cosmica di fondo fu oggetto di controversia negli anni 1960 con alcuni sostenitori della teoria dello stato stazionario, i quali sostenevano che la radiazione di fondo è il risultato della luce stellare riflessa dalle galassie lontane. Utilizzando questo modello, e sulla base dello studio delle caratteristiche delle linee di assorbimento negli spettri delle stelle, l'astronomo Andrew McKellar ha scritto nel 1941: "Si può calcolare che la temperatura rotazionale dello spazio interstellare è di 2 K". Secondo un'altra possibile interpretazione, utilizzando l'equazione del trasporto radiativo in coordinate polari si può dimostrare che la radiazione cosmica di fondo non è di origine extragalattica ma è di origine locale. Tuttavia, durante gli anni 1970 venne stabilito che la radiazione cosmica di fondo è un residuo del Big Bang. Questo perché nuove misurazioni in una gamma di frequenze dello spettro hanno mostrato che era uno spettro di corpo nero termico, un risultato che il modello dello stato stazionario non riusciva a riprodurre. Harrison, Peebles, Yu e Zel'dovich si resero conto che l'universo primordiale avrebbe dovuto avere qualche disomogeneità a livello di 10−4 o 10−5. Rashid Sunyaev poi calcolò l'impronta osservabile che tali disomogeneità avrebbero sulla radiazione cosmica di fondo. Limiti sempre più stretti sull'anisotropia della radiazione cosmica di fondo sono stati stabiliti da esperimenti da terra, anche se l'anisotropia è stata innanzitutto rilevata attraverso l'analisi dei dati del RELIKT-1, come è stato riportato nel gennaio del 1992. A causa del ritardo plurimensile nella pubblicazione formale da parte delle riviste specializzate, il premio Nobel per la fisica per il 2006 venne assegnato al team del COBE, che rilevò le anisotropie tramite un radiometro differenziale a microonde pochi mesi dopo. Ispirato dai risultati di RELIKT-1 e COBE, nel decennio successivo una serie di esperimenti da terra e da pallone aerostatico misureranno la radiazione di fondo su scale angolari più piccole. L'obiettivo primario di questi esperimenti è stato quello di misurare l'entità del primo picco acustico, dato che il COBE non aveva una risoluzione sufficiente per studiarlo a fondo. Questo picco corrisponde a variazioni di densità su grande scala nell'universo primordiale, che vengono creati da instabilità gravitazionale, con conseguenti oscillazioni acustiche nel plasma. Il primo picco nell'anisotropia è stata provvisoriamente individuata dal QMAP e il risultato è stato confermato dal BOOMERanG e dal MAXIMA. Queste misurazioni hanno dimostrato che la forma dell'universo è approssimativamente piatta, piuttosto che curva. Esse escludono le stringhe cosmiche come componente principale della formazione delle strutture cosmiche, e suggeriscono che l'inflazione cosmologica è la teoria giusta per spiegare la formazione delle strutture. Il secondo picco è stato provvisoriamente rilevato da diversi esperimenti, prima di essere definitivamente rilevato dal WMAP, che ha anche rilevato il terzo picco. Al 2010, alcuni esperimenti per migliorare la misurazione della polarizzazione e la radiazione di fondo su piccole scale angolari sono ancora in corso. Questi includono DASI, WMAP, BOOMERanG, Planck Surveyor, Atacama Cosmology Telescope, South Pole Telescope e il telescopio QUIET. Le misurazioni della radiazione cosmica di fondo hanno fatto della teoria inflazionistica del Big Bang il modello standard delle origini dell'universo.[63] Questa teoria prevede che le condizioni iniziali per l'universo siano di natura casuale (vale a dire che non si è in grado di risalire agli istanti precedenti ad esse), e seguano una distribuzione di probabilità approssimativamente gaussiana, rappresentata graficamente, a sezioni trasversali, da curve a forma di campana. Analizzando questa distribuzione a diverse frequenze, viene generata una densità spettrale, o spettro di potenza. Lo spettro di potenza di queste fluttuazioni è stato calcolato e concorda con le osservazioni, anche se alcuni parametri, come ad esempio l'ampiezza complessiva delle fluttuazioni, sono parametri più o meno liberi del modello dell'inflazione cosmica. Pertanto, le componenti più significative delle disomogeneità nell'universo devono essere di natura statistica. Questo porta a una varianza cosmica, in cui le incertezze nella varianza delle fluttuazioni osservate su grande scala nell'universo sono difficili da comparare con precisione alla teoria. Il modello utilizza un campo gaussiano casuale con uno spettro di Harrison-Zel'dovich, o a invarianza di scala, per rappresentare le disomogeneità primordiali. La radiazione cosmica di fondo e lo spostamento verso il rosso cosmologico sono considerati le migliori prove disponibili per la teoria del Big Bang. La scoperta della CMB nella metà degli anni 1960 fece scemare l'interesse verso soluzioni alternative come la teoria dello stato stazionario. La radiazione di fondo offre un'istantanea dell'universo, quando, secondo la cosmologia standard, la temperatura era scesa abbastanza da permettere la formazione di atomi di idrogeno da parte di elettroni e protoni, rendendo così l'universo trasparente alle radiazioni. Quando questo avvenne, circa 380.000 anni dopo il Big Bang (periodo conosciuto come periodo di ultimo scattering, successivo al periodo di ricombinazione nel quale si formarono i primi atomi stabili di idrogeno ed elio, e al periodo di disaccoppiamento nel quale la radiazione presente nell'universo cessò di interagire con la materia), la temperatura dell'Universo era di circa 3.000 K. Ciò corrisponde ad una energia di circa 0,25 eV, che è molto inferiore ai 13,6 eV, ovvero l'energia di ionizzazione dell'idrogeno. Dal momento del disaccoppiamento, la temperatura della radiazione di fondo è scesa di circa 1.100 volte a causa dell'espansione dell'universo. Come conseguenza dell'espansione, i fotoni della CMB si spostano verso il rosso, rendendo la temperatura della radiazione inversamente proporzionale ad un parametro chiamato fattore di scala dell'universo. Si può dimostrare che l'andamento della temperatura Tr della CMB in funzione dello spostamento verso il rosso, z, è proporzionale alla temperatura della CMB attuale (2,728 K o 0,235 meV). La radiazione cosmica di fondo presenta un'alta isotropia, indice di una notevole omogeneità del plasma primordiale. Tale omogeneità però non avrebbe portato alla creazione di strutture come galassie e ammassi. La presenza di questi oggetti implica delle anisotropie del plasma. La CMB presenta due tipologie di anisotropie, chiamate primarie e secondarie. L'anisotropia della radiazione cosmica di fondo è divisa in due tipi: anisotropia primaria, derivante dagli effetti che si verificano sulla superficie di ultimo scattering e prima, e anisotropia secondaria, legata ad effetti quali le interazioni con il gas caldo o il potenziale gravitazionale, tra la superficie di ultimo scattering e l'osservatore. La struttura delle anisotropie è determinata principalmente da due effetti: oscillazioni acustiche e smorzamento della diffusione (noto anche come smorzamento senza collisione). Le oscillazioni acustiche sorgono a causa della competizione tra fotoni e barioni nel plasma dell'universo primordiale. La pressione dei fotoni tende a cancellare le anisotropie, mentre l'attrazione gravitazionale dei barioni, in movimento a velocità molto più basse della luce, li porta a collassare formando così densi aloni. Questi due effetti sono in competizione tra loro, creando le oscillazioni acustiche che danno al fondo a microonde la sua caratteristica struttura a picchi. I picchi corrispondono, grosso modo, alle risonanze alle quali i fotoni si dissociano quando un particolare modo di oscillazione è al suo picco di ampiezza. I picchi contengono interessanti impronte fisiche. La scala angolare del primo picco determina la curvatura dell'universo (ma non la sua topologia). Il picco successivo (che è il rapporto tra i picchi pari e i picchi dispari) determina la ridotta densità barionica. Il terzo picco può essere utilizzato per estrarre informazioni sulla densità di materia oscura. Le posizioni dei picchi danno anche importanti informazioni sulla natura delle perturbazioni primordiali della densità. Ci sono due tipologie fondamentali di perturbazioni della densità, le adiabatiche e quelle a isocurvatura. Una generica perturbazione di densità è un misto di entrambe, e le differenti teorie che pretendono di spiegare lo spettro della perturbazione primordiale della densità prevedono miscele differenti.
- Perturbazioni adiabatiche della densità
la superdensità frazionale in ogni componente della materia (barioni, fotoni ...) è la stessa. Ovvero, se c'è l'1% in più di energia nei barioni rispetto alla media in un dato posto, allora per una perturbazione di densità adiabatica pura c'è anche l'1% in più di energia nei fotoni, e l'1% di energia in più nei neutrini, rispetto alla media. L'inflazione cosmologica prevede che le perturbazioni primordiali siano adiabatiche.
- Perturbazioni di isocurvatura nella densità
la somma delle superdensità frazionali è pari a zero. Ovvero, una perturbazione in cui in un certo punto vi è l'1% in più di energia nei barioni rispetto alla media, l'1% in più di energia in fotoni rispetto alla media, e il 2% di energia in meno nei neutrini rispetto alla media, sarebbe una perturbazione di isocurvatura pura. Le stringhe cosmiche dovrebbero produrre per lo più perturbazioni primordiali a isocurvatura. Lo spettro della CMB è in grado di distinguerle, perché queste due diverse tipologie di perturbazioni danno luogo a differenti localizzazioni dei picchi. Le perturbazioni di isocurvatura della densità producono una serie di picchi la cui scala angolare (il valore l dei picchi) è all'incirca in rapporti 1:3:5:... mentre le perturbazioni adiabatiche producono picchi le cui localizzazioni sono in rapporti 1:2:3:... Le osservazioni corrispondono a quanto ci si può attendere da perturbazioni di densità primordiale completamente adiabatiche, fornendo un supporto chiave per la teoria inflazionistica, ed escludendo molti modelli di contemplano la formazione di strutture, come ad esempio le stringhe cosmiche. Lo smorzamento senza collisioni è causato da due effetti, che sorgono quando il trattamento del plasma primordiale come fluido comincia a non essere più valido:
- L'aumento del cammino libero medio dei fotoni mentre il plasma primordiale diventa sempre più rarefatto nell'universo in espansione;
- La profondità finita della superficie di ultimo scattering, che fa sì che il cammino libero medio cresca rapidamente durante il disaccoppiamento, anche se qualche scattering Compton è ancora in corso.
Questi effetti contribuiscono quasi equamente alla soppressione delle anisotropie su scale piccole, e danno origine alla caratteristica coda di smorzamento esponenziale visibile nelle anisotropie su scala angolare piccolissima. La profondità della superficie di ultimo scattering si riferisce al fatto che il disaccoppiamento dei fotoni e barioni non avviene istantaneamente, ma richiede invece una frazione apprezzabile di età dell'Universo fino a tale epoca. Un metodo per quantificare esattamente quanto lungo sia questo processo è la funzione di visibilità del fotone (photon visibility function, PVF). Questa funzione è definita in modo che, denotando la PVF con P(t), la probabilità che un fotone della CMB abbia avuto l'ultimo scattering tra il tempo t e t+dt, sia data da P(t)dt. Il massimo della PVF (il momento più probabile in cui è avvenuto l'ultimo scattering di un dato fotone della CMB) è noto con una certa precisione. I risultati del primo anno di osservazioni del WMAP situano il momento in cui P(t) è al massimo a 372 ± 14 ka. Questo è spesso considerato come il momento della nascita della radiazione di fondo. Tuttavia, per capire "quanto" tempo ci hanno messo fotoni e barioni a disaccoppiarsi, occorre avere anche una misura della larghezza della PVF. Il team del WMAP ritiene che la PVF sia maggiore della metà del suo valore massimo (la "piena larghezza a metà altezza", o FWHM), in un intervallo di 115 ± 5 ka. In base a questa misura, il disaccoppiamento ha avuto luogo in circa 115 000 anni, e quando fu terminato, l'universo aveva circa 487 000 anni di età. Da quanto si può osservare la radiazione di fondo, a partire dal momento della sua formazione, è stata modificata da diversi processi fisici successivi, che sono indicati collettivamente con il nome di anisotropie successive o anisotropie secondarie. Quando i fotoni della CMB sono stati liberi di viaggiare senza ostacoli, la materia ordinaria dell'universo consisteva per lo più di atomi di idrogeno e di elio neutri. Tuttavia, le osservazioni odierne delle galassie sembrano indicare che la maggior parte del volume dello spazio intergalattico è costituito da materiale ionizzato (in quanto ci sono poche linee di assorbimento derivanti da atomi di idrogeno). Questo implica un periodo di reionizzazione durante il quale una parte del materiale dell'universo venne frammentata in ioni di idrogeno. I fotoni della CMB dispersero le cariche libere, come gli elettroni non legati ad atomi. In un universo ionizzato, queste particelle cariche sono state liberate dagli atomi neutri dalle radiazioni ionizzanti come i raggi ultravioletti. Oggi queste cariche libere hanno una densità sufficientemente bassa nella maggior parte del volume dell'Universo, da non incidere apprezzabilmente sulla CMB. Tuttavia, se il mezzo interstellare è stato ionizzato in un'era sufficientemente primordiale, quando l'universo era ancora molto più denso, ci sono due effetti principali sulla radiazione di fondo:
- Le anisotropie su piccola scala vengono cancellate (come quando guardando un oggetto attraverso la nebbia, i dettagli degli oggetti appaiono sfocati.)
- La fisica di come i fotoni vengono diffusi dagli elettroni liberi (scattering Thomson) induce un'anisotropia di polarizzazione su grandi scale angolari. Questa polarizzazione su ampio angolo è correlata con la perturbazione della temperatura di ampio angolo.
Entrambi gli effetti sono stati osservati dal WMAP, fornendo la prova che l'universo è stato ionizzato molto presto, ad un redshift superiore a 17. La provenienza dettagliata di queste radiazioni ionizzanti è ancora oggetto di dibattito scientifico. Potrebbero includere luce stellare dalle primissime stelle (stelle di popolazione III), supernovae, quando queste stelle raggiunsero la fine della loro vita, o le radiazioni ionizzanti prodotte dai dischi di accrescimento di buchi neri massicci. Il momento successivo all'emissione della radiazione cosmica di fondo, e prima dell'osservazione delle prime stelle, viene chiamato umoristicamente dagli astronomi era oscura (dark age), ed è un periodo che è in fase di intenso studio da parte degli astronomi (riga a 21 cm dell'idrogeno neutro). Altri due effetti che si verificarono tra la reionizzazione e le attuali osservazioni della radiazione cosmica di fondo, e che sembrano provocare anisotropie, includono l'effetto Sunyaev-Zel'dovich, dove una nube di elettroni ad alta energia diffonde la radiazione trasferendo parte della sua energia ai fotoni della CMB, e l'effetto Sachs-Wolfe, che provoca ai fotoni della radiazione cosmica di fondo uno spostamento gravitazionale verso il rosso o verso il blu, a causa del cambiamento del campo gravitazionale. Questa anisotropia non è di natura intrinseca ma è dovuta al moto del nostro sistema di riferimento (il sistema solare) rispetto al sistema di riferimento della radiazione di fondo che può essere considerato come un sistema in quiete. Questa anisotropia è di ampiezza maggiore rispetto alle altre ed è ad una temperatura di 3,353±0,024 mK. La radiazione cosmica di fondo è polarizzata a livello di qualche microkelvin. Esistono due tipi di polarizzazione, chiamati E-mode e B-mode. Questo un'analogia con l'elettrostatica, in cui il campo elettrico (campo E) ha un rotore nullo, e il campo magnetico (campo B) ha una divergenza nulla. Gli E-mode sorgono naturalmente dallo scattering Thomson in un plasma eterogeneo. I B-mode, che non sono stati misurati e si pensa abbiano un'ampiezza massima di 0,1 µK, non sono prodotti solo dalla fisica del plasma. Si tratta di un segnale proveniente dall'inflazione cosmica e sono determinati dalla densità delle onde gravitazionali primordiali. Il rilevamento del segnale B-mode sarà estremamente difficile, tanto più che il grado di contaminazione di primo piano è sconosciuto, e il segnale di lente gravitazionale debole mescola il segnale relativamente forte E-mode con il segnale B-mode. Le anisotropie di quadrupolo hanno ordine di multipolo I=2 e hanno origini differenti a seconda del valore di m:
- Perturbazioni scalari: le fluttuazioni di densità di energia nel plasma causano un gradiente nella distribuzione della velocità.
- Perturbazioni vettoriali: la vorticosità del plasma crea un differente tipo di quadrupolo dovuto allo spostamento Doppler con la velocità. Tale vorticosità sarebbe però stata smorzata durante l'inflazione e ci si aspetta sia trascurabile.
- Perturbazioni tensoriali: le onde gravitazionali modificano lo spazio che contiene i fotoni nelle direzioni ortogonali attraversando il plasma. Inoltre modificano la lunghezza d'onda della radiazione creando anche anisotropie quadrupolari di temperatura.
Dopo la scoperta della radiazione di fondo, sono stati condotti centinaia di esperimenti per misurare e caratterizzare i segnali caratteristici della radiazione. L'esperimento più famoso è probabilmente il COBE della NASA, satellite che orbitò dal 1989 al 1996, il quale individuò e quantificò le anisotropie su larga scala al limite delle sue capacità di rilevazione. Ispirata dai risultati del COBE che mostravano una CMB estremamente isotropa e omogenea, nel corso di un decennio una serie di esperimenti a terra e su pallone ha permesso di quantificare le anisotropie con ulteriori misure su scala angolare più piccola. L'obiettivo primario di questi esperimenti era di misurare l'entità angolare del primo picco acustico, per la quale il COBE non aveva una risoluzione sufficiente. Queste misurazioni sono state in grado di escludere le stringhe cosmiche come la teoria principale di formazione delle strutture cosmiche, e hanno suggerito che l'inflazione cosmica era la teoria giusta. Negli anni 1990, il primo picco è stato misurato con una sensibilità crescente e verso il 2000 l'esperimento BOOMERanG ha rilevato che le fluttuazioni di potenza massima si verificano su scale di circa un grado. Insieme ad altri dati cosmologici, questi risultati implicano che la geometria dell'universo è piatta. Nei tre anni successivi un certo numero di interferometri terrestri, tra cui il telescopio VSA, il DASI e il CBI, hanno fornito misurazioni delle oscillazioni con una maggiore precisione. Il DASI ha effettuato la prima rilevazione della polarizzazione della CMB e il CBI ha fornito il primo spettro di polarizzazione E-mode con una prova convincente che è fuori fase rispetto allo spettro T-mode. Nel giugno del 2001, la NASA ha lanciato una seconda missione spaziale per la CMB, la Wilkinson microwave anisotropy probe (WMAP), per effettuare misurazioni molto più precise delle anisotropie su grande scala con una mappatura completa del cielo. I primi dati diffusi dalla missione nel 2003, erano misure dettagliate dello spettro di potenza su scale inferiori a un grado. I risultati sono sostanzialmente coerenti con quelli previsti dall'inflazione cosmica e da altre diverse teorie, e sono disponibili in dettaglio nella banca dati della NASA per la radiazione cosmica di fondo (CMB). Anche se il WMAP ha fornito misurazioni molto accurate della fluttuazione su grande scala angolare della CMB, non ha avuto una risoluzione angolare sufficiente per misurare le fluttuazioni su scala minore osservate da terra da altri esperimenti. Una terza missione spaziale, il Planck Surveyor, è stato lanciato nel maggio del 2009. Planck si avvale sia di radiometri HEMT sia di bolometri, ed è in grado di misurare la CMB su scale più piccole del WMAP. A differenza delle due precedenti missioni spaziali, Planck è gestito dall'ESA, l'Agenzia spaziale europea. I suoi rilevatori hanno effettuato un test di prova sul telescopio antartico Viper con l'esperimento ACBAR, che ha prodotto le misurazioni più precise alle piccole scale angolari fino ad oggi, e sul telescopio Archeops, montato su un pallone. La missione si è conclusa nel 2013. Le immagini della radiazione cosmica di fondo prodotte dal satellite Planck sono in accordo con quelle ottenute dal satellite WMAP e confermano i dati precedenti, ma con una precisione maggiore (5 milioni di pixel di risoluzione contro i 3 milioni di WMAP). Altri strumenti basati a terra, come il South Pole Telescope in Antartide, il telescopio Clover, l'Atacama Cosmology Telescope e il telescopio QUIET in Cile dovrebbero fornire i dati non ottennibili da osservazioni satellitari, e forse anche la polarizzazione B-mode. I dati "grezzi" provenienti dalle sonde spaziali (come il WMAP) contengono effetti di primo piano che oscurano completamente la struttura a scala fine della radiazione di fondo a microonde. La struttura fine è sovrapposta ai dati grezzi della CMB, ma è troppo piccola per essere rilevata alla scala dei dati grezzi. Il più importante degli effetti di primo piano è l'anisotropia di dipolo causata dal moto del Sole rispetto alla CMB. Le anisotropie di dipolo e di altro tipo, causate dal moto annuale della Terra rispetto al Sole, insieme a numerose altre fonti di radiazioni a microonde provenienti dal piano galattico ed extragalattico, devono essere sottratte per rendere evidenti le variazioni molto piccole che caratterizzano la struttura a scala fine della CMB. L'analisi in dettaglio dei dati CMB per produrre mappe, uno spettro di potenza angolare e, infine, i parametri cosmologici è un problema computazionalmente difficile. Sebbene la computazione di uno spettro di potenza da una mappa è in linea di principio una semplice trasformata di Fourier, scomponendo la mappa del cielo in armoniche sferiche, in pratica però è difficile tener conto degli effetti del rumore e delle fonti di primo piano. In particolare, il primo piano è dominato da emissioni galattiche come le Bremsstrahlung, le radiazioni di sincrotrone, e le polveri che emettono segnali nella banda delle microonde. In pratica, le radiazioni provenienti dalla nostra Galassia devono essere eliminate, dando luogo a una mappatura che non contempla più l'intero cielo. Inoltre, sorgenti puntiformi come galassie e ammassi rappresentano altre fonti di primo piano che devono essere rimosse affinché non distorcano la struttura su scala piccola dello spettro di potenza della CMB. Le restrizioni che gravano su molti parametri cosmologici possono essere ricavate dai loro effetti sullo spettro di potenza, ed i risultati sono spesso calcolati utilizzando le tecniche di campionamento Markov Chain Monte Carlo. Sulla base di alcune anomalie osservate da Planck Surveyor (come una differenza significativa nel segnale osservato nei due emisferi opposti del cielo, e una regione fredda eccessivamente grande, tale da dover accettare l'esistenza di un enorme supervuoto), taluni hanno ipotizzato che la radiazione potesse essere un fenomeno più locale e quindi non un residuo del Big Bang; in passato era stato obiettato che la sua origine fosse nell'estinzione interstellare con presenza di particelle di ferro sullo sfondo (Hoyle, Narlikar, Arp) o una radiazione polarizzata di sincrotrone proveniente da radiogalassie e radiosorgenti lontane e annichilazioni materia-antimateria (Cosmologia del plasma). Dai dati dalla radiazione di fondo si vede che il nostro gruppo locale di galassie (l'ammasso galattico che include la Via Lattea), sembra muoversi a 627 ± 22 km/s rispetto al sistema di riferimento della CMB in direzione della longitudine galattica l = 276±3°, b = 30±3º. Questo movimento provoca un'anisotropia dei dati in quanto la CMB appare leggermente più calda nella direzione del movimento che nella direzione opposta. L'interpretazione standard di queste variazioni di temperatura è un semplice spostamento verso il rosso e verso il blu dovuto al moto relativo rispetto alla CMB, ma modelli cosmologici alternativi sono in grado di spiegare alcune frazioni della distribuzione della temperatura di dipolo osservate nella CMB. Con i dati sempre più precisi forniti dal WMAP, ci sono state una serie di segnalazioni secondo cui la CMB soffre di anomalie, come anisotropie su grandissima scala, allineamenti anomali, e distribuzioni non-gaussiane. La più duratura di queste è la polemica sui multipoli a bassi valori di l. Anche nella mappa del COBE si è osservato che il quadrupolo (l = 2, armoniche sferiche) ha un'ampiezza bassa rispetto alle previsioni del Big Bang. Alcuni osservatori hanno fatto notare che le anisotropie nei dati del WMAP non sembrano essere coerenti con il quadro del big bang. In particolare, il quadrupolo e l'octupolo (l = 3) sembrano avere un allineamento inspiegabile tra di loro e con il piano dell'eclittica, un allineamento a volte indicato come l'asse del male. Alcuni gruppi hanno suggerito che questo potrebbe rappresentare l'indicazione di una nuova fisica alle scale più grandi osservabili. In ultima analisi, a causa degli effetto di primo piano e del problema della varianza cosmica, le modalità più grandi non saranno mai misurabili così precisamente come le modalità a piccola scala angolare. Le analisi sono state effettuate su due mappe dalle quali i primi piani sono stati rimossi nel miglior modo possibile: la mappa della «combinazione lineare interna» del WMAP e una mappa simile preparata da Max Tegmark e altri. Analisi successive hanno evidenziato che queste sono le modalità più sensibili alla contaminazione di primo piano delle radiazioni da sincrotrone, polveri, bremsstrahlung, e da incertezze sperimentali nel monopolo e nel dipolo. Un'analisi bayesiana dello spettro di potenza del WMAP dimostra che la previsione del quadrupolo del modello cosmologico Lambda-CDM è coerente con i dati al livello del 10% e che l'octupolo osservato non è notevole. Conti più attenti sulla procedura utilizzata per rimuovere il primo piano dalla mappatura completa del cielo, riducono ulteriormente l'importanza dell'allineamento del 5% circa. Dalla scoperta nel 1964 della radiazione cosmica di fondo, da parte degli astronomi Arno Penzias e Robert Woodrow Wilson, si sono susseguiti una varietà di esperimenti finalizzati alla ricezione e allo studio della CMB. Tra i tanti esperimenti, i più importanti sono stati:
- COBE, il primo esperimento che ha misurato le temperature delle anisotropie nella CMB, scoprendo anche che presenta uno spettro elettromagnetico simile ad un corpo nero.
- DASI, il primo a determinare il segnale di polarizzazione della CMB.
- Telescopio CBI, il primo ad ottenere osservazioni in alta risoluzione, e il primo ad ottenere lo spettro di polarizzazione E-mode.
- WMAP, l'esperimento che ha dato osservazioni della CMB a più alta risoluzione.
La progettazione degli esperimenti cosmica di fondo è un compito molto impegnativo. I maggiori problemi sono i ricevitori, le ottiche del telescopio e l'atmosfera. Sono state sviluppate molte tecnologie per i ricevitori a microonde, come l'HEMT, il superconduttore-isolante-superconduttore, il circuito integrato monolitico a microonde e il bolometro. Generalmente, gli esperimenti montano complicati sistemi di criogenia per mantenere bassa la temperatura dell'amplificatore. Altri esperimenti consistono in uno o più interferometri, che si limitano a misurare le fluttuazioni spaziali dei segnali provenienti dal cosmo, e sono insensibili alla temperatura media di fondo di 2,7 K. Un altro problema per questi esperimenti è il rumore 1/f intrinseco a tutti i rilevatori. Solitamente, gli esperimenti vengono progettati in maniera tale da minimizzare questo tipo di rumore. Per minimizzare i lobi secondari del segnale, i gruppi ottici solitamente usano elaborati sistemi di lenti e antenne a tromba alimentate. Infine, l'atmosfera è un problema perché l'acqua assorbe le radiazioni a microonde (principio utilizzato nei forni a microonde): essendo la radiazione di fondo un segnale alla lunghezza d'onda delle microonde, questo problema ne rende difficoltosa l'osservazione da terra. Per questo, lo studio della CMB fa sempre più uso di esperimenti aerei o spaziali. Gli esperimenti a terra, invece, si trovano quasi sempre in posti secchi come le Ande cilene o il Polo sud. Gli esperimenti più importanti sulla CMB sono:
- Archeops era un esperimento da pallone dedicato alla misura delle anisotropie di temperatura della Radiazione cosmica di fondo (CMB). Lo studio di questa radiazione è essenziale per ottenere precise informazioni sull'evoluzione dell'universo: la sua densità, la costante di Hubble, l'età dell'universo, ecc. Per raggiungere questo obiettivo, le misurazioni sono state eseguite con strumentazione a temperatura di 100 mK posta nel fuoco di un telescopio. Per escludere i disturbi dovuti all'atmosfera l'intero apparato è stato posto in una struttura sottostante un pallone ad elio che ha raggiunto un'altitudine di 40 km. Archeops ha operato alle frequenze di 143, 217, 353 e 545 GHz con una risoluzione angolare di circa 15 arcmin allo scopo di poter coprire una larga finestra del cielo (30% circa), in modo da minimizzare la varianza cosmologica intrinseca. La strumentazione è stata progettata sulla linea del futuro progetto HFI (High Frequency Instrument) del satellite Planck ma vincolata dall'uso del pallone aerostatico. Consiste in bolometri raffreddati alla temperatura di 100 mK accoppiati con antenne a temperature maggiori (0,1, 1,6 e 10 K) nel piano focale di un telescopio Gregoriano. Il segnale della CMB è misurata dai ricevitori a 143 e 217 GHz mentre le emissioni del mezzo interstellare e dell'atmosfera sono monitorate con i ricevitori a 353 e 545 GHz. Archeops ha collegato, per la prima volta e prima di WMAP, la larga scala angolare (misurata precedentemente da COBE) alla regione del primo picco acustico. Da questi risultati, attraverso il modello dell'inflazione, si è determinata una densità di energia Omegatot=1 entro il 3%) che implica che l'universo è sostanzialmente piatto.
- L'Arcminute Cosmology Bolometer Array Receiver (ACBAR) è un esperimento volto alla misurazione delle anisotropie della radiazione cosmica di fondo. È situato in Antartide. Le rilevazioni a 145 GHz dell'ACBAR sono tra le misure multipolare della CMB più precise.
- Il telescopio Atacama Cosmology (Atacama Cosmology Telescope, abbreviato ACT) è un telescopio da 6 metri situato sul «Cerro Toco» nel deserto Atacama, nel nord del Cile. È stato progettato per realizzare immagini del cielo in alta risoluzione nella gamma delle microonde, allo scopo di studiare la radiazione cosmica di fondo a microonde. Situato ad un'altitudine di 5.190 metri è uno dei telescopi terrestri permanenti più alti del mondo. Costruito nella primavera del 2007, iniziò a funzionare il 22 ottobre con la camera a microsensori millimetrici (MBAC) e ha completato la sua prima stagione di osservazioni nel dicembre 2007; ha cominciato la seconda stagione nel giugno 2008. Il progetto è una collaborazione tra la Princeton University, University of Pennsylvania, NASA/GSFC, University of British Columbia, NIST, Pontificia Universidad Católica de Chile, università di KwaZulu-Natal, Cardiff University, Rutgers University, University of Pittsburgh, Columbia University, Haverford College, INAOE, LLNL, NASA/JPL, University of Toronto, università di Città del Capo, università del Massachusetts e CUNY. L'ACT è un telescopio gregoriano con uno specchio primario da sei metri e uno secondario da due metri; entrambi gli specchi sono segmentati, consistendo di 71 pannelli d'alluminio primari e 11 secondari. A differenza della maggior parte dei telescopi che seguono la rotazione del cielo durante l'osservazione, ACT osserva una striscia di cielo, tipicamente larga cinque gradi, scansionando avanti e indietro nell'azimuth al tasso di due gradi al secondo. La parte rotante del telescopio pesa circa 32 tonnellate, ciò ha creato una sfida ingegneristica notevole. Uno schermo attorno al telescopio minimizza la contaminazione della radiazione a microonde emessa dal suolo. Nel programma corrente di esplorazione, l'ACT mapperà circa 200 gradi quadrati di cielo. Dato che il vapore acqueo atmosferico emette radiazioni a microonde che alterano le misure della radiazione cosmica di fondo, il telescopio beneficia della sua posizione ad alta quota, luogo secco, sulle Ande, nel deserto Atacama.
- Background Imaging of Cosmic Extragalactic Polarization (BICEP, bicipite in inglese) è un esperimento di astrofisica e cosmologia il cui scopo è la misura della polarizzazione della radiazione cosmica di fondo. In particolare, l'esperimento scientifico punta a scoprire e misurare i modi B della radiazione di fondo, che si suppone abbiano avuto origine durante l'epoca dell'inflazione cosmica verificatasi poco dopo il Big Bang. BICEP ha conosciuto tre generazioni di strumenti: BICEP1, BICEP2, e Keck Array; inoltre nella stagione estiva australe 2014-15 avranno inizio le misurazioni con la nuova strumentazione BICEP3. Lo scopo dell'esperimento BICEP è la misura della polarizzazione della radiazione elettromagnetica di cui è costituito il fondo cosmico a microonde. Nello specifico, intende misurare i modi B (la componente rotazionale) della polarizzazione del fondo cosmico. La rilevazione dei modi B permetterebbe di verificare l'esistenza di una radiazione gravitazionale di fondo, un residuo lasciato dall'inflazione cosmica e originato da vari fattori di natura casuale. Ne conseguirebbe una prova sia dell'esistenza delle onde gravitazionali primordiali (dopo l'osservazione diretta da parte della collaborazione LIGO-VIRGO di quelle generate dalle coalescenze di buchi neri), sia dell'ipotesi inflazionaria. Inoltre, la rilevazione di tali modi di oscillazione permetterebbe di osservare l'evoluzione dell'universo in un'epoca molto vicina al Big Bang, in una scala temporale valutata tra i 10−36 e i 10−32 secondi dopo l'evento iniziale, e alla relativa scala di alte energie. L'osservazione del fondo cosmico a microonde, originatosi circa 380000 anni dopo il Big Bang, permette di studiare tramite la radiazione elettromagnetica lo stato dell'Universo in quel particolare periodo. Nell'epoca precedente non era presente radiazione elettromagnetica libera, quindi una possibile alternativa per studiare l'Universo nello stadio iniziale sarebbe l'utilizzo delle onde gravitazionali. Con BICEP non sono state ancora ottenute misure dirette delle onde gravitazionali, ma solo prove indirette: la misura effettuata da BICEP indica un'interazione tra le onde gravitazionali e la radiazione cosmica di fondo. Nel marzo 2014 è stato annunciato il risultato della collaborazione BICEP2 che mostrerebbe le prime evidenze sperimentali dirette dell'inflazione cosmica. Il risultato sarà da verificare con ulteriori esperimenti che aiuteranno a scegliere il modello teorico migliore per descrivere l'evoluzione dell'Universo. BICEP opera nell'emisfero australe, in Antartide, dalla base permanente Amundsen-Scott del Polo sud. Come abbiamo detto esistono più generazioni di strumenti. BICEP 1, il primo strumento BICEP, ha osservato il cielo nello spettro elettromagnetico compreso tra 100 e 150 GHz, rispettivamente con una risoluzione angolare di 1,0 e 0,7 gradi. Disponeva di un array di 98 sensori, sensibili alla polarizzazione del fondo cosmico a microonde. La strumentazione di BICEP venne realizzata come prototipo in vista di ulteriori miglioramenti. Iniziò l'osservazione nel gennaio 2006, le misure sono proseguite fino alla fine del 2008. La seconda generazione di strumenti è stata BICEP2, che ha operato dal 2010 fino al 2012. Tra i miglioramenti attuati, si è riuscito a ottenere una velocità di mappatura 10 volte superiore rispetto a BICEP1, aumentando il numero di sensori fino a 512. I dati raccolti hanno permesso di giungere nel 2014 a una prima misura dei modi B della radiazione cosmica di fondo, una possibile prova dell'esistenza delle onde gravitazionali primordiali e dell'ipotesi della teoria dell'universo inflazionario. Il Keck Array consiste di cinque polarimetri. I primi tre iniziarono le loro osservazioni nell'estate australe 2010-11; altri due iniziarono le loro osservazioni nel 2012. Tutti e cinque hanno osservato il cielo alla frequenza di 150 GHz fino 2013, quando due di essi furono convertiti per l'osservazione a 100 GHz. Ciascun polarimetro consiste di un telescopio rifrattore (per minimizzare gli errori sistematici), che sono raffreddati a 4 K da un refrigeratore pulse tube, e di un array di piani focali di 512 microcalorimetri a transizione di fase raffreddati a 250 mK, per un totale di 2560 sensori. Il progetto è stato finanziato con una donazione di 2,3 milioni di dollari statunitensi dalla W. M. Keck Foundation, a cui si aggiunge il sostegno finanziario della National Science Foundation, della Gordon and Betty Moore Foundation, della James and Nelly Kilroy Foundation e della Barzan Foundation. BICEP3 consisterà di 2560 sensori per osservare la radiazione alla frequenza di 100 GHz. Sarà messo in opera nella stagione estiva australe del 2014-15. I tre esperimenti hanno compiuto misurazioni attorno alla stessa area del cielo, il Polo Sud Celeste. Nel mese di marzo 2014, è stato annunciato che l'esperimento BICEP2 ha rilevato tracce dei modi-B lasciati dalle onde gravitazionali nella radiazione cosmica di fondo dell'Universo primordiale dopo il Big Bang. L'annuncio ufficiale è stato dato il 17 marzo 2014 in una conferenza stampa tenuta presso lo Harvard-Smithsonian Center for Astrophysics. La misura potrebbe essere una prova dell'inflazione cosmica, la repentina espansione dell'Universo che si sarebbe verificata circa 10−35 secondi dopo il Big Bang. La polarizzazione della radiazione cosmica di fondo dovrebbe essersi generata tramite l'interazione tra le onde gravitazionali e la radiazione a microonde stessa. Questa misura sarebbe quindi un'ulteriore prova indiretta dell'esistenza delle onde gravitazionali. I dati analizzati da BICEP2 hanno prodotto una misura del rapporto r tra le fluttuazioni tensoriali (dei "modi B" primordiali, dovute alle onde gravitazionali) e le fluttuazioni scalari (in densità). Il rapporto è stato misurato con un'altissma precisione (7 sigma, superiore al limite di 5 sigma), il valore trovato corrisponde a r = 0,2+0,07. −0,05, ben superiore rispetto al limite superiore r = 0,1, suggerito dagli esperimenti precedenti WMAP e Planck. L'articolo scientifico pubblicato il 19 giugno 2014 contiene una nota aggiunta in appendice in cui si discute della possibile influenza che la polvere cosmica abbia avuto sulla misura. Il 19 settembre 2014 la collaborazione Planck ha pubblicato i risultati della misura della polarizzazione causata dalla polvere galattica, ridimensionando l'importanza dei risultati della collaborazione BICEP: l'effetto causato dalla polvere galattica è della stessa dimensione della polarizzazione misurata da BICEP2. Le istituzioni scientifiche coinvolte nei vari strumenti sono: il Caltech, l'Università di Cardiff, l'Università di Chicago, l'Harvard-Smithsonian Center for Astrophysics, il Jet Propulsion Laboratory, l'Università del Minnesota e l'Università di Stanford (per tutti gli esperimenti), l'Università della California, San Diego (BICEP1 e 2), il National Institute of Standards and Technology (NIST) e l'Università della Columbia Britannica (BICEP2 e Keck Array), la Case Western Reserve University (Keck Array) e l'Università di Toronto (BICEP2, Keck Array, BICEP3). Il progetto Keck Array è stato guidato da Andrew Lange.
- L'esperimento BOOMERanG (acronimo inglese di Balloon Observations Of Millimetric Extragalactic Radiation and Geophysics) è un esperimento che ha misurato la radiazione cosmica di fondo di una porzione dello spazio, tramite tre voli sub-orbitali di un pallone di alta quota. È stato il primo esperimento in grado di fornire un'immagine ad alta definizione delle anisotropie della temperatura della radiazione cosmica di fondo. Tramite un telescopio fatto sorvolare ad un'altitudine di 42 km circa è stato possibile ridurre l'assorbimento delle microonde (prodotte dalla radiazione di fondo) da parte dell'atmosfera terrestre. Il primo volo di prova è avvenuto nei cieli dell'America settentrionale nel 1997. I due voli successivi del pallone sonda sono partiti del 1998 e nel 2003 dalla base permanente antartica McMurdo. Il pallone è stato fatto girare attorno al polo sud sfruttando il vortice polare, con ritorno al punto di partenza dopo due settimane. Il telescopio prende il nome da questo effetto (effetto boomerang). L'esperimento ha utilizzato dei bolometri per il rilevamento della radiazione di fondo; questi strumenti sono stati mantenuti ad una temperatura di 0,27 K (−272,88 °C). Secondo la legge di Debye i materiali, a tale temperatura, presentano una capacità termica molto bassa; le microonde provenienti dalla radiazione di fondo causano un forte aumento di temperatura, proporzionale all'intensità dell'onda. Queste variazioni di temperatura vengono quindi rilevate da termometri ad alta risoluzione. Uno specchio da 1,2 m focalizza quindi le microonde su un piano focale costituito da 16 sensori. Tali sensori, operanti a 145 GHz, 245 GHz e 345 GHz sono combinati su un'area di 8 pixel. In questo modo il telescopio era in grado di analizzare una piccola porzione di spazio per volta ed era quindi costretto a ruotare per analizzare l'intera area in analisi. Insieme ad altri esperimenti come Saskatoon, QMAP, MAXIMA, i dati dell'esperimento BOOMERanG del 1997 e 1998 sono stati utili per calcolare la distanza del diametro angolare rispetto alla superficie di ultimo scattering con un'alta precisione. Questi dati, combinati con altri dati riguardanti la costante di Hubble, hanno dato come risultato finale che la geometria dell'universo è piatta. Questo risultato supporta la prova dell'esistenza dell'energia oscura. I dati del volo del 2003 del BOOMERanG hanno dato come risultato un segnale con un altissimo rapporto segnale-rumore, utili per la mappatura dell'anisotropia della temperatura della radiazione di fondo e per la misura della polarizzazione della radiazione.
- Il CAT (dall'inglese Cosmic Anisotropy Telescope) è stato un interferometro a tre elementi per osservare la radiazione cosmica di fondo (CMB) nella banda tra i 13 e i 17 GHz, situato all'Osservatorio radioastronomico Mullard. Nel 1995, fu il primo strumento a misurare la struttura della CMB a piccole scale angolari. Con l'avvento del VSA il telescopio CAT è andato in disuso.
- Il telescopio CBI (dall'inglese Cosmic Background Imager) è uno strumento composto da 13 interferometri posizionato sulle Ande ad una quota di 5080 m presso l'osservatorio di Llano de Chajnantor nel Cile. Ha iniziato le sue osservazioni nel 1999 studiando la radiazione cosmica di fondo (CMB) fino al 2008. Il CBI effettuò misure in dieci bande di larghezza 1 GHz tra i 26 e i 36 GHz di frequenza con una risoluzione angolare inferiore al decimo di grado. Fu costruito al California Institute of Technology e dotato di sensibili amplificatori radio del National Radio Astronomy Observatory. Due esperimenti simili sono il VSA (Very Small Array) a Tenerife e il DASI (Degree Angular Scale Interferometer) in Antartide. Entrambi questi esperimenti utilizzano interferometri radio per misurare le fluttuazione della CMB a bassa risoluzione su larghe porzioni di cielo.
- COSMOSOMAS è uno scanner astronomico circolare per le microonde per rilevare le anisotropie della radiazione cosmica di fondo (CMB) e l'emissione diffusa dalla Galassia su scale angolari comprese tra 1 e 5 gradi. Fu progettato e costruito dall'Istituto di Astrofisica delle Canarie (IAC) a Tenerife, Spagna, nel 1998. La sigla del suo nome deriva da Strutture cosmologiche su medie scale angolare (dall'inglese COSMOlogical Structures On Medium Angular Scales), che si riferisce alle fluttuazioni della CMB. Queste esperimento ideato a partire dal precedente Esperimento Tenerife con l'obiettivo di raggiungere minori scale angolari ma con maggior sensibilità. L'esperimento consiste in due strumenti, il COSMO15 (tre canali a 12,7, 14,7 e 16,3 GHz) e il COSMO11 (due bracci a polarizzazione lineare a 10,9 GHz). Entrambi gli strumenti sono basati su una strategia di scansionamento circolare del cielo, che consistente in uno specchio, in rotazione piana a 60 rpm, che riflette la radiazione in un'antenna parabolica fuori asse. Le dimensioni delle specchio sono di 1,8 m in COSMO15 e di 2,4 m in COSMO11. Le antenne focalizzano la radiazione in ricevitori, di tipo HEMT, raffreddati criogenicamente. Entrambe operano a una temperatura di 20 K e a frequenze di 10-12 GHz per COSMO11 e di 12-18 GHz per COSMO15. Il segnale è separato da un set di tre filtri, che permettono l'osservazione simultanea a 13, 15 e 17 GHz. In questo modo si ottiene tutti i giorni, a queste tre frequenze, una mappa completa del cielo, con risoluzione di 1 grado in ascensione retta e di 20 gradi in declinazione.
- Il Cosmic Background Explorer (COBE), a volte citato come Explorer 66, è stato un satellite scientifico lanciato dalla NASA il 18 novembre 1989. La sua missione era di misurare lo spettro della radiazione cosmica di fondo a microonde (CMBR) e di cercare eventuali disuniformità in questa radiazione. La missione fu un successo: dopo aver trovato che (in perfetto accordo con le previsioni teoriche) la CMBR ha uno spettro di corpo nero ad una temperatura di 2,726 kelvin, nel 1992 furono anche pubblicate le mappe della CMBR ottenute da COBE, che per la prima volta rivelavano variazioni spaziali dell'emissione. La misurazione di queste piccole variazioni (comprese fra lo 0,0001% e lo 0,001% del valore medio, su scale angolari di diversi gradi) si è dimostrata fondamentale per la successiva evoluzione della Cosmologia, tanto che COBE è stato seguito da una lunga serie di esperimenti (BOOMERanG, WMAP e in futuro Planck, per citare solo i più importanti) per misurare con maggiore dettaglio le proprietà della CMBR, in particolare il suo spettro angolare e la sua polarizzazione. "osservando la radiazione da una posizione situata molto al di sopra dell'atmosfera terrestre, il satellite COBE non era influenzato da variazioni spurie dovute a cambiamenti atmosferici e svolgeva il suo lavoro con precisione molto superiore a quella di qualsiasi analogo esperimento eseguito sulla Terra ". Due dei principali ideatori e realizzatori di COBE, John C. Mather e George F. Smoot, hanno ricevuto il Premio Nobel per la Fisica del 2006 per i risultati conseguiti dal satellite.
- Il DASI (dall'inglese Degree Angular Scale Interferometer) è un telescopio situato in Antartide. È uno strumento composto da 13 interferometri operanti in 10 bande tra i 26 e i 36 GHz. Il design dello strumento è simile ad quello di altri due esperimenti il CBI (Cosmic Background Imager) e il VSA (Very Small Array). Lo scopo del DASI è di studiare le anisotropie di temperatura della Radiazione cosmica di fondo (CMB) e la sua polarizzazione. Nel 2002 il team del DASI effettuò la scoperta della polarizzazione della CMB.
- L'esperimento EBEX (dall'inglese E and B experiment) misurerà la Radiazione cosmica di fondo (CMB) di una parte del cielo durante due voli sub-orbitali (ad alta quota) su pallone aerostatico. È un esperimento per ottenere un'immagine larga e ad altà fedeltà delle anisotropie di polarizzazione della CMB. Usando un telescopio che vola ad una quota di 42000 metri è possibile ridurre l'assorbimento atmosferico al minimo. Questo permette una riduzione dei costi rispetto ad una sonda spaziale, ma viceversa permette di ottenere la mappa di una piccola parte di cielo, al contrario di una missione spaziale, come ad esempio WMAP. Il primo volo è nel 2008 sopra il Nord America per eseguire dei test. Il volo successivo sarà nel 2009 e il pallone sarà lanciato dalla Stazione McMurdo nell'Antartico. Userà un vortice polare per volare attorno al Polo Sud, ritornando dopo due settimane. EBEX è equipaggiato con un telescopio a configurazione Dragone che permette una risoluzione angolare di 8 arcominuti nelle bande di frequenza centrate attorno a 150, 250 e 410 GHz. Il polarimetro è fissato su un piatto acromatico a mezza-onda, in continua rotazione, su un supporto a cuscinetto magnetico superconduttivo e una griglia di fili polarizzante. La griglia, montata a 45 gradi rispetto alla luce incidente, trasmette una componente polarizzata e riflette quell'altra. Ogni stato di polarizzazione è consecutivamente misurato dal suo piano focale con un campo di vista istantaneo di 6 gradi sul cielo.
- Il Millimeter Anisotropy eXperiment IMaging Array (MAXIMA) è stato un esperimento finanziato dal National Science Foundation, NASA e dal dipartimento dell'Energia degli Stati Uniti, e operata da una collaborazione internazionale capeggiata dall'Università della California. Lo scopo di questo esperimento è stato la misurazione delle fluttuazioni della radiazione cosmica di fondo. Tale esperimento è stato realizzato compiendo due voli di un pallone da alta quota, l'agosto del 1998 e giugno del 1999. Entrambi i voli sono partiti dalla Columbia Scientific Balloon Facility, situata a Palestine, Texas (31°46′48″N 95°43′22″W). Tali palloni hanno sorvolato la Terra ad un'altitudine di 40000 metri per otto ore. Il primo volo ha preso dati dallo 0,3 % circa della porzione nord del cielo, vicino alla costellazione del Dragone. Il secondo volo, chiamato anche MAXIMA-II, ha scansionato la porzione di cielo in direzione dell'Orsa Maggiore. Inizialmente pianificato assieme all'esperimento BOOMERanG, è stato rinviato per ridurre i rischi riducendo il tempo di volo, nonché per permetterne il lancio e l'atterraggio in territorio Statunitense. Uno specchio primario da 1,3 metri, assieme ad altri specchi secondari e terziari, è stato utilizzato per focalizzare le microonde verso le antenne. Queste antenne erano operanti ad una frequenza di 150 GHz, 240 GHz e 420 GHz, con una risoluzione di 10 primi (ovvero 1/6 di grado angolare al minuto). La misurazione della radiazione incidente è stata affidata ad un bolometro costituito da 16 termistore NTD-Ge. I sensori sono stati portati ad una temperatura di 0,1 K[3] (-273,05 °C, appena 0,1 gradi al di sopra dello zero assoluto), mediante un processo di raffreddamento diviso in quattro parti: dell'azoto liquido ha raffreddato lo strato esterno dello schermo per le radiazioni, dopodiché è stato usato 4He liquido per raffreddare i restanti due schermi ad una temperatura di 2-3 K (-271,15 - -270,15 °C). Infine, per portare tutto il sistema alla temperatura operativa di 0,1 K, è stato utilizzato 3He liquido. In questo modo, l'insieme di schermi e antenne ha acquisito una sensibilità di 40 μV/sec1/2. Per la misura dell'orientamento esatto del telescopio, sono stati utilizzati due CCD. Il primo era puntato direttamente verso l'astro Polaris, dando così un orientamento primario con sensibilità massima di 15 primi. Il secondo CCD è stato montato in sovrapposizione al fuoco primario, dando così un'accuratezza di 0,5 primi per stelle con un magnitudo maggiore di 6. Questi due CCD, quindi, portavano il telescopio ad un'accuratezza di posizione di 10 primi. Il puntamento del telescopio è stato affidato a quattro motori. Paragonato all'esperimento diretto competitore (esperimento BOOMERanG), il MAXIMA ha analizzato una porzione di cielo più piccola ma in maniera più dettagliata. Verso la fine degli anni 2000, questo è stato l'esperimento che ha misurato ed analizzato in modo più dettagliato le fluttuazioni della radiazione cosmica di fondo su una scala angolare limitata. Con questi dati, è stato possibile calcolare i primi tre picchi acustici dallo spettro della radiazione cosmica di fondo. Questo conferma il modello cosmologico standard, misurando una densità di barioni del 4%, in accordo con la densità calcolata dalla nucleosintesi primordiale (del Big Bang). La misura della forma dell'universo conferma inoltre la maggior predizione della cosmologia inflazionaria, dopo che il progetto BOOMERanG fu il primo a scoprirlo.
- Il Mobile Anisotropy Telescope (telescopio mobile per le anisotropie, MAT) è stato un radiotelescopio nato dalla collaborazione tra l'Università di Princeton e l'Università della Pennsylvania. Venne situato nei pressi del Cerro Chajnantor, nelle vicinanze della città di San Pedro de Atacama, in Cile, a 5.500 metri d'altitudine. Lo scopo primario del telescopio è stato la misura delle anisotropie della radiazione cosmica di fondo, ad una scala angolare di 50 < l < 400. Basato su un esperimento precedente di successo, il QMAP[1], il MAT era dotato di 2 ricevitori HEMT a 40 GHz con risoluzione di 0,9 gradi, 4 ricevitori HEMT a 30 GHz con risoulzione di 0,6 gradi, 2 ricevitori SIS a 144 GHz con risoluzione di 0,2 gradi. Come ottica, era presente uno specchio di 85 cm di diametro.
- Planck Surveyor è la terza missione di medie dimensioni (M3) del programma dell'ESA Horizon 2000 Scientific Programme. È progettato per acquisire un'immagine delle anisotropie della radiazione cosmica di fondo (CMB). Questa radiazione avvolge l'intero cielo e la missione ne ha realizzato una immagine, pubblicata nel marzo 2013, con la massima precisione angolare e sensibilità mai ottenuta, fornendo un ritratto dell'Universo a 380 000 anni dal Big Bang. Planck diventerà la fonte primaria di informazioni astronomiche per testare le teorie sulla formazione dell'Universo e sulla formazione della sua attuale struttura. Planck nasce dalla fusione di due progetti, COBRAS (poi diventato lo strumento Low Frequency Instrument, LFI) e SAMBA (poi diventato lo strumento High Frequency Instrument, HFI). Dopo che i due progetti sono stati selezionati, per motivi di efficienza e di risparmio dei costi sono stati riuniti in un unico satellite. Al progetto unificato è stato dato il nome dello scienziato tedesco Max Planck (1858-1947), vincitore del Premio Nobel per la fisica nel 1918. Alla missione collabora la NASA (principalmente per la parte criogenica) e questa missione completerà e migliorerà le misurazioni effettuate dalla sonda WMAP. Gli strumenti saranno raffreddati in parte a una temperatura di 20 K (circa 252 °C sotto zero). La radiazione da misurare è equivalente a quella di un Corpo nero (un emettitore ideale di radiazione elettromagnetica) a una temperatura di 2,7 K (circa 270 °C sotto zero) ma si è deciso di non raffreddare il telescopio a tale temperature per problemi tecnologici. La necessità di raffreddare lo strumento nasce dal fatto che tutti i corpi, dunque anche gli strumenti che captano la radiazione elettromagnetica e i telescopi, emettono radiazione elettromagnetica, in misura e con caratteristiche dipendenti dalla loro temperatura. A temperature troppo alte la radiazione elettromagnetica emessa dallo strumento abbaglierebbe lo strumento stesso. Il lancio è avvenuto il 14 maggio 2009 a bordo di un razzo Ariane 5 insieme all'Herschel Space Observatory. Dopo alcuni mesi di viaggio, il telescopio ha raggiunto il punto lagrangiano L2 a circa 1,5 milioni di chilometri dalla Terra, in posizione opposta rispetto a quella del Sole. La Terra e la Luna hanno fatto così da schermo al satellite dall'interferenza solare. Al termine della sua missione, il satellite Planck è stato inserito in un'orbita eliocentrica e la navicella è stata bonificata rimuovendo tutta l'energia residua al suo interno al fine di evitare pericoli per missioni future. Il comando di switch-off è stato inviato al satellite il 23 ottobre 2013. Il 17 luglio 2018 sono state pubblicate dall'agenzia le ultime elaborazioni dei dati raccolti. Planck è una missione spaziale di terza generazione che segue COBE e WMAP. Rispetto ai primi due strumenti, implementa una serie di importanti migliorie per aumentare la risoluzione angolare e la sensibilità, e nello stesso tempo controllare strettamente gli errori sistematici. Lo spettro di frequenze misurato da Planck va dai 30 GHz dei radiometri di LFI agli 857 GHz dello strumento HFI. Nessun'altra missione CMB ha mai coperto uno spettro così vasto di frequenze. Una tale copertura servirà a Planck per distinguere con accuratezza il segnale della CMB dai cosiddetti "foregrounds", ossia tutte le altre emissioni a tali frequenze (ad esempio, emissione di sincrotrone da parte di elettroni). La concezione di LFI, un array di 22 radiometri a pseudo-correlazione, non è troppo diversa dalle tecnologie impiegate in WMAP. La parte di front-end dei radiometri di LFI è però raffreddata attivamente a 20 K, mentre i radiometri di WMAP erano raffreddati a circa 80-90 K. Questa minore temperatura porta a un minore impatto del rumore sul segnale misurato. A causa della maggiore risoluzione angolare di Planck e dell'ampia copertura in frequenza, la quantità di dati da inviare a terra è considerevolmente maggiore rispetto a COBE e a WMAP. Planck è la prima missione ad implementare tecniche di compressione lossy dei dati già a bordo. Il compressore implementato usa la codifica aritmetica. Obiettivi: Misura della radiazione cosmica di fondo e della sua polarizzazione, Test del modello dell'inflazione cosmologica, Buona stima dei parametri cosmologici, Studio degli ammassi di galassie attraverso l'effetto Sunyaev-Zel'dovich, Studio del mezzo interstellare della Galassia. Il Low Frequency Instrument è un array di 22 radiometri a pseudo-correlazione che misurano il segnale proveniente dal cielo (attraverso il telescopio) confrontandolo con un carico termico alla temperatura di circa 4,5 K. Questo carico termico ha le caratteristiche emissive di un corpo nero, e la tecnica differenziale consente l'abbattimento dell'impatto di fluttuazioni nel guadagno degli amplificatori nel segnale misurato (una tecnica usata anche in WMAP, dove però non si confronta il segnale del cielo con un carico termico installato a bordo, bensì si confronta la temperatura del cielo in due direzioni diverse). I 22 radiometri sono suddivisi in coppie collegate alla medesima antenna, dove ognuno dei radiometri misura una componente polarizzata. In questo modo è possibile studiare non solo le anisotropie di temperatura della CMB, ma anche le anisotropie di polarizzazione. I radiometri di LFI sono divisi in due parti: la parte di front-end (contenente un primo stadio di amplificazione) è raffreddata a circa 20 K ed è collegata da una serie di guide d'onda alla seconda parte, detta di back-end (a 300 K), dove il segnale viene amplificato ulteriormente e rilevato da un complesso sistema di acquisizione. A capo del progetto e sviluppo di LFI sono Nazzareno Mandolesi (Principal Investigator, PI), Marco Bersanelli (Instrument Scientist, IS) e Chris Butler (Program Manager, PM). L'High Frequency Instrument è un array di bolometri raffreddati a 0,1 K che lavorano nello spettro di frequenza tra 100 e 850 GHz. Alcuni dei bolometri di HFI sono in grado di misurare anche le anisotropie di polarizzazione (caratteristica non comune nei normali bolometri). A capo del progetto e sviluppo di HFI sono Jean-Loup Puget (PI) e Jean-Michel Lamarre (IS). Inizialmente previsto per il 31 ottobre 2008, il lancio è stato posticipato più volte fino al 14 maggio 2009 quando il telescopio è stato lanciato tramite un razzo Ariane 5 insieme all'Herschel Space Observatory. La separazione dei due telescopi è avvenuta correttamente poco dopo il lancio. Dopo alcuni mesi di viaggio, ha raggiunto il punto lagrangiano L2 a circa 1,5 milioni di chilometri dalla Terra, in posizione opposta rispetto a quella del Sole. Il 3 luglio 2009 ha eseguito la manovra di immissione sull'orbita halo finale. Lo stesso giorno l'Agenzia Spaziale Europea ha comunicato che il telescopio ha raggiunto la temperatura di −230 °C, mentre i sensori a bordo quella di −273,05 °C, divenendo uno degli oggetti nello spazio più freddi di cui si abbia conoscenza.
- POLARBEAR è un esperimento situato nel deserto di Atacama nel Cile settentrionale nella regione Antofagasta il cui scopo è la misura della polarizzazione del fondo cosmico a microonde. L'esperimento POLARBEAR è montato sul telescopio Huan Tran Telescope (HTT) all'osservatorio James Ax nella riserva scientifica di Chajnantor. L'HTT è situato vicino all'Atacama Cosmology Telescope sulle pendici del Cerro Toco ad un'altitudine di circa 5200 m. L'esperimento POLARBEAR è stato sviluppato da una collaborazione internazionale che include la Università della California, Berkeley, il Lawrence Berkeley National Laboratory, l'University of Colorado at Boulder, l'Università della California, San Diego, l'Imperial College, ed il Laboratoire Astroparticule et Cosmologie dell'Università Paris VII - Denis-Diderot, il KEK (High Energy Accelerator Research Organization), la McGill University e l'Università di Cardiff. Nel 2010 la strumentazione è stata testata all'osservatorio CARMA (Combined Array for Research in Millimeter-wave Astronomy), in California. Nel settembre 2011 POLARBEAR è stato trasferito nel deserto di Atacama, dove ha visto la prima luce nel gennaio 2012 e ha iniziato a operare ad aprile dello stesso anno. Nell'ottobre 2014, la collaborazione ha pubblicato una misura dei modi-B lasciati dalle onde gravitazionali nella radiazione cosmica di fondo: secondo la collaborazione POLARBEAR, i modi-B rivelati sono di origine cosmologica con un livello di confidenza del 97.2%. A differenza dell'esperimento BICEP, è da escludere il contributo della polvere cosmica nella misura, poiché POLARBEAR ha osservato il cielo su piccole scale angolari. Per il 2015 è previsto il primo upgrade dell'esperimento: POLARBEAR2 userà un nuovo rivelatore composto da 7588 bolometri con bande di frequenza a 95 e 150 GHz.
- QMAP è un esperimento scientifico, eseguito tramite uso di pallone atmosferico, per misurare le anisotropie delle radiazione cosmica di fondo (CMB). Volò due volte nel 1996, e i suoi dati furono funzionalmente collegati con una scansione astronomica per produrre una mappa della CMB. Lo strumento fu usato poi per osservazioni da terra nell'esperimento MAT/TOCO; denominato così poiché lo strumento era chiamato Mobile Anisotropy Telescope (Telescopio mobile da anisotropia), fu posizionato a Cero Toco nel Cile. È stato il primo esperimento di questo tipo a determinare la posizione del primo picco acustico della CMB.
- QUaD (dall'inglese QUEST at DASI) è un esperimento da terra, in Antartide, per misurare la polarizzazione della radiazione cosmica di fondo (CMB). QUEST (Q and U Extragalactic Sub-mm Telescope) era il nome originale attribuito al ricevitore bolometrico, mentre DASI è il nome di un famoso esperimento interferometrico sulla polarizzazione della CMB. QUaD usa la stessa meccanica di DASI ma è stato sostituito l'array di interferometro di DASI con un ricevitore bolometrico al termine di un sistema ottico cassegrain.
- Il RELIKT-1 (dal russo РЕЛИКТ-1) era un esperimento dell'ex Unione Sovietica a bordo del satellite Prognoz 9 (lanciato il 1º luglio 1983) per misurare le anisotropie della radiazione cosmica di fondo (CMB). Da una prima analisi dei dati si stimò solo un limite superiore alle anisotropie su larga scala angolare, ma ad un'ulteriore analisi dati nel 1992 si trovò un segnale compatibile con quello di esperimenti successivi. Questo esperimento fu preparato dallo Space Reasearch Institute dell'Accademia russa delle scienze e supervisionato dal Dr. Igor Strukov. Fu realizzata una mappa del cielo a 37 GHz, usando un radiometro a modulazione di tipo Dicke che non poteva però fare misurazione a più di una banda. L'intera volta cieleste fu osservata in sei mesi ad una scala angolare di 5,5 gradi e con una sensibilità sulla temperatura di 0,6 mK. Fu misurata l'emissione galattica a microonde e osservata l'anisotropia di dipolo della CMB. Il momento di quadruopolo fu osservato tra i 17 e i 45 mK rms, con il 90% di confidence level. La scoperta dell'anisotropia da parte del RELIKT-1 fu ufficialmente riportata nel gennaio 1992 al seminario di astrofisica di Mosca.
- Saskatoon era un esperimento per misurare la anisotropie della radiazione cosmica di fondo ad una scala angolare l compresa tra i 60 e i 360. Fu chiamato così dalla città Saskatoon, nel Canada, dove fu installato. Fu operativo tra il 1993 e il 1995.
- Lo SPOrt (dall'inglese Sky Polarization Observatory) era un strumento Italiano destinato ad essere montato sulla Stazione Spaziale Internazionale per una missione di due anni a cominciare dal 2007. Lo strumento progettato per misurare la radiazione cosmica di fondo avrebbe osservato l'80% del cielo in un range di frequenze tra i 20 e i 100 GHz. Oltre a misurare su larga scala la polarizzazione della CMB avrebbe inoltre fornito una mappa dell'emissione di sincrotrone della Galassia in bassa frequenza. Il progetto fu ideato da Stefano Cortiglioni dell'istituto IASF-CNR di Bologna e completamente finanziato dall'Agenzia Spaziale Italiana. A causa della battuta d'arresto del programma Space Shuttle, dovuta al disastro del Columbia, un lancio a breve termine divenne improbabile. Cortiglioni, di conseguenza, annulli.
- Il South Pole Telescope (SPT) è un radiotelescopio di 10 metri situato presso la base Amundsen-Scott, al Polo Sud, Antartide. Il telescopio osserva nelle microonde e nelle onde millimetriche tra i 70 e i 300 GHz. Lo scopo principale del SPT è di esplorare il cielo al fine di mappare le anisotropie primarie e secondarie della radiazione cosmica di fondo (CMB). Il progetto è finanziato dalla National Science Foundation americana ed è una collaborazione tra l'Università di Chicago, l'Università della California (Berkeley), la Case Western Reserve University, l'Università dell'Illinois all'Urbana-Champaign, lo Smithsonian Astrophysical Observatory, l'Università del Colorado a Boulder e l'Università McGill. Il Polo Sud è il luogo più adatto al mondo per le osservazioni nelle onde millimetriche. L'altitudine a cui si trova il polo, circa 2800 metri sul livello del mare, significa che l'atmosfera è abbastanza rarefatta. Le temperature estremamente fredde mantengono basso il livello di umidità atmosferica. Questo è particolarmente importante per osservare le onde millimetriche dato che il segnale può essere assorbito dal vapore acqueo e che il vapore può emettere radiazioni che possono essere confuse coi segnali astronomici. Un altro vantaggio del Polo Sud è che il Sole tramonta a metà marzo e non risorge per altri sei mesi, durante i quali le condizioni atmosferiche sono estremamente stabili senza le turbolenze causate dal normale ciclo giornaliero di albe e tramonti. Il SPT è un telescopio gregoriano fuori asse con montatura altazimutale (ai poli la montatura altazimutale è agli effetti pratici identica a quella equatoriale). È stato progettato per permettere un ampio campo visivo (circa un grado quadrato). Lo specchio primario è di 10 metri e la superficie è stata levigata a circa 25 micrometri, ciò permette osservazioni nelle lunghezze d'onda sub-millimetriche. Al piano focale è posto un insieme di 960 bolometri superconduttivi TES (Transition Edge Sensors). Sono divisi in sei parti a forma di spicchio, ciascuna con 160 rilevatori. Questa struttura modulare permettere di scegliere a seconda dell'esigenza diverse configurazioni, attualmente (2009) ci sono 4 spicchi che osservano a 150 GHz, uno a 90 GHz e uno a 220 GHz. Il South Pole Telescope ha avuto la prima luce il 16 febbraio del 2007, ha cominciato le osservazioni nel marzo dello stesso anno. La prima piccola esplorazione del cielo si è conclusa nell'inverno australe del 2007, una più ampia è terminata nel 2008. Lo scopo del SPT è quello di mappare la radiazione cosmica di fondo cercando ammassi di galassie attraverso l'effetto Sunyaev-Zel'dovich, una distorsione della CMB causata dall'interazione dei fotoni della CMB con il gas caldo ionizzato degli ammassi. Nell'ottobre del 2008 è stato annunciato che il telescopio ha individuato quattro ammassi di galassie, tre dei quali sono nuove scoperte. Nel luglio del 2013 sono state rilevate distorsioni sottili nella polarizzazione del fondo cosmico a microonde, grazie ad un modulo aggiuntivo implementato nel gennaio del 2012. Lo studio di questi segnali aiuterà ad approfondire, tramite l'analisi dell'impatto dei neutrini, alcuni aspetti della crescita della struttura dell'universo e ad elaborare una stima dei primi momenti dell'universo stesso. Durante una campagna osservativa effettuata su una porzione limitata del cielo è stato scoperto un ammasso di galassie distante 12 miliardi di anni luce, con un tasso di formazione stellare centinaia di volte quello presente nella Via Lattea. Il radiotelescopio fa parte dell'Event Horizon Telescope, che ha ottenuto la prima foto di un buco nero, M87, pubblicata nell'aprile 2019.
Spider è un esperimento da pallone per studiare la polarizzazione del cielo nella finestra delle microonde tra le frequenze di 96 e 300 GHz e scale angolari tra 30° e 0,5°. Il primo volo è pianificato per aprile 2010 dall'Australia. Un secondo volo è pianificato per la stagione successiva. I principali obiettivi scientifici della missione sono caratterizzare la componente irrotazionale della CMB alla più larga scala possibile; ricercare l'effetto di onde gravitazioni nella polarizzazione della CMB; caratterizzare la polarizzazione delle emissioni della Via Lattea.
Il telescopio VSA ('Very Small Array) è uno strumento composto da 14 interferometri operanti tra i 26 e i 36 GHz usati per studiare la radiazione cosmica di fondo (CMB). È una collaborazione tra l'Università di Cambridge, l'Università di Manchester e l'Istituto di Astrofisica delle Canarie (Tenerife), ed è installato all'Osservatorio del Teide a Tenerife. Le caratteristiche del telescopio sono comparabili ad altri esperimenti sulla CMB come quelli da pallone BOOMERang e MAXIMA o da terra come DASI e CBI. Il telescopio consiste di 14 elementi, ognuno dei quali ha un'antenna a riflettore che focalizza in segnale astrofisico in singoli ricevitori di tipo HFET operanti a una temperatura di 12 K. Il telescopio può essere utilizzato in tre configurazioni: "compatta", "estesa" e "super-estesa". Ognuna di esse differisce per la distanza che separa gli elementi e la dimensione delle antenne. La configurazione compatta utilizza antenne da 143 mm di diametro, mentre quella estese usa antenne da 322 mm. Ciò porta la configurazione compatta ad avere un fascio principale di 4,5 gradi e una risoluzione di 30 arcominuti, mentre la configurazione estensa un fascio principale da 2 gradi e una risoluzione di 12 arcominuti. Rispettivamente, le due configurazioni posso osservare multipoli tra 250 e 1500. La configurazione super-estesa può misurare multipoli fino a 3000 con un'antenna di 550 mm.
Il Wilkinson Microwave Anisotropy Probe (WMAP), conosciuto anche come sonda spaziale per l'anisotropia delle microonde (Microwave Anisotropy Probe (MAP) in inglese), ed Explorer 80, è un satellite che misura ciò che rimane delle radiazioni dovute al Big Bang, ovvero la radiazione cosmica di fondo. Diretto dal professore della Johns Hopkins University Charles L. Bennett, si tratta di un progetto che prevede la collaborazione tra il Goddard Space Flight Center della NASA e l'Università di Princeton. Il satellite WMAP è stato lanciato il 30 giugno 2001, alle ore 19:46 (GDT) dallo stato della Florida. Il WMAP è l'erede del satellite COBE, ed il secondo satellite di classe media (MIDEX), previsto dal programma Explorer. Tale satellite è stato così chiamato in onore di David Todd Wilkinson (1935-2002). Le rilevazioni del WMAP sono più precise di quelle dei suoi predecessori; secondo il modello Lambda-CDM, l'età dell'universo è stata calcolata in 13,73 ± 0,12 miliardi di anni, con una costante di Hubble di 70,1 ± 1,3 km·s−1·Mpc−1, una composizione del 4,6% di materia barionica ordinaria; 23 % di materia oscura di natura sconosciuta, la quale non assorbe o emette luce; 72% di energia oscura la quale accelera l'espansione; infine meno del 1% di neutrini. Tutti questi dati sono coerenti con l'ipotesi che l'universo abbia una geometria piatta, e anche con il rapporto tra densità d'energia e densità critica di Ω = 1,02 ± 0,02. Questi dati supportano il modello Lambda-CDM e gli scenari cosmologici dell'inflazione, dando anche prova della radiazione cosmica di fondo di neutrini. Ma questi dati contengono anche caratteristiche inspiegate: un'anomalia nella massima misura angolare del momento quadrupolico, ed una grande macchia fredda nella radiazione cosmica di fondo. Secondo la rivista scientifica Science, il WMAP è stato il Breakthrough of the Year for 2003 (scoperta dell'anno 2003). I risultati di questa missione sono stati al primo e al secondo posto della lista "Super Hot Papers in Science Since 2003". Alla fine del 2008 il satellite WMAP era ancora in funzione, mentre la sua dismissione è stata effettuata nell'ottobre 2010. Lo scopo primario del progetto WMAP è la misurazione delle differenze di temperatura nella radiazione cosmica di fondo. Le anisotropie della radiazione vengono quindi utilizzate per calcolare la geometria dell'universo, il suo contenuto e l'evoluzione, e per testare i modelli del Big Bang e dell'inflazione cosmologica. Per questo, il satellite sta creando una mappa completa della radiazione di fondo, con una risoluzione di 13 arcominuti tramite una osservazione multi frequenza. Tale mappatura, per assicurare un'accuratezza angolare superiore alla sua risoluzione, richiede il minor numero possibile di errori sistematici, pixel di rumore non correlati tra loro ed una calibrazione accurata. La mappa è formata da 3,145,728 pixel e usa lo schema HEALPix per trasformare in pixel la sfera. Il telescopio misura inoltre la polarizzazione E-mode della radiazione di fondo, e la polarizzazione in primo piano. La sua vita è di 27 mesi: 3 mesi per ricercare la posizione L2, ed i restanti 24 mesi di osservazione. La missione MAP venne proposta alla NASA nel 1995, selezionata per uno studio approfondito nel 1996 e approvata per lo sviluppo definitivo nel 1997. Il WMAP è stato preceduto da altri due satelliti per l'analisi della radiazione di fondo:
- la sonda sovietica RELIKT-1, la quale ha riportato i limiti superiori dell'analisi delle anisotropie della radiazione di fondo;
- la sonda statunitense COBE, la quale ha riportato fluttuazioni su larga scala della radiazione di fondo.
Vi sono stati anche altri tre esperimenti, basati però sull'utilizzo di palloni sonda, che hanno analizzato piccole porzioni di cielo ma in modo più dettagliato:
- il pallone BOOMERanG;
- il Telescopio CBI;
- il Very Small Array.
Il WMAP, rispetto al suo predecessore COBE, ha una sensibilità 45 volte superiore, ed una risoluzione angolare 33 volte più precisa. Gli specchi primari del WMAP sono una coppia di gregoriani, di dimensioni 1,4 metri e 1,6 metri, rivolti in direzioni opposte tra loro, i quali focalizzano il segnale ottico su specchi secondari grandi 0,9 m x 1,0 m. Questi specchi sono stati modellati per ottenere delle prestazioni ottimali: un guscio in fibra di carbonio protegge un nocciolo in Korex, ricoperto ulteriormente da uno strato sottile di alluminio e ossido di silicio. Gli specchi secondari riflettono il segnale verso sensori ondulati, posti sul piano focale tra i due specchi primari. I ricevitori sono costituiti da radiometri differenziali sensibili alla polarizzazione elettromagnetica. Il segnale viene amplificato quindi da un amplificatore a basso rumore di tipo HEMT. Sono presenti 20 alimentatori, 10 per ogni direzione, dai quali i radiometri raccolgono i segnali; la misura finale corrisponde alla differenza tra i segnali provenienti da direzioni opposte. La separazione azimuth direzionale è di 180 gradi; l'angolo totale è di 141 gradi. Per evitare di captare anche segnali di disturbo provenienti dalla Via Lattea, il WMAP lavora su 5 frequenze radio discrete, da 23 GHz a 94 GHz. La base del WMAP è costituita da un pannello solare di 5 metri di diametro, il quale tiene la sonda costantemente all'ombra durante il rilevamento della radiazione di fondo. Al di sopra del pannello si trova l'apparato di raffreddamento della sonda. Tra questo apparato di raffreddamento e gli specchi, è posizionato un guscio cilindrico per l'isolamento termico, della lunghezza di 33 cm. Il raffreddamento del WMAP è affidato a dei radiatori passivi, i quali raggiungono una temperatura di 90 K circa (-183,15 °C); questi radiatori sono connessi agli amplificatori a basso rumore. Il consumo totale del telescopio arriva a 419 W. La temperatura della sonda è controllata da una termoresistenza di platino. La calibrazione di WMAP viene effettuata eseguendo una misurazione di Giove rispetto al dipolo della radiazione cosmica di fondo. I dati del WMAP vengono trasmessi giornalmente tramite un trasponder in funzione alla frequenza di 2 GHz, il quale provvede a trasmettere il segnale ad uno dei telescopi della rete Deep Space Network, ad una velocità di trasferimento di 667 kbit/s. Il satellite è provvisto di 2 trasponder di cui uno, ridondante, è di riserva; questi sono attivi per un breve periodo giornaliero (circa 40 minuti al giorno), per evitare radiointerferenze. La posizione del telescopio è mantenuta stabile, lungo i tre assi spaziali, da uno speciale volano a reazione, da vari giroscopi, da due star tracker e da vari sensori che ne determinano la posizione rispetto al Sole. Il riposizionamento viene effettuato grazie ad 8 motori ad idrazina. Il WMAP, una volta completata la sua costruzione, è arrivato al John F. Kennedy Space Center il 20 aprile 2001, dopodiché, dopo un test durato 2 mesi, è stato spedito in orbita tramite un razzo Delta II 7425 il 30 giugno 2001. La sonda ha iniziato ad usare la propria scorta di energia interna da 5 minuti prima del lancio fino al completo dispiegamento del pannello solare. L'attivazione completa della sonda, e il suo monitoraggio, sono partiti al raggiungimento della temperatura di raffreddamento operativa. Dopodiché, la sonda ha effettuato 3 loop graduali tra la Terra e la Luna quindi, il 30 luglio, ha iniziato il viaggio verso il punto di Lagrange L2 Sole-Terra, raggiungendolo in data 1º ottobre 2001. In questo modo, il WMAP è diventato il primo satellite per la scansione della radiazione di fondo a trovarsi permanentemente in tale punto. Il posizionamento dell'orbita al punto di Lagrange 2 (1,5 milioni di km circa dalla Terra), minimizza le emissioni di interferenza proveniente dal Sole, dalla Terra e dalla Luna, permettendo anche una stabilità termica degli strumenti. Per poter analizzare il cielo senza puntare verso il Sole, il WMAP orbita nel punto L2 con un'orbita di Lissajous, con un angolo che varia dai 1,0 ai 10,0 gradi, ed un periodo di 6 mesi. Il telescopio ruota ogni 2 minuti e 9 secondi (0,464 giri/min), e procede alla velocità di 1 rivoluzione all'ora. Il WMAP compie un'intera analisi del cielo ogni 6 mesi, avendo completato la prima nell'aprile del 2002. Il WMAP raccoglie dati in cinque lunghezze d'onda differenti, permettendo così di eliminare varie radiazioni contaminanti la radiazione di fondo (provenienti dalla Via Lattea o da altre fonti extra galattiche). I meccanismi principali di emissione sono radiazioni sincrotroniche e Bremsstrahlung (quest'ultima detta anche free-free emission, radiazione di frenamento), le quali predominano alle frequenze più basse, mentre alle frequenze più alte la principale fonte di emissione sono le polveri interstellari. Le proprietà di spettro di queste emissioni danno un contributo diverso nelle cinque frequenze analizzate, permettendo così la loro identificazione e successiva eliminazione. Le contaminazioni di fondo vengono rimosse in vari modi.
- Si eliminano le contaminazioni ancora presenti nelle misurazioni del WMAP;
- per le componenti conosciute delle misurazioni del WMAP, se ne utilizzano i valori di spettro per identificarle;
- vengono fatti combaciare simultaneamente la posizione e l'elemento della contaminazione, utilizzando vari parametri addizionali.
Le emissioni inquinanti vengono inoltre rimosse prendendo in considerazione solo la porzione analizzata del cielo con la minore quantità di radiazioni inquinanti, mascherando le porzioni rimanenti.
Materia oscura
In cosmologia con materia oscura si definisce un'ipotetica componente di materia che, diversamente dalla materia conosciuta, non emetterebbe radiazione elettromagnetica e sarebbe attualmente rilevabile solo in modo indiretto attraverso i suoi effetti gravitazionali. L'ipotesi nasce per giustificare diverse osservazioni sperimentali in base alle quali, secondo le leggi della gravitazione, la materia oscura dovrebbe costituire quasi il 90% della massa presente nell'universo. Nonostante dettagliate mappe che coprono lo spettro delle emissioni elettromagnetiche nell'Universo vicino dalle onde radio ai raggi gamma, si è riusciti a individuare solo circa il 10% della massa che risulterebbe dagli effetti gravitazionali osservabili. L'astronomo dell'Università di Washington Bruce H. Margon ha dichiarato nel 2001 al New York Times:
«È una situazione alquanto imbarazzante dover ammettere che non riusciamo a trovare il 90% [della materia] dell'Universo.»
Le più recenti misure indicano che la materia oscura costituirebbe circa l'86% della massa dell'universo e circa il 27% della sua energia. Inizialmente veniva indicata come "massa mancante", termine che può essere fuorviante dal momento che ne apparirebbero osservabili gli effetti gravitazionali; però gli strumenti di analisi spettroscopica non rilevano la radiazione elettromagnetica di questa materia, dal che l'aggettivo "oscura" poiché a mancare sarebbe solo la sua "luce". Il concetto di materia oscura ha senso all'interno dell'attuale modello standard della cosmologia basato sul Big Bang per due ragioni fondamentali: non si potrebbe altrimenti spiegare la formazione di galassie e ammassi di galassie nel tempo calcolato dall'evento iniziale del Big Bang stesso. In secondo luogo, in uno scenario cosmologico come l'attuale, che prevede come unica forza cosmologica la gravità, non si spiegherebbe come le galassie si possano mantenere integre, dato che la materia visibile, composta da barioni, non è in grado di sviluppare una sufficiente attrazione gravitazionale. Invece, se il modello dovesse risultare errato, si potrebbe non avere necessità dell'ipotesi della materia oscura, giacché essa deriva solo dalla violazione di un modello matematico e non da alcuna dimostrazione sperimentale certa. Un'importante prova osservativa della necessità della materia oscura è fornita dalle curve di rotazione delle galassie a spirale. Queste galassie contengono una vasta popolazione di stelle poste su orbite quasi circolari attorno al centro galattico. Come accade per le orbite planetarie, in base alla seconda legge di Keplero le stelle con orbite galattiche più grandi dovrebbero avere velocità orbitali minori, ma tale legge è applicabile soltanto a stelle vicine alla periferia di una galassia a spirale poiché presuppone che la massa racchiusa dall'orbita sia costante. Tuttavia gli astronomi hanno condotto osservazioni delle velocità orbitali delle stelle nelle regioni periferiche di un gran numero di galassie spirali e in nessun caso esse seguono la seconda legge di Keplero: invece di diminuire a grandi raggi, le velocità orbitali rimangono con ottima approssimazione costanti. L'implicazione è che la massa racchiusa da orbite di raggio via via maggiore aumenti anche per stelle che sono apparentemente vicine al limite della galassia. Sebbene si trovino presso i confini della parte luminosa della galassia, questa ha un profilo di massa che apparentemente continua ben al di là delle regioni occupate dalle stelle. Considerando le stelle presso la periferia di una galassia spirale, con velocità orbitali osservate normalmente di 200 chilometri al secondo, se la galassia fosse composta solo dalla materia visibile queste stelle l'abbandonerebbero in breve tempo, dato che le loro velocità orbitali sono quattro volte più grandi della velocità di fuga dalla galassia. Dato che non si osservano galassie che si stiano disperdendo in questo modo, al loro interno deve trovarsi massa di cui non si tiene conto quando si calcola tutta quella visibile. Un'altra possibile prova dell'esistenza della materia oscura è data dalle lenti gravitazionali. La massa visibile risulta insufficiente per creare una lente gravitazionale, per cui si prefigura la presenza di massicce quantità di materia oscura, ottenendo una massa totale in grado di deviare il percorso della luce. Nel 2008, grazie allo studio di diversi ricercatori tra cui francesi e canadesi coordinati dall'Istituto di Astrofisica di Parigi, si ebbe un ulteriore importante indizio della presenza di materia oscura. Utilizzando il telescopio Canada-France-Hawaii Telescope (Cfht), posto sul monte Mauna Kea nelle Hawaii, gli studiosi osservarono migliaia di immagini per verificare la deviazione che la luce subiva nel suo viaggio cosmico e constatarono che essa veniva deviata anche in punti dove non erano visibili masse. Le osservazioni di questi effetti gravitazionali costituiscono uno dei maggiori indizi dell'esistenza di materia oscura. Il 21 agosto 2006 la NASA ha rilasciato un comunicato stampa secondo cui il telescopio spaziale Chandra avrebbe trovato prove dirette dell'esistenza della materia oscura nello scontro tra due ammassi di galassie.[4] All'inizio del 2007 gli astronomi del Cosmic Evolution Survey e Hubble Space Telescope, utilizzando le informazioni ottenute dal telescopio Hubble e da strumenti a terra, hanno tracciato una mappa della materia oscura rilevando che questa permea l'universo; ove si trova materia visibile deve essere presente anche grande quantità di materia oscura, ma questa è presente anche in zone dove non si trova materia visibile. Il 3 aprile 2013 gli scienziati della NASA hanno riferito che i primi risultati dell'esperimento Alpha Magnetic Spectrometer sulla Stazione Spaziale Internazionale evidenziano un eccesso di positroni ad alta energia nei raggi cosmici, di cui una delle cause potrebbe essere la presenza di materia oscura. In letteratura sono comparse numerose teorie per spiegare la natura della cosiddetta "massa mancante", legate a diversi fenomeni. La materia oscura sarebbe localizzata nel "nero" che circonda le stelle e viene distinta fondamentalmente in barionica e non barionica:
- La materia oscura barionica è quella composta da materia del tutto simile a quella che costituisce le stelle, i pianeti, la polvere interstellare, ecc., che però non emette radiazioni. Altri possibili costituenti della materia oscura barionica sono stati indicati nei MACHO (Massive Compact Halo Objects), oggetti compatti di grande massa dell'alone galattico.
- La materia oscura non barionica è rappresentata principalmente dalle ipotetiche particelle WIMP (Weakly Interacting Massive Particles), dotate di grande massa unitaria, composte da materia intrinsecamente diversa dalla abituale barionica e debolmente interagente con essa, e quindi difficilmente rilevabili. Si ipotizza possa trattarsi di particelle supersimmetriche quali neutralini, o neutrini massicci, o assioni o altre particelle mai osservate e soggette solo alla forza gravitazionale e all'interazione nucleare debole. Tre tipi di esperimenti cercano di rivelare queste particelle: I) la loro produzione in acceleratori di particelle, II) l'osservazione dell'energia che dovrebbero rilasciare quando urtano con la materia ordinaria, III) le annichilazioni fra particelle di materia oscura presenti attorno al centro della galassia o del sole potrebbero dare particelle normali, quali neutrini, positroni, anti-protoni. Inoltre la scoperta che il neutrino ha massa, seppur estremamente bassa, lo rende candidato a rappresentare almeno una quota della materia oscura e potrebbe in parte spiegare l'eccesso di massa degli ammassi e superammassi di galassie, ma non quello delle singole galassie, poiché esso si muove a velocità prossima a quella della luce, sfuggendo prima o poi all'attrazione gravitazionale ed uscendo da esse.
Ulteriori ipotesi riguardano i buchi neri primordiali, le stelle brune, le stelle solitoniche, le stelle di bosoni, le pepite di quark. Si pensa che almeno il 90% della materia oscura sia non barionica. Infatti, essendo l'abbondanza cosmica del deuterio (un atomo di deuterio per ogni 100 000 di idrogeno) estremamente sensibile alla densità della materia sotto forma di barioni, una densità barionica maggiore avrebbe per conseguenza una presenza di deuterio molto più bassa. Al contrario, l'abbondanza di deuterio osservata è compatibile con la densità della materia rilevabile. Viene fatta una distinzione anche in Materia oscura fredda, rappresentata essenzialmente dalle ipotetiche particelle "lente" WIMP, e Materia oscura calda, rappresentata dai neutrini che sono particelle superveloci. Nella teoria delle stringhe, in particolare nelle varianti del mondo-brana e dell'universo ecpirotico, la materia oscura non è altro che la forza di gravità della materia ordinaria di un'altra brana, vicina ma invisibile, costituita da stringhe.
Energia oscura
L'energia oscura è una ipotetica forma di energia non direttamente rilevabile diffusa omogeneamente nello spazio, che potrebbe giustificare, tramite una grande pressione negativa, l'espansione accelerata dell'universo e altre evidenze sperimentali. Si stima che debba rappresentare una gran parte, circa il 68%, della massa energia dell'universo, la cui quota che sfuggirebbe agli attuali metodi di rilevazione salirebbe a circa il 95% comprendendo anche la materia oscura. Le due principali forme ipotizzate di energia oscura sono la costante cosmologica e la quintessenza. La costante cosmologica sarebbe una densità d'energia costante che riempie omogeneamente lo spazio e fisicamente equivalente all'energia del vuoto. La sua aggiunta alla teoria di base della cosmologiaha portato all'adozione del Modello Lambda-CDM, in accordo con le osservazioni e considerato l'attuale modello standard della cosmologia. La quintessenza sarebbe un campo dinamico la cui densità d'energia varia nello spazio e nel tempo. La prevalenza fra le due possibilità richiede misure accurate dell'espansione dell'universo per comprendere come la velocità d'espansione cambi nel tempo. Il coefficiente d'espansione è parametrizzato dall'equazione di stato, il cui calcolo è uno degli sforzi più grandi della cosmologia d'osservazione. Pur essendo l'energia oscura la spiegazione più diffusa fra i cosmologi per spiegare l'espansione accelerata dell'universo, alcuni modelli di gravità quantistica, tra cui la gravitazione quantistica a loop, possono spiegare le proprietà cosmologiche senza avvalersi di tale ipotesi. Il termine "energia oscura" fu coniato dal cosmologo Michael Turner. Albert Einstein, vissuto in un'epoca dominata dall'idea di un universo stazionario, per contrastare gli effetti della "nuova" gravità da lui stesso delineata, che portava a un universo dinamico (o in contrazione o in espansione), soprattutto per evitare l'idea di un collasso gravitazionale inserì nelle equazioni di campo della relatività generale la famosa costante cosmologica, simile qualitativamente a una forza antigravitazionale su larga scala. Quando nel 1929 Edwin Hubble scoprì che l'universo era in espansione Einstein ritrattò la sua idea, definendola "il mio più grande errore". Con lo sviluppo della teoria quantistica della materia tra gli anni venti e trenta del Novecento, si evidenziò che anche il vuoto possiede una sua ben definita energia, determinata dalle coppie di particelle e antiparticelle che si formano e si annichilano continuamente. Nel 1967 fu rilevato l'effetto Sachs-Wolfe, consistente in uno spostamento verso il blu della radiazione cosmica di fondo quando attraversa i forti campi gravitazionali generati da grandi ammassi di materia; tale guadagno di energia sarebbe un segno diretto dell'esistenza di un'energia oscura. Quando negli anni novanta fu accertata l'accelerazione dell'espansione dell'universo (l'annuncio che i dati confermavano un universo in accelerazione fu dato da Saul Perlmutter del Berkeley Lab l'8 gennaio 1998; il lavoro ottenne il Premio Nobel per la fisica nel 2011), l'ipotesi dell'energia oscura si rafforzò per giustificare l'esistenza di una forza antigravitazionale presente in tutto l'universo, che spiegherebbe l'espansione accelerata e che potrebbe essere rappresentata dall'energia del vuoto prevista dalla meccanica quantistica. L'errore di Einstein veniva così in qualche modo ridimensionato: una forma di energia non rilevabile permeerebbe effettivamente lo spazio, ma il suo ipotetico effetto antigravitazionale, anziché rendere l'universo stazionario, ne accelererebbe l'espansione. Come risultato collaterale dell'espansione accelerata l'età dell'universo risulta superiore a quanto stimato in precedenza sulla base di una velocità di espansione costante. Nel 2004 Christian Beck della Queen Mary University di Londra e Michael Mackey della McGill University di Montreal svilupparono una teoria che legava le fluttuazioni del vuoto all'energia oscura e ipotizzarono la misurazione sperimentale dell'energia oscura tramite la giunzione Josephson. La teoria della nucleosintesi primordiale tenta di spiegare la formazione degli elementi leggeri nell'universo primordiale, come l'elio, il deuterio e il litio, mentre la teoria della struttura a grande scala dell'Universo studia la formazione di stelle, quasar, galassie e gruppi e ammassi di galassie. Entrambe le teorie suggeriscono che la densità d'energia di tutta la materia ipotizzabile nell'universo, costituita dall'insieme dei barioni e della materia oscura fredda, sia circa il 30% di quella necessaria per rendere nulla la curvatura spaziale. Poiché misurazioni della radiazione cosmica di fondo effettuate dal satellite WMAP, lanciato nel 2001, indicano che l'universo è molto vicino a una curvatura nulla, è possibile concludere che una quota di energia non visibile, "oscura" appunto, costituisca il restante 70% circa. Un lavoro pubblicato nel 2012 dall'università di Portsmouth e dalla LMU di Monaco, basato sulla sovrapposizione di mappe di regioni dell'universo con quelle della radiazione di fondo, ha migliorato la veridicità rispetto a precedenti analoghi studi di conferma dell'effetto Sachs-Wolfe, sostenendo una probabilità dell'esistenza di un'energia oscura del 99,9996% (lo stesso valore di 5 sigma raggiunto dalla scoperta del bosone di Higgs). La spiegazione dell'energia oscura più semplice e più condivisa fra i fisici e i cosmologi è che essa sia "il prezzo di avere spazio": ovvero un volume di spazio possiede un'energia intrinseca e fondamentale, chiamata energia del vuoto, che rappresenta la densità di energia del vuoto fisico.
Destino ultimo dell'Universo
Il destino ultimo dell'universo, ovvero la questione se l'universo sia destinato a finire, e in caso affermativo come e quando si concluderà la sua evoluzione, è un tema fortemente dibattuto nella storia dell'umanità a livello mitologico, religioso e filosofico (vedi escatologia). Nel contesto della scienza moderna, esistono diverse teorie in merito. Fino a poco tempo fa, anche la visione scientifica dell'Universo era quella di un'esistenza eterna e senza cambiamenti. Dopo la scoperta di un universo in espansione (legge di Hubble) ad opera di Edwin Hubble all'inizio del XX secolo, la nozione di un inizio e, di conseguenza, di una fine fu all'improvviso soggetta all'investigazione scientifica.
Le teorie sull'universo possono essere divise in quattro categorie maggioritarie:
- teorie dell'universo eterno: quelle per cui, nonostante le osservazioni, l'universo è eterno come prima si pensava con la teoria dello stato stazionario, la teoria della luce stanca, la cosmologia del plasma e l'universo statico; l'espansione e la gravità rimangono in equilibrio
- teorie dell'universo con esistenza apparentemente finita: in cui l'universo ha un inizio e una "fine"
- teorie del multiverso: in cui l'universo è parte di uno spazio più grande composto da tanti universi
- teorie dell'universo ciclico: in cui l'universo nasce e finisce per poi rinascere all'infinito
Il primo gruppo non è discusso in questo articolo, perché nega l'idea stessa di una fine dell'Universo e spesso anche l'idea di un Big Bang come previsto dal modello standard della cosmologia. In queste teorie, qualche tipo di attività significativa può durare per sempre. Tutte le teorie standard devono conciliarsi inoltre con la relatività generale, che fornisce uno sfondo teorico comune per le speculazioni cosmologiche. La maggior parte di queste teorie sono soluzioni delle equazioni della relatività generale, cambiando parametri come la densità media, la costante cosmologica, e così via. Le teorie scientifiche che non si riconoscono nella relatività e nella meccanica quantistica, oppure che negano il Big Bang e il modello standard della cosmologia (come la teoria dello stato stazionario o la cosmologia newtoniana) sono costituenti la cosiddetta cosmologia non standard, trattata nell'apposita voce.
Le teorie su nascita, sviluppo e destino dell'universo che accettano il modello standard si possono dividere anche in due gruppi maggioritari a seconda della tipologia di evoluzione prevista per il nostro universo in accordo con la relatività:
- teorie inflazionarie (inflazione semplice, inflazione eterna, teoria delle bolle)
- teorie dell'universo ciclico (universo oscillante, Big Bounce, cosmologia ciclica conforme, universo ecpirotico)
Nel modello del Big Bang, il destino ultimo dell'universo dipende dalla sua forma, e dall'ammontare dell'energia oscura in esso presente. Dato il parametro di densità Omega (Ω), se Ω>1, la geometria dello spazio è chiusa come la superficie di una sfera. La somma degli angoli di un triangolo è maggiore di 180 gradi e non esistono rette parallele; tutte le rette si incontrano ad un certo punto. La geometria di questo universo è, su larga scala, ellittica. In un universo chiuso, quando manca l'effetto repulsivo dell'energia oscura, la gravità fermerebbe l'espansione dell'universo, che inizierebbe quindi a collassare in un'unica singolarità (Big Crunch) analoga al Big Bang. Ad ogni modo, se l'universo contiene una grande quantità di energia oscura (come suggerito da recenti scoperte), l'espansione può continuare indefinitamente anche se Ω>1. Se Ω<1, la geometria dello spazio è aperta, curva negativamente come la superficie di una sella. Gli angoli di un triangolo sommati danno un valore minore di 180 gradi, e le rette che non si incontrano non sono mai equidistanti; hanno un punto di distanza minima e continuano a separarsi. La geometria dell'universo è iperbolica. Anche senza energia oscura, un universo curvo negativamente si espande indefinitamente, rallentando di poco il suo moto a causa della forza di gravità. Con l'energia oscura l'espansione non solo è continua, ma è pure in accelerazione. Le possibilità circa il destino ultimo di un universo aperto sono o il Big Freeze (e quindi una morte termica), o il Big Rip, in cui l'accelerazione provocata dall'energia oscura diventa così forte che supera gli effetti delle forze gravitazionale, elettromagnetica e nucleare debole. Se la densità media dell'universo è esattamente uguale alla densità critica, ovvero Ω=1, allora la geometria dell'universo è piatta: come nella geometria euclidea la somma degli angoli di un triangolo è di 180 gradi, e le parallele sono sempre equidistanti e non si incontrano mai. Senza energia oscura, un universo piatto si espande per sempre a un ritmo decrescente, raggiungendo asintoticamente lo zero. In presenza di energia oscura invece, l'espansione rallenta inizialmente, ma aumenta in seguito. Il destino ultimo di un universo piatto è simile a quello di un universo aperto: la morte termica, cioè un "Big Freeze", o il Big Rip. La maggior parte dei dati astrofisici sono interpretati come parte di un universo piatto. Però, secondo la teoria dell'inflazione eterna, sostenuta da dati osservativi, l'espansione continua comunque in maniera caotica (inflazione caotica) e in ogni direzione ma a densità diversa, fino a formare bolle di infiniti universi: alcuni sono destinati a finire in un Big Rip, altri no, e l'intero universo sarebbe eternamente esistente. Il destino dell'universo è determinato dalla densità dell'universo, come visto sopra. La maggior parte delle prove raccolte finora, basate su misurazioni della velocità d'espansione e della densità di massa, sostengono che l'universo non collasserà, poiché spinto dall'energia oscura, una forza disgregante che per ora è più potente della materia oscura e della gravità, che sono invece forze attrattive. I principali modelli evolutivi dell'universo più diffusi tra i cosmologi sono l'inflazione (specialmente la variante dell'inflazione eterna) e l'universo oscillante o modello ciclico. Il Big Freeze (o Big Chill) è uno scenario in cui la continua espansione provocherebbe un universo troppo freddo per sostenere la vita. Potrebbe avvenire nel caso di una geometria piatta o iperbolica, poiché tali sistemi sono condizione necessaria per la continua espansione dell'universo. La teoria è sostenuta, almeno per quanto riguarda l'universo osservabile, dalla maggioranza dei fisici e dei cosmologi.
L'universo raggiungerebbe uno stato di massima entropia in cui tutto risulterebbe essere omogeneo e non vi sarebbero gradienti. L'espansione accelerata a causa dell'energia oscura supera la gravità della materia oscura e della materia normale. Per esempio, questa è una possibile cronologia, basata sulle teorie fisiche contemporanee, di un universo aperto che va incontro ad una morte termica:
- 10^14 anni: tutte le stelle si sono raffreddate
- 10^15 anni: tutti i pianeti si sono separati dalle stelle
- 10^19 anni: la maggior parte delle stelle si è separata dalle galassie
- 10^20 anni: le orbite di ogni tipo sono decadute a causa delle onde gravitazionali
- 10^31 anni: decadimento del protone, se le teorie di grande unificazione sono giuste
- 10^64 anni: i buchi neri stellari evaporano in base al processo di Hawking
- 10^65 anni: tutta la materia è diventata un liquido allo zero assoluto
- 10^100 anni: i buchi neri supermassicci evaporano in base al processo di Hawking (che però ha affermato che non tutte le informazioni scompaiano, per non violare le leggi della termodinamica)
- 10^1500 anni: tutta la materia decade in ferro (se il protone non è decaduto prima)
- 10^100 000 000 000 000 000 000 000 000 anni: limite inferiore affinché tutta la materia venga inglobata in buchi neri
- 10^10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 anni: limite superiore affinché tutta la materia venga inglobata in buchi neri.
Alla fine la materia e l'energia si dissolveranno anch'esse, i buchi neri assorbiranno il restante, evaporando poi tramite la radiazione di Hawking; solo i fotoni continueranno ad esistere, senza gravità. Alcuni scienziati, che accettano il modello, sostengono che il tempo si fermerà e si annulleranno le dimensioni e le distanze. Questa teoria è basata sulla costante di Hubble, ed è sostenuta da molti fisici, tra cui Alexei Filippenko (uno degli scopritori dell'energia oscura); era considerata verosimile anche da Margherita Hack. Con il multiverso è la teoria oggi più diffusa fra i fisici teorici. Stephen Hawking ha sostenuto che non si può affermare che l'universo ha avuto un vero inizio o che avrà una vera fine. Quello che succede oltre 102500 anni è speculativo. Se lo stato di vuoto corrente è un falso vuoto, il vuoto può decadere in uno stato di energia più bassa (disastro della metastabilità del vuoto). Presumibilmente, gli stati estremi di bassa energia implicano che gli eventi quantici localizzati diventino fenomeni macroscopici maggiori piuttosto che trascurabili eventi microscopici, perché le perturbazioni più piccole fanno la differenza più grande in questa era (come accade negli stati anomali della materia, ad esempio il condensato di Bose-Einstein), quindi non si può dire cosa può accadere nello spazio o nel tempo. Si percepisce che le leggi della "macro-fisica" verranno meno e prevarranno le leggi della "fisica quantistica". L'universo potrebbe evitare la morte termica attraverso il tunneling quantistico casuale, le transizioni quantistiche e le fluttuazioni quantistiche, data la probabilità non nulla di produrre un nuovo Big Bang in circa 10^101056 anni, ossia ben prima dell'assorbimento di tutta la materia nei buchi neri dopo 10^10^76, e la loro evaporazione. In un tempo infinito potrebbe esserci una diminuzione spontanea dell'entropia, come predicibile dal teorema di ricorrenza di Poincaré, che predica come in certi momenti possa essere contraddetto il secondo principio della termodinamica. Le possibilità di cui sopra sono basate su un semplice tipo di energia oscura simile ad una costante cosmologica o una forma di energia del vuoto, ma la fisica dell'energia oscura è ancora un'area di ricerca molto attiva e la forma attuale potrebbe essere molto più complessa, come nella cosiddetta teoria della quintessenza. Ad esempio, durante l'inflazione, l'energia oscura ha agito sull'universo in modo molto diverso rispetto a oggi, quindi è possibile che possa innescare un altro periodo inflazionistico in futuro. Fino a quando l'energia oscura non sarà meglio compresa, i suoi possibili effetti sono difficilissimi da prevedere o parametrizzare. Ci sono quattro principali scenari del nostro universo dopo una morte termica:
- Un universo vuoto, immobile e freddo per sempre
- Il falso vuoto
- Il modello di Baum-Frampton
- L'universo ciclico
Nel 2003, la rivista inglese New Scientist pubblicò un articolo di Robert R. Caldwell, Marc Kamionkowski e Nevin N. Weinberg in cui essi, in base ad alcune osservazioni, facevano l'ipotesi che la fine dell'universo possa avvenire come un "Big Rip" (Grande Strappo), che distruggerebbe la struttura fisica dell'universo. In un universo aperto, la relatività generale prevede che questo avrà un'esistenza futura indefinita, ma che raggiungerà una condizione in cui la vita, come la intendiamo noi, non potrà esistere. In questo modello la costante cosmologica causa un'accelerazione del ritmo di espansione dell'universo. Portata all'estremo, un'espansione costantemente accelerata significa che ogni oggetto fisico dell'Universo sarà alla fine fatto a pezzi e quindi ridotto a particelle elementari non legate tra loro. Lo stato finale sarà un gas di fotoni, leptoni e protoni (o solo i primi due se il protone decade) che diventerà sempre meno denso. Le implicazioni finali possono essere le stesse del Big Freeze: un universo freddo e inerte per sempre o qualcosa di nuovo. Pur essendo una versione accelerata dal Big Freeze, anche lo spazio vuoto qui verrà distrutto e lo spaziotempo svanirà; allo stato attuale molti fisici però credono che non si verificherà, poiché l'energia oscura non supera di così tanto la gravità da causare un Big Rip, ma il rapporto è inferiore, quindi al massimo potrebbe causare il Big Freeze. Lauris Baum e Paul H. Frampton hanno proposto un ulteriore modello di universo ciclico, strettamente collegato al Big Rip; il modello di Baum-Frampton implica che un piccolissimo istante prima del Big Rip implicante la completa distruzione del tessuto cosmico dello spaziotempo, dell'ordine di 10^(-27) secondi, lo spazio si dividerebbe in un gran numero di volumi indipendenti. Questi volumi di spazio sono correlati a "universi osservabili", che vengono contratti ad una dimensione estremamente piccola, dell'ordine della lunghezza di Planck. Ognuno di tali volumi di spazio non conterrebbe materia o energia per la presenza del Big Rip, quindi - come nel modello di Penrose - l'entropia in ogni singolo volume si ridurrebbe praticamente a zero, rimanendo sostanzialmente inalterata durante questa contrazione. Successivamente il modello seguirebbe lo scenario del "Big Bang", con entropia nuovamente crescente a causa dell'inflazione cosmica nella creazione dell'universo. Questo accadrebbe in ogni "volume" di spazio derivato dall'universo originale, traducendosi in un numero straordinariamente grande, ma finito, di nuovi universi. La teoria del Big Crunch è una visione simmetrica della vita dell'Universo. Così come il Big Bang ha iniziato un'espansione cosmologica, questa teoria suppone che la densità media dell'Universo sia sufficiente a fermare l'espansione e ad iniziare una contrazione cosmica. Il fisico Andrej Linde è possibilista su questa teoria. Non si sa bene quale sarebbe il risultato: una semplice estrapolazione vedrebbe tutta la materia e lo spazio-tempo dell'Universo collassare in un punto matematico, una singolarità gravitazionale adimensionale, ma a queste scale occorrerebbe considerare gli effetti della meccanica quantistica, ignorati dalla relatività generale. Alcuni usano quest'opportunità per postulare un universo oscillante, che inizia di nuovo ad espandersi (vedi anche: Gravità quantistica). Questo scenario non elimina la teoria che il Big Bang fosse preceduto da un Big Crunch di un universo precedente. Se ciò avviene ripetutamente si ha un universo oscillante. L'universo potrebbe quindi consistere di un'infinita sequenza di universi finiti, ognuno dei quali finito con un Big Crunch coincidente con il Big Bang del successivo. Sarebbe a questo punto inutile distinguere un Big Bang da un Big Crunch, e si parlerebbe di singolarità ricorrenti.