I grandi misteri dei buchi neri
Nuovi studi sui buchi neri hanno svelato grandi segreti, che hanno portato alla nascita di nuovi misteri. I buchi neri sono ancora punti interrogativi, luoghi ove la nostra scienza e la nostra matematica non sono più in grado di descrivere i fenomeni del cosmo. Cosa sappiamo dei buchi neri? Come nascono questi mostri insaziabili? Quanto sono estremi? Cosa c'è al loro centro? Cosa ti accade se ci centri? In questo articolo, sveleremo le risposte a questi e ad altri quesiti: iniziamo a viaggiare verso gli oggetti più estremi del cosmo...
Einstein, relatività generale e spazio-tempo
I fenomeni più estremi del cosmo, i buchi neri, sono una conseguenza della teoria più rivoluzionaria della storia dell'umanità: la relatività generale del fisico tedesco Albert Einstein.
La relatività generale, elaborata da Albert Einstein e pubblicata nel 1916, è l'attuale teoria fisica della gravitazione. Essa descrive l'interazione gravitazionale non più come azione a distanza fra corpi massivi, come nella teoria newtoniana, ma come effetto di una legge fisica che lega la geometria (più specificamente la curvatura) dello spazio-tempo con la distribuzione e il flusso in esso di massa, energia e impulso. In particolare la geometria dello spazio-tempo identifica i sistemi di riferimento inerziali con le coordinate relative agli osservatori in caduta libera, che si muovono lungo traiettorie geodetiche. La forza peso risulta in questo modo una forza apparente osservata nei riferimenti non inerziali. La relatività generale è alla base dei moderni modelli cosmologici della struttura a grande scala dell'universo e della sua evoluzione. Come disse lo stesso Einstein, fu il lavoro più difficile della sua carriera a causa delle difficoltà matematiche, poiché si trattava di far convergere concetti di geometria euclidea in uno spaziotempo curvo, che, in accordo con la relatività ristretta, doveva essere dotato di una struttura metrica di tipo lorentziano anziché euclideo. Egli trovò il linguaggio e gli strumenti matematici necessari nei lavori di geometria differenziale di Luigi Bianchi, Gregorio Ricci-Curbastro e Tullio Levi-Civita, che avevano approfondito nei decenni precedenti i concetti di curvatura introdotti da Carl Friedrich Gauss e Bernhard Riemann. Nel 1905 Einstein risolve le contraddizioni presenti tra le equazioni di Maxwell dell'elettromagnetismo e la relatività galileiana pubblicando in un articolo la relatività ristretta. Questa nuova teoria è però a sua volta in contraddizione con la teoria della gravitazione universale di Newton e negli anni successivi Einstein cerca di modificare la teoria della gravitazione in modo da risolvere tale incompatibilità. Dopo dieci anni di studi, nel 1915 egli propone un'equazione, oggi nota come equazione di campo di Einstein, che descrive la gravità come curvatura dello spaziotempo ed è il cuore di una teoria del tutto nuova: la relatività generale. Oltre a risolvere il conflitto con la relatività ristretta, la nuova teoria gravitazionale risulta anche più precisa di quella newtoniana nel prevedere la precessione del perielio di Mercurio. L'equazione di campo di Einstein è una equazione differenziale alle derivate parziali non lineare, per la quale non esiste una formula risolutiva generale. Solo un anno dopo, nel 1916, l'astrofisico Karl Schwarzschild trova una particolare soluzione all'equazione, oggi nota come spaziotempo di Schwarzschild; questa soluzione è utilizzata nei decenni successivi come modello per descrivere i buchi neri. Nel 1919 Arthur Eddington organizza una spedizione in occasione di un'eclissi di Sole all'isola di Príncipe che verifica una delle conseguenze della teoria, la flessione dei raggi luminosi di una stella in presenza del forte campo gravitazionale del sole. Negli anni successivi Einstein si interessa alle implicazioni cosmologiche della relatività generale; per evitare l'universo dinamico (o in contrazione o in espansione) previsto della sua teoria e ottenere un universo statico introduce nell'equazione una nuova costante, detta costante cosmologica. Nel 1929 gli studi di Edwin Hubble mostrano però che l'universo è in espansione e il modello statico di Einstein viene abbandonato. Le implicazioni della teoria vengono quindi studiate intensamente a partire dagli anni sessanta. Nel 1967 John Wheeler conia il termine buco nero. Una parte rilevante degli studi di fisica teorica degli ultimi decenni è dedicata a conciliare la relatività generale con la meccanica quantistica. Nel 2016 sono osservate per la prima volta le onde gravitazionali, una delle previsioni più significative della teoria. Con l'introduzione della relatività ristretta nel 1905 Einstein rende compatibili l'elettromagnetismo e la meccanica classica. Più precisamente, la teoria riesce nel difficile intento di conciliare i principi fisici seguenti:
- il principio di relatività galileiana, che asserisce che le leggi fisiche sono le stesse per tutti i sistemi inerziali. Matematicamente, ciò equivale a chiedere che tutte le leggi della fisica siano simmetriche (cioè invarianti) rispetto alle cosiddette trasformazioni galileiane;
- le equazioni di Maxwell governanti l'elettromagnetismo, e in particolare il fatto (conseguenza di queste equazioni) che le onde elettromagnetiche viaggiano sempre alla stessa velocità {\displaystyle c}, indipendentemente dal sistema di riferimento scelto.
I due principi sono incompatibili. Per risolvere questa contraddizione, Einstein mantiene il principio di relatività, accetta come universale la costanza della velocità della luce introdotta dall'elettromagnetismo e sostituisce le trasformazioni galileiane con nuove trasformazioni, introdotte poco prima da Hendrik Lorentz e perciò dette trasformazioni di Lorentz. Questa modifica concettuale produce effetti concreti soltanto per corpi che viaggiano a velocità vicine a c, ma cambia radicalmente le nozioni di spazio e di tempo, che, mentre nella meccanica galileiana sono distinte, nella teoria di Einstein divengono un tutt'uno nello spaziotempo (in seguito spaziotempo di Minkowski). L'incongruenza fra le due teorie è felicemente risolta, ma la soluzione proposta crea una nuova contraddizione, questa volta con una teoria fisica vecchia di due secoli: la teoria della gravitazione universale. La teoria di Isaac Newton, infatti, è compatibile con il principio di relatività galileiana, ma non con il nuovo principio di relatività di Einstein. Le incongruenze principali sono le seguenti:
- secondo la relatività ristretta, nessuna informazione può viaggiare più veloce della luce. D'altro canto, secondo la teoria di Newton la forza di gravità ha effetto istantaneo: se il Sole si dovesse spostare in una direzione, la forza che esercita sulla Terra cambierebbe immediatamente, senza ritardo. L'informazione "il Sole si sposta" è quindi trasmessa istantaneamente, e quindi a velocità maggiori di c.
- la legge di gravitazione universale non è invariante rispetto alle trasformazioni di Lorentz: la forza di gravità non rispetta quindi il (nuovo) principio di relatività.
Nel 1908 Einstein enuncia un principio di equivalenza che darà successivamente un forte impulso allo sviluppo della teoria. Come confermato dall' Esperienza di Eötvös e dagli esperimenti successivi, la massa inerziale mi e la massa gravitazionale mg di un corpo risultano avere lo stesso valore, cioè mi = mg. Questa uguaglianza è un fatto sperimentale che non discende da alcun principio della fisica classica; i ruoli di queste due quantità sono infatti ben diversi: la massa inerziale misura quanto il corpo si opponga all'applicazione di una forza, come enunciato dal secondo principio della dinamica e cioè dalla formula
Barra delle equazioni per i lettori più curiosi
La massa gravitazionale misura invece la capacità di un corpo di attrarne un altro, di massa M, secondo la legge di gravitazione universale:
La massa gravitazionale ha nella legge di gravitazione universale lo stesso ruolo della carica elettrica nella legge di Coulomb.
Il fatto che queste due quantità (massa inerziale e massa gravitazionale) risultino sperimentalmente coincidere implica il fatto, osservato già da Galileo intorno al 1590, che la traiettoria di un corpo in caduta libera non dipenda dalle proprietà del corpo. Uguagliando le due formule, si ottiene infatti in particolare che la sua accelerazione è data da
I valori G, M, r^2 non dipendono infatti dalle proprietà del corpo in caduta.
Einstein studia le conseguenze della relazione mi=mg formulando il seguente esperimento mentale. Si consideri un osservatore situato all'interno di una stanza chiusa. Se la stanza è poggiata sulla superficie terrestre, l'osservatore percepisce una forza verso il basso dovuta alla gravità: come mostrato in figura, lasciando cadere una palla potrà misurarne l'entità. Se la stanza è invece nello spazio, lontana da campi gravitazionali, contenuta in un razzo che sta accelerando verso l'alto, l'osservatore percepisce anche in questo caso una forza verso il basso: questa forza, dovuta all'inerzia del suo corpo, è la stessa forza che percepiamo normalmente alla partenza e all'arrivo in un ascensore. L'uguaglianza mi=mg ha come conseguenza il fatto seguente: l'osservatore non può in alcun modo capire se l'accelerazione che sente sia dovuta a un campo gravitazionale o a un'accelerazione. Analogamente, se la stanza è in caduta libera verso (ad esempio) la Terra, l'osservatore al suo interno non percepisce alcuna forza di gravità: se lascia cadere una moneta, osserva che questa non cade al suolo ma resta sospesa a mezz'aria. L'osservatore non ha nessuno strumento per capire se è in una zona dell'universo senza campi gravitazionali, o se invece sta cadendo verso un pianeta.
Con la relatività ristretta, Einstein sostituisce lo spazio e il tempo newtoniano con lo spazio-tempo di Minkowski. Le dimensioni sono sempre quattro, ma la novità sta nel "mescolamento" fra le tre dimensioni spaziali e quella temporale, la cui "separazione" varia a seconda del sistema in cui sta l'osservatore. Da un punto di vista matematico, lo spazio-tempo di Minkowski è R^4 dotato di un prodotto scalare lorentziano, cioè con segnatura (3,1). Non avendo lo spazio-tempo un'origine preferita, si parla più precisamente di spazio affine. Nella relatività generale, lo spazio-tempo di Minkowski è solo un modello che approssima localmente lo spazio-tempo, che è in realtà "distorto" dalla massa. Tutte queste nozioni utilizzano concetti matematici rigorosi e non banali, sviluppati all'inizio del Novecento. La nozione matematica che descrive uno spazio-tempo quadridimensionale localmente modellato su R^4 è quella di varietà. Le varietà sono oggetti di dimensione arbitraria abitualmente studiati in topologia. Secondo la relatività generale, lo spazio-tempo è una varietà lorentziana di dimensione 4. Il termine "lorentziano" indica che lo spazio tangente in ogni punto è dotato di un prodotto scalare di segnatura (3,1). Informalmente, questo sta a indicare che lo spazio-tempo è localmente modellato sullo spazio-tempo di Minkowski. Questo prodotto scalare di segnatura (3,1) è più precisamente un tensore, detto tensore metrico. Come nelle varietà riemanniane, il tensore metrico governa tutta la geometria dello spazio: definisce una "distanza" fra punti e quindi una nozione di geodetica, intesa come "cammino più breve" fra due punti (queste nozioni sono un po' più sottili nel contesto lorentziano perché la distanza può essere "negativa"). La geometria locale vicino a un punto dello spazio-tempo non è però indipendente dal punto, come accade nello spazio newtoniano e in quello di Minkowski. La geometria locale qui è determinata dalla quantità di massa (e energia) presente nel punto: la massa genera curvatura, che viene misurata da alcuni strumenti matematici raffinati quali tensore di Riemann, il tensore di Ricci e la curvatura sezionale. Tutte queste nozioni vengono definite in modo formale: lo spazio-tempo e la sua curvatura sono descritti tramite equazioni. Da un punto di vista visivo le nostre possibilità di immaginazione sono limitate dallo spazio tridimensionale in cui viviamo: l'unico modello che riusciamo a raffigurare correttamente è quello di un universo a una dimensione spaziale (invece di tre) e una temporale. In questo caso, l'universo ha dimensione 1+1=2 e può essere raffigurato come una superficie nello spazio. Un punto materiale in movimento (o fermo!) è rappresentato da una linea (detta linea di universo), che fornisce la sua posizione per ogni istante. La curvatura della superficie incide sulla traiettoria del punto in movimento in modo simile a quanto succeda effettivamente nello spazio-tempo. Se la superficie non contiene massa, allora è piatta e gli oggetti si muovono lungo linee rette. Se la superficie è curva, la geometria cambia e le linee di universo possono comportarsi in modo molto diverso, come accade nelle geometrie non euclidee. Fra le complicazioni concettuali della teoria, c'è da sottolineare che la curvatura dello spazio-tempo non è solo spaziale: tutte e quattro le dimensioni sono "piegate", inclusa quella temporale (non potrebbe essere altrimenti, visto che spazio e tempo sono "mescolati" già nella versione senza massa di Minkowski). Ogni particella di materia si muove a velocità costante lungo una curva, chiamata geodetica, che in ogni momento (cioè localmente) può essere considerata retta. La sua velocità è data dal rapporto tra la distanza spaziale percorsa e il tempo proprio, dove il tempo proprio è quello misurato nel riferimento della particella, mentre la distanza spaziale dipende dalla metrica che definisce la struttura dello spazio-tempo. La curvatura determina l'effettiva forma delle geodetiche e quindi il cammino che un corpo segue nel tempo. In altre parole, un corpo libero si muove nello spazio-tempo sempre lungo una geodetica, allo stesso modo in cui nella meccanica classica un corpo non sottoposto a forze si muove lungo una retta. Se la struttura dello spazio-tempo in quel punto è piatta, la geodetica sarà proprio una retta, altrimenti assumerà forme diverse, ma il corpo la seguirà comunque. In questo modo, la gravità viene a essere inglobata nella struttura dello spazio-tempo. Ancora una volta è da notare la curvatura di cui si parla riguarda non solo le tre dimensioni spaziali, ma anche quella temporale; strutture geometriche con queste proprietà, pertanto, non possono essere visualizzate e devono essere descritte e studiate usando il linguaggio e i metodi propri della geometria differenziale. In presenza di sistemi accelerati (o, che è lo stesso, sistemi sotto l'influenza della gravità), si possono definire come inerziali solo zone locali di riferimenti e per brevi periodi. Questo corrisponde ad approssimare con una superficie piana ciò che sarebbe una superficie curva su larga scala. In tali situazioni valgono ancora le leggi di Newton. Poiché le equazioni della relatività generale hanno come variabile di campo la metrica dello spazio-tempo, non è facile ricavarne effetti osservabili. In condizioni di campo gravitazionale debole, le previsioni della teoria in termini di "forza di gravità" sono pressoché indistinguibili da quelle della gravitazione newtoniana; d'altra parte, non è possibile creare in laboratorio campi gravitazionali intensi, quindi le verifiche della teoria possono essere osservative (attraverso misure astronomiche), ma non sperimentali. Inoltre la misura diretta della curvatura dello spazio-tempo (intensità del campo gravitazionale) non è possibile, e gli effetti della relatività generale sulle misure di distanze spaziali e intervalli temporali da parte di un osservatore sono tuttora oggetto di attiva ricerca teorica. A tutt'oggi vengono proposti esperimenti per la conferma o meno di tale teoria, che al momento attuale ha sempre resistito agli attacchi. Sono indicati qui sotto solo i più importanti. La prima conferma (ancorché incompleta, come è emerso in seguito) si ebbe nel 1919, quando osservazioni di Arthur Eddington durante un'eclissi di Sole confermarono la visibilità di alcune stelle vicine al bordo solare, che in realtà sarebbero dovute essere invisibili: i fotoni luminosi venivano deviati dal Sole della quantità prevista dalle equazioni. In realtà, le osservazioni avevano un errore medio dello stesso ordine di grandezza dell'effetto considerato. La prima vera conferma fu la spiegazione del moto di precessione del perielio di Mercurio, la cui entità era inspiegabile con la gravitazione newtoniana (anche tenendo conto dell'effetto perturbativo dovuto all'attrazione degli altri pianeti), e invece coincideva con quanto previsto dalla relatività generale. Un'altra conferma più recente, ormai completamente accettata dalla comunità scientifica, è l'effetto lente gravitazionale di cui le osservazioni di Eddington sono un caso particolare. La luce emessa da una sorgente lontana, transitando nelle vicinanze di un oggetto molto massiccio può venire deviata, con un effetto complessivo che può sdoppiare (o meglio trasformare in un anello), l'immagine della sorgente. È relativamente recente la scoperta indiretta dell'esistenza dei buchi neri, oggetti pesanti e compatti, dalla cui superficie non può sfuggire (quasi) nulla, essendo la velocità di fuga superiore a quella della luce. Quasi nulla in quanto il fisico Stephen Hawking ha dimostrato come i buchi neri evaporino perdendo particelle, per lo più fotoni, (radiazione di Hawking) tanto più velocemente quanto più piccola è la massa del buco nero. Questo risultato deriva direttamente dalla conservazione del secondo principio della termodinamica, ed è stata la prima applicazione congiunta di relatività generale e meccanica quantistica. Questo risultato contraddice, però, la meccanica quantistica stessa, in quanto la radiazione di Hawking contiene molta meno informazione della materia entrante nel buco nero. Ciò porta a una perdita di informazione, contravvenendo a uno dei principi fondamentali della quantistica. Questa contraddizione ha fatto sì che taluni scienziati contemporanei abbiano negato l'esistenza dei buchi neri a favore di nuove teorie. Sono state rilevate nel 2016 alcune onde gravitazionali, originate dalla collisione di due buchi neri molto massivi. Queste onde erano state previste dalla teoria relativistica ma solo 100 anni dopo ne è stata confermata l'esistenza. Un altro risultato che confermerebbe la teoria è il cosiddetto frame dragging, ossia il trascinamento del sistema di riferimento da parte di masse in rotazione: oltre alla sonda Gravity Probe B della NASA, un articolo di un ricercatore dell'Università di Bari ha utilizzato i dati dell'orbita del satellite Mars Global Surveyor (MGS), confermando entro l'errore di meno dell'1% le previsioni della teoria (Iorio 2007). Inoltre sarebbe una conferma alla relatività einsteniana la giusta correzione della posizione calcolata dai GPS. Infatti da una parte c'è l'effetto di ritardo dovuto all'elevata velocità dei satelliti circa 14000 km/h (per la Relatività Ristretta, ritardo di circa 6 microsecondi al giorno). Inoltre sono anche soggetti all'azione della relatività generale, ovvero alla gravità e questo comporta una differenza nei tempi di comunicazione di circa 45 microsecondo di anticipo. Totale correzione: anticipo di 39 microsecondi al giorno (45 di anticipo meno 6 di ritardo). Come risulta dagli articoli di Einstein, le leggi della relatività descrivono trasformazioni reversibili e vengono utilizzate per onde e particelle che si muovono nello spazio vuoto. Contemporaneamente, Einstein ha pubblicato anche le versioni corrette di idrodinamica, meccanica e magnetismo. La relatività generale è stata formulata solo come teoria classica, ossia non quantistica. Trasformarla in una teoria quantistica di campo con le tecniche usuali della seconda quantizzazione si è rivelato impossibile (la teoria non è rinormalizzabile). D'altra parte, non si è neppure finora ottenuta una formulazione completamente consistente della meccanica quantistica, né della teoria quantistica dei campi, su spazi-tempi curvi. Questo determina problemi teorici non facilmente risolubili ogni qualvolta si cerca di descrivere l'interazione fra il campo gravitazionale e le particelle subatomiche. Carlo Rovelli ha sostenuto al riguardo che la relatività generale e la meccanica quantistica «non possono essere entrambe giuste, almeno nella loro forma attuale, perché si contraddicono l'un l'altra»: per la prima infatti «il mondo è uno spazio curvo dove tutto è continuo», per la seconda invece «il mondo è uno spazio piatto dove saltano quanti di energia». Difficoltà analoghe emergono in cosmologia, allorché si deve ricostruire il comportamento di spazio, tempo e materia in condizioni di grande densità di massa-energia, come nell'universo primordiale o in presenza di singolarità dello spazio-tempo (buchi neri). La costruzione di una teoria quantistica della gravitazione, eventualmente come uno degli aspetti di una teoria unificata più generale, è uno degli obiettivi più importanti per la fisica del XXI secolo.
I buchi neri: le ceneri di stelle gigantesche
In astrofisica un buco nero è un corpo celeste con un campo gravitazionale così intenso da non lasciare sfuggire né la materia, né la radiazione elettromagnetica, ovvero, da un punto di vista relativistico, una regione dello spaziotempo con una curvatura talmente grande che nulla dal suo interno può uscirne, nemmeno la luce essendo la velocità di fuga superiore a c. Il buco nero è il risultato di implosioni di masse sufficientemente elevate. La gravità domina su qualsiasi altra forza, sicché si verifica un collasso gravitazionale che tende a concentrare lo spaziotempo in un punto al centro della regione, dove è teorizzato uno stato della materia di curvatura tendente ad infinito e volume tendente a zero chiamato singolarità, con caratteristiche sconosciute ed estranee alle leggi della relatività generale. Il limite del buco nero è definito orizzonte degli eventi, regione che ne delimita in modo peculiare i confini osservabili. Per le suddette proprietà, il buco nero non è osservabile direttamente. La sua presenza si rivela solo indirettamente mediante i suoi effetti sullo spazio circostante: le interazioni gravitazionali con altri corpi celesti e le loro emissioni (vedi lente gravitazionale), le irradiazioni principalmente elettromagnetiche della materia catturata dal suo campo di forza. Nel corso dei decenni successivi alla pubblicazione della Relatività Generale, base teorica della loro esistenza, vennero raccolte numerose osservazioni interpretabili, pur non sempre univocamente, come prove della presenza di buchi neri, specialmente in alcune galassie attive e sistemi stellari di binarie X. L'esistenza di tali oggetti è oggi definitivamente dimostrata e via via ne vengono individuati di nuovi con massa molto variabile, da valori di circa 5 fino a miliardi di masse solari.
Approfondimento: la costante C
Nulla, nemmeno la luce, può sfuggire a un buco nero. Questo perché:
- la velocità di fuga da un buco nero è maggiore a quella della luce
- nulla può essere più veloce della luce
Quindi, nemmeno la luce può uscire da un buco nero.
La velocità della luce è costante nel vuoto: questa costante è detta C, e comprenderne le caratteristiche è un punto cardine della comprensione del perché i buchi neri sono fenomeni unidirezionali.
Andiamo allora ad approfondire la costante C, a scoprire perché nulla può essere più veloce della luce.
In fisica la velocità della luce è la velocità di propagazione di un'onda elettromagnetica e di una particella libera senza massa. Nel vuoto ha un valore di 299792458 m/s. Viene indicata normalmente con la lettera c (dal latino celeritas), scelta fatta per primo da Paul Drude nel 1894. Secondo la relatività ristretta, la velocità della luce nel vuoto, costante C, è una costante fisica universale indipendente dal sistema di riferimento utilizzato e la velocità massima a cui può viaggiare qualsiasi informazione nell'universo, unendo le grandezze fisiche classiche di spazio e tempo nell'unica entità dello spaziotempo e rappresentando la grandezza di conversione nell'equazione di equivalenza massa-energia. Nella relatività generale è la velocità prevista per le onde gravitazionali. Dal 21 ottobre 1983 si considera il valore costante C come esatto, ovvero senza errore, e a partire da esso si definisce lunghezza del metro nel Sistema Internazionale. Galileo Galilei fu il primo a sospettare che la luce non si propagasse istantaneamente e a cercare di misurarne la velocità. Egli scrisse del suo tentativo infruttuoso di usare lanterne per mandare dei lampi di luce tra due colline fuori Firenze. Giovanni Alfonso Borelli (1608-1679), seguace di Galilei, fece il tentativo di misurare la velocità della luce sulla distanza Firenze-Pistoia per mezzo di specchi riflettenti. La prima misura della velocità della luce fu effettuata nel 1676 dal danese Ole Rømer, che utilizzò un'anomalia nella durata delle eclissi dei satelliti medicei (i satelliti di Giove scoperti da Galileo). Egli registrò le eclissi di Io, un satellite di Giove: ogni giorno o due, Io entrava nell'ombra di Giove per poi riemergerne. Rømer poteva vedere Io "spegnersi" e "riaccendersi", se Giove era visibile. L'orbita di Io sembrava essere una specie di distante orologio, ma Rømer scoprì che il suo "ticchettio" era più veloce quando la Terra si avvicinava a Giove e più lento quando se ne allontanava. Rømer misurò le variazioni in rapporto alla distanza tra Terra e Giove e le spiegò stabilendo una velocità finita per la luce. Egli ottenne un valore di circa 210 800 000 m/s, il cui scostamento rispetto al valore accertato in seguito era dovuto essenzialmente alla scarsa precisione con cui aveva misurato il tempo necessario alla luce per percorrere il diametro dell'orbita terrestre. Una targa all'Osservatorio di Parigi, dove l'astronomo danese lavorava, commemora quella che fu, in effetti, la prima misurazione di una quantità universale. Rømer pubblicò i suoi risultati, che contenevano un errore del 10-25%, nel Journal des savants. Quando si rigettò il modello della luce come un flusso di particelle, proposto da Cartesio e sostenuto da Isaac Newton, il modello ondulatorio, suo successore, pose il problema dell'esistenza di un mezzo che sostenesse le oscillazioni. Tale ipotetico mezzo, detto etere, doveva avere caratteristiche molto peculiari: elastico, privo di massa e resistenza al moto dei corpi, doveva peraltro trascinare la luce come una corrente trascina una barca o il vento le onde sonore. Un vento dell'etere doveva trascinare la luce. Per verificare la presenza dell'etere tramite l'effetto di trascinamento, Albert Abraham Michelson e Edward Morley ripeterono più volte un'esperienza con un interferometro. Se, a causa del vento dell'etere, la velocità di propagazione della luce nei due bracci dell'interferometro fosse stata diversa, i due fasci di luce avrebbero impiegato un tempo diverso per tornare a incontrarsi e quindi le oscillazioni nei due fasci avrebbero presentato una differenza di fase δ, come nelle funzioni sinusoidali. Ciò provocava la formazione di frange di interferenza al passare entro una fenditura di circa mezzo millimetro fra due cartoncini posti di fronte a una sorgente di luce a poca distanza dall'occhio. Le frange avrebbero dovuto spostarsi al variare dell'orientamento dello strumento rispetto al vento dell'etere. La differenza attesa nei tempi impiegati dalla luce per percorrere i bracci dell'interferometro parallelo e perpendicolare al vento dell'etere si calcola facilmente. Nelle numerose esperienze di Michelson, Morley e altri ancora non si osservò mai lo spostamento di tali frange, indipendentemente dal modo in cui veniva orientato l'interferometro e dalla posizione della Terra lungo la sua orbita. La spiegazione di tale risultato secondo Einstein era che non vi è nessun etere e che l'indipendenza della velocità della luce dalla sua direzione di propagazione è un'ovvia conseguenza dell'isotropia dello spazio. L'etere diventò quindi semplicemente non necessario. È possibile ricavare la velocità della luce nel vuoto (dal momento che è un'onda elettromagnetica), a partire dalle equazioni di Maxwell. Passando attraverso i materiali la luce subisce degli eventi di dispersione ottica e, in moltissimi casi di interesse, si propaga con una velocità inferiore a C, di un fattore chiamato indice di rifrazione del materiale. La velocità della luce nell'aria è solo leggermente inferiore a C. Materiali più densi, come l'acqua e il vetro rallentano la luce a frazioni pari a 3/4 e 2/3 di C. Esistono poi materiali particolari, detti metamateriali, che hanno indice di rifrazione negativo. La luce sembra rallentare per effetto di urto anelastico: viene assorbita da un atomo del materiale attraversato che si eccita e restituisce la luce in ritardo e in direzione deviata. Nel 1999, un gruppo di scienziati guidati da Lene Hau fu in grado di rallentare la velocità di un raggio di luce fino a circa 61 km/h. Nel 2001, furono in grado di fermare momentaneamente un raggio. Si veda: condensato di Bose-Einstein per ulteriori informazioni. Nel gennaio 2003, Mikhail Lukin, assieme a scienziati della Harvard University e dell'Istituto Lebedev di Mosca, riuscirono a fermare completamente la luce dentro un gas di atomi di rubidio a una temperatura di circa 80 °C: gli atomi, per usare le parole di Lukin, "si comportavano come piccoli specchi" (Dumé, 2003), a causa degli schemi di interferenza di due raggi di "controllo". (Dumé, 2003) Nel luglio del 2003, all'Università di Rochester Matthew Bigelow, Nick Lepeshkin e Robert Boyd hanno sia rallentato che accelerato la luce a temperatura ambiente, in un cristallo di alessandrite, sfruttando i cambiamenti dell'indice di rifrazione a causa dell'interferenza quantistica. Due raggi laser vengono inviati sul cristallo, in determinate condizioni uno dei due subisce un assorbimento ridotto in un certo intervallo di lunghezze d'onda, mentre l'indice di rifrazione aumenta nello stesso intervallo, o "buco spettrale": la velocità di gruppo è dunque molto ridotta. Usando invece lunghezze d'onda differenti, si è riusciti a produrre un "antibuco spettrale", in cui l'assorbimento è maggiore, e dunque alla propagazione superluminale. Si sono osservate velocità di 91 m/s per un laser con una lunghezza d'onda di 488 nanometri, e di -800 m/s per lunghezze d'onda di 476 nanometri. La velocità negativa indica una propagazione superluminale, perché gli impulsi sembrano uscire dal cristallo prima di esservi entrati. Nel settembre 2003, Shanhui Fan e Mehmet Fatih Yanik dell'Università di Stanford hanno proposto un metodo per bloccare la luce all'interno di un dispositivo a stato solido, in cui i fotoni rimbalzano tra pilastri di semiconduttori creando una specie di onda stazionaria. I risultati sono stati pubblicati su Physical Review Letters del febbraio 2004. Se ci pensate, è proprio assurdo. Se a un corpo viene applicata una forza, infatti, la sua velocità non potrà che aumentare. O almeno così sembra, considerando le nostre esperienze di tutti i giorni. Oltre un secolo fa, però, Albert Einstein ha dimostrato che l'energia E di un corpo qualsiasi è legata alla sua massa m secondo la famosa equazione E=mc2, dove "c" è la velocità della luce (299.792,458 km/s). Questa relazione dice, tra l'altro, che energia e massa sono due entità equivalenti, che possono trasformarsi l'una nell'altra. E questo è esattamente ciò che accade quando acceleriamo un oggetto (anche se noi non ce ne accorgiamo): l'energia che gli imprimiamo va in piccolissima parte ad aumentare la sua massa. A mano a mano che la velocità aumenta, però, occorre sempre più energia per aumentarne ulteriormente la velocità, e questo accade perché sempre più energia si trasforma in massa. In pratica, quanto più ci si avvicina alla velocità della luce, tanto più l'oggetto diventa massiccio e inamovibile. Al 99,9% della velocità della luce, per esempio, un uomo di 80 kg avrebbe una massa di circa 2 tonnellate. Cercare di "spingerlo" per fargli superare la "barriera" della luce avrebbe come unico risultato quello di aumentare la sua massa di tantissimo, lasciandone la velocità praticamente inalterata. Ecco perché la velocità "c" non può essere mai raggiunta. Secondo alcuni studi teorici, esisterebbero particelle chiamate tachioni che avrebbero la proprietà di viaggiare a velocità superiori a "c"... ma, se anche esistessero davvero, non potrebbero mai rallentare. Il tachione (dal greco ταχύς tachýs, "veloce") è un'ipotetica particella avente massa immaginaria e velocità superiore a quella della luce. La prima descrizione teorico-concettuale è attribuita ad Arnold Sommerfeld, mentre tentativi di interpretazione all'interno della relatività ristretta furono compiuti da George Sudarshan nel 1962. Il termine "tachione" venne usato per la prima volta da Gerald Feinberg nel 1964. Nella ricerca fisica moderna il concetto compare in vari contesti, in particolare nella teoria delle stringhe e nella Teoria M. Il tachione viene spesso citato nella letteratura fantascientifica, sebbene di solito con proprietà non interamente corrispondenti a quelle scientifiche. L'ipotetica esistenza del tachione è compatibile con la teoria della relatività speciale, secondo la quale esso sarebbe una particella con un quadri-impulso di tipo-spazio, relegata ad una porzione tipo-spazio del grafico energia-momento; perciò non potrebbe mai rallentare alla velocità della luce o inferiore. Se la sua energia e la sua quantità di moto fossero reali, la massa a riposo sarebbe immaginaria, oppure se la massa a riposo e la quantità di moto fossero reali, l'energia sarebbe immaginaria. È difficile interpretare il significato fisico di una massa di valore complesso. Un effetto curioso è che, a differenza delle particelle ordinarie, la velocità di un tachione aumenta al diminuire della sua energia. Questa è una conseguenza della relatività ristretta in quanto il tachione in teoria ha una massa che elevata al quadrato è negativa. Secondo Einstein la massa totale di una particella rispetto ad un dato sistema di riferimento è la somma della sua massa a riposo e dell'incremento di massa dovuto all'energia cinetica. Si consideri questa relazione valida sia per i tachioni sia per le particelle comuni ("bradioni" o "tardioni"). In situazioni ordinarie questa equazione mostra che E aumenta all'aumentare della velocità, tendendo all'infinito quando v si avvicina a c, la velocità della luce. Invece se m è un valore immaginario, il denominatore della frazione deve essere anch'esso immaginario affinché il valore dell'energia rimanga nel campo dei numeri reali, visto che un valore immaginario diviso per un altro immaginario ne dà uno reale. Il denominatore è immaginario se la quantità all'interno della radice è negativa, il che avviene se v è maggiore di c. Quindi per lo stesso motivo per cui per i bradioni è impossibile superare la barriera della velocità della luce, i tachioni non possono avere velocità inferiori a quella della luce. L'esistenza di simili particelle pone degli interessanti problemi sulla fisica moderna. Si prendano per esempio le formule della radiazione elettromagnetica e si supponga che un tachione abbia una carica elettrica (non è possibile stabilire a priori se un tachione è neutro o dotato di carica); allora un tachione in accelerazione dovrebbe generare onde elettromagnetiche come qualsiasi particella dotata di carica. Però, come si è visto, diminuendo l'energia di un tachione la sua velocità aumenta e quindi, in una situazione del genere, una piccola accelerazione ne produrrebbe una maggiore, portando ad un effetto a catena simile alla catastrofe ultravioletta. Nel 1973 Philip Crough e Roger Clay hanno annunciato una particella più veloce della luce apparentemente dovuta ad un'ondata di raggi cosmici. L'osservazione non è stata né confermata né ripetuta.
Nel 1915, Albert Einstein sviluppò la sua teoria della relatività generale, avendo in precedenza dimostrato che la forza gravitazionale influenza la luce. Solo pochi mesi dopo, Karl Schwarzschild trovò una soluzione per le equazioni di campo di Einstein, che descrive il campo gravitazionale di un punto materiale e di una massa sferica. Pochi mesi dopo Schwarzschild morì e Johannes Droste, uno studente di Hendrik Lorentz, diede in modo indipendente la stessa soluzione, approfondendone le proprietà. Questa soluzione ebbe una strana influenza su ciò che ora è chiamato il raggio di Schwarzschild, che diventò una singolarità, nel senso che alcuni dei termini dell'equazione di Einstein divennero infiniti. La natura di questa superficie non era compresa pienamente a quei tempi. Nel 1924, Arthur Eddington dimostrò che la singolarità cessava di esistere con una variazione di coordinate (vedi coordinate Eddington-Finkelstein), tuttavia si dovette aspettare fino al 1933, quando Georges Lemaître si rese conto che la singolarità del raggio di Schwarzschild era una singolarità coordinata non fisica. Nel 1931 Subrahmanyan Chandrasekhar calcolò, utilizzando la relatività speciale, che un corpo non rotante di elettroni-materia degenere, al di sopra di un certo limite di massa (ora chiamato il limite di Chandrasekhar di 1,4 masse solari) non ha soluzioni stabili. I suoi argomenti furono contestati da molti contemporanei come Eddington e Lev Landau, i quali sostenevano che qualche forza ancora sconosciuta avrebbe impedito il collasso del corpo. Questa teoria era in parte corretta: una nana bianca leggermente più massiccia rispetto al limite di Chandrasekhar collasserà in una stella di neutroni, la quale è essa stessa stabile a causa del principio di esclusione di Pauli. Ma nel 1939, Robert Oppenheimer e altri previdero che le stelle di neutroni con massa pari a circa tre volte il Sole (il limite di Tolman-Oppenheimer-Volkoff) sarebbero collassate in buchi neri per le ragioni presentate da Chandrasekhar, e conclusero che nessuna legge fisica sarebbe intervenuta per fermare il collasso di alcune di queste. Oppenheimer e i suoi coautori interpretarono la singolarità ai confini del raggio di Schwarzschild come la superficie di una bolla concentrata di materia in cui il tempo può rallentare e addirittura fermarsi. Questa conclusione è valida dal punto di vista di un osservatore esterno, mentre non lo è per un osservatore in caduta nel buco. A causa di questa proprietà, le stelle collassate sono chiamate "stelle congelate", perché un osservatore esterno vedrebbe la superficie della stella congelata nel tempo, nel momento stesso in cui il suo collasso la portasse all'interno del raggio di Schwarzschild. Poco dopo la formulazione della relatività generale da parte di Albert Einstein, risultò che la soluzione delle equazioni di Einstein (in assenza di materia) che rappresenta un campo gravitazionale statico e a simmetria sferica (la soluzione di Karl Schwarzschild, che corrisponde al campo gravitazionale centrale simmetrico della gravità newtoniana) implica l'esistenza di un confine ideale, detto orizzonte degli eventi, caratterizzato dal fatto che qualunque cosa lo oltrepassi, attratta dal campo gravitazionale, non sarà più in grado di tornare indietro. Poiché neppure la luce riesce ad attraversare l'orizzonte degli eventi dall'interno verso l'esterno, la regione interna all'orizzonte si comporta a tutti gli effetti come un buco nero. Poiché la soluzione di Schwarzschild descrive il campo gravitazionale nel vuoto, essa rappresenta esattamente il campo gravitazionale all'esterno di una distribuzione di massa con simmetria sferica: un buco nero potrebbe essere teoricamente prodotto da un corpo celeste massiccio solo se questo avesse densità tale da essere interamente contenuto all'interno dell'orizzonte degli eventi (se, cioè, il corpo celeste avesse raggio inferiore al raggio di Schwarzschild corrispondente alla sua massa totale). Si pose dunque l'interrogativo se una tale densità possa essere raggiunta come effetto del collasso gravitazionale di una data distribuzione di materia. Lo stesso Einstein (al quale la "singolarità" trovata da Schwarzschild nella sua soluzione appariva come una pericolosa inconsistenza nella teoria della relatività generale) discusse questo punto in un lavoro del 1939, concludendo che per raggiungere una simile densità le particelle materiali avrebbero dovuto superare la velocità della luce, in contrasto con la relatività ristretta:
«Il risultato fondamentale di questo studio è la chiara comprensione del perché le "singolarità di Schwarzschild" non esistono nella realtà fisica.»
In realtà Einstein aveva basato i suoi calcoli sull'ipotesi che i corpi che collassano orbitino intorno al centro di massa del sistema, ma nello stesso anno Robert Oppenheimer e H. Snyder mostrarono che la densità critica può essere raggiunta quando le particelle collassano radialmente. Successivamente anche il fisico indiano A. Raychaudhuri mostrò che la situazione ritenuta da Einstein non fisicamente realizzabile è, in realtà, perfettamente compatibile con la relatività generale:
«[In questo lavoro] si ottiene una soluzione non statica delle equazioni gravitazionali di Einstein che rappresenta un aggregato, dotato di simmetria sferica, di particelle che si muovono radialmente in uno spazio vuoto. Benché Einstein abbia ritenuto che la singolarità di Schwarzschild sia fisicamente irraggiungibile, poiché la materia non può essere concentrata arbitrariamente, la presente soluzione sembra dimostrare che non vi è un limite teorico al grado di concentrazione, e che la singolarità di Schwarzschild non ha significato fisico in quanto compare solo in particolari sistemi di coordinate.»
In altri termini, l'orizzonte degli eventi non è una reale singolarità dello spazio-tempo (nella soluzione di Schwarzschild l'unica vera singolarità geometrica è collocata nell'origine delle coordinate), ma ha comunque la caratteristica fisica di poter essere attraversato solo dall'esterno verso l'interno. In accordo con queste considerazioni teoriche numerose osservazioni astrofisiche sono state fatte risalire alla presenza di buchi neri che attraggono materia circostante.[16] Secondo alcuni modelli, potrebbero esistere buchi neri privi di singolarità, dovuti a stati della materia più densi di una stella di neutroni, ma non al punto di generare una singolarità.
Secondo le teorie attualmente considerate, un buco nero può formarsi solamente da una stella che abbia una massa superiore a 2,5 volte circa quella del Sole, come conseguenza del Limite di Tolman-Oppenheimer-Volkoff, anche se a causa dei vari processi di perdita di massa subiti dalle stelle al termine della loro vita occorre che la stella originaria sia almeno dieci volte più massiccia del Sole. I numeri citati sono meramente indicativi, in quanto dipendono dai dettagli dei modelli utilizzati per prevedere l'evoluzione stellare e, in particolare, dalla composizione chimica iniziale della nube di gas che ha dato origine alla stella in questione. Non è esclusa la possibilità che un buco nero possa avere origine non stellare, come si suppone ad esempio per i cosiddetti buchi neri primordiali. In astrofisica, il teorema dell'essenzialità (in inglese no hair theorem) postula che tutte le soluzioni del buco nero nelle equazioni di Einstein-Maxwell sulla gravitazione e l'elettromagnetismo nella relatività generale possano essere caratterizzate solo da tre parametri classici esternamente osservabili: massa, carica elettrica e momento angolare. Tutte le altre informazioni riguardanti la materia di cui è formato un buco nero o sulla materia che vi sta cadendo dentro "spariscono" dietro il suo orizzonte degli eventi e sono dunque permanentemente inaccessibili agli osservatori esterni (vedi anche il paradosso dell'informazione del buco nero). Due buchi neri che condividano queste stesse proprietà, o parametri, secondo la meccanica classica sono indistinguibili.
Queste proprietà sono speciali perché sono visibili dall'esterno di un buco nero. Ad esempio, un buco nero carico respinge un altro con la stessa carica, proprio come qualsiasi altro oggetto carico. Allo stesso modo, la massa totale all'interno di una sfera contenente un buco nero può essere trovata utilizzando l'analogo gravitazionale della legge di Gauss, la massa ADM, lontano dal buco nero.[19] Parimenti, il momento angolare può essere misurato da lontano usando l'effetto di trascinamento del campo gravitomagnetico.
Quando un oggetto cade in un buco nero, qualsiasi informazione circa la forma dell'oggetto o della distribuzione di carica su di essa è uniformemente distribuita lungo l'orizzonte del buco nero, e risulta irrimediabilmente persa per l'osservatore esterno. Il comportamento dell'orizzonte in questa situazione è un sistema dissipativo che è strettamente analogo a quello di una membrana elastica conduttiva con attrito e resistenza elettrica - il paradigma della membrana. Questa congettura è diversa da altre teorie di campo come l'elettromagnetismo, che non ha attriti o resistività a livello microscopico, perché sono reversibili nel tempo. Dato che un buco nero alla fine raggiunge la stabilità con solo tre parametri, non c'è modo per evitare di perdere informazioni sulle condizioni iniziali: i campi gravitazionali ed elettrici di un buco nero danno pochissime informazioni su ciò che è stato risucchiato.
L'informazione persa comprende ogni quantità che non può essere misurata lontano dall'orizzonte del buco nero, inclusi numeri quantici approssimativamente conservati, come il totale del numero barionico e leptonico. Questo comportamento è così sconcertante che è stato chiamato il paradosso dell'informazione del buco nero. I buchi neri più semplici hanno una massa, ma non carica elettrica né momento angolare. Questi buchi neri sono spesso indicati come buchi neri di Schwarzschild dopo che Karl Schwarzschild scoprì questa soluzione nel 1916. Secondo il teorema di Birkhoff, è l'unica soluzione di vuoto sfericamente simmetrica. Ciò significa che non vi è differenza osservabile tra il campo gravitazionale di un buco nero e di un qualsiasi altro oggetto sferico della stessa massa. La convinzione popolare di un buco nero capace di "risucchiare ogni cosa" nel suo ambiente quindi è corretta solo in prossimità dell'orizzonte di un buco nero; a distanza da questo, il campo gravitazionale esterno è identico a quello di qualsiasi altro organismo della stessa massa. Esistono anche soluzioni che descrivono i buchi neri più generali. I buchi neri carichi sono descritti dalla metrica di Reissner-Nordström, mentre la metrica di Kerr descrive un buco nero rotante. La soluzione più generale di un buco nero stazionante conosciuta è la metrica di Kerr-Newman, che descrive un buco nero sia con carica sia con momento angolare. Mentre la massa di un buco nero può assumere qualsiasi valore positivo, la carica e il momento angolare sono vincolati dalla massa. In unità di Planck, la carica elettrica totale Q e il momento angolare totale J sono tenuti a soddisfare:
per un buco nero di massa M. I buchi neri che soddisfano questa disuguaglianza sono detti estremali. Esistono soluzioni delle equazioni di Einstein che violano questa disuguaglianza, ma che non possiedono un orizzonte degli eventi. Queste soluzioni sono le cosiddette singolarità nude che si possono osservare dal di fuori, e, quindi, sono considerate non-fisiche. L'ipotesi della censura cosmica esclude la formazione di tali singolarità, quando vengono create attraverso il collasso gravitazionale della materia realistica. Questa ipotesi è supportata da simulazioni numeriche. A causa della relativamente grande forza elettromagnetica, i buchi neri formatisi dal collasso di stelle sono tenuti a mantenere la carica quasi neutra della stella. La rotazione, tuttavia, dovrebbe essere una caratteristica comune degli oggetti compatti. Il buco nero binario a raggi X GRS 1915 105 sembra avere un momento angolare vicino al valore massimo consentito. I buchi neri sono comunemente classificati in base alla loro massa, indipendente del momento angolare J o carica elettrica Q. La dimensione di un buco nero, come determinata dal raggio dell'orizzonte degli eventi, o raggio di Schwarzschild, è approssimativamente proporzionale alla massa M. La caratteristica distintiva dei buchi neri è la comparsa di un orizzonte degli eventi attorno al baricentro della loro massa: spazio geometricamente sferico e chiuso (con apparente superficie materiale rispetto ad osservatori esterni) che ne circonda il nucleo massiccio, delimitando la regione spazio-temporale dalla quale relativisticamente non può uscire o venir emesso alcun segnale né alcuna quantità di materia (eccetto la teorica Radiazione di Hawking), quindi può solo esser raggiunta da altri osservabili e attraversata nella sua direzione, non in senso opposto. Questo impedimento ad emissioni e fuoriuscite produce il costante mantenimento o un potenziale aumento del contenuto del buco nero che, in lunghissimo periodo, potrebbe venir destabilizzato solo dalla citata radiazione quantistica ipotizzata dal notissimo fisico Stephen Hawking. Allora, la concentrazione di massa raggiungendo qui la quantità critica capace di deformare in modo così estremo lo spazio-tempo tale che i possibili percorsi di tutte le particelle possono solo piegarsi verso la sua area, senza più vie di fuga, osservatori esterni non possono ottenere informazione su eventi compresi entro i suoi confini e ciò ne rende impossibile qualsiasi verifica diretta. Per osservatori fuori da tale influenza gravitazionale, come prescrive la Relatività, orologi vicini al buco nero risultano procedere più lentamente rispetto a quelli lontani da esso. A causa di questo effetto, detto dilatazione temporale gravitazionale, da punti di vista esterni e distanti un oggetto in caduta verso un buco nero, avvicinandosi al suo orizzonte degli eventi, appare rallentato nella propria velocità fino ad impiegare un tempo infinito per raggiungerlo. Coerentemente rallenta anche ogni altro suo processo fisico e organico in atto. In sincronia con tale rallentamento la sua immagine è soggetta al noto fenomeno del red-shift gravitazionale[36], sicché, in modo commisurato al suo approssimarsi all'orizzonte, la luce che rendeva visibile l'oggetto si sposta sempre più verso l'infrarosso sino a diventare impercepibile. Ma un osservatore in caduta nel buco nero non nota nessuno di suddetti cambiamenti mentre attraversa l'orizzonte degli eventi. Secondo il suo personale orologio attraversa l'orizzonte degli eventi dopo un tempo finito, senza percepire alcun comportamento insolito: in quanto per ogni sistema il "tempo proprio" ovunque si trovi o proceda, per equivalenza relativistica tra punti d'osservazione, risulta invariante. E in questo caso particolare nemmeno è in grado di valutare esattamente quando compie l'attraversamento essendo impossibile individuare con precisione confini dell'orizzonte, e posizione rispetto ad esso, da parte di chi (o di qual strumento) vi effettui misurazioni locali. Però a causa del principio di simmetria fisica egli riscontrerà nello spazio esterno all'orizzonte un ritmo temporale inversamente proporzionale a quello attribuitogli da osservatori là collocati, e cioè ne vedrà una accelerazione tendente all'infinito, una velocizzazione estrema degli eventi cosmici in atto. Per identico motivo la luce indirizzata verso lui, verso l'orizzonte degli eventi del buco nero, apparirà con frequenza (lunghezza d'onda) opposta a quella in allontanamento: un blue-shift invece che red-shift.
La forma dell'orizzonte degli eventi di un buco nero è sempre approssimativamente sferica. Per quelli non rotanti (o statici) la sua geometria è simmetrica (tutti i punti del suo confine distano ugualmente dal centro gravitazionale), mentre per buchi neri rotanti la forma è oblata (allargata lungo l'asse di rotazione) in misura più o meno pronunciata a secondo della velocità rotatoria: effetto calcolato da Larry Smarr (Stanford University) nel 1973. Al centro di un buco nero, come descritto dalla relatività generale, si trova una singolarità gravitazionale, una regione in cui la curvatura dello spaziotempo diventa infinita. Per un buco nero non rotante, questa regione prende la forma di un unico punto, mentre per un buco nero rotante viene spalmata per formare una singolarità ad anello giacente nel piano di rotazione. In entrambi i casi, la regione singolare ha volume pari a zero. Si può dimostrare che la regione singolare contiene tutta la massa del buco nero. La regione singolare può quindi essere pensata come avente densità infinta.
Gli osservatori che cadono in un buco nero di Schwarzschild (cioè, non rotante e non carico) non possono evitare di essere trasportati nella singolarità una volta che attraversano l'orizzonte degli eventi. Gli osservatori possono prolungare l'esperienza accelerando verso l'esterno per rallentare la loro discesa, ma fino a un certo punto; dopo aver raggiunto una certa velocità ideale, è meglio la caduta libera per proseguire. Quando raggiungono la singolarità, sono schiacciati a densità infinita e la loro massa è aggiunta alla massa totale del buco nero. Prima che ciò accada, essi sono comunque stati fatti a pezzi dalle crescenti forze di marea in un processo a volte indicato come spaghettificazione o "effetto pasta". Nel caso di un buco nero rotante (Kerr) o carico (Reissner-Nordström), è possibile evitare la singolarità.
Estendendo queste soluzioni per quanto possibile, si rivela la probabilità, altamente ipotetico-speculativa, di un'uscita dal buco nero verso regioni spazio-temporali differenti e lontane (eventualmente anche altri universi), col buco che funge da tunnel spaziale. Comunque questa possibilità finora pare non più che teorica in quanto pur lievi perturbazioni basterebbero a distruggerne la via. Sembrano inoltre non impossibili curve spaziotemporali chiuse di tipo tempo (che permetterebbero di ripercorrere il proprio passato) intorno alle singolarità di Kerr, però ciò implicherebbe problemi di causalità come il paradosso del nonno.
Parte della comunità scientifica valuta che nessuno di questi effetti particolari possa verificarsi in un corretto trattamento quantico dei buchi neri rotanti e carichi. La comparsa delle singolarità nella relatività generale è comunemente considerata elemento di rottura della teoria stessa.
Tale inadeguatezza viene compensata dal ricorso alla fisica quantistica quando a descrivere detti processi si considerano gli effetti quantistici dovuti alla densità estremamente elevata della materia e pertanto alle interazioni tra particelle secondo la meccanica dei quanti. Non è stato ancora possibile combinare effetti quantistici e gravitazionali in una singola teoria, sebbene esistano tentativi di formulare una gravità quantistica. Si pensa che una tale teoria possa riuscire a escludere la presenza delle singolarità e dunque dei problemi fisici che esse pongono. Il 10 dicembre 2018, Abhay Ashtekar, Javier Olmedo e Parampreet Singh hanno pubblicato un articolo scientifico nel campo della teoria della gravità ad anello che prevede l'assenza di singolarità centrale all'interno del buco nero, senza specificare geometricamente il futuro della materia a questo punto mentre il modello Janus propone una spiegazione. Questo nuovo studio fornisce le stesse conclusioni di quelli ottenuti da lavori precedenti basati sulla relatività generale. La sfera fotonica è un confine sferico di spessore nullo tale che i fotoni che si spostano tangenti alla sfera sono intrappolati in un'orbita circolare. Per i buchi neri non-rotanti, la sfera fotonica ha un raggio di 1,5 volte il raggio di Schwarzschild. Le orbite sono dinamicamente instabili, quindi ogni piccola perturbazione (come una particella di materia in caduta) aumenterà nel tempo, o tracciando una traiettoria verso l'esterno che sfuggirà al buco nero o una spirale verso l'interno che eventualmente attraverserà l'orizzonte degli eventi. Mentre la luce può ancora sfuggire dall'interno della sfera fotonica, ogni luce che l'attraversi con una traiettoria in entrata sarà catturata dal buco nero. Quindi qualsiasi luce che raggiunga un osservatore esterno dall'interno della sfera fotonica deve essere stata emessa da oggetti all'interno della sfera, ma ancora fuori dell'orizzonte degli eventi. Altri oggetti compatti, come le stelle di neutroni, possono avere sfere fotoniche. Ciò deriva dal fatto che il campo gravitazionale di un oggetto non dipende dalla sua dimensione effettiva, quindi ogni oggetto più piccolo di 1,5 volte il raggio di Schwarzschild corrispondente alla sua massa può effettivamente avere una sfera di fotoni. I buchi neri rotanti sono circondati da una regione dello spazio-tempo in cui è impossibile stare fermi chiamata ergosfera. Questo è il risultato di un processo noto come effetto di trascinamento; la relatività generale predice che qualsiasi massa rotante tenderà a "trascinare" leggermente tutto lo spazio-tempo immediatamente circostante. Qualsiasi oggetto vicino alla massa rotante tenderà a muoversi nella direzione della rotazione. Per un buco nero rotante questo effetto diventa così forte vicino all'orizzonte degli eventi che un oggetto, solo per fermarsi, dovrebbe spostarsi più veloce della velocità della luce nella direzione opposta.
L'ergosfera di un buco nero è delimitata nella sua parte interna dal confine dell'orizzonte degli eventi (esterno) e da un sferoide schiacciato, che coincide con l'orizzonte degli eventi ai poli ed è notevolmente più largo intorno all'equatore. Il confine esterno è talvolta chiamato ergo-superficie. Gli oggetti e le radiazioni normalmente possono sfuggire dall'ergosfera. Attraverso il processo di Penrose, gli oggetti possono emergere dall'ergosfera con energia maggiore di quella d'entrata. Questa energia viene prelevata dalla energia di rotazione del buco nero, facendolo rallentare. Considerando la natura esotica dei buchi neri, può essere naturale domandarsi se tali oggetti possano esistere in natura o asserire che siano soltanto soluzioni "patologiche" delle equazioni di Einstein. Einstein stesso pensò erroneamente che i buchi neri non si sarebbero formati perché ritenne che il momento angolare delle particelle collassate avrebbe stabilizzato il loro moto a un certo raggio. Ciò condusse i relativisti del periodo a rigettare tutti i risultati contrari a questa teoria per molti anni. Tuttavia, una minoranza continuò a sostenere che i buchi neri fossero oggetti fisici[74] e, per la fine del 1960, la maggior parte dei ricercatori era convinta che non vi fosse alcun ostacolo alla formazione di un orizzonte degli eventi.
Penrose dimostrò che una volta formatosi un orizzonte degli eventi, si forma una singolarità da qualche parte all'interno di esso. Poco dopo, Hawking dimostrò che molte soluzioni cosmologiche che descrivono il Big Bang hanno singolarità senza campi scalari o altra materia esotica (cfr. teoremi di singolarità di Penrose-Hawking). La soluzione di Kerr, il teorema no-hair e le leggi della termodinamica dei buchi neri hanno dimostrato che le proprietà fisiche dei buchi neri sono relativamente semplici, il che li rende "oggetti rispettabili per la ricerca". Si pensa che il processo di formazione primaria per i buchi neri sia il collasso gravitazionale di oggetti pesanti come le stelle, ma ci sono anche processi più esotici che possono portare alla produzione di buchi neri. Verso il termine del proprio ciclo vitale, dopo aver consumato tramite fusione nucleare il 90% dell'idrogeno trasformandolo in elio, nel nucleo della stella si arrestano le reazioni nucleari. La forza gravitazionale, che prima era in equilibrio con la pressione generata dalle reazioni di fusione nucleare, prevale e comprime la massa della stella verso il suo centro.
Quando la densità diventa sufficientemente elevata può innescarsi la fusione nucleare dell'elio, in seguito alla quale c'è la produzione di litio, azoto e altri elementi (fino all'ossigeno e al silicio). Durante questa fase la stella si espande e si contrae violentemente più volte espellendo parte della propria massa. Le stelle più piccole si fermano a un certo punto della catena e si spengono, raffreddandosi e contraendosi lentamente, attraversano lo stadio di nana bianca e nel corso di molti milioni di anni diventano una sorta di gigantesco pianeta. In questo stadio la forza gravitazionale è bilanciata da un fenomeno quantistico, detto pressione di degenerazione, legato al principio di esclusione di Pauli. Per le nane bianche la pressione di degenerazione è presente tra gli elettroni.
Se invece il nucleo della stella supera una massa critica, detta limite di Chandrasekhar e pari a 1,44 volte la massa solare, le reazioni possono arrivare fino alla sintesi del ferro. La reazione che sintetizza il ferro per la formazione di elementi più pesanti è endotermica, richiede energia invece che emetterne, quindi il nucleo della stella diventa una massa inerte di ferro e non presentando più reazioni nucleari non c'è più nulla in grado di opporsi al collasso gravitazionale. A questo punto la stella subisce una contrazione fortissima che fa entrare in gioco la pressione di degenerazione tra i componenti dei nuclei atomici. La pressione di degenerazione arresta bruscamente il processo di contrazione, ma in questo caso può provocare una gigantesca esplosione, detta esplosione di supernova di tipo II.
Durante l'esplosione quel che resta della stella espelle gran parte della propria massa, che va a disperdersi nell'universo circostante. Quello che rimane è un nucleo estremamente denso e massiccio. Se la sua massa è abbastanza piccola da permettere alla pressione di degenerazione di contrastare la forza di gravità si arriva a una situazione di equilibrio e si forma una stella di neutroni. Se la massa supera le tre masse solari (limite di Volkoff-Oppenheimer) non c'è più niente che possa contrastare la forza gravitazionale. Inoltre, secondo la relatività generale, la pressione interna non viene più esercitata verso l'esterno (in modo da contrastare il campo gravitazionale), ma diventa essa stessa una sorgente del campo gravitazionale rendendo così inevitabile il collasso infinito.
A questo punto la densità della stella morente, ormai diventata un buco nero, raggiunge velocemente valori tali da creare un campo gravitazionale talmente intenso da non permettere a nulla di sfuggire alla sua attrazione, neppure alla luce. È stato teorizzato che la curvatura infinita dello spaziotempo può far nascere un ponte di Einstein-Rosen o cunicolo spazio-temporale.
A causa delle loro caratteristiche i buchi neri non possono essere "visti" direttamente ma la loro presenza può essere ipotizzata a causa degli effetti di attrazione gravitazionale che esercitano nei confronti della materia vicina e della radiazione luminosa in transito nei paraggi o "in caduta" sul buco.
Esistono anche altri scenari che possono portare alla formazione di un buco nero. In particolare una stella di neutroni in un sistema binario può rubare massa alla sua vicina fino a superare la massa di Chandrasekhar e collassare. Alcuni indizi suggeriscono che questo meccanismo di formazione sia più frequente di quello "diretto".
Un altro scenario permette la formazione di buchi neri con massa inferiore alla massa di Chandrasekhar. Anche una quantità arbitrariamente piccola di materia, se compressa da una gigantesca forza esterna, potrebbe in teoria collassare e generare un orizzonte degli eventi molto piccolo. Le condizioni necessarie potrebbero essersi verificate nel primo periodo di vita dell'universo, quando la sua densità media era ancora molto alta a causa di variazioni di densità o di onde di pressione. Questa ipotesi è ancora completamente speculativa e non ci sono indizi che buchi neri di questo tipo esistano o siano esistiti in passato. Il collasso gravitazionale richiede una grande densità. Al momento nell'universo queste alte densità si trovano solo nelle stelle, ma nell'universo primordiale, poco dopo il Big Bang, le densità erano molto più elevate, e ciò probabilmente permise la creazione di buchi neri. Tuttavia la sola alta densità non è sufficiente a consentire la formazione di buchi neri poiché una distribuzione di massa uniforme non consente alla massa di convergere. Affinché si formino dei buchi neri primordiali, sono necessarie delle perturbazioni di densità che possano poi crescere grazie alla loro stessa gravità. Vi sono diversi modelli di universo primordiale che variano notevolmente nelle loro previsioni della dimensione di queste perturbazioni. Molti prevedono la creazione di buchi neri, che vanno da una massa di Planck a centinaia di migliaia di masse solari. I buchi neri primordiali potrebbero così spiegare la creazione di qualsiasi tipo di buco nero. La caratteristica fondamentale dei buchi neri è che il loro campo gravitazionale divide idealmente lo spaziotempo in due o più parti separate fra di loro da un orizzonte degli eventi. Un'informazione fisica (come un'onda elettromagnetica o una particella) potrà oltrepassare un orizzonte degli eventi in una direzione soltanto. Nel caso ideale, e più semplice, di un buco nero elettricamente scarico e non rotante (buco nero di Schwarzschild) esiste un solo orizzonte degli eventi che è una sfera centrata nell'astro e di raggio pari al raggio di Schwarzschild, che è funzione della massa del buco stesso. Una frase coniata dal fisico John Archibald Wheeler, un buco nero non ha capelli, sta a significare che tutte le informazioni sugli oggetti o segnali che cadono in un buco nero vengono perdute con l'eccezione di tre fattori: massa, carica e momento angolare. Il corrispondente teorema è stato dimostrato da Wheeler, che è anche colui che ha dato il nome a questi oggetti astronomici.
In realtà un buco nero potrebbe non essere del tutto nero: esso potrebbe emettere particelle, in quantità inversamente proporzionale alla sua massa, portando a una sorta di evaporazione. Questo fenomeno, proposto dal fisico Stephen Hawking nel 1974, è noto come radiazione di Hawking ed è alla base della termodinamica dei buchi neri. Alcune sue osservazioni sull'orizzonte degli eventi dei buchi neri, inoltre, hanno portato alla formulazione del principio olografico. Esiste una simulazione, effettuata al computer da alcuni ricercatori sulla base di osservazioni, che mostra l'incontro di una stella simile al Sole con un buco nero supermassiccio, dove la stella viene "triturata" e mentre alcuni detriti stellari "cadono" nel buco nero, altri vengono espulsi nello spazio a velocità elevata. Un gruppo di astronomi analizzando i dati del Chandra X-ray Observatory della NASA ha invece scoperto l'espulsione di un buco nero ad altissima velocità dal centro di una galassia, dopo la fusione di due galassie. Altri effetti fisici sono associati all'orizzonte degli eventi, in particolare per la relatività generale il tempo proprio di un osservatore in caduta libera, agli occhi di un osservatore distante, appare più lento con l'aumentare del campo gravitazionale fino ad arrestarsi completamente sull'orizzonte. Quindi un astronauta che stesse precipitando verso un buco nero, se potesse sopravvivere all'enorme gradiente del campo gravitazionale, non percepirebbe nulla di strano all'avvicinarsi dell'orizzonte; al contrario un osservatore esterno vedrebbe i movimenti dello sfortunato astronauta rallentare progressivamente fino ad arrestarsi del tutto quando si trova a distanza uguale al raggio di Schwarzschild dal centro del buco nero. Al contrario degli oggetti dotati di massa, i fotoni non vengono rallentati o accelerati dal campo gravitazionale del buco nero, ma subiscono un fortissimo spostamento verso il rosso (in uscita) o verso il blu (in entrata). Un fotone prodotto o posto esattamente sull'orizzonte degli eventi, diretto verso l'esterno del buco nero, subirebbe un tale spostamento verso il rosso da allungare all'infinito la sua lunghezza d'onda (la sua energia quindi diminuirebbe scendendo all'incirca a zero). Uno dei primi oggetti nella Via Lattea candidati a essere un buco nero fu la sorgente di raggi X chiamata Cygnus X-1. Si ipotizza che enormi buchi neri (di massa pari a milioni di volte quella del Sole) esistano al centro delle galassie, la nostra e nella galassia di Andromeda. In questo caso si definiscono buchi neri supermassicci, la cui esistenza può essere verificata in modo indiretto misurando l'effetto sulla materia circostante del loro intenso campo gravitazionale. Nel nucleo centrale della nostra galassia, in particolare, si osserva l'esistenza di una forte sorgente radio ma molto compatta - nota come Sagittarius A* - la cui alta densità risulta compatibile solo con la struttura di un buco nero. Attualmente si calcola che le galassie osservabili abbiano di norma tale genere di buco nero nel loro nucleo: ciò permette anche di spiegare la forte emissione radiativa delle galassie attive (considerando la sequenza che comprende galassie come la nostra fino ai QSO). In pratica una trasformazione d'energia gravitazionale in energia elettromagnetica e cinetica attraverso la rotazione di ogni disco di accrescimento gassoso che tipicamente circonda i buchi neri.[81] Un analogo fisico di un buco nero è il comportamento delle onde sonore in prossimità di un ugello de Laval: una strozzatura utilizzata negli scarichi dei razzi che fa passare il flusso dal regime subsonico a supersonico. Prima dell'ugello le onde sonore possono risalire il flusso del getto, mentre dopo averlo attraversato ciò è impossibile perché il flusso è supersonico, quindi più veloce del suono. Altri analoghi possono essere le onde superficiali in un liquido in moto in un canale circolare con altezza decrescente, un tubo per onde elettromagnetiche la cui velocità è alterata da un laser, una nube di gas di forma ellissoidale in espansione lungo l'asse maggiore. Tutti questi modelli, se raffreddati fino alla condizione di condensato di Bose - Einstein, dovrebbero presentare l'analogo della radiazione di Hawking, e possono essere usati per correggere le previsioni di quest'ultima: come un fluido ideale, la teoria di Hawking considera la velocità della luce (suono) costante, indipendentemente dalla lunghezza d'onda (comportamento detto di Tipo I). Nei fluidi reali la velocità può aumentare (Tipo II) o diminuire (Tipo III) all'aumentare della lunghezza d'onda. Analogamente dovrebbe avvenire con la luce, ma se il risultato fosse che lo spazio tempo diffonde la luce come il Tipo II o il Tipo III, andrebbe modificata la relatività generale, cosa già nota perché per le onde con lunghezza d'onda prossima alla lunghezza di Planck diventa significativa la gravitazione quantistica. Restando invece nel campo relativistico (ossia relativo alla teoria della relatività), poiché per descrivere un buco nero sono sufficienti tre parametri - massa, momento angolare e carica elettrica - i modelli matematici derivabili come soluzioni dell'equazione di campo della relatività generale si riconducono a quattro:
- Buco nero di Schwarzschild. È la soluzione più semplice in quanto riguarda oggetti non rotanti e privi di carica elettrica, ma è anche piuttosto improbabile nella realtà, poiché un oggetto dotato anche di una minima rotazione una volta contratto in buco nero deve aumentare enormemente la sua velocità angolare in virtù del principio di conservazione del momento angolare.
- Buco nero di Kerr. Deriva da oggetti rotanti e privi di carica elettrica, caso che presumibilmente corrisponde alla situazione reale. Buco nero risultante dal collasso di una stella in rotazione nel quale la singolarità non è più un punto, ma assume la forma di un anello a causa della rotazione. Per questa ragione si formeranno non uno ma due orizzonti degli eventi distinti. La rotazione del buco nero fa sì che si formi la cosiddetta ergosfera. Questa è la zona immediatamente circostante all'orizzonte esterno causata dall'intenso campo gravitazionale dove lo spaziotempo oltre a essere curvato entra in rotazione trascinato dalla rotazione del buco nero come un gigantesco vortice.
- Buco nero di Kerr-Newman. Riguarda la situazione in cui si ha sia rotazione sia la carica elettrica ed è la soluzione più generale. In tale situazione lo spazio tempo non sarà asintoticamente piatto a causa della presenza del campo elettromagnetico.
- Buco nero di Reissner-Nordström. È il caso di un buco nero dotato di carica elettrica ma non rotante. Valgono le stesse considerazioni fatte sul buco nero di Kerr-Newman a proposito del comportamento asintotico.
Per quanto riguarda i buchi neri supermassicci, TON 618 è un quasar distante 10,4 miliardi di anni luce dalla Terra che contiene un buco nero con massa pari a 66 miliardi di masse solari, il quale è, a oggi, il più grande buco nero mai scoperto. Per quanto invece riguarda i buchi neri stellari, nel novembre del 2019 è stata annunciata su Nature la scoperta di un buco nero stellare di massa pari a 70 masse solari. Tale buco nero, ribattezzato LB-1 B (o LB-1 *) e distante circa 13 800 anni luce dalla Terra, fa parte di un sistema binario chiamato LB-1 ed è, a oggi, un enigma per gli astrofisici, poiché la sua massa è molto più grande di quanto fosse mai stato ipotizzato in base agli odierni modelli di evoluzione stellare.
Ora che sappiamo, essenzialmente, cos'è un buco nero, possiamo andare a scoprire i più grandi misteri relativi, enormi domande senza risposta relative a questi oggetti estremi.
La singolarità e la singolarità ad anello
Il concetto di singolarità caratterizza una grande varietà di fenomeni nei campi più diversi: scienza, tecnologia, matematica, sociologia, psicologia, ecc. I fenomeni considerati "singolari" hanno in comune il fatto che piccole variazioni di una grandezza che caratterizza il fenomeno possono causare variazioni illimitatamente grandi o anche vere e proprie discontinuità in altre grandezze caratteristiche. Nella descrizione matematica di tali fenomeni compaiono caratteristiche simili: in particolare avvicinandosi al punto singolare il comportamento del sistema non può più essere descritto accuratamente con equazioni lineari e spesso nelle soluzioni delle equazioni linearizzate compare a denominatore un termine che si avvicina sempre più a zero, facendo perciò crescere illimitatamente il valore di una o più grandezze in gioco. Già nel 1873 James Clerk Maxwell osservò che in molti sistemi fisici o sociali esiste una grande quantità di "energia potenziale" (in senso proprio per i sistemi fisici e metaforico per i sistemi sociali), che può liberarsi solo quando un certo parametro raggiunge un valore di soglia.[1] A questo proposito Maxwell (e analogamente pochi anni dopo Poincaré) fa l'esempio molto semplice di una roccia spinta molto lentamente oltre l'orlo di un burrone: una situazione quasi-statica che viene trasformata in una molto dinamica a seguito di un cambiamento impercettibile. Nei sistemi dinamici il verificarsi di una singolarità coincide con la perdita della stabilità del sistema. Esempi di singolarità in diversi settori sono forniti nel seguito. Maxwell, inoltre, osserva che nei sistemi di qualunque tipo (fisici, sociologici, economici, ecc.) l'esistenza di singolarità mette in evidenza i limiti associati a una descrizione deterministica dei fenomeni, in quanto nei pressi della singolarità diventa impossibile predire accuratamente l'evoluzione del sistema. Anche se, infatti, continua a valere il principio di causalità per cui stesse cause devono produrre identici effetti, nei pressi di un punto singolare non è più vero che cause simili diano effetti simili. In altre parole microscopiche e impercettibili variazioni delle condizioni di partenza possono provocare enormi differenze negli eventi successivi, le cui conseguenze sono generalmente irreversibili. Benché la perdita di stabilità di un sistema possa molto spesso essere schematizzata come un fenomeno improvviso (si pensi al carico di punta di una trave), in alcuni sistemi reali l'avvicinarsi graduale al punto singolare può essere segnalato dal manifestarsi di fenomeni ampi, in cui il comportamento del sistema è governato da leggi nonlineari. Un esempio è fornito dalla instabilità meccanica di lamine sottili caricate assialmente (piastre, gusci, volte, tubi, ecc.). Per alcune geometrie il carico critico a cui dovrebbe corrispondere la singolarità può essere calcolato matematicamente, ma la descrizione matematica resta un modello ideale che, pur essendo concettualmente utile, non fornisce il vero valore del carico critico, perché i termini nonlineari amplificano le imperfezioni della forma geometrica o della posizione del carico determinando il sopravvenire di deformazioni significative e spesso irreversibili molto prima che il limite teorico della singolarità venga raggiunto. L'esistenza di singolarità è alla radice di alcune importanti discipline sviluppate nella seconda metà del XX secolo come la teoria delle catastrofi e la teoria del caos o, più in generale, lo studio della complessità. Il termine singolarità ha origine in matematica, dove indica in generale un punto in cui un ente matematico, per esempio una funzione o una superficie, "degenera", cioè perde parte delle proprietà di cui gode negli altri punti generici, i quali per contrapposizione sono detti "regolari". In un punto singolare, per esempio, una funzione o le sue derivate possono non essere definite e nell'intorno del punto stesso "tendere ad infinito". Nei vari campi specifici ci sono dei significati più precisi:
- In analisi matematica è a volte usato come sinonimo di punto di discontinuità
- In analisi complessa si parla di singolarità isolata di una funzione in un punto se la funzione è olomorfa in un intorno bucato del punto, ma non lo è nell'intorno pieno. Se la singolarità non è eliminabile, deve essere un polo, cioè un punto in cui la funzione tende all'infinito, oppure una singolarità essenziale, cioè un punto di estrema discontinuità in quanto avvicinandosi alla singolarità la funzione può tendere a qualsiasi valore, finito o infinito, pur di scegliere opportunamente il percorso di avvicinamento.
- In algebra lineare si parla di matrice singolare per intendere una matrice con determinante pari a zero e quindi non invertibile. Nella formula della matrice inversa, infatti, il determinante della matrice compare a denominatore.
- In geometria algebrica si parla di punto singolare di una varietà algebrica, quando la matrice Jacobiana delle derivate parziali del primo ordine in quel punto ha rango inferiore a quello nei punti regolari
In fisica, i punti singolari sono quelli in cui si verifica una singolarità matematica delle equazioni di campo, dovuta per esempio ad una discontinuità geometrica del dominio oppure al raggiungimento di un valore limite di un parametro. Benché le soluzioni singolari delle equazioni di campo restino molto utili per descrivere il comportamento fisico fuori della singolarità, esse perdono di significato fisico nei pressi del punto singolare. In pratica il comportamento fisico in tali intorni può essere descritto solo tramite teorie fisiche più complesse in cui la singolarità non si verifica. In particolare, per esempio:
- Nella teoria dell'elasticità sono punti singolari i vertici di ogni angolo rientrante di un continuo omogeneo. Esempi di angoli rientranti sono gli intagli acuti e le punte delle fessure, anche se in pratica lo spigolo rientrante o la punta della fessura non possono essere perfettamente acuti per motivi tecnologici e presentano sempre un raggio di curvatura, sia pur piccolissimo. In tali punti tensioni e deformazioni sono teoricamente infinite e anche nella pratica possono essere molto elevate, se il raggio di curvatura è piccolo, superando il valore limite di resistenza del materiale. In pratica, perciò, se il mezzo materiale è duttile esso si deforma plasticamente nell'intorno del punto singolare e, invece, se esso è fragile, si microfessura localmente.
- Nella teoria della Relatività una singolarità gravitazionale è un punto nel cui intorno l'attrazione gravitazionale tende ad infinito (cfr. Big Bang e buchi neri). Avvicinandosi a tali punti occorrerebbe utilizzare una teoria quantistica della gravitazione al posto della relatività generale di Einstein.
- In fluidodinamica la singolarità di Prandtl-Glauert si verifica quando un aeromobile raggiunge la velocità del suono del fluido in cui procede. In quell'istante secondo le equazioni linearizzate di moto dei fluidi si dovrebbero verificare pressioni infinite e perciò ancora agli inizi del XX secolo gli studiosi credevano che la velocità del suono non potesse essere superata. In realtà quando si supera il 70% della velocità del suono i termini nonlineari delle equazioni di moto cessano di essere trascurabili e, diventando sempre più dominanti, sono la causa dell'onda d'urto che si crea al raggiungimento della singolarità.
- In meccanica dei solidi il raggiungimento di un carico critico determina l'instabilità del sistema causando spostamenti trasversali alla direzione del carico che, nell'ambito di una teoria lineare, risultano illimitati. Il comportamento reale della struttura deve allora essere studiato utilizzando le equazioni nonlineari che governano i grandi spostamenti.
Le considerazioni qualitative di Maxwell, trovarono un primo approfondimento matematico nei lavori di Henri Poincaré, che identificò quattro diversi tipi di punti singolari presenti nelle equazioni differenziali con cui può essere descritta l'evoluzione nel tempo di un sistema complesso. Le singolarità sono un ingrediente sottostante la formulazione di teorie applicabili alla descrizione di sistemi dinamici di natura molto diversa, come la teoria del caos o la teoria delle catastrofi. Lo sviluppo evolutivo della vita in tutte le sue fasi fino anche ai processi di sviluppo dell'uomo non sembra essere avvenuto in modo continuo ma per salti, attraverso mutazioni che possono essere considerate vere e proprie singolarità e che sono state probabilmente influenzate pesantemente da disastri naturali che creando spazio per nuove forme di vita devono essere considerate singolarità produttive e non soltanto distruttive. Sia Maxwell sia Poincaré considerano esempi di "singolarità" presenti nella vita degli individui e degli organismi sociali. Per esempio Maxwell osserva che una parola può far scoppiare una guerra. Le società sono normalmente protette dal fatto che i loro membri sono coscienti dei possibili sviluppi negativi e possono contribuire a stabilizzare il sistema sociale. Tuttavia, il formarsi di aggregazioni sociali sempre più complesse rende sempre meno lineare e meno prevedibile il sistema e, per esempio, il verificarsi di interazioni impreviste fra sottosistemi può produrre eventi imprevedibili. In futurologia, per esempio, e talora in sociologia viene congetturato il possibile sviluppo di una Singolarità tecnologica, un punto nello sviluppo di una civiltà, in cui il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani. La presenza di situazioni singolari è tanto più probabile quanto più complesso è il sistema. Affrontare il verificarsi di una singolarità in un sistema complesso, inoltre, è molto difficile perché risultano meno evidenti le cause da rimuovere per stabilizzare nuovamente il sistema e la percezione del caos si diffonde facilmente contribuendo a ingigantirlo. Lo studio del collasso delle civiltà antiche ha indicato che la difficoltà di trovare soluzioni in un sistema complesso è stata una causa determinante della loro caduta. Anche la crisi finanziaria degli anni 2007-2008 ha messo in evidenza i rischi creati dalla diffusione incontrollata di strumenti finanziari complessi. La robustezza e l'adattabilità di un sistema è un valore da difendere anche a prezzo di sacrificare una possibile eccessiva ottimizzazione del sistema per ridurne la complessità.
Una singolarità gravitazionale è un punto in cui la curvatura dello spaziotempo tende a un valore infinito. Secondo alcune teorie fisiche l'universo potrebbe avere avuto inizio e finire con singolarità gravitazionali, rispettivamente il Big Bang e il Big Crunch. Le singolarità sono possibili configurazioni dello spazio-tempo previste dalla teoria della relatività generale di Albert Einstein nel caso in cui la densità della materia raggiunga valori così elevati da provocare un collasso gravitazionale dello spaziotempo. Ogni buco nero, al suo centro, contiene una singolarità circondata da un orizzonte degli eventi dal quale nessun corpo potrebbe uscire. Ai fini della dimostrazione dei teoremi sulle singolarità di Penrose-Hawking, uno spaziotempo con una singolarità si definisce come quello che contiene una geodetica che non si può estendere in maniera liscia. Si ritiene che la fine di tale geodetica sia appunto la singolarità. Questa è una diversa definizione, utile per le dimostrazioni dei teoremi.
I due tipi più importanti di singolarità spaziotemporali sono le singolarità di curvatura e le singolarità coniche. Le singolarità si possono dividere anche a seconda se siano coperte da un orizzonte degli eventi oppure no (singolarità nude). Secondo la relatività generale, lo stato iniziale dell'universo, al principio del Big Bang, era una singolarità. Né la relatività generale né la meccanica quantistica riesce a descrivere il Big Bang, ma, in generale, la meccanica quantistica non ammette che le particelle occupino uno spazio più piccolo delle loro lunghezze d'onda. Un altro tipo di singolarità prevista dalla relatività generale è quella all'interno di un buco nero: qualsiasi stella che collassi oltre un certo punto (raggio di Schwarzschild) formerebbe un buco nero, dentro al quale sarebbe formata una singolarità (coperta da un orizzonte degli eventi), mentre tutta la materia affluirebbe in un certo punto (o in una certa linea circolare, se il buco nero sta ruotando). Questo sempre secondo la relatività generale, senza la meccanica quantistica, che vieta alle particelle simili a onde di entrare in uno spazio più piccolo della loro lunghezza d'onda. Queste singolarità ipotetiche sono conosciute anche come singolarità di curvatura. Un qualsiasi astronauta che cadesse in un buco nero non potrebbe evitare di essere trasportato nella singolarità una volta attraversato l'orizzonte degli eventi. Appena si raggiunge la regione singolare si viene schiacciati a densità infinita e la propria massa viene aggiunta alla massa totale del buco nero. Tante ipotesi fantascientifiche sono nate attorno alle singolarità ed al loro comportamento: comunicazione con altri universi paralleli, scorciatoie per raggiungere distanze incommensurabili, macchine del tempo. Molti ricercatori ritengono che una teoria unificata della gravitazione e della meccanica quantistica (la gravità quantistica) permetterà in futuro di descrivere in modo più appropriato i fenomeni connessi con la nascita di una singolarità nel collasso gravitazionale delle stelle massicce e l'origine stessa dell'universo.
Una singolarità ad anello (in inglese ring singularity o ringularity) è la singolarità gravitazionale di un buco nero rotante, o un buco nero di Kerr, chiamata così perché ha la forma di un anello. Quando un corpo sferico non rotante di raggio critico collassa sotto la propria gravità, secondo la teoria della relatività generale collasserà in un singolo punto. Questo non è il caso di un buco nero rotante (un buco nero di Kerr). La distribuzione di massa di un corpo rotante fluido non è sferica (ha un rigonfiamento equatoriale), e ha momento angolare non nullo. Poiché un punto non può supportare la rotazione o il momento angolare in fisica classica (la relatività generale è considerata classica nel senso che non rispetta la fisica quantistica), la forma minima della singolarità che può supportare queste proprietà è invece un anello con spessore nullo ma raggio diverso da zero, e questo anello viene chiamato singolarità di Kerr o ringularity. L'effetto di trascinamento rotazionale di un buco nero rotante, descritto dalla metrica di Kerr, fa sì che lo spaziotempo nelle vicinanze dell'anello subisca una curvatura nella direzione di movimento dell'anello. In effetti questo significa che diversi osservatori posti attorno a un buco nero di Kerr a cui viene chiesto di indicare il centro di gravità apparente del buco possono puntare a diversi punti sull'anello. Gli oggetti che cadono cominceranno ad acquisire momento angolare dall'anello prima di raggiungerlo effettivamente, e il percorso seguito da un raggio di luce perpendicolare (che inizialmente viaggia verso il centro dell'anello) curverà nella direzione del movimento dell'anello prima di intersecarsi con l'anello. Un osservatore che attraversa l'orizzonte degli eventi di un buco nero non rotante e non carico (di Schwarzschild) non può evitare la singolarità centrale, che si trova nel futuro di ogni linea di universo all'interno dell'orizzonte. Quindi non si può evitare la spaghettificazione da parte delle forze di marea della singolarità centrale. Questo non è necessariamente vero con un buco nero di Kerr. Un osservatore che cade in un buco nero di Kerr può essere in grado di evitare la singolarità centrale facendo un uso intelligente dell'orizzonte degli eventi interno associato a questa classe di buchi neri. Ciò rende teoricamente (ma probabilmente non pratico) possibile che il buco nero di Kerr agisca come una sorta di wormhole, forse anche un wormhole attraversabile. La singolarità di Kerr può anche essere usata come strumento matematico per studiare il "problema delle linee di campo" del wormhole. Se una particella viene fatta passare attraverso un wormhole, le equazioni di continuità per il campo elettrico suggeriscono che le linee del campo non dovrebbero essere interrotte. Quando una carica elettrica passa attraverso un wormhole, le linee del campo di carica della particella sembrano emanare dalla bocca di ingresso e la bocca di uscita guadagna un deficit di densità di carica a causa del principio di Bernoulli. (Per la massa, la bocca di ingresso guadagna densità di massa e la bocca di uscita ottiene un deficit di densità di massa.) Poiché una singolarità di Kerr ha la stessa caratteristica, consente di studiare anche questo problema. Ci si aspetta generalmente che, poiché l'usuale collasso a una singolarità puntiforme sotto la relatività generale coinvolge condizioni arbitrariamente dense, gli effetti quantistici possono diventare significativi e impedire la formazione della singolarità (quantum fuzz). Senza effetti gravitazionali quantistici, ci sono buone ragioni per sospettare che la geometria interna di un buco nero rotante non sia la geometria di Kerr. L'orizzonte degli eventi interno della geometria di Kerr probabilmente non è stabile, a causa dell'infinito spostamento verso il blu della radiazione in caduta. Questa osservazione è stata supportata dall'indagine sui buchi neri carichi che hanno mostrato un simile comportamento di "spostamento blu infinito". Sebbene sia stato fatto molto lavoro, il collasso gravitazionale realistico degli oggetti in buchi neri rotanti e la geometria risultante continuano a essere un argomento di ricerca attivo.
Paradosso dell'informazione e teorema dell'essenzialità
In relatività generale e in astrofisica, il teorema no-hair (dall'inglese no hair theorem, letteralmente "senza capelli"; a volte tradotto come teorema dell'essenzialità o teorema della calvizie) afferma che un buco nero è completamente caratterizzato da tre parametri fisici: massa, carica elettrica, e momento angolare. In pratica, le osservazioni indicano che i buchi neri non possiedono una carica elettrica, quindi i parametri fondamentali sono solo la massa e il momento angolare (o spin). Dopo il collasso gravitazionale del corpo che produce il buco nero, tutte le altre informazioni sull'oggetto (i "capelli"), diventano del tutto inaccessibili, in quanto scompaiono dietro l'orizzonte degli eventi del buco nero. Ad esempio, sono perse tutte le informazioni sulla natura e sul numero delle particelle di cui era composto il corpo. Il nome del teorema deriva da una frase del fisico John Archibald Wheeler: "a black hole has no hair", che sottolinea scherzosamente la perdita di informazioni in un buco nero.
La dimostrazione di questo teorema è stata completata nel corso di anni grazie agli sforzi di diversi autori, tra cui Werner Israel, Brandon Carter, Stephen Hawking e Roger Penrose.
Un primo decisivo passo verso il teorema fu ottenuto da Israel, che riuscì a dimostrare che una soluzione statica delle equazioni di Einstein nel vuoto deve possedere simmetria sferica. Ma per il teorema di Birkhoff, la metrica di Schwarzschild è l'unica soluzione a simmetria sferica, e di conseguenza anche l'unica soluzione statica.
Lo stesso Israel estese il risultato al caso di buco nero elettricamente carico, che nel caso statico genera la metrica di Reissner-Nordström.
Fu quindi congetturato da Israel, Penrose e Wheeler che la soluzione più generale nel caso stazionario fosse la metrica di Kerr-Newman. È possibile oggi dimostrare tale congettura, introducendo opportune ipotesi matematiche, che non inficiano la validità generale del risultato dal punto di vista fisico.
Seppure il teorema rimanga formalmente corretto, lo stesso Hawking ha iniziato a dubitare della sua rilevanza fisica: alcune delle ipotesi di base infatti sembrano essere troppo stringenti ed il modello potrebbe non riuscire a descrivere l'effettiva ricchezza della situazione fisica in esame. Nuovi modelli, basati su ipotesi più rilassate e un nuovo paradigma, sono in corso di stesura a partire dal 2014; tali classi di modelli sono noti come "buchi neri dai capelli soffici".
Argomento collegato al teorema no-hair è il paradosso dell'informazione.
Il paradosso dell'informazione del buco nero (traduzione dell'inglese black hole information paradox) risulta dalla combinazione della meccanica quantistica e relatività generale. Implica che l'informazione fisica potrebbe "sparire" in un buco nero, permettendo a molti stati fisici di evolvere nello stesso identico stato. Questo è un argomento controverso poiché esso viola la dottrina comunemente accettata secondo la quale l'informazione totale riguardo a un sistema fisico in un punto temporale determinerebbe il suo stato in ogni altro tempo.[1] Nel 1975, Stephen William Hawking e Jacob Bekenstein mostrarono che i buchi neri irraggerebbero energia lentamente e ciò pose un problema. Dal teorema dell'essenzialità, ci si aspetterebbe che la radiazione di Hawking sia completamente indipendente dal materiale entrante nel buco nero. Ciò nondimeno, se il materiale entrante nel buco nero fosse uno stato quantistico puro, la trasformazione di questo stato nello stato eterogeneo della radiazione di Hawking distruggerebbe l'informazione riguardante lo stato quantistico originale. Questo viola il teorema di Liouville e presenta un paradosso.
Ad esempio, si considerino due ipotetiche stelle di uguale massa ma una costituita interamente di idrogeno e l'altra interamente di elio. Se dovessero evolvere in un buco nero, i risultati finali (due singolarità) sarebbero indistinguibili e quindi nessuna teoria sarebbe in grado di ricostruire a ritroso l'evoluzione temporale dei due oggetti. Al contrario, se si distrugge qualcosa in un inceneritore le leggi della fisica consentirebbero in linea di principio, per il già citato teorema di Liouville, di ricostruire l'oggetto iniziale. Per questo parte dei fisici sono convinti che, mediante qualche meccanismo non noto, l'informazione non vada distrutta.
Nonostante tale paradosso, Hawking, per via della semplice eleganza dell'equazione risultante che "unificava" termodinamica, relatività, gravità, e il lavoro di Hawking stesso sul Big Bang,[senza fonte] rimase convinto che l'informazione andasse effettivamente distrutta. La sua convinzione fu criticata in particolare da John Preskill che nel 1997 scommise contro lui e Kip Thorne, che invece l'informazione non andava persa.
Ci sono diverse idee riguardo a come il paradosso possa essere risolto. Fin dalla proposta, nel 1997, della corrispondenza AdS/CFT, la convinzione predominante tra i fisici è che l'informazione viene preservata e che la radiazione di Hawking non è precisamente termica, ma riceva correzioni quantistiche. Altre possibilità includono il fatto che l'informazione sia contenuta in un residuo planckiano rimasto alla fine della radiazione di Hawking o a una modificazione delle leggi della meccanica quantistica che permetta un'evoluzione del tempo non-unitario.
Nel luglio del 2005, Stephen Hawking pubblicò un articolo con una teoria secondo la quale perturbazioni quantistiche dell'orizzonte degli eventi potrebbero permettere all'informazione di sfuggire dal buco nero, e ciò risolverebbe il paradosso dell'informazione. La sua argomentazione suppone l'unitarietà della corrispondenza AdS/CFT la quale implica che un buco nero AdS, che è duale per la teoria del campo conforme termico, sia unitario. Quando annunciò il suo risultato, Hawking ammise anche di aver perso la scommessa del 1997, pagando Preskill con l'enciclopedia del baseball (ISBN 1-894963-27-X) 'dalla quale si estrae informazione a volontà'. Comunque, Thorne rimase scettico riguardo alla dimostrazione di Hawking e rifiutò di contribuire alla ricompensa.
Nel 1993 il fisico teorico Leonard Susskind propose una soluzione al paradosso informativo formulato da Stephen Hawking nel 1981, dovuto all'evaporazione di un buco nero (fenomeno teorizzato e calcolato con precisione sempre da Hawking), che causerebbe la perdita dell'informazione intrappolata entro l'orizzonte degli eventi, e dunque violando il principio di conservazione dell'informazione (ovvero il primo principio della termodinamica). La soluzione proposta da Susskind prende spunto dal principio di complementarità (concetto mutuato dalla meccanica quantistica), ovvero il gas in caduta varcherebbe "o" non varcherebbe l'orizzonte degli eventi di un buco nero, a seconda del punto di vista: da un punto di vista esterno un osservatore "vedrebbe" le stringhe, ovvero i componenti elementari del gas, allargare le spire fino ad abbracciare tutta la superficie dell'orizzonte degli eventi, sul quale si manterrebbe tutta l'informazione, senza alcuna perdita per l'esterno (e la successiva evaporazione non cambierebbe lo stato di cose), mentre, per un osservatore che seguisse il gas in caduta, l'attraversamento dell'orizzonte avverrebbe senza particolari fenomeni di soglia (in conformità al primo postulato della relatività ristretta e al principio di equivalenza, dovuti a Einstein); i fenomeni estremi (indescrivibili), avverrebbero solo nella singolarità, e tali fenomeni sarebbero complementari all'evaporazione (descrivibile). La complementarità insita nel principio olografico risolverebbe dunque il paradosso informativo nel contesto della teoria delle stringhe.
Soluzioni:
L'informazione va irrimediabilmente persa:
- Vantaggio: Sembra essere una diretta conseguenza di calcoli relativamente non controversi basati sulla gravità semiclassica.
- Svantaggio: Viola l'unitarietà (uno dei principi base della meccanica quantistica), nonché la conservazione dell'energia o causalità.
L'informazione filtra fuori gradualmente durante l'evaporazione del buco nero (ipotesi della stella nera):
- Vantaggio: Intuitivamente attraente perché somiglia qualitativamente al recupero delle informazioni in un processo classico di combustione.
- Svantaggio: Richiede una grossa deviazione dalla gravità classica e semiclassica (che non consentono la fuoriuscita di informazioni dal buco nero) anche per buchi neri macroscopici per i quali ci si aspetta che tali teorie siano buone approssimazioni. Inoltre il buco nero dovrebbe essere privo di orizzonte degli eventi.
L'informazione sfugge improvvisamente nello stadio finale dell'evaporazione del buco nero:
- Vantaggio: È necessaria una deviazione significativa dalla gravità classica e semiclassica solo nel regime in cui ci si aspetta che dominino gli effetti della gravità quantistica.
- Svantaggio: Poco prima dell'improvvisa fuga di informazioni, un buco nero molto piccolo deve essere in grado di immagazzinare una quantità arbitraria di informazione, il che viola pesantemente il limite di Bekenstein.
L'informazione è immagazzinata in un resto di dimensioni confrontabili con la lunghezza di Planck (per Roger Penrose tale oggetto può essere il bosone, che però è più grande, per la teoria delle stringhe è la stringa stessa):
- Vantaggio: Non è necessario alcun meccanismo per la fuga di informazioni.
- Svantaggio: un oggetto molto piccolo deve essere in grado di immagazzinare una quantità arbitraria di informazione, il che viola pesantemente il limite di Bekenstein.
L'informazione è immagazzinata in un resto massivo:
- Vantaggio: Non è necessario alcun meccanismo per la fuga di informazioni e non è necessario immagazzinare una grande quantità di informazioni in un piccolo oggetto.
- Svantaggio: Non è noto alcun meccanismo attraente che potrebbe fermare l'evaporazione di Hawking di un buco nero macroscopico.
L'informazione è immagazzinata in un universo neonato che si separa dal nostro (es. teoria delle bolle o teoria della selezione cosmologica):
- Vantaggio: Non è necessaria alcuna violazione di principi generali della fisica noti.
- Svantaggio: È difficile trovare una teoria concreta attraente che possa predire tale scenario.
L'informazione è codificata nella correlazione tra futuro e passato:
- Vantaggio: La gravità semiclassica è sufficiente, ovvero la soluzione non dipende dai dettagli della (non ancora ben compresa) gravità quantistica.
- Svantaggio: Contraddice la visione intuitiva della natura come entità che evolve nel tempo.
L'informazione è codificata in un'equazione di Schrödinger dipendente dal tempo che governa il processo di evaporazione del buco nero:
- Vantaggi: Rispetta l'assunzione di 't Hooft che le equazioni di Schroedinger possono essere universalmente utilizzate in ogni dinamica di tipo quantistico presente nell'Universo. Il problema dell'entanglement connesso col paradosso dell'informazione è risolto in quanto la radiazione di Hawking emessa risulta "entangled", ossia connessa, con le oscillazioni dell'orizzonte degli eventi (cioè i modi quasi-normali "innescati" dai quanti di Hawking). Risulta essere l'evoluzione temporale di un modello di buco nero di "tipo- Bohr".