Ricerca di segnali gravitazionali da binarie in coalescenza mediante

Transcript

Ricerca di segnali gravitazionali da binarie in coalescenza mediante
Ricerca di segnali gravitazionali da binarie in
coalescenza mediante una rete di rivelatori
interferometrici
Candidata: Simona Birindelli
Relatore: Andrea Viceré
5 ottobre 2004
Indice
1
Binarie coalescenti
9
1.1
Formazione di sistemi binari . . . . . . . . . . . . . . . . . . . .
9
1.2
Evoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.2.1
Cenni sull’evoluzione di una singola stella . . . . . . . . .
11
1.2.2
Evoluzione di un sistema binario . . . . . . . . . . . . . .
15
1.2.3
Evoluzione all’interno di un ammasso . . . . . . . . . . .
25
Irraggiamento gravitazionale . . . . . . . . . . . . . . . . . . . .
28
1.3.1
Un po’ di storia...PSR B1916+13 . . . . . . . . . . . . .
28
1.3.2
Forma del segnale . . . . . . . . . . . . . . . . . . . . .
30
1.3.3
Approssimazioni successive . . . . . . . . . . . . . . . .
34
1.3.4
Tassi di coalescenze . . . . . . . . . . . . . . . . . . . .
36
1.3
2
I rivelatori interferometrici
39
2.1
Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
2.2
Interferometro di Michelson e Morley . . . . . . . . . . . . . . .
41
2.3
Principio di funzionamento di un interferometro gravitazionale . .
43
2.4
Schema di un rivelatore . . . . . . . . . . . . . . . . . . . . . . .
46
2.4.1
Masse in caduta libera . . . . . . . . . . . . . . . . . . .
46
2.4.2
Tragitto del fascio luminoso . . . . . . . . . . . . . . . .
47
Rumore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
2.5.1
2.5.2
Rumore sismico . . . . . . . . . . . . . . . . . . . . . .
Fluttuazioni della gravità locale . . . . . . . . . . . . . .
49
49
2.5.3
Rumore termico . . . . . . . . . . . . . . . . . . . . . .
50
2.5.4
Shot noise . . . . . . . . . . . . . . . . . . . . . . . . . .
50
2.5
1
INDICE
2.6
3
2.5.5
Fluttuazioni della pressione di radiazione . . . . . . . . .
51
2.5.6
Instabilità del laser . . . . . . . . . . . . . . . . . . . . .
52
Sensibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
Analisi mediante una rete di interferometri
55
3.1
Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
3.2
Cenni sull’analisi con un singolo rivelatore
. . . . . . . . . . . .
56
3.3
Analisi in coincidenza . . . . . . . . . . . . . . . . . . . . . . . .
58
3.3.1
Ricerca della coincidenza temporale . . . . . . . . . . . .
60
3.3.2
Consistenza delle ampiezze . . . . . . . . . . . . . . . .
61
3.3.3
Stime del fondo . . . . . . . . . . . . . . . . . . . . . . .
62
Analisi coerente . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
3.4.1
Massimizzazioni analitiche . . . . . . . . . . . . . . . . .
65
3.4.2
Massimizzazione rispetto al tempo di coalescenza . . . . .
66
3.4.3
Griglia di parametri e determinazione delle incertezze . .
67
3.4
4
2
Confronto tra i due metodi
72
4.1
Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
72
4.2
Verifica della consistenza del programma . . . . . . . . . . . . .
73
4.3
Calcolo delle probabilità di rivelazione . . . . . . . . . . . . . . .
78
4.4
Risultati ottenuti . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
4.4.1
LIGO . . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
4.4.2
Virgo . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
4.4.3
Rete Virgo-LIGO . . . . . . . . . . . . . . . . . . . . . .
83
Distribuzione delle sorgenti nel cielo . . . . . . . . . . . . . . . .
86
4.5.1
Parametri che influenzano l’efficienza di un rivelatore . . .
89
4.6
Il futuro prossimo: Virgo e LIGO advanced . . . . . . . . . . . .
92
4.7
Accuratezza nella determinazione dei parametri . . . . . . . . . .
95
4.7.1
Parametri derivanti dalla fase: le masse . . . . . . . . . .
95
4.7.2
Parametri derivanti dall’ampiezza: la distanza . . . . . . .
97
Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
99
4.5
4.8
Introduzione
Questo lavoro si ripropone di analizzare i metodi per l’analisi dei dati provenienti
da interferometri gravitazionali operanti simultaneamente in cerca di segnali emessi da sistemi binari di oggetti compatti, al fine di facilitare la scelta della procedura
ottimale. L’elaborazione di una strategia per l’analisi di dati gravitazionali è importante sia dal punto di vista della Relatività Generale, che riscontrerebbe un’ulteriore
conferma, che dal punto di vista dell’Astrofisica: si aprirebbe infatti un nuovo canale osservativo, oltre a quelli elettromagnetico e dei neutrini, tra l’altro in molti
casi complementare al primo, considerato che gli oggetti compatti sono per lo più
invisibili per via elettromagnetica, a parte le pulsar. In particolar modo i sistemi
binari potrebbero essere usati come candele standard per la misurazione di distanze
astronomiche.
La tesi è suddivisa in quattro parti, strutturate nel modo seguente:
Il primo capitolo è dedicato alle sorgenti, delle quali viene fornita una breve
evoluzione in cui sono descritti i processi che portano alla formazione di sistemi
binari compatti. Questi sono oggetti interessanti per la rivelazione in quanto hanno
un quadrupolo gravitazionale che varia nel tempo, perciò sono destinati alla perdita
di energia sotto forma di irraggiamento gravitazionale. Un contributo rilevante al
bilancio energetico del sistema, tale da farne restringere sempre di più la propria
orbita fino alla coalescenza delle due stelle in tempi minori dell’età dell’Universo,
è possibile soltanto per oggetti molto compatti, quali le stelle di neutroni o i buchi
neri. Viene poi analizzata la forma del segnale gravitazionale, prevista dalla teoria
della Relatività Generale, e facilmente riconoscibile per la sua peculiarità di avere
frequenza ed ampiezza crescenti nel tempo; essa è conosciuta con buona approssimazione e questo consente di determinare con accuratezza i parametri del sistema
3
INDICE
4
una volta trovato un segnale.
Il capitolo successivo si occupa del metodo di rivelazione delle onde gravitazionali, la cui principale difficoltà è data dall’effetto che queste hanno sui corpi:
sono infatti perturbazioni della metrica che al proprio passaggio producono delle forze di marea oscillanti, per cui gli oggetti vengono deformati e le distanze
tra i corpi modificate. I rivelatori interferometrici, dei quali viene riportata una
breve descrizione, basano il loro funzionamento proprio su quest’ultima conseguenza, sfruttando l’ulteriore caratteristica delle onde di avere due polarizzazioni
sfasate tra loro di π4 , il che raddoppia l’effetto della deformazione agendo in modo
opposto su due direzioni ortogonali, che risulteranno l’una dilatata, l’altra contratta di un fattore proporzionale alla lunghezza originaria ed all’ampiezza dell’onda
(estremamente piccola, dell’ordine di 10
22 nelle
circostanze più favorevoli).
Segue una parte relativa all’introduzione dell’analisi dei dati, per la quale il metodo più efficace, vista la forte presenza di rumore, risulta il filtro adattato, una tecnica che permette di correlare i dati con un determinato modello teorico di segnale, sostanzialmente “facendolo scorrere” sulla sequenza temporale in uscita dallo
strumento, e variandone i parametri sino a trovare quello che più approssima l’eventuale segnale presente. Utilizzando un singolo rivelatore, però, la probabilità di
falsi allarmi non è una quantità trascurabile, ed inoltre non è possibile identificare
completamente la sorgente che emette, determinandone i parametri fondamentali
che la caratterizzano, tra i quali la distanza dall’osservatore, le masse delle stelle,
la loro separazione, e la posizione della sorgente nel cielo. Viene quindi descritto lo scenario osservativo che si presenta avendo a disposizione più interferometri
distribuiti in vari punti della superficie terrestre, per mezzo dei quali è possibile
effettuare una ricerca più precisa, sia dal punto di vista dell’aumento del rapporto
segnale-rumore complessivo, che da quello della determinazione dei parametri.
Il capitolo segue con l’introduzione e la descrizione delle due tecniche di analisi più efficienti: quella in coincidenza e quella coerente. Nella prima ciascun
rivelatore analizza i propri dati in cerca di segnali con il metodo del filtro adattato, e compila una lista di eventi candidati; le liste vengono confrontate per trovare
delle coincidenze: eventi di forma e ampiezza ragionevolmente simili e con gli opportuni ritardi dovuti alle posizioni relative. Questa procedura raffina la ricerca, in
quanto tende a ridurre sensibilmente il numero di falsi allarmi.
INDICE
5
Il metodo coerente invece consiste nel considerare la rete come un unico rivelatore posto in posizione opportuna, una sorta di sistema di centro di massa, e
sommare coerentemente i contributi di ciascuno strumento, pesati con la propria
sensibilità ed orientazione. I vantaggi di questa procedura sono l’aumento della sensibilità della rete rispetto a quella di un singolo rivelatore, con conseguente
crescita significativa del rapporto segnale-rumore. Quest’ultima quantità è legata all’energia accessibile ad uno strumento, e dato che essa diminuisce al crescere
della distanza, l’utilizzo di una rete permetterebbe l’ allargarsi dell’orizzonte osservabile per via gravitazionale. L’unico inconveniente è che non è adatto situazioni
in cui il rumore non sia totalmente gaussiano.
Introdotte tutte le quantità teoriche necessarie, il quarto capitolo è dedicato alla
descrizione del lavoro effettuato, che consiste in un parallelo tra i due metodi per
una rete composta da Virgo e dai tre LIGO, e per una dei rispettivi interferometri
perfezionati che entreranno in funzione alcuni anni dopo i primi, Virgo advanced ed i LIGO advanced; il programma elaborato mediante Mathematica permette
comunque di cambiare i componenti della rete a seconda delle esigenze.
La quantità rilevante per il paragone è la probabilità di rivelazione come funzione della distanza, che è una stima dell’ orizzonte osservabile per ogni coppia di
masse delle stelle, una volta fissata la soglia di probabilità a partire dalla quale si
ritiene significativa la presenza di un evento rispetto ai falsi allarmi. In prima approssimazione non ci sono direzioni privilegiate nel cielo per la ricerca di binarie
coalescenti -in realtà non è proprio così, infatti l’omogeneità dell’Universo è tale
solo su larga scala, per distanze dell’ordine delle decine di Megaparsec non è più
valida, ed inizia ad essere determinante la presenza di strutture- per cui le simulazioni sono state fatte creando artificialmente gli eventi con il metodo Monte Carlo
per i quattro parametri angolari (posizione, polarizzazione dell’onda e inclinazione
dell’orbita rispetto al piano di vista).
I calcoli delle probabilità di rivelazione sono stati effettuati nell’ipotesi di rumore completamente gaussiano, e la procedura di analisi ottimale è risultata quella
coerente, che permette di allargare visibilmente l’orizzonte gravitazionale. Tuttavia
la presenza di contributi non gaussiani al rumore non è trascurabile, ed il metodo
coerente non permette di filtrare i falsi allarmi causati da questi eventi. Il metodo
della ricerca in coincidenza risulta invece un buon compromesso: permette infatti
INDICE
6
di raggiungere distanze sufficientemente grandi (con una riduzione di circa il 25%
rispetto al caso coerente), e al tempo stesso elimina sensibilmente il numero di falsi
allarmi. A tale scopo sono stati effettuati due diversi filtraggi, il primo che selezionasse gli eventi compatibili ad almeno due rivelatori, ed un secondo, più rigido,
che considerasse unicamente le coincidenze di tre strumenti, in modo da eliminare
il più possibile gli eventi che non provengano da sorgenti gravitazionali.
Lo studio effettuato, utilizzando il metodo Monte Carlo con formule analitiche,
permette di stimare la sensibilità di una rete di rivelatori in diverse condizioni di
utilizzo. Il passo successivo sarà l’implementazione dei metodi di analisi affinché
possano venire applicati ai dati reali.
Le onde gravitazionali
Le equazioni di Einstein legano la forma dello spazio-tempo alla distribuzione di
materia ed energia all’interno di esso. Sono 10 equazioni differenziali del secondo ordine nella metrica, non lineari e non linearmente indipendenti (quest’ultima
caratteristica esprime l’invarianza della fisica sotto cambiamento di sistema di riferimento), per cui nella maggior parte dei casi non si trovano soluzioni esatte, ma
approssimate.
Nel vuoto, e ad una distanza da una distribuzione di massa sufficiente affinché
lo spazio-tempo possa essere considerato piatto trascurando l’eventuale curvatura dell’Universo, è possibile linearizzare le equazioni e calcolare gli effetti della
sorgente come una perturbazione allo spazio piatto minkowskiano:
gαβ
con hαβ
ηαβ
hαβ
(1)
1. Le equazioni linearizzate risultano:
hαβ
0
(2)
che ricordano molto le equazioni di Maxwell, anche nelle soluzioni:
hαβ
aαβ exp ikλ xλ (3)
dove aαβ in un particolare sistema di coordinate detto trasverso a traccia nulla
7
INDICE
8
assume la forma:
0 0
a
0
A
0 1
0
0 0
0 0
0
0
ax
1 0
0
0 0 1 0
A
0 0 0 0
0
0 1 0 0
(4)
0 0 0 0
Ovvero onde piane monocromatiche con due diverse polarizzazioni, che si propagano nello spazio (la parte temporale è nulla) alla velocità della luce. Le due polarizzazioni presentano uno sfasamento relativo di 45 , il che, come sarà illustrato
avanti, comporta un diverso effetto osservabile su due direzioni ortogonali.
Per stimare l’ordine di grandezza dell’ampiezza A, è necessario soffermarsi
sulle caratteristiche di una sorgente di questo tipo di onde. Anche nel caso gravitazionale, come in quello elettromagnetico, è possibile introdurre uno sviluppo in
multipoli, che è valido data la grande distanza dei generatori. Il primo termine non
nullo, però, non è quello di dipolo, in quanto p¨ ∑a ma r¨a 0 per la conservazione
della quantità di moto, ed analogamente µ¨ 1
2c
2
∑a ma dtd 2 ra va 0 per la conservazione del momento angolare. Resta quindi soltanto il termine di quadrupolo,
la cui definizione è
Qi j
∑ ma
a
xia xaj 1 2 ij
r δ
3 a
(5)
che dà una luminosità gravitazionale, ossia una potenza irraggiata pari a:
Lgrav
è necessario osservare che
G
5c5
G ...i j ...
Q Qi j 5c5 1 4 10
(6)
59 erg s 1 !
Risulta per questo evidente che soltanto sorgenti con un’ enorme derivata terza
del momento di quadrupolo possano essere osservabili, e che quindi i candidati
debbano essere oggetti astrofisici molto compatti ed in moto con grandi velocità:
pulsar o buchi neri con qualche asimmetria che ruotino vorticosamente, stelle che
collassino in modo anisotropo, oppure sistemi binari molto stretti di buchi neri o
stelle di neutroni.
Capitolo 1
Binarie coalescenti
1.1 Formazione di sistemi binari
Circa la metà delle stelle attualmente catalogate appartiene ad un sistema binario, una configurazione fortemente favorita dai processi di formazione stellare. Le
condizioni ideali per la nascita e lo sviluppo degli embrioni si creano nelle nubi
molecolari, composte di materia interstellare (prevalentemente idrogeno neutro)
estremamente rarefatta, a temperature dell’ordine delle decine di gradi Kelvin. Nel
cercare la sua configurazione di equilibrio, la nube comincia a collassare, in parte
frenata dalla rotazione, o dall’eventuale presenza di campi magnetici. Il collasso si
interrompe quando gli urti tra le particelle iniziano ad essere significativi, tali cioè
da contrastare l’energia gravitazionale della nube stessa. In questa fase nascono le
protostelle, frammenti di gas autogravitanti di densità intorno ai 10 2 103 g cm 3 .
In assenza di moti rotatori la materia si aggregherebbe in forma sferica, guidata
dalla ricerca di stabilità, ma in seguito alla frammentazione il momento angolare
della nube viene spartito tra le sue componenti, ed è necessario tenere conto della
rotazione. Per fluidi lievemente rotanti la configurazione di equilibrio è un ellissoide biassiale, al crescere del rapporto tra energia cinetica e gravitazionale le protostelle percorrono idealmente la cosiddetta sequenza di Mc Laurin, dopodiché la
struttura che minimizza l’energia diventa un ellissoide triassiale sempre più distorto
all’aumentare della rotazione (sequenza di Iacobi), sino a raggiungere la forma di
”manubrio”, progenitrice di un sistema binario [16].
9
CAPITOLO 1. BINARIE COALESCENTI
10
Dalla crisalide della nube si è formato un protoammasso stellare, che evolverà
con tempi caratteristici termodinamici per raggiungere l’equilibrio in quanto gas
di stelle (gli ammassi globulari che osserviamo oggi, “vecchi” circa 10 10 anni),
mentre ciascuna delle componenti, singole stelle o sistemi binari, progredirà con
tempi caratteristici dell’evoluzione stellare.
Nei processi di assestamento dell’ammasso, che da ”aperto”, senza una forma
definita, assumerà un aspetto sferico, saranno importanti le interazioni tra le stelle,
che potranno portare alla formazione di nuovi sistemi binari, o alla modifica sostanziale
di alcuni di essi.
CAPITOLO 1. BINARIE COALESCENTI
11
1.2 Evoluzione
1.2.1 Cenni sull’evoluzione di una singola stella
Una volta emersa la sua figura all’interno della nube, la protostella prosegue il
suo collasso verso la stabilità, che viene raggiunta con l’innesco delle reazioni di
fusione. Non appena queste sono in grado di sorreggere completamente la stella
garantendone l’equilibrio idrostatico ed energetico, essa può “entrare” nella sequenza principale del diagramma H-R della luminosità in funzione della temperatura. Le equazioni che descrivono ad ogni istante della sua vita la condizione della
stella sono le seguenti [15]:
dP r dr
dM r dr
dL r dr
dT
dr
"
"
GM r ρ r
r2
(1.1)
4πr2 ρ r (1.2)
4πr2 ρ r ε
(1.3)
3kρ r ! L r !
trasporto radiativo
4acT 3 4πr 2
T r ! dP r !
ad P r ! dr trasporto convettivo adiabatico (interni stellari)
T r ! dP r !
P r ! dr trasporto convettivo superadiabatico (superficie)
(1.4)
La prima governa l’equilibrio idrostatico, la seconda esprime la relazione che
lega massa e densità di materia, la successiva altro non è che la conservazione
dell’energia, dove ε è la quantità di energia prodotta per unità di tempo e di massa;
la quarta equazione, infine, determina il gradiente di temperatura in funzione del
raggio per i vari meccanismi di trasporto di energia all’interno della stella nell’approssimazione
di radiazione di corpo nero. Il primo ad essere messo in moto è il trasporto radiativo, legato al moto dei fotoni che si diffondono dalle zone più calde a quelle più
fredde. Quando però i flussi di energia da trasportare sono troppo elevati la materia non è in grado di reggere gradienti di temperatura arbitrariamente grandi, diviene meccanicamente instabile e si instaurano i moti convettivi. Questi ultimi
consistono in veri e propri spostamenti di elementi di materia stellare che non
trovandosi più in equilibrio termodinamico con l’ambiente circostante, si spostano
CAPITOLO 1. BINARIE COALESCENTI
12
trasportando così energia da un punto all’altro della stella. Lo stesso avverrà se
la materia ha un’elavata opacità (k), che come è possibile vedere dall’espressione
per il trasporto radiativo ha lo stesso effetto di un grande flusso di energia per il
gradiente di temperatura.
L’integrazione delle quattro equazioni per l’equilibrio stellare richiede, oltre
alla definizione di adeguate condizioni al contorno, la conoscenza di altre tre relazioni, nelle quali è contenuta la “microfisica” di una struttura stellare:
1. l’equazione di stato della materia che la costituisce;
2. l’espressione per la produzione di energia (per unità di tempo e di massa)
come funzione delle grandezze fisiche locali quali la densità, la temperatura,
la composizione chimica...
3. per il trasporto radiativo e conduttivo del calore, l’opacità della materia stellare.
La massa influenza pesantemente la vita del corpo autogravitante [6], infatti già
dall’instaurarsi della fusione di idrogeno si creano due classi distinte di stelle, che
differiscono anche morfologicamente: quelle più piccole, dette di sequenza principale inferiore (fino a 1 2 M # ), che bruciano idrogeno tramite la catena protoneprotone, e sono caratterizzate da un nucleo radiativo, dove avvengono le reazioni,
circondato da un inviluppo convettivo inerte; e quelle di massa maggiore, in grado
di raggiungere temperature centrali maggiori, tali da far risultare più efficiente la
fusione tramite il ciclo CNO (che sostanzialmente utilizza i tre elementi pesanti
come catalizzatori), e che a causa delle elevate temperature, hanno il centro convettivo, mentre l’inviluppo esterno è radiativo.
Le distinzioni tra stelle di massa diversa si fanno sempre più nette col passare
del tempo, all’esaurimento del primo combustibile al centro, infatti, ogni stella innesca la fusione di idrogeno in uno strato più esterno, sprigionando un’energia tale
da doversi espandere sino a 10 volte le sue dimensioni iniziali per poter ristabilire
l’equilibrio (fase di gigante rossa). Quando anche questo strato diviene inerte la
stella è costretta a contrarsi fino al raggiungimento, nel nucleo, delle condizioni
di pressione e temperatura necessarie all’innesco della fusione dell’elio, ma ciò
CAPITOLO 1. BINARIE COALESCENTI
13
avviene soltanto per masse sufficientemente grandi, con un nucleo di elio di almeno 0 $ 5 M # . Le stelline meno massicce (M 0 5 % 0 8 M # ) invece non riescono
a raggiungere tali temperature, e sono costrette a contrarsi ulteriormente sino a che
la materia non diventa degenere (ρ & 10 6 g cm 3 ). A questo punto la contrazione si
arresta, contrastata dalla pressione del gas di elettroni; nasce così una nana bianca,
un oggetto denso e compatto destinato allo spegnimento perenne.
Per le stelle in grado di bruciare elio, il procedimento a fisarmonica continua
con combustibili man mano più pesanti, mentre la massa compie la sua selezione
naturale ad ogni ciclo, creando nane bianche di carbonio-ossigeno, e nel caso di
stelle più massicce, esplosioni di supernovae. Più in dettaglio, al momento in cui il
nucleo è composto di carbonio ed ossigeno ed anche lo strato in cui bruciava elio si
è spento, le stelle meno massicce si contraggono per raggiungere le condizioni di
innesco della fusione di C. La contrazione fa sì che la materia del nucleo degeneri,
e che l’innesco della fusione avvenga in modo violento, si ha un’esplosione che
espelle tutti gli strati esterni della stella e sprigiona energie elevatissime, di luminosità dell’ordine di 1010 soli (supernova da deflagrazione del carbonio). Il nucleo
rimanente si spegne come nana bianca di ossigeno e neon.
Le stelle di massa maggiore innescano pacificamente la fusione, senza dover
contrarre il nucleo, e procedono con la sintesi degli elementi pesanti sino alla fine,
ovvero fino a che questa è energeticamente conveniente. Il ferro è infatti l’ultimo
prodotto di reazione per cui la fusione è un processo esoenergetico. Quando la
stella giunge quindi ad avere un nucleo di ferro e nichel, l’unica chance di produrre energia è data dalla contrazione. La prima conseguenza è la degenerazione
della materia nucleare, che però stavolta non basta ad arrestare il collasso, poiché la
massa del nucleo residuo supera il limite di Chandrasekhar per un gas di elettroni
degeneri (1 44 M # ), e ad un certo punto pressione e temperatura raggiungono valori così elevati che inizia ad essere energeticamente possibile e sempre più favorita,
la reazione β inversa:
p
e
('
n
νe
(1.5)
che dà il via al processo di neutronizzazione. Intanto nella parte più interna del
nucleo, che collassa omologamente (secondo una legge del tipo r t αr 0 ) a ve-
locità subsonica, si crea un’onda d’urto causata dall’accensione di alcune reazioni
CAPITOLO 1. BINARIE COALESCENTI
14
in ambiente degenere, questa si propaga attraverso la parte esterna che collassa
invece a velocità supersonica ed in modo non omologo, e con una forte esplosione espelle tutti gli strati esterni della stella. Al contempo il nucleo, superstite
all’esplosione, si neutronizza pressochè completamente, e a questo punto il destino della stella è segnato dalla propria massa: se questa aveva una massa iniziale
nell’intervallo 8 % 20 M # , il prodotto della neutronizzazione, che è un gas di neutroni degeneri, risulta una struttura autogravitante in grado di arrestare il collasso.
E’ nata una stella di neutroni, un oggetto estremamente denso (ρ ) 10 9 g cm 3 ) e
compatto (R ) 10 km).
Per masse iniziali al di sopra delle 20 M # 1 dopo l’esplosione si ha una parziale
ricaduta del materiale espulso sul nucleo, la cui quantità cresce linearmente con
la massa della progenitrice. Il valore massimo della massa dei resti è di 3 M # (una
stella di neutroni vicina al suo limite di Chandrasekhar) e si raggiunge per una
massa iniziale di 20 7 M # . A partire da masse iniziali di circa 25 M # c’è una leggera
diminuzione ed un successivo appiattimento nella relazione che lega la massa dei
resti a quella iniziale, ciò è dovuto al vento stellare, che diventa così efficace da
spazzare via completamente gli strati più esterni di idrogeno. Al crescere della
massa originaria, quindi, il vento solare agisce da catalizzatore inibitore all’effetto
di ricaduta delle parti espulse, in quanto alleggerisce la stella prima dell’esplosione,
rendendo la crescita della massa rimanente non più lineare rispetto a quella iniziale,
ma più lenta.
Oggetti in origine più massicci di 42 M # collassano direttamente a buchi neri
allo spegnimento delle ultime reazioni, senza subire alcuna esplosione. Questa
è una conseguenza della saturazione della ricaduta: a causa dell’enorme massa,
infatti, tutta la materia espulsa dall’onda d’urto collassa inesorabilmente sul nucleo.
Stelle nate al di sopra delle 48 M # raggiungono altissime luminosità ed attraversano uno stadio in cui perdono massa ad una velocità molto alta, e questo ha
due effetti che portano nella stessa direzione: in primo luogo, la perdita di massa
aumenta se la stella è più massiccia, per cui le masse dei nuclei sono sempre più
1
Purtroppo esistono ancora molte incertezze associate alla fisica dell’esplosione di una supernova, a causa dei complicati meccanismi idrodinamici che avvengono durante il collasso del nucleo,
per cui è possibile che usando diversi modelli vengano trovati risultati con differenze significative. Il
modello di evoluzione stellare qui preso come riferimento è quello elaborato da Hurley, Pols e Tout
[9].
CAPITOLO 1. BINARIE COALESCENTI
15
piccole; inoltre per masse più grandi la fase di variabile blu luminosa ha inizio
prima nella vita della stella, che viene privata di idrogeno, di conseguenza anche il
nucleo di elio che si forma è più piccolo, e così il nucleo residuo. Per cui le stelle
che attraversano la fase di variabile blu luminosa muoiono come quelle di massa
minore, con un’esplosione di supernova e una parziale ricaduta di materia sul nucleo. Secondo il modello standard di vento stellare, il minimo nucleo si forma per
una massa iniziale di 52 5 M # , al di sopra della quale esso riprende la sua crescita
con l’aumento della massa. Per masse iniziali superiori di 72 3 M # , infine, si genera nuovamente un buco nero tramite una ricaduta completa della materia espulsa,
senza esplosioni.
Riassumendo brevemente, a seconda della massa le stelle hanno una diversa
fine:
0 5 % 0 8 M #+* M
*
8 M#
nana bianca, sopra la massa solare supernova da defla-
grazione di carbonio, il cui nucleo diventa nana bianca
8 M#
M
*
20 M #
*
esplosione di supernova ed il nucleo rimanente (minore di
1,44 masse solari) è una stella di neutroni
20 M #
*
M
*
42 M #
esplosione di supernova con nucleo che collassa a buco nero
42 M #
*
M
*
48 M #
collasso a buco nero senza esplosione (il materiale ricade sul
nucleo)
48 M #
*
M
*
72 3 M #
esplosione di supernova con nucleo che collassa a buco
nero
M
*
72 3 M #
collasso a buco nero senza esplosione (il materiale ricade sul nu-
cleo)
1.2.2 Evoluzione di un sistema binario
La vita di un sistema binario è fortemente condizionata dalla separazione iniziale
tra le sue componenti. Se questa è elevata (dell’ordine di 10 5 , 6 R # ), è molto probabile che, a causa dell’interazione con le stelle “di campo” vicine nell’ammasso,
il legame si sciolga prima che avvenga qualsiasi fenomeno evolutivo.
CAPITOLO 1. BINARIE COALESCENTI
16
Se l’orbita è sufficientemente stretta da garantire l’esistenza del sistema stesso,
ma ancora piuttosto larga, ciascuna stella non sarà influenzata dalla presenza della
compagna, e procederà secondo l’evoluzione stellare standard per buona parte della
sua vita, almeno fino allo spegnimento delle reazioni di entrambe le componenti.
In ogni caso le interazoni mareali tenderanno a stabilire la circolarizzazione
dell’orbita, e la sincronizzazione tra periodo di rivoluzione e rotazione delle due
stelle, stato di minima energia. Il secondo processo, tramite la cessione di momento
angolare orbitale a quello rotazionale, ha come conseguenza il restringimento del
sistema, e, a seconda della separazione iniziale, può essere determinante per la sua
storia futura.
I meccanismi di circolarizzazione e sincronizzazione variano [9]: per sistemi
molto eccentrici anche il vento stellare può contribuire, ma la forma di dissipazione
più efficiente è legata alle forze mareali. Per stelle di sequenza principale inferiore pare che la causa principale delle instabilità mareali sia la viscosità turblenta
dell’inviluppo convettivo, fenomeno peraltro ancora poco conosciuto, mentre per
masse più grandi le cause scatenanti sembrano le oscillazioni del campo mareale
stesso.
I tempi caratteristici per la sincronizzazione e la circolarizzazione di stelle con
inviluppi radiativi sono generalmente ordini di grandezza maggiori rispetto a quelli
che caratterizzano l’equilibrio mareale delle stelle di sequenza principale superiore,
tuttavia entrambi risultano molto inferiori rispetto ai tempi evolutivi di una stella,
per cui è ragionevole considerarli fenomeni istantanei.
La circolarizzazione avviene quando le misure di una stella sono paragonabili
con la separazione del sistema:
R1
-
0 2 ap
(1.6)
dove a p è la distanza al periastro. Questa condizione è soddisfatta quando almeno
una delle due componenti evolve oltre la sequenza principale, oppure per sistemi
molto stretti. Non appena la relazione precedente è valida l’orbita si trasforma
conservando il momento angolare fino a che la nuova distanza al periastro diviene
pari a 5 raggi della stella più espansa, o fino alla circolarizzazione.
Se la separazione è minore di 104 raggi solari si avranno interazioni e scambio
CAPITOLO 1. BINARIE COALESCENTI
17
di massa tra le due componenti.
La presenza del sistema binario modifica lo spazio in sua prossimità, e nell’approssimazione di meccanica newtoniana e di orbite circolari, il potenziale in un
generico punto sarà dato da:
V x y z G
m1
r1
G
m2
r2
ω2
2
.
x
2
m2
m1
m2
a
y2 /
(1.7)
dove è stato scelto un sistema di riferimento corotante con il sistema stellare, con
origine nella componente primaria, e la secondaria sull’asse x come schematizzato
in figura. ω 10
m1 m2
a3
è la velocità angolare kepleriana di rivoluzione.
Sul piano dell’orbita le superfici equipotenziali hanno la forma mostrata nella
figura seguente:
CAPITOLO 1. BINARIE COALESCENTI
18
dove le due superfici chiuse tangenti in L 1 , punto singolare detto lagrangiano
interno, sono i Lobi di Roche, buche di potenziale pertinenti al campo individuale
di ciascuna stella, mentre i punti L 2 ed L3 sono le porte attraverso cui il sistema più
espellere materiale all’esterno.
Quando una delle componenti (generalmente la primaria, più massiva e di conseguenza più veloce nella sua evoluzione) espande il proprio raggio oltre il lobo
di Roche, inizierà a fluire materia verso la compagna attraverso L 1 . La risposta
del sistema a un fenomeno di trasferimento di massa dipende dalle fasi evolutive
e dalle masse delle due stelle, e gli scenari che si presentano a questo punto sono
molteplici [2].
Trasferimento dinamicamente stabile non conservativo. Si ha quando il donatore è una stella di sequenza principale e l’accettore in uno stadio qualunque della
sua evoluzione, oppure se il donatore è una gigante mentre la compagna non lo è,
e vale la relazione:
mdon
con cr
2
cr macc
(1.8)
2 5 o 1 a seconda dei casi.
Durante questa fase, parte della massa persa dalla primaria ( f a ) è trasferita alla
compagna, il resto viene perso dal sistema con un momento angolare specifico pari
CAPITOLO 1. BINARIE COALESCENTI
a
2π ja2
T
. La corrispondente separazione orbitale si modificherà secondo la formula:
af
ai
per fa
f
f
f
mdon macc
midon miacc
mdon
midon 4
3
2j 1
f
exp
.
2 j mdon midon miacc
/
(1.9)
0, mentre se è diverso da zero, si ha:
af
ai
f
e macc
19
f
miacc
f
mdon macc
midon miacc
3
f
mdon
midon 4
2 j 1 fa !
2
f
3
macc
miacc 4
2 faj 1 f a !
2
(1.10)
f fa midon mdon
. Secondo il modello standard la metà della massa
persa dalla primaria viene espulsa dal sistema, per cui j 1.
Il trasferimento di materia si interrompe quando per ciascuna componente il
lobo di Roche torna ad essere più largo del raggio della stella. Per stelle primarie evolute oltre la sequenza principale, il modello assume che esse perdano
completamente l’inviluppo e rimanga soltanto il nucleo di He o C-O.
Trasferimento di massa stabile conservativo. Questo caso è analogo al precedente, con la condizione f a
1 che corrosponde ad un trasferimento di massa
senza alcuna perdita da parte del sistema.
Trasferimento non stabile: inviluppo comune standard. Avviene quando la
stella primaria è in fase di gigante, mentre la compagna può essere in sequenza
principale, o una nana bianca, o anch’essa una gigante ricca di He e non viene
soddisfatta la condizione 1.8. In queste condizioni il trasferimento non è stabile, e
passa attraverso una fase di inviluppo comune, durante la quale entrambe le stelle
riempiono il proprio lobo di Roche e necessariamente fluirà materia verso l’esterno
tramite i punti lagrangiani secondari, a spese dell’energia orbitale del sistema, che
di conseguenza diventerà molto stretto. La separazione finale può essere calcolata
tramite la relazione:
f
αce
3
Gmdon macc
2a f
Gmidon macc
2ai
4
Gmidon mdon 5 inv
λRdon 5 lr
(1.11)
dove mdon 5 inv è la massa dell’inviluppo della stella primaria, R don 5 lr il raggio del suo
lobo di Roche, λ un parametro tale cheλ α ce
1. Il membro a destra dell’equa-
CAPITOLO 1. BINARIE COALESCENTI
20
zione rappresenta l’energia di legame dell’inviluppo della stella donatrice, mentre
il lato destro esprime la differenza tra le energie orbitali finale e iniziale, ed α ce
l’efficienza con la quale il processo strappa via l’inviluppo alla stella.
Trasferimento non stabile: doppio inviluppo comune. Se le due componenti
sono entrambe giganti con inviluppi convettivi ed è in atto un trasferimento di
massa è possibile che si formi una fase di inviluppo comune doppio, in cui i due
nuclei spiraleggiano nella fusione dei due inviluppi. Come nel caso precedente,
è possibile scrivere una relazione tra le energie utile per calcolare la separazione
finale:
f
f
Gm1 m2
2a f
αce
3
Gmi1 mi2
2ai 4
Gmi1 mi1 5 inv
λR1 5 lr
Gmi2 mi2 5 inv
(1.12)
λR2 5 lr
con le stesse notazioni.
Fase di inviluppo comune con accrescimento ipercritico. Se una delle stelle è un
buco nero o una stella di neutroni è possibile giungere ad una fase di inviluppo
comune soltanto se la separazione diviene uguale al raggio della gigante che cede
materia. In queste condizioni l’oggetto compatto strappa una quantità significativa
di massa alla compagna tramite un accrescimento ipercritico. Il risultato finale (la
massa accumulata e la nuova distanza) viene calcolato come soluzione numerica
delle equazioni differenziali:
m1 m2 6 6 m1 m2 m2 7 1 2λ 1 αce1 2m2 m2 5 nucl m1
m1 m22 a 1 6 6 m1 m2 m2 7 1 m2 a 1 6 m1 2λ 1 αce1 m2 m2 5 nucl 7
(1.13)
da
dm2
dm1
dm2
m1 6 6 m 1
m2 1
m2 7
1
1 m2 a
m1 m2 6 6 m1 m2 m2 7 1 2λ 1 αce1 2m2 m2 5 nucl m1
m1 m22 a 1 6 6 m1 m2 m2 7 1 m2 a 1 6 m1 2λ 1 αce1 m2 m2 5 nucl 98
7;:
(1.14)
ottenute imponedo il bilancio dell’energia durante la fase di inviluppo comune
αce ∆Eorb
∆Eleg .
Cronologicamente, un primo episodio di incontro ravvicinato può avvenire già
CAPITOLO 1. BINARIE COALESCENTI
21
in fase finale di sequenza principale della primaria, se il sistema è sufficientemente
stretto. In questo caso gli effetti evolutivi, che in questa fase portano ad un aumento
del raggio, si manifestano su tempi scala più lunghi di quelli del riaggiustamento
strutturale su raggi minori indotto dalla diminuzione di massa, perciò il trasferimento sarà stazionario e stabile per lungo tempo. Infatti per queste strutture il
riassestamento avviene su tempi scala dell’ordine del tempo di Kelvin:
tk
Eth
L1
3 Gm21
4 L1 R1
(1.15)
il quale indica quanto impiegherebbe una stella ad irraggiare tutta l’energia termica
a sua disposizione se non potesse più produrne in alcun modo, e la seconda uguaglianza vale solamente nella fase di sequenza principale e nell’ipotesi di simmetria
sferica. Il tempo scala per il trasferimento di massa è invece circa un ordine di
grandezza al di sopra, per cui in questo stadio ad una diminuzione di massa segue una diminuzione di raggio della stella, ed il trasferimento sarà stazionario. La
compagna su cui cade materia si vede depositare un’energia pari a:
Lgrav
Gm2 ṁ1
R2
(1.16)
Esiste tuttavia un limite fisico alla luminosità che una struttura stellare può emettere
senza che gli strati esterni diventino gravitazionalmente slegati, detto luminosità di
Eddington:
LEdd
4πcR
ke
(1.17)
dove ke è l’opacità superficiale.
Confrontando le due espressioni si ottiene una relazione per il tasso di accrescimento limite, oltre il quale la materia trasferita dalla primaria non è accettata
dalla compagna, e viene persa dal sistema:
ṁEdd
4πcR
ke
10
4
R
M #=< anno
ke
(1.18)
Quindi è la velocità di trasferimento che decide se esso sia conservativo o meno.
Un trasferimento cessa di essere stazionario quando viene a mancare la condizione che lo ha determinato, ovvero la risposta strutturale di diminuire il raggio ad
CAPITOLO 1. BINARIE COALESCENTI
22
una diminuzione di massa, oppure nel caso in cui le dimensioni del lobo di Roche
varino su tempi scala inferiori a quelli di riaggiustamento strutturale. In generale
la stazionarietà viene persa prima del raggiungimento della fase di gigante rossa da
parte della primaria.
Se il sistema è inizialmente più largo (a > 10 2 % 103 R # ), il primo contatto avviene quando la stella di massa maggiore è in fase di gigante. In questi casi le
proprietà fisiche dei profondi inviluppi convettivi sono tali da indurre un aumento
di raggio ad una diminuzione di massa, per cui l’aumento del raggio è positivamente reazionato dalla perdita di massa attraverso il punto lagrangiano interno e l’unico
freno ad un processo a valanga è costituito dall’inerzia della struttura a riaggiustarsi su raggi maggiori. Date condizioni iniziali portano il sistema a sperimentare una
fase di inviluppo comune, perché la secondaria accetta materiale soltanto fino a
che il tasso di trasferimento è entro il limite di Eddington, dopodiché la massa in
eccesso comincia a riempire il lobo di Roche della secondaria, e successivamente
anche i volumi contenuti dalle superfici equipotenziali esterne. L’espansione dell’inviluppo comune si arresta solamente quando viene raggiunta la prima superficie
critica singolare nel primo punto lagrangiano esterno, da cui potrà finalmente fluire
verso l’esterno.
Il trasferimento avviene su tempi scala termici, molto più brevi rispetto a quelli del caso stazionario, e si arresta solamente quando gran parte dell’inviluppo è
stato ceduto e della primaria non rimane che un nucleo circondato da un piccolo
inviluppo radiativo (pochi decimi di massa solare). E’ anche possibile, sebbene
meno probabile, che il trasferimento abbia termine perché la struttura recede dalle
condizioni espanse per motivi evolutivi (innesco di una nuova fusione centrale).
Alcuni aspetti evolutivi di un sistema binario immerso in un inviluppo comune
non sono ancora noti con precisione, tuttavia sicuramente il fatto che le componenti
stellari si muovano in un mezzo di densità non trascurabile determina l’insorgere di
attriti. Questi faranno sì che le orbite si restringano a causa della perdita di energia,
per cui il sistema che emerge da una fase di inviluppo comune risulta più legato di
quello originario.
Una coppia di stelle nel corso della sua esistenza può passare attraverso più
fasi di inviluppo comune, a seconda della separazione, delle masse, e di altre
caratteristiche del sistema stesso.
CAPITOLO 1. BINARIE COALESCENTI
23
Se entrambe le componenti sono poco massicce, dopo un primo episodio di
inviluppo comune la primaria è ridotta ad una nana (di He o di C-O a seconda della fase in cui è avvenuto il trasferimento di materia) in fase di raffreddamento, il
rapporto di masse è invertito, e, visto che l’orbita è più stretta, sicuramente avverrà
un nuovo scambio di materia. Quando la separazione è sufficientemente piccola
da far riempire il lobo di Roche della secondaria alla fine della sequenza principale, il trasferimento sarà conservativo, altrimenti si giungerà ad un nuovo stadio
di inviluppo comune. A seconda delle fasi evolutive delle stelle al momento dei
trasferimenti, potranno avvenire o meno nuovi scambi di massa, lo scanario che si
presenterà alla fine di questi, sarà tuttavia in ogni caso un sistema di nane molto
stretto (separazione dell’ordine di qualche raggio solare).
Stelle di massa maggiore attraversano una fase nella quale si scambiano materia in modo dipendente dalla separazione iniziale, dopodichè, quando una delle
due giunge al punto di dover esplodere come supernova, il destino del sistema è
nuovamente determinato dalla distanza tra di esse prima dell’evento. Se le due
componenti non erano sufficientemente legate il sistema viene distrutto e le stelle
continuano ciascuna la propria esistenza individualmente, altrimenti il risultato finale è un sistema più largo, con i rapporti di massa scambiati. La materia espulsa
dalla supernova non interagisce con la compagna, ma viene immediatamente persa
attraverso i punti lagrangiani. A questo punto la primaria è una stella di neutroni
o un buco nero, a seconda della sua massa iniziale, mentre la secondaria, procede
nella sua evoluzione, durante la quale è possibile che conduca il sistema verso una
seconda fase di inviluppo comune prima di espoldere anch’essa come supernova o
di morire come nana, a seconda della massa. Comunque, l’effetto dell’eventuale
secondo scambio di massa è quello di rendere la separazione ancora più stretta, e
far nascere così sistemi stretti di oggetti compatti.
Hurley, Tout e Pols [9] forniscono un esempio di sistema che dà origine ad una
coppia di stelle di neutroni. Nelle ipotesi di orbita già circolare e di velocità indotta
dall’esplosione della supernova alla compagna trascurabile, due masse iniziali di
13 1 e 9 8 M # alla distanza di 138 R # attraversano il primo scambio di massa dinamico quando la primaria è una gigante. Dopo una fase di inviluppo comune la
situazione che si presenta è una binaria composta da una stella di elio di 3 7 M # ed
una compagna in sequenza principale accresciuta a 18 7 M # . Il sistema evolve e la
CAPITOLO 1. BINARIE COALESCENTI
24
prima stella esplode come supernova, lasciando al suo posto una stella di neutroni
di 1 34 M # ed allarga un po’ la separazione. Si ha un ulteriore stadio di inviluppo comune non appena la secondaria riempie il proprio lobo di Roche, e riduce la
sua massa a 4 6 M # , mentre la primaria resta invariata e il sistema si fa sempre più
stretto (1 6 R # ). Dalla seconda esplosione di supernova emerge un sistema di stelle
di neutroni con periodo orbitale di 0 5 giorni.
Ci sono degli intervalli di masse per cui le stelle non subiscono espolsioni di
supernova ma collassano direttamente a buco nero, in questi casi non c’è alcuna
modifica dell’orbita dovuta alla nascita dell’oggetto (conseguenza che in Relatività
Generale continua a valere se il collasso avviene con simmetria sferica, ed è nota
come teorema di Birkhoff), e perciò i corrispondenti intervalli di masse dei buchi
neri saranno maggiormente popolati di sistemi stretti.
La seguente tabella riassume i principali canali di formazione dei sistemi compatti:
CAPITOLO 1. BINARIE COALESCENTI
25
dove a indica la stella primaria, b la secondaria e la legenda dei simboli è:
NC: trasferimento di massa non conservativo
SCE: fase di singolo inviluppo comune
DCE: fase di doppio inviluppo comune
HCE: inviluppo comune con accrescimento ipercritico
SN: esplosione di supernova o collasso del nucleo senza esplosione (per i valori
di masse che lo prevedono)
1.2.3 Evoluzione all’interno di un ammasso
Gli ammassi stellari appena nati hanno la forma irregolare della nube che li ha originati, a poco a poco, tramite interazioni tra le componenti raggiungono la propria
configurazione di equilibrio ed assumono una forma sferica con densità crescente andando verso il nucleo (ρnucl
>
10
1
%
106 M #?< Pc3 ), per questa caratteristica
vengono detti ammassi globulari.
La struttura di un ammasso può essere descritta in termini di sistema di N corpi, dove il numero di stelle varia da 10 4 a 107 a seconda delle dimensioni. Il tempo
di rilassamento è il tempo tipico impiegato dalle interazioni gravitazionali con le
altre stelle dell’ammasso a rimuovere completamente la storia della velocità originaria di una componente, in altre parole entro il tempo di rilassamento l’ammasso
raggiunge il proprio equilibrio termico come gas di stelle. Valori tipici richiesti per
questi assestamenti sono in media 10 9 anni, minori dell’età degli ammassi globulari
che osserviamo oggi, che quindi hanno raggiunto la configurazione stabile.
Non appena si sono formate le stelle dalla nube molecolare, il protoammasso
comincia a collassare cercando l’equilibrio. Inizialmente le stelle sono distribuite
in un ampio intervallo di posizioni e velocità in modo indipendente dalla massa,
e questo ha come effetto che le più massicce abbiano energia cinetica maggiore.
Attraverso gli urti resi sempre più frequenti col procedere del collasso, queste cederanno energia alle stelle più piccole, e tenderanno a concentrarsi per virializzazione
verso il centro dell’ammasso (processo di segregazione della massa). In 10 9 anni
le stelle di massa superiore a 2 masse solari hanno già esaurito i combustibili, e
sono oggetti compatti, per cui la popolazione del centro di un ammasso globulare
è in gran parte composta da oggetti degeneri.
CAPITOLO 1. BINARIE COALESCENTI
26
I sistemi binari sopravvissuti presenti hanno un’energia di legame molto maggiore dell’energia cinetica media di un corpo dell’ammasso, per cui di fatto a livello
globale possono essere considerati come un oggetto singolo. Questi possono aver
resistito alle interazioni grazie alla forte energia di autogravitazione, oppure essere
nati o essersi modificati nel corso del riassestamento dell’ammasso, per interazioni
con singole stelle, o per cattura mareale.
La cattura mareale avviene quando due stelle si avvicinano talmente tra loro da
provocare forti interazioni di marea, che hanno l’effetto di eccitare i modo di oscillazione non radiali delle stelle. Se l’energia assorbita in queste oscillazioni risulta
grande abbastanza da lasciare le due componenti con un’energia totale negativa,
si forma un sistema binario. Molto più spesso però l’effetto delle forze di marea
è così forte da portare le due stelle a coalescere, per cui la cattura mareale non è
un canale di formazione usuale per i sistemi binari. Le interazioni tra più corpi
statisticamente avvengono più di rado rispetto alle precedenti, ma nell’evoluzione
di un ammasso globulare sono le più frequenti cause della nascita di sistemi binari,
che comunque non sono moltissime rispetto al numero iniziale già presente.
Un fenomeno molto frequente nella vita di un ammasso sono le trasformazioni
di sistemi binari esistenti fin dalla nascita dell’ammasso stesso. Le trasformazioni
portano solitamente verso sistemi più stretti e con componenti più massicce.
Dall’interazione di un sistema binario con una singola stella o con altre binarie
risultano tre possibili scenari: la completa distruzione del sistema, uno scambio di
energia tra la binaria e la singola stella, o la sostituzione di una componente con una
stella di campo. Nell’urto l’energia di interazione viene suddivisa tra tutti i corpi
interessati, con la conseguenza che la stella di massa minore riceverà la velocità
maggiore, e sarà quella con maggior probabilità di fuga.
Queste interazioni sono tipicamente abbastanza complesse, e devono essere
studiate per via numerica. Tuttavia in linea generale se l’energia di legame iniziale era grande (maggiore dell’energia cinetica media delle stelle nell’ammasso), il
risultato dell’incontro è un restringimento dell’orbita, in quanto parte dell’energia
gravitazionale viene utilizzata per termalizzare la velocità della stella di campo alla
loro; se il sistema era largo già in partenza è la stella di campo che cede parte della sua energia, contribuendo ad indebilire ulteriormente il sistema. Tutto ciò può
essere riassunto nella “legge di Heggie”: I sistemi forti vengono rafforzati, quelli
CAPITOLO 1. BINARIE COALESCENTI
27
deboli indeboliti.
L’energia cinetica media delle stelle di campo di un ammasso è legata alla sua
temperatura media:
@
mv2 A
3kB T
(1.19)
con kB costante di Boltzmann. Studi numerici [3] sui risultati delle interazioni di
sistemi stretti indicano che l’energia di legame viene incrementata del 20% ad ogni
incontro, e dato che il numero di urti è proporzionale al semiasse maggiore dell’orbita (o equivalentemente ad E
1)
il tasso di rinsaldamento del legame orbitale
risulta indipendente dall’energia stessa:
∆E
>B
0 6
kB T
tril
(1.20)
dove tril indica il tempo di rilassamento dell’ammasso.
I diversi studi numerici sulle interazioni dei sistemi fortemente legati hanno in
comune la previsione di scambi della stella più piccola con una più massiccia. Attraverso interazioni di scambio quindi, la distribuzione di massa delle componenti
binarie si dirige verso stelle di massa più grande, aumentando così il numero di
futuri sistemi relativistici.
Il caso di sistemi di buchi neri è diverso, in quanto i loro progenitori evolvono
troppo velocemente rispetto al tempo di rilassamento dell’ammasso. Essi vengono subito attratti nel centro dalla segregazione di massa, e qui, essendo molto più
massicci delle altre stelle di campo tendono a creare una sorta di sottoammasso e
ad interagire soltanto tra di loro. I sistemi di buchi neri si formano tramite processi
a due o tre corpi, mentre le binarie di un buco nero con una stella meno massiccia vengono trasformati dagli urti che tendono a far sfuggire la componente più
leggera. La popolazione di buchi neri al centro dell’ammasso in sostanza evolverà
separatamente, poiché nessuna stella è così massiccia da poter influire sulla loro
dinamica.
CAPITOLO 1. BINARIE COALESCENTI
28
1.3 Irraggiamento gravitazionale
Una volta giunti allo stadio finale della propria esistenza, dopo processi di scambi
di materia, ed eventuali scambi di compagne in zone di alta densità stellare quali i
centri degli ammassi, i sistemi binari continuano ad essere degli oggetti tutt’altro
che inerti. Le stelle infatti hanno raggiunto densità estremamente elevate concentrate in raggi ridotti, condizioni alle quali gli effetti della Relatività Generale iniziano ad essere significativi, in particolare la perdita di energia orbitale sotto forma
di onde gravitazionali, che spinge i due oggetti sino alla coalescenza.
1.3.1 Un po’ di storia...PSR B1916+13
Una delle più grandi conferme della Relatività Generale degli ultimi 30 anni è
costituita appunto dai sistemi binari di stelle di neutroni, che hanno fornito la prima
evidenza sperimentale dell’esistenza delle onde gravitazionali.
Nel 1974 Hulse e Taylor scoprirono una pulsar con caratteristiche peculiari [8].
Una pulsar (abbreviazione di “pulsating radio source”) è una radiosorgente che
emette un segnale in forma di brevissimi impulsi regolarmente spaziati, con un
intervallo dell’ordine del secondo o una frazione. La brevità del periodo di pulsazione fornisce già indicazioni sulla natura dell’oggetto, considerato che la pulsazione è legata alla sua rotazione: anche una nana bianca è troppo grande, l’unico
candidato possibile è quindi una stella di neutroni. Come verifica è interessante
stimare il periodo di rotazione di una stella di neutroni con massa e momento angolare solari, ma raggio intorno ai 10 km. Assumendo per semplicità che la stella
di neutroni nasca da una compressione in scala a partire dalle dimensioni solari 2
, ad una riduzione di un fattore 7 104 nel raggio corrisponderà una riduzione di
un fattore 5 109 del momento d’inerzia, quindi un corrispondente aumento della
velocità angolare di rotazione. Partendo dal periodo del Sole si arriva a meno di
0,5 ms, il che mostra che i periodi osservati sono perfettamente compatibili con
l’ipotesi che si tratti di una stella di neutroni. Il meccanismo di emissione della
radiazione può essere spiegato ancora come conseguenza del collasso: ogni stella infatti ha un campo magnetico con l’andamento di un dipolo, ed anche questo
2
RC
D
Per maggior chiarezza, i parametri significativi del Sole sono i seguenti: M CED
7 F 105 km , L C D 3 G 8451033 erg s H 1 , Trotaz I 27 giorni
2 F 1033 g ,
CAPITOLO 1. BINARIE COALESCENTI
29
viene compresso, per la conservazione del flusso magnetico, quindi, la stella di
neutroni la stella acquista un intenso campo magnetico polare. In generale la direzione dei poli magnetici non corincide esattamente con l’asse di rotazione. Inoltre
i neutroni della stella non sono tutti stabili: le condizioni di densità tali da garantire
la completa neutronizzazione sussistoni in realtà solamente nel nucleo, mentre in
superficie i neutroni decadono, emettendo elettroni di alta energia. Attraversando
il forte campo magnetico, questi elettroni emettono radiazione di sincrotrone, concentrata nella direzione del loro moto e molto più intensa dove il campo è più forte,
ossia nelle regioni dei poli magnetici. Dato che la stella ruota, il risultato che si osserva dall’esterno è una radiazione che spazza un cono nello spazio, percepibile da
un osservatore che se ne trovi in prossimità. La stella emette energia a spese della
sua energia cinetica, col passare del tempo, quindi, il periodo della pulsar tende
lentamente ad aumentare.
La pulsar osservata da Hulse e Taylor aveva un periodo di 59 ms, ed una variazione della frequenza dovuta alla perdita di energia accennata sopra, di 2 47583 2 10
15 s 2 [8], ma possedeva
anche una variazione periodica con un periodo di 27906 9807804 6 s, si ampiezza relativa di circa 10
3.
L’interpretazione che ne dettero fu quella di un
effetto Doppler, derivante dal moto orbitale della stella in un sistema binario. Dal
periodo orbitale, tramite la terza legge di Keplero, fu possibile ricavare il valore dell’espressione
a3 m1 m2 !
m32
2
dove a è il semiasse maggiore dell’orbita, e, assumentdo
che le masse fossero dell’ordine di quella del Sole, trovarono a ) 2 10 6 km, poco
più del diametro solare, ed un’eccentricità e ) 0 62. Data la distanza ravvicinata,
constatarono che dovesse trattarsi di un sistema binario di stelle di neutroni.
Il sistema risultava così stretto da necessitare la mobilitazione della Relatività
Generale, la quale permise di raffinare le conoscenze: in primo luogo, la variazione di frequenza non era dovuta soltanto all’effetto Doppler, ma esisteva anche un
significativo redshift gravitazionale nel campo della compagna (circa 3 10
5
tra
apoastro e periastro), e un effetto di ritardo della luce dovuto alla presenza delle
masse non trascurabile. Inoltre dallo studio dettagliato del moto orbitale fu evidenziato un notevole spostamento del periastro (altro effetto previsto dalla teoria
einsteiniana), di 4 226621 11 J<
anno . Confrontando tutti questi effetti con le pre-
visioni teoriche determinarono tutti i parametri delle stelle, in particolare le masse:
m1
1 4410 5 M # ed m2
1 3784 5 M # .
CAPITOLO 1. BINARIE COALESCENTI
30
Ma le osservazioni prolungate nel tempo mostrarono un altro fatto: il periodo
orbitale non era costante, ma decresceva nel tempo:
Ṫ
12
2 422 6 10
(1.21)
Una diminuzione del periodo implica un restringimento dell’orbita, ed una conseguente perdita di energia del sistema, pari a
Ė
su un’energia totale di
)B
5 6 1031 erg s
1
9 67 1047 erg.
L’unico meccanismo che potesse spiegare questa perdita di energia era l’emissione di onde gravitazionali, che la teoria di Einstein prevede essere nell’approssimazione di quadrupolo:
Ė
G4 m21 m72
32
5 c5 a5 m1 m2 1
4
73 2
24 e
1 e2 37 4
96 e
7
2
(1.22)
dove l’apparente asimmetria tra le due masse è dovuta all’uso del semiasse dell’orbita di m1 , anzichè di quello del moto relativo.
E’ stato effettuato un confronto teoria-osservazioni, e nell’arco di circa 20 anni
di monitoraggio, ha dato il seguente risultato: 1 0032 K 0 0035, che nel 1993 è
valso ai due scienziati il Nobel per la fisica.
1.3.2 Forma del segnale
Un sistema binario ha un momento di quadrupolo gravitazionale dato da:
Qi j
dove η L
m1 m2
m1 m2 !
2
2η vi v j
M
n̂i nˆj a
(1.23)
, n̂i ed nˆj sono i versori delle direzioni delle due componenti, M
la massa totale.
Per avere un’idea degli ordini di grandezza e delle caratteristiche del sistema
“ideale” da rivelare, è utile calcolare il segnale irraggiato da un modello estremamente semplificato: si supponga che le stelle siano gemelle di massa m e che
CAPITOLO 1. BINARIE COALESCENTI
31
l’orbita sia circolare, allora il momento di quadrupolo risulta proporzionale alla
M a 2 . La sua derivata terza
...
2
Ma2 ω3 , e
richiede di dividere per la terza potenza del periodo, quindi Q > Ma
>
T3
massa totale ed al quadrato del raggio orbitale Q
poiché dalla terza legge di Keplero si ha che ω ∝
...
Q>
M
a
M
>
m
,
a3
risulta:
5
2
(1.24)
Di conseguenza la luminosità gravitazionale emessa è proporzionale alla quinta
potenza del rapporto nella formula precedente che, se espresso in unità geometriche, suggerisce come migliori sorgenti i sistemi stretti dove la separazione tra gli
oggetti sia dell’ordine del loro raggio di Schwarzschild.
L’evoluzione della perturbazione alla metrica spazio-temporale indotta da un
sistema binario può essere suddivisa in tre fasi:
1. una prima, in cui le stelle restringono sempre più la loro orbita fino al primo contatto, che ha la caratteristica di aumentare in frequenza ed ampiezza
con lo scorrere del tempo3 , fino a raggiungere il culmine nell’ ultima orbita
stabile, l’ultima posizione di semiequilibrio per l’energia, nell’istante immediatamente precedente alla forte interazione tra le due stelle che porterà al
contatto e successivamente alla nascita del buco nero.
2. La seconda, in cui avviene la fusione tra le due componenti, che dipende
fortemente dai modelli usati per descrivere l’equazione di stato delle stelle
di neutroni, e dai calcoli numerici sulla geometria generata da due buchi neri
nel caso di sistemi più pesanti.
3. Infine, la terza in cui si porta a compimento la nascita del buco nero generato dalla fusione delle due stelle, che approssimativamente ha la forma di
sinusoidi smorzate, ma con andamento dell’ampiezza e della fase difficili da
prevedere.
3 La metrica
“di base” perturbata dal passaggio dell’onda viene assunta minkowskiana, per cui ha
senso definire il tempo come abitualmente, in quanto gli effetti della radiazione gravitazionale sono
puramente perturbativi
CAPITOLO 1. BINARIE COALESCENTI
32
Nell’approssimazione di masse puntiformi ed orbite newtoniane circolari (alle
frequenze alle quali il segnale è rivelabile la circolarizzazione è avvenuta completamente4 ), la forma d’onda nella prima fase è data da:
h
hx
dove A >
GMc !
r
5
3
A 6 f t
A 6 f t
7
7
2
3
cos φ t 2
3
sin φ t (1.25)
è l’ampiezza dell’onda, inversamente proporzionale alla distanza
e funzione delle due masse tramite la massa di chirp M c
m1 m2 !
L
m1 m2 !
dell’onda, che in questa approssimazione vale:
φ t
16π f0 τ f0 11
con f0 frequenza gravitazionale per t
.
1
1
t
τ f0 5
8
/
3
5
1
5
, φ t è la fase
(1.26)
0, τ f 0 il tempo residuo prima della coa-
lescenza (tempo di chirp), mentre l’andamento della frequenza, che risulta doppia rispetto a quella orbitale, a causa della natura quadrupolare della radiazione
gravitazionale, è dato da:
ft
4
f0 1 t
τ f0 3
8
(1.27)
La binaria PSR B1913+16 attualmente ha eccentricità pari a 0,617 , quando raggiungerà
frequenze di emissione dell’ordine dei 10 Hz l’eccentricità si sarà ridotta fino a 5 G 3 F 10 H 6 [5]
CAPITOLO 1. BINARIE COALESCENTI
33
In base alla frequenza orbitale attuale, le componenti sono destinate a spiraleggiare fino a coalescere in tempi minori o maggiori del tempo di Hubble 5 secondo
la formula:
tcoal
a4
5c5
256G m1 m2 m1 m2 1 5 108
a4
m1 m2 m1 m2 (1.28)
dove la seconda espressione è in unità solari 6 .
Dalla relazione precedente si nota che per masse intorno al valore di quella
solare, occorre una separazione più stretta di 3 raggi solari perchè la coalescenza
avvenga in tempi minori dell’età dell’Universo. Per questo motivo i sistemi di nane,
sebbene abbiano la stessa sorte delle binarie più massicce, difficilmente saranno
osservabili, avendo come punto a proprio sfavore anche un segnale estremamente
più debole (la luminosità gravitazionale dipende fortemente dalla massa).
Una quantità che sarà interessante dal punto di vista della rivelazione è il tempo di permanenza del segnale in una determinata banda di frequenza, ottenibile
semplicemente invertendo la relazione 1.27:
∆t
τ f0
.
fmin f0
8
3
8
3
fmax f0
(1.30)
/
L’espressione per il segnale dato dalla 1.25 è indipendente dalla posizione della
sorgente nel cielo, poiché è calcolata nel suo stesso sistema di riferimento. Ad un
osservatore terrestre l’onda appare invece della forma:
h
hx
A 6 f t
A 6 f t
7
7
2
3 N
cos φ t cos 2θ 2
3 N
sin φ t cos 2θ cos i cos φ t sin 2θ cos 2 i 1
2
sin φ t sin 2θ cos iO
(1.31)
cos 2 i 1
O
2
5
La legge di Hubble v D H0 r lega la velocità di un oggetto alla sua distanza dall’osservatore,
ed esprime l’espansione dell’Universo al primo ordine. Da questa è possibile ricavare un ordine
di grandezza per l’età dell’Universo, dato proprio dall’inverso della costante di Hubble: H0H 1 I
1 G 8 F 1010 anni (tempo di Hubble).
6 Nel caso generale in cui l’orbita sia ancora ellittica con eccentricità e , il sistema è previsto
0
collassare su se stesso entro:
tcoal
D
5c5
a4 P 1 Q e 0 R 4
48
48G m m P m m e 19
T 1
S
1 2 1S
2R
e0
121 e2
304 0 U
3480
2299 V
0
29
e 19 T 1 S
P
1Q
121 e2
304 0 U
3
e2 2
R
1181
2299
de
(1.29)
CAPITOLO 1. BINARIE COALESCENTI
34
dove i descrive l’inclinazione del piano dell’orbita rispetto alla linea di vista, θ la
polarizzazione del’onda. La relazione tra i due sistemi di riferimento è rappresentata nella figura seguente, dove (α δ) indicano le coordinate equatoriali 7 della
sorgente:
1.3.3 Approssimazioni successive
Sempre nell’approssimazione di campo debole, ovvero molto lontano dalle sorgenti, è possibile raffinare i risultati ottenuti con le ipotesi newtoniane, aggiungendo
delle correzioni dette “Post-Newtoniane”.
Il formalismo Post-Newtoniano è sostanzialmente un’espansione in serie attorno all’ipotesi di campo debole (che riguarda quindi il potenziale gravitazionale) e
sorgente lenta (in moto con velocità non relativistiche, lo sviluppo è in potenze di
7
Le coordinate equatoriali permettono di identificare un punto sulla sfera celeste, dove sono
definite le quantità analoghe alla sfera terrestre (equatore, etc.) così è possibile assegnare delle
coordinate alla proiezione delle stelle su questa superficie fittizia. Esse sono così definite:
Declinazione (δ): arco di meridiano celeste compreso tra la stella e l’equatore celeste
Ascensione Retta (α): arco di equatore celeste compreso tra il meridiano celeste passante per
l’astro ed il punto γ, definito come il punto sull’equatore celeste in cui passa il Sole nel giorno
dell’equinozio di primavera.
CAPITOLO 1. BINARIE COALESCENTI
v
c ),
35
dove l’ordine zero è dato dalla teoria Newtoniana, e gli ordini successivi sono
le correzioni apportate dalla Relatività Generale.
Al secondo ordine Post-Newtoniano (2PN) il segnale gravitazionale ha la forma della 1.25, ma l’espressione per la fase in funzione della frequenza è [22]:
φ f
16π fr τ0
5
.
1
5
3
f
fr
3
4
25τ1 5 5
16τ0
5τ1
4τ0
1
1
3
f
fr
3
2
3
1
f fr
5τ2
2τ0
4
4
1
1
3
f
fr
3
(1.32)
/
4
dove fr è una frequenza di riferimento scelta arbitrariamente come unità di misura,
mentre i τi sono i raffinamenti del tempo di chirp newtoniano, definiti come:
τ0
L
5
f
256π r
1
5
3
πM fr τ1
L
1
η
5
f
192π r
τ1 5 5
τ2
L
5
f
128π r
1
1
L
1
πM fr 1
f
8 r
1
3
πM fr 1
753
336
2
3
πM fr 3058673
1016064
11 η η
4
1
1
η
5429 617 2 η
η η
1008
144
1
(1.33)
dove η identifica il rapporto tra massa ridotta e massa totale del sistema.
La frequenza di irraggiamento è data implicitamente dall’equazione differenziale:
df
dt
3 fr
8τ0
f fr
11
3
.
1
3τ1
4τ0
f
fr
2
3
5τ1 5 5
8τ0
f
fr
11
3
1
2
3
τ2
τ0
9
8
τ1 τ0
4
2
4
f 3/
fr
(1.34)
La soluzione delle equazioni di Einstein per l’irraggiamento di binarie è stata
calcolata anche fino al 2,5 PN [5] e successivi, tuttavia l’approssimazione newtoniana è sufficiente per stimare l’orizzonte osservabile per via gravitazionale tramite
una rete di rivelatori, semplificando notevolmente i calcoli.
CAPITOLO 1. BINARIE COALESCENTI
36
1.3.4 Tassi di coalescenze
Il tasso di coalescenza per le binarie al variare delle masse previsto dai modelli
di evoluzione proposti da Belczynski, Kalogera e Bulik è stato calibrato usando il
numero di esplosioni di supernova sperimentale, normalizzato alla nostra galassia
[2].
I diversi modelli scaturiscono da variazioni nel valore di parametri rispetto ad
uno di base, il modello evolutivo standard, ed in alcuni casi si osservano differenze
notevoli nell’evoluzione. Uno di questi casi è dato dalla velocità acquistata in seguito all’esplosione della stella come supernova, che è in valore inversamente proporzionale al numero di binarie che collidono, poiché essa contribuisce a slegare
gravitazionalmente le due stelle, e a rompere il sistema o comunque a renderlo più
largo. E’ inoltre interessante notare come le binarie che ricevano velocità dell’ordine di quella orbitale abbiano le migliori probabilità di sopravvivenza (Kalogera
1996).
Un altro effetto che tende a modificare il futuro di un sistema è la fase di inviluppo comune con accrescimento ipercritico, che oltre ad aumentare la massa
dell’oggetto compatto dandogli la possibilità di collassare a buco nero, porta ad
una configurazione più larga rispetto al caso di accrescimento normale, in quanto
parte dell’inviluppo viene catturato, e non ha quindi bisogno di essere espulso dal
sistema a spese dell’energia orbitale. Il contributo di questo fenomeno è comunque
piccolo, e non modifica la popolazione di binarie, e di consegenza i tassi di coalescenza, in maniera sostanziale. Il numero di buchi neri binari è invece fortemente
affetto dalla perdita di massa per vento stellare, che tende a farlo diminuire.
Il numero di coalescenze per galassia normalizzato alla Via Lattea è riportato
nella tabella seguente, dove gli autori hanno calcolato il flusso per ogni variazione
del modello standard (A):
nei modelli di tipo B è stata variata la velocità impressa dall’esplosione della
supernova (da 0 a 600 km s 1 )
il modello C non prevede l’accrescimento ipercritico
i modelli D variano il valore della massa di Chandraseckar per le stelle di
neutroni
nei modelli E cambia l’efficienza dell’inviluppo comune
CAPITOLO 1. BINARIE COALESCENTI
37
quelli di tipo F fanno variare la frazione di massa accresciuta dalla compagna
nei modelli di tipo G cambia l’efficienza del vento stellare
in quelli di tipo H ci sono diversi valori di masse dell’inviluppo convettivo di
elio nelle giganti
il modello I assume che le stelle si siano formate tutte 10 miliardi di anni fa
nel modello J è modificata la funzione di distribuzione di massa assumendo che
sia ∝ m
2 5 35
i modelli K alterano la frazione di binarie nella popolazione stellare (dimezzandola e raddoppiandola)
nei modelli L varia il momento angolare perso nella fase di inviluppo comune
i modelli M modificano la distribuzione iniziale del rapporto di masse
il modello artificiale N non prevede l’espansione alla fase di gigante di elio
infine il modello O allarga l’intervallo di masse per cui si ha una parziale
ricaduta di materiale sulla stella:
CAPITOLO 1. BINARIE COALESCENTI
38
Capitolo 2
I rivelatori interferometrici
2.1 Introduzione
Sebbene ci sia analogia tra le equazioni che le generano, per quanto riguarda la
rivelazione le onde gravitazionali sono estremamente più problematiche rispetto
a quelle elettromagnetiche. L’ostacolo principale è dato dalla natura stessa del
segnale gravitazionale: la radiazione che si propaga infatti è una perturbazione
dello spazio tempo, che modificherà quindi anche lo strumento di rivelazione. Per
riuscire quindi a misurare direttamente il passaggio di un’onda gravitazionale, è
necessario sfruttare l’effetto che questa produce sui corpi.
Le uniche componenti non nulle nel tensore di Riemann
1
di un’onda gravi-
tazionale producono delle forze di marea oscillanti, che producono deformazioni
proporzionali alle dimensioni dell’oggetto, per cui su di un singolo corpo dalle
dimensioni trascurabili non hanno alcun effetto.
Prese però due masse che seguano le proprie geodetiche, che sulla Terra si
traduce in “in caduta libera”, se ξi rappresenta la separazione spaziale tra le due
geodetiche, si ha:
d 2 ξi
dt 2
Ri0k0 ξk
(2.1)
1 Il tensore di Riemann è una quantità dipendente dalle derivate seconde della metrica, e si annulla
su uno spazio piatto
39
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
40
dove R indica il tensore di Riemann, che per un’onda gravitazionale è della forma:
Ri0k0
dove è usata la notazione Aαβ 5 β
∂Aαβ
∂xβ
1
hik 5 00
2
(2.2)
per la derivata. Quello che accade dunque
è che due masse investite da radiazione gravitazionale subiscono un’accelerazione
di marea data da:
d 2 δξi
dt 2
1
hik 5 00 ξk
2
Vista la microscopica ampiezza del tensore h è lecito considerare lo spostamento
molto piccolo rispetto alla distanza di equilibrio ξ k , attorno cui esse oscilleranno
con ampiezza:
δξi
1
hik ξk
2
I rivelatori interferometrici sfruttano proprio questo fenomeno, come verrà
spiegato in dettaglio nei paragrafi successivi.
Se le due masse invece che in caduta libera sono collegate elasticamente l’equazione per l’accelerazione è leggermente diversa:
d 2 δξi
dt 2
1
hik 5 00 ξk ω20 δξi
2
e per onde monocromatiche di frequenza ω si integra ottenendo:
δξi
ω2 hik ξk
2 ω20 ω2 Rispetto al caso precedente ha un fattore di risonanza
ω2
ω20 ω2
di cui si servono in-
vece i rivelatori a barra. In questi la molla è costituita dalla stessa elasticità del
blocco che forma l’antenna, ed il principio su cui si basano è il fatto che quando la
frequenza dell’onda si avvicina molto a quella di risonanza del rivelatore, il segnale
risulta fortemente amplificato, per cui è più facile da rivelare. Il difetto di questo
tipo di strumenti è però la banda molto stretta, che permette di captare sorgenti che
emettono ad una determinata frequenza.
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
41
2.2 Interferometro di Michelson e Morley
Tra i metodi per determinare la distanza tra due corpi con estrema accuratezza uno
dei più efficaci consiste nel misurare il tempo impiegato da un fascio di luce per un
viaggio di andata e ritorno da uno all’altro. E’ una tecnica per mappare la struttura
dello spazio-tempo, e l’idea principale sfruttata per l’utilizzo di un interferometro
come rivelatore di onde gravitazionali.
Il primo interferometro, ideato da Michelson e Morley, aveva come scopo lo
studio del moto della Terra nell’etere: a causa di questo, infatti, secondo la legge di
composizione delle velocità galileiana, la velocità della luce sarebbe dovuta essere
diversa nella direzione del moto rispetto a quella perpendicolare.
A questo scopo avevano ideato lo strumento in figura
che nella sua versione più semplice, è costituito da una sorgente luminosa seguita da uno specchio semiriflettente, e due specchi ad una certa distanza dal primo
(la stessa per entrambi), in direzioni ortogonali tra loro. La luce prodotta dalla sorgente viene divisa in due fasci dallo specchio semiriflettente, dopodichè la parte
trasmessa viaggia in una direzione, mentre quella riflessa nell’altra. Giunte alla
fine dei propri percorsi, grazie agli specchi esse tornano indietro per incontrarsi nel
semiriflettente. Provenendo dalla stessa sorgente, le fasi dei due fasci sono lega-
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
42
te tra loro da una relazione nota, per cui è facile studiarne l’evoluzione durante il
tragitto.
Se il campo elettrico della luce in ingresso è E 0 exp i 2π f t kx ed i coefficienti di trasmissione e riflessione dello specchio semiriflettente sono rispettivamente
T
W
i
2
,R
W
1
2
all’ingresso dei due bracci i campi diventano:
Ex
Ey
iE0
X
exp i 2π f t
2
kx x (2.3)
E0
exp i 2π f t
2
ky x (2.4)
X
La riflessione da parte degli specchi alla fine di ciascun braccio inverte semplicemente il segno dei campi, che giunti nuovamente nello specchio semiriflettente
saranno in parte trasmessi, in parte riflessi con i medesimi coefficienti dell’andata.
La luce all’uscita dell’interferometro (quella trasmessa) risulta quindi:
Eout
i
E0 exp i 2π f t
2
i
E0 exp i 2π f t 2ky Ly 2
iE0 cos kx Lx ky Ly exp 2π f t
2kx Lx k x Lx ky Ly (2.5)
Sostanzialmente quindi un interferometro di Michelson traduce la differenza
tra i tempi di percorrenza nella potenza di un segnale luminoso con una precisione almeno dell’ordine del periodo ottico λc . E’ interessante notare che l’ampiezza
dipende dalla differenza di fase tra i fasci nei due bracci accumulata durante il
tragitto. Se questa è nulla la luce viene completamente trasmessa, mentre se c’è
uno sfasamento di
π
2
si ha la riflessione totale e l’uscita è buia. Michelson e Mor-
ley decisero di far partire i due fronti d’onda con fasi ortogonali, in modo che
fosse più semplice, in caso di eventuale sfasamento, percepire un fievole bagliore
nell’oscurità piuttosto che un’impercettibile diminuzione dell’ intensità massima.
Per aumentare la sensibilità dello strumento vennero posizionati ulteriori specchi all’interno dei bracci in modo che i fasci percorressero ripetutamente il tragitto,
aumentando così la lunghezza del percorso e con essa i suoi effetti sull’ampiezza del segnale in uscita. Con un tragitto di 22 m la differenza di tempo data da
uno sfasamento di
π
2
è 1 7 10
16 s,
e l’interferometro è capace di percepire una
differenza di tempi minima pari a 8 10
17 s
[17].
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
43
Secondo la teoria dell’etere, al loro ricongiungimento dopo il percorso nei bracci i due fronti d’onda avrebbero dovuto impiegare tempi diversi, e di conseguenza aver subito uno sfasamento relativo rispetto alla partenza. Quello che i due
scienziati trovarono, però fu che i due fronti erano perfettamente in fase: avevano
involontariamente dimostrato quindi, prima che fosse ipotizzato dalla teoria della
relatività, che la luce viaggia sempre con la medesima velocità in tutti i sistemi di
riferimento.
2.3 Principio di funzionamento di un interferometro gravitazionale
Al fine di monitorare il passaggio di un’onda gravitazionale è necessario misurare
con estrema accuratezza la variazione della distanza tra due masse in caduta libera,
e questo può essere fatto tramite un interferometro di Michelson opportunamente
modificato.
Le due principali correzioni da apportare riguardano le dimensioni ed il fissaggio degli specchi. Il primo problema è dovuto all’entità dello spostamento che
hanno le due geodetiche: esso è proporzionale ad h, quindi quasi infinitesimo. Fortunatamente è proporzionale anche alla distanza iniziale tra gli specchi, perciò è
possibile amplificare gli effetti costruendo un interferometro con bracci dell’ordine
delle centinaia-migliaia di metri, e facendo percorrere il tragitto al fascio il massimo numero di volte compatibilmente con le dissipazioni di energia. Per quanto
riguarda gli specchi, non possono essere legati ad una struttura rigida, ma andranno
sospesi in modo che possano seguire le proprie geodetiche, e questo sarà realizzato
tramite dei pendoli particolari, come spiegato in seguito.
Prima di entrare più in dettaglio nella descrizione dello strumento è importante
capire l’idea base del suo funzionamento. Un raggio di luce può connettere due
punti dello spazio-tempo separati da un intervallo nullo (o di tipo luce, appunto)
ds2
0
(2.6)
Definito il sistema di riferimento del rivelatore con l’origine nello specchio semiriflettente e gli assi x e y determinati dai bracci, l’intervallo percorso da ogni fascio
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
44
di luce avrà soltanto una componente spaziale non nulla, rispettivamente dx o dy,
e sarà della forma:
0 ds2
ηµν
hµν dxµ dxν
c2 dt 2 Y 1
h11 dx2
(2.7)
il che esprime in forma diversa l’effetto che ha l’onda gravitazionale al suo passaggio: modulare la distanza dx tra due punti di un fattore h 11 . E’ possibile calcolare
il tempo impiegato per un viaggio all’interno del braccio:
tand
Z
0
dt
[
1
c
L
Z
1
c
0
1 ] h11 dx ^
\
L
Z
0
1]
_
1
h11 ` dx
2
(2.8)
dove nel secondo passaggio è stata usata l’approssimazione per la radice quadrata
al primo ordine in h, giustificata dal suo valore estremamente piccolo. Il calcolo
per il viaggio di ritorno è lo stesso, ed il tempo totale impiegato dal fascio di luce
è:
τtot
2L 1
c
2c a
L
0
1
2c a
h11 dx 0
L
h11 dx
(2.9)
L’espressione per il braccio perpendicolare è analoga.
Si consideri il semplice caso (al quale perarltro è sempre possibile ricondursi) di onda piana monocromatica di frequenza f che si propaga lungo l’asse z con
polarizzazione
, che ha h11 h22 . Se 2π f τtot
1 è possibile considerare la me-
trica perturbativa h costante durante la sua permanenza nello strumento. Ci saranno
quindi due perturbazioni uguali ed opposte nelle due direzioni perpendicolari, e il
ritardo tra i bracci sarà:
∆τ t h t
2L
c
(2.10)
h t
4πL
λ
(2.11)
corrispondente ad uno sfasamento:
∆φ t dove λ è la lunghezza d’onda del fascio luminoso.
La quantità 2π f τtot però non può crescere indefinitamente: quando vale 1 la
luce impiega esattamente un periodo dell’onda gravitazionale nel suo viaggio, gli
effetti sulla fase si compensano esattamente e all’uscita non risulta alcun passaggio.
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
45
Il valore di τtot per cui questo avviene è per cui il massimo possibile. In tutti i casi
intermedi tra 2π f τtot
1 e 2π f τtot
1 la differenza tra i cammini nei due bracci
e il relativo sfasamento sono rispettivamente:
∆τ t ∆φ t dove sinc x L
1
πx
h t
2L
2L
2L
exp iπ f sinc π f c
c
c
(2.12)
h t
4πL
2L
2L
exp iπ f sinc π f λ
c
c
(2.13)
sin πx.
E’ possibile esprimere, nel limite di basse frequenze, la dipendenza della sensibilità dello strumento dagli angoli di Eulero, ottenendo così la funzione d’antenna:
∆φ t h t
4πL 1 1
cos2 Θ cos 2Φ cos 2Ψ cos Θ sin 2Φ sin 2Ψ c
λ b2
(2.14)
dove gli angoli sono definiti come nella figura seguente:
La risposta del rivelatore è massima quando l’onda si propaga lungo l’asse z ,
nelle direzioni x e y perde di un fattore 2, mentre si annulla completamente sulle
bisettrici dei quadranti x y.
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
46
2.4 Schema di un rivelatore
Il disegno generale di un interferometro gravitazionale, come visto in precedenza, è quello di Michelson e Morley. Entrando un minimo nel dettaglio verranno
ora analizzate le principali caratteristiche dello strumento modificato per captare
radiazione gravitazionale.
Tutto l’apparato è tenuto sotto vuoto per evitare qualsiasi tipo di disturbi esterni, attenzione indispensabile data l’entità estremamante piccola ( 10
21
10
22 )
dell’effetto dell’onda sulla lunghezza del percorso.
2.4.1 Masse in caduta libera
I due specchi sono “trattenuti” in caduta libera tramite dei pendoli, così che le forze
che vi agiscono siano principalmente gravitazionali, e le dissipazioni siano minimizzate. Trascurando le dissipazioni, l’equazione del moto di ciascuno specchio
è:
mẍ
mg
x0 x l
Fext
(2.15)
dove l è la lunghezza della sospensione del pendolo, x la posizione della massa e
x0 della sospensione. In termini della frequenza la soluzione è:
Fext f !
4π2 f02 x0 f m
2
2
2
4π f0 f
x f
(2.16)
con f0 0 gl .
In assenza di forze esterne
x f x0 f f02
f02 f 2
(2.17)
è possibile distinguere due diversi comportamenti: al di sotto della frequenza di
risonanza le vibrazioni presenti nel punto di sospensione vengono interamente trasmesse alla massa, mentre nel limite f
x f!
x0 f !
&
f 02
.
f2
d
f 0 il pendolo funziona da attenuatore e
Nel caso di alte frequenze la massa sospesa la pendolo reagisce ad una solleci-
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
47
tazione esterna come se fosse libera, proprio per questo motivo è possibile simulare
la caduta libera tramite la sospensione.
Al fine di aumentare la sensibilità del rivelatore è utile sospendere lo specchio in fondo a più pendoli in cascata. In questo modo, infatti, la funzione di
trasferimento dal punto di sospensione alla massa finale è:
x f x0 f N
∏ f2
ie 1 i
fi2
f2
(2.18)
e per frequenze sufficientemente al di sopra di quelle di risonanza:
x f x0 f &
∏Nie 1 fi2
f 2N
(2.19)
Da quest’ultima formula si vede che per ottenere uno strumento che riveli in una
banda molto larga, è necessario scegliere per i pendoli materiali con frequenza di
risonanza più bassa possibile.
2.4.2 Tragitto del fascio luminoso
Il raggio di luce che viaggia nei bracci è un laser ad alta potenza, necessario a
mantenere l’ estremo direzionamento e la minima dispersione del fascio durante
il tragitto. Più precisamente, Virgo utilizza un Nd Yag con λ 1064 nm con una
potenza di 20W [10].
Il viaggio del laser verso lo specchio semiriflettente passa attraverso il power recycling allo scopo di aumentare la potenza all’interno dell’interferometro
e ridurre così le fluttuazioni dovute allo shot noise.
Dopo essere stato scisso nei due fasci perpendicolari, per aumentare il cammino ottico e poter così raggiungere sensibilità tali da rivelare segnali gravitazionali,
il laser viene catturato in ciascun braccio da una cavità di Fabry Perot. Essa consiste in una coppia di specchi, uno al suo ingresso, l’altro alla fine della cavità, che
riflettendo ripetutamente il fascio laser, ne allungano la permanenza all’interno del
braccio, e così il cammino ottico. La fase del fascio riflesso all’interno della cavità
è funzione della lunghezza della cavità stessa, ad una variazione δL della lunghezza
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
48
corrisponde uno sfasamento di:
∆φ 8F
δL
λ
(2.20)
con F finezza della cavità, che se R è la riflettività dello specchio, è data da F
. In condizioni di basse frequenza, ovvero quando vale 2π f τtot
W
L
π R
1 R
1, la risposta
dello strumento ad una sollecitazione gravitazionale risulta:
∆φ 8FL
λ
h
0
1
(2.21)
4 f LF 2
c
Confrontando questo risultato con l’analogo nel caso di interferometro di Michelson semplice si ricava un guadagno di sensibilità pari a
2π
F ,
che si traduce come una
lunghezza equivalente del cammino:
Le f f
Per Virgo L
3 km, F
L
2π
F
(2.22)
50 si ha quindi una lunghezza equivalente pari a 95 km
circa.
I due fasci si ricongiungono nello specchio semiriflettente, e la parte trasmessa
viene catturata dai fotodiodi dove è possibile visualizzarla e procedere con l’analisi.
2.5 Rumore
La rivelabilità dello sfasamento indotto dal passaggio di un’onda gravitazionale è
limitata, come avviene per ogni tipo di misura, dal rumore[24].
Le fonti di rumore sono molteplici e possono essere suddivise in due categorie:
1. Fluttuazioni nella posizione degli specchi, associate alle vibrazioni del suolo
(rumore sismico residuo e fluttuazioni della gravità locale), al rumore interno agli specchi e alle sospensioni (rumore termico, effetti non lineari) ed
alla possibile reintroduzione di rumore da parte del controllo attivo delle
sospensioni.
2. Rumore di lettura ottica, legato alla lettura interferometrica della posizione
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
49
degli specchi, che fa fluttuare l’uscita del fotodiodo anche in assenza di segnale, ed è dovuto allo shot noise del laser, alle fluttuazioni della pressione
di radiazione, ed alle fluttuazioni della frequenza e potenza del laser stesso.
A causa di tutti questi contributi il fotodiodo in uscita registrerà continuamente
uno sfasamento all’interno del quale sarà compito degli analizzatori trovare un
eventuale segnale. Lo spettro di questo rumore h n t è così definito:
Sn f lim
Tf ∞
X
1
T
T
2
T
2
a
hn t exp i2π f t dt
2
(2.23)
2.5.1 Rumore sismico
Questo tipo di rumore viene prodotto dalle vibrazioni del suolo, non esiste una
legge universale che lo descriva, anche perchè esso varia anche di ordini di grandezza a seconda del luogo e dei giorni. E’ causato da attività umana (strade vicine,
o macchine agricole nei campi circostanti come nel caso di Virgo), dal vento, ed
anche il mare se è sufficientemente vicino può arrecare disturbi. Per frequenze al
di sopra di 1 Hz è possibile tracciare un andamento approssimativo dello spettro
proporzionale ad
1
:
f4
Ssn f
dove ξ
>
ξ2 10 12
2 f4
f2
f2
f02 f12
2
m2 Hz
3
>
0 1 1 m Hz 2 rappresenta l’attività umana, f 0
>
1
0 1 Hz ed f1
>
(2.24)
0 5 Hz
[10].
Nonostante l’isolamento degli specchi da parte dei pendoli superattenuatori il
rumore sismico è la principale limitazione alla sensibilità degli strumenti a basse
frequenze.
2.5.2 Fluttuazioni della gravità locale
In linea di principio è possibile abbassare indefinitamente la soglia della minima
frequenza rivelabile aumentando il numero dei pendoli in cascata, esiste però un
limite inferiore: a causa delle onde sismiche la distribuzione di massa nel sottosuo-
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
50
lo varia nel tempo, e con essa la gravità locale. Queste fluttuazioni raggiungono
direttamente gli specchi, producendo un rumore con densità spettrale pari a:
Slgn f Ssn
9π
Gρ Lf2
2
(2.25)
con ρ densità media del suolo.
Il gradiente di gravità, detto anche rumore newtoniano, pone quindi di fatto il
limite inferiore alla minima frequenza rivelabile da un interferometro.
2.5.3 Rumore termico
Il rumore termico è associato alle dissipazioni interne al sistema. Tramite il teorema di fluttuazione-dissipazione che lega i fenomeni dissipativi ai moti browniani
del sistema stesso è possibile quantificare queste dispersioni.
Un pendolo è un oscillatore armonico, e nel caso di fluttuazioni dovute al materiale stesso le perdite possono essere rappresentate da un termine immaginario
fittizio nell’equazione del moto, che dà come risultato:
Stn f kB T φ f02
16π3 m f 6 f02 f 2 2 f04 Q
2
(2.26)
7
dove kB è la costante di Boltzmann, T la temperatura e Q il fattore di qualità del
materiale.
Nel caso di più oscillatori in cascata si definisce una massa efficace µ n dove En è l’energia di ogni modo, e lo spostamento provocato è:
Stn f kB T
16π3 f
∑µ
n
n6
fn2 φn fn2
f 2 2 fn4 Qn 2 7
En
4π2 f nx2n
(2.27)
2.5.4 Shot noise
E’ associato alla natura quantistica della luce, che causa una fluttuazione nel numero di fotoni del flusso in uscita data da:
δn
N
cλ
4πPin τ
g
(2.28)
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
51
λ
4π h c Pin τ,
dove N è il numero medio di fotoni per misura, pari a
con τ durata
media di una misura. Questo corrisponde ad un rumore nella rivelazione di:
Sshot
π g c2
1
8F 2 L2 νPin .
4π fgw
2
LF c
(2.29)
/
dove η è l’efficienza quantica del fotodiodo, Pin e φ rispettivamente la potenza e la
fase del laser.
Aumentare la finezza della cavità di Fabry Perot aiuta a ridurre questo tipo
di rumore, però provoca come effetto collaterale la riduzione della banda di rivelazione. A grandi frequenze infatti, quando i 4π fgw LF
c j
2
d
1 , lo spettro risulta
indipendente da F, e se questo è maggiore, l’asintoto viene raggiunto per frequenze
sempre più basse [24].
Lo shot noise può essere ridotto aumentando la potenza del laser o la potenza
accumulata nell’inteferometro, ma mai completamente eliminato.
2.5.5 Fluttuazioni della pressione di radiazione
Le fluttuazioni della potenza del laser generate dalla sua stessa natura quantistica originano una pressione di radiazione aggiuntiva che fa muovere ciascuno
specchio. Lo spettro di questa varizione di pressione è:
S pr
1 g Pin 1
4m2 L2 π3 cλ f 4
(2.30)
Mentre lo shot noise è un rumore nella fase, questo provoca un reale spostamento degli specchi. Per ogni dato valore di Pin esiste una frequenza critica al
di sotto della quale le fluttuazioni nella pressione di radiazione domina sullo shot
noise, però per le potenze a disposizione attualmente questa frequenza è al di fuori
dell’intervallo coperto dai rivelatori, che risultano limitati dallo shot noise [24].
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
52
2.5.6 Instabilità del laser
Per quanto riguarda le instabilità nella frequenza, se ν f è la densità spettrale delle
fluttuazioni, si ha:
1 ν f ∆L 2
(2.31)
Sf f 2 ν L
dove ∆L è la differenza tra le lunghezze delle cavità ottiche dei due bracci.
Oltre alle fluttuazioni in frequenza, un laser ne ha anche in ampiezza, e queste
provocano variazioni nella potenza emessa, che risulta:
Pout
&
Pin δPin
1
2
Pin
δφ Affinchè non venga mascherato un eventuale segnale, deve essere
10 11 .
(2.32)
δPin
Pin
δφ
>
2.6 Sensibilità
Riassumendo tutti i contributi al rumore in un grafico, si ottiene la curva di sensibilità:
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
53
A seconda dell’intervallo di frequenza domina un certo tipo di rumore:
Sismico
grazie ai superattenuatori esso domina al di sotto di 3 4 Hz
Newtoniano il suo intervallo d’azione è tra i 2 ed i 10 Hz ; il doppio picco presente
a 7 Hz è dovuto al modo principale di oscillazione dei pendoli, ed è di
origine termica
Termico
da 10 a 30 Hz circa hanno la prevalenza le oscillazioni dei pendoli,
mentre da 30 fino a 500 Hz entrano in gioco i modi degli specchi
Shot
diventa prevalente al di sopra di 500 Hz.
I valori da cui è stato tracciato il grafico si riferiscono all’esperimento Virgo, tuttavia le differenze per gli altri strumenti saranno relative soltanto agli estremi degli
intervalli definiti.
CAPITOLO 2. I RIVELATORI INTERFEROMETRICI
54
Calcolata la sensibilità di un rivelatore è possibile stabilire un limite inferiore
alla frequenza gravitazionale osservabile senza che sia inesorabilmente coperta dal
rumore, per cui la frequenza minima della 1.30 è dettata dal rumore sismico, e
per Virgo è minore di circa un fattore 4 rispetto agli altri interferometri, grazie ai
superattenuatori. La frequenza massima, invece, è dovuta alla fisica delle sorgenti,
ed è limitata dall’ultima orbita stabile del sistema.
In base al numero di coalescenze galattico stimato ed al vaolre di sensibilità
di un interferometro, Belczynski, Kalogera e Bulik [2] hanno predetto il possibile
tasso di eventi rivelabili, che per LIGO, assumendo il modello evolutivo standard,
risulta essere 8 10
10
2
1 per
anno di cui 1 10
2 sono
i sistemi di stelle di neutroni, 2 misti, per cui il contributo predominante è dato dai buchi neri doppi (segnale
molto maggiore, quindi maggior probabilità di rivelazione). Purtroppo questi valori
cambiano significativamente a seconda dei modelli evolutivi, già nelle variazioni
apportate dagli autori citati sopra si ha un tasso che spazia nell’intervallo 2 10
3
2 eventi l’anno.
Attualmente esistono sei rivelatori interferometrici distribuiti sulla superficie
terrestre: Virgo (Cascina), con bracci di 3 km, LIGO che comprende tre rivelatori,
due coincidenti ad Hanford rispettivamente di lunghezza 4 e 2 km, ed uno a Livingston di 4 km, GEO (Hannover, Germania) di 600 m e TAMA (Giappone) 300
m.
Capitolo 3
Analisi mediante una rete di
interferometri
3.1 Introduzione
La possibilità di avere a disposizione non uno soltanto, ma più rivelatori di onde
gravitazionali, permette di effettuare una rivelazione considerando l’intera rete, e
porta notevoli vantaggi. Ciascun rivelatore opera per conto proprio nell’effettuare
le misure, il sistema rete entra in gioco al momento dell’analisi dei dati. Principalmente esistono due diversi approcci al problema, che verranno analizzati in
dettaglio, il più intuitivo consiste nell’analisi in coincidenza, che sostanzialmente confronta i dati provenienti dai vari rivelatori in cerca di un eventuale segnale
proveniente dal medesimo evento, mentre l’altro, detto coerente, considera la rete
come un unico rivelatore equivalente in posizione opportuna, una sorta di “sistema
di centro di massa”. Nel primo caso viene sensibilmente ridotta la probabilità di
falsi allarmi, in quanto vengono cercate, appunto, le coincidenze tra gli eventi misurati dai singoli rivelatori; il secondo metodo rappresenta la situazione ottimale
per il rapporto segnale rumore nel caso in cui quest’ultimo sia gaussiano, la presenza di rumore non gaussiamo purtroppo tende a sfavorire il metodo coerente a
favore di quello in coincidenza.
Ulteriore e forse principale vantaggio dal punto di vista astrofisico, è la possibilità di ricavare importanti informazioni sulle sorgenti, quali le masse, la posizione,
55
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 56
i paramentri dell’orbita come l’inclinazione, e la distanza, particolarmente importante in quanto attualmente ci sono difficoltà nella determinazione delle distanze
su larga scala, problema che in futuro potrebbe avere come soluzione l’utilizzo di
candele standard gravitazionali.
3.2 Cenni sull’analisi con un singolo rivelatore
Vista l’impossibilità di riconoscere con assoluta certezza se sia stato effettivamente
misurato un segnale gravitazionale, in quanto esso si colloca al di sotto dalla soglia
di rumore, è inevitabile dover parlare di probabilità di rivelazione, e di conseguenza, cercare la statistica più appropriata al sistema, che risulta essere il metodo della
massima verosimiglianza. La verosimiglianza si definisce come il rapporto tra la
probabilità che il segnale sia presente nelle osservazioni, e la probabilità che non
lo sia.
La strategia adottata per l’analisi è il filtro adattato, che consiste nel filtrare i
dati con un modello teorico, e nel variare i parametri di quest’ultimo fino a che la
sovrapposizione con i dati non risulti massima. Assumendo che il rumore sia una
funzione additiva, un rivelatore misurerà:
x t
s t
n t
(3.1)
dove, in assenza di segnale, s t 0.
La correlazione tra dati e modello si definisce come [14] :
*
s x
k
2ℜ
a
∞
0
s̃ lm f x ˜f df
Sh f (3.2)
con x ˜f es ˜f rispettivamente la trasformata di Fourier di dati e modello, mentre Sh f è la densità dello spettro di potenza del rumore (determinato della 2.23
con la differenza che qui è definito solamente per frequenze positive) dipendente
dalle caratteristiche fisiche del rivelatore.
Nell’ipotesi di rumore gaussiano è possibile esprimere la verosimiglianza in
termini della sorta di prodotto scalare indotto dalla correlazione:
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 57
LR 1
2
exp n
x s x s
*
1
2
exp n
infatti in assenza di segnale, per x
x x
*
k
k
(3.3)
n, l’uscita del rivelatore è una variabile
gaussiana, ma continua ad esserlo anche x s nel caso vi sia un segnale presente
nei dati.
L’espressione suggerisce di usare il proprio logaritmo naturale, per semplificare
i calcoli:
LLR *
s x
ko
1
2
s s
*
k
(3.4)
A questo punto, dal momento che il segnale potrebbe essere partito dalla sorgente ad un istante qualunque del tempo di integrazione, è necessario setacciare i dati “facendo scorrere” il modello lungo la loro sequanza temporale. La
correlazione diviene quindi una funzione del tempo:
C t
L
*
s x t k
(3.5)
La ricerca si interromperà quando dati e modello appariranno correlati tra loro,
e quindi sarà necessaria un’analisi più approfondita per determinare al meglio i
parametri dell’eventuale segnale; oppure alla fine della lista di dati, se in essi non
sarà presente alcun segnale rappresentabile col modello scelto.
Il segnale proveniente da un sistema binario dipende, nell’approssimazione
newtoniana, da una serie di parametri: le due masse, la distanza, la fase dell’onda
al momento della coalescenza, l’angolo di polarizzazione dell’onda, l’inclinazione
dell’orbita rispetto alla linea di vista dell’osservatore, la posizione della sorgente
nel cielo (in termini di declinazione e ascensione retta), il tempo di coalescenza,
ovvero l’istante in cui avviene il contatto tra le due stelle, la durata del segnale a
partire dalla minima frequenza rivelabile.
Il passo successivo consiste quindi nella massimizzazione dell’espressione precedente rispetto ai parametri di cui è possibile estrapolare informazioni dalla misura, nel caso di singolo rivelatore, il tempo di chirp e il tempo di coalescenza.
Determinare tutti gli otto paramentri significherebbe identificare completamente il
segnale rivelato (almeno nell’approssimazione scelta per il modello), così come la
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 58
sorgente, ed iniziare a costruire mappe gravitazionali del cielo, che sarebbero per
lo più complementari alle altre esistenti, disegnate per via elettromagnetica, vista
la quasi totale invisibilità dei sistemi compatti ai rivelatori tradizionali.
3.3 Analisi in coincidenza
In questo tipo di analisi ciascun rivelatore effettua le proprie misure e compila una
lista di eventi. In un secondo momento, o in alcuni casi anche in tempo reale, le liste
dei vari strumenti vengono confrontate in cerca di coincidenze, segnali provenienti
dallo stesso evento registrati da più rivelatori. La selezione avviene sulla base di
una soglia comune determinata da una probabilità di falsi allarmi fissata in modo
da ottenere un certo valore del rapporto segnale-rumore.
Al fine di illustrarne il funzionamento più in dettaglio, è particolarmente esplicativo l’esempio dello studio effettuato da IGEC (International Gravitational Event
Collaboration), una collaborazione dei cinque rivelatori a barra ALLEGRO, AURIGA, EXPLORER, NAUTILUS e NIOBE [1]. La ricerca di IGEC si è focalizzata
sulle esplosioni di supernovae, tuttavia la procedura è generale, quindi applicabile
ad ogni tipo di segnale.
Come accennato in precedenza, il passaggio di un’onda gravitazionale attraverso una barra cilindrica isolata meccanicamente imprime una forza mareale che
fa vibrare il materiale secondo i suoi modi normali, facendolo entrare in risonanza
se la frequenza è esattamente quella del modo. Uno strumento risonante più leggero è accoppiato ed accordato col modo fondamentale longitudinale della barra,
ottenendo così due modi normali di vibrazione. Per ridurre al minimo il rumore
termico gli strumenti sono mantenuti a temperature criogeniche.
Ciascun gruppo di ricerca implementa un filtro ottimale per l’analisi dei dati,
dopodichè viene applicata ai dati filtrati una soglia di scambio, identica per ogni
rivelatore, che compie una prima selezione sulla base della quale sono complilate
le liste di candidati di eventi. La soglia di scambio è convenzionalmente fissata in
modo da avere un rapporto segnale-rumore compreso tra 3 e 5.
Al momento del confronto dei dati, che avviene tramite un protocollo di scambio, la procedura è la seguente:
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 59
1. Il primo passo consiste nel determinare il valore di una soglia di ricerca,
un’ampiezza minima che i dati devono superare per poter essere considerati
segnale. Per far questo viene applicato l’algoritmo di analisi qui descritto a
diversi valori, sino a trovare il più ragionevole.
2. Vengono escluse dal tempo di osservazione di ciascun rivelatore quei periodi
dove la soglia di scambio al di sopra della soglia di ricerca, questo per limitare il numero di eventi reali sfuggiti alla misura di ampiezza superiore alla
soglia di ricerca scelta.
3. Finalmente vengono filtrati i dati eliminando i candidati con ampiezza al di
sotto della soglia di ricerca, il che riduce sensibilmente il numero di falsi
allarmi.
Questo metodo è adatto ad una ricerca isotropa nel cielo, senza direzioni preferenziali per la sorgente, tuttavia è possibile effettuare anche una ricerca mirata a
determinate zone modulando i dati scambiati con le sensibilità direzionali dei rivelatori. Più precisamente, tutte le ampiezze dovranno essere divise per il fattore
di attenuazione (dipendente dal tempo) per la direzione specifica del cielo. In una
ricerca mirata il tempo di osservazione è ridotto rispetto a prima a parità di soglia
di ricerca, in quanto non è più presente il tempo in cui lo strumento aspetta di allinearsi perfettamente con la sorgente. Come conseguenza della diminuzione del
tempo di integrazione, anche il rumore di fondo è ridotto. Purtroppo per questo
tipo di strumenti la selettività angolare è piuttosto povera, a causa della loro bassa
sensibilità direzionale: quando un rivelatore è orientato in una determinata direzione vede ogni sorgente nel raggio di
K
20 gradi al meglio con un’attenuazione
dell’11%.
I due grafici seguenti sono un esempio di selezione dei dati da parte di AURIGA, rispettivamente nel caso di ricerca alla cieca, e nella direzione del centro
galattico:
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 60
La riga continua rappresenta l’ampiezza della soglia di scambio, i punti gli
eventi scambiati. Nell’intervallo di tempo grigio scuro non sono stati scambiati
dati, mentre l’area grigio chiaro rappresenta la regione di ampiezze escluse perché
al di sotto della soglia. Nella seconda immagine questa zona è più ampia, in quanto
la sensitività degli strumenti deve essere direzionata unicamente verso il centro
galattico, e le altre direzioni non vengono prese in considerazione.
Dopo aver ripetuto la procedura ed aver determinato la soglia più adatta, ciascun gruppo compila la propria lista di eventi, ed è possibile procedere con la
ricerca di coincidenze.
3.3.1 Ricerca della coincidenza temporale
Due eventi provenienti da diversi rivelatori si definiscono in coincidenza se le stime
dei rispettivi tempi di arrivo sono compatibili entro le varianze σ t2i e σt2j :
ti t j
2
∆ti j
k 0 σt2i
L
σt2j
∆tmax
(3.6)
dove ∆tmax è il tempo impiegato dalla luce a percorrere la distanza tra i due strumenti. La finestra di confidenza è calcolata in modo da avere una data probabilità
di eventi sfuggiti alla rivelazione fissando k con la disuguaglianza di BienaymèTschebyscheff. Quest’ultima asserisce che per una variabile casuale x con media
η, il valore assoluto della differenza tra x e la media ha una probabilità P di essere
maggiore di un certo valore ε :
P p x η
-
ε
2
E p x η
εn
n
(3.7)
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 61
valida per ogni intero n per il quale esista il momento n-esimo di x E p x η
n
.
Invertendo la diseguaglianza è possibile calcolare ε data P. Risulta conveniente
usare la forma ε L kσ, in modo da trovare alla fine:
q
n
k
µ n ! < σn
P
(3.8)
dove µ n ! è il momento di ordine n. Per quanto riguarda il valore di soglia della
probabilità di eventi mancati, un P troppo grande rende la ricerca di coincidente
poco efficiente, al tempo stesso un valore significativamente al di sotto del 5%
ha l’effetto collaterale di guadagnare troppo poco in termini della probabilità di
rivelazione, a scapito dell’aumento dei falsi allarmi. La scelta intermedia di fissarlo
pari al 30% massimizza il rapporto tra l’efficienza di rivelazione e il corrispondente
numero di coincidenze accidentali.
3.3.2 Consistenza delle ampiezze
L’ampiezza di un segnale rivelato, come tutte le misure, è soggetta ad incertezze
sistematiche e statistiche dello strumento. Così, una volta trovati degli eventi in
coincidenza tra loro, è necessario verificare che le ampiezze stimate siano il più
vicino possibile in valore:
Ai A j
L
min r
∆Ai
∆A j
(3.9)
q
q
con ∆Ai j
∆Ai j
2
σ2A
i
σ2A
P
j
4
4t i
µAs
4t j
µAs
P
6σ2A σ2A
i
j
u
dalla diseguaglianza di Bienaymè e
P, come nel paragrafo precedente, probabilità di eventi mancati dal rivelatore.
Questo test elimina i falsi allarmi con un’efficienza fortemente dipendente dalla
soglia di ricerca. Essi sono ridotti significativamente soltanto ad una soglia alta,
a causa di due fattori: prima di tutto, la procedura usata per selezionare i dati
favorisce gli eventi che hanno ampiezze simili; in secondo luogo, le differenze in
ampiezza degli eventi accidentali possono essere maggiori per grandi valori del
rapporto segnale-rumore.
E’ necessario sottolineare una sostanziale differenza tra i rivelatori a barra e
quelli interferometrici in questa procedura. I primi sono allineati tra loro, (ciò è
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 62
stato realizzato orientandoli in modo che fossero perpendicolari al cerchio massimo comune passante per i siti o il più vicino possibile) questo fa sì che abbiano
identiche figure d’antenna e che, se perfettamente calibrati, abbiano una risposta
alle sollecitazioni esterne perfettamente identica. I segnali relativi ad uno stesso
evento, quindi, dovrebbero risultare della stessa ampiezza entro la soglia di errore,
semplicemente traslati temporalmente dei ritardi dovuti alle diverse posizioni delle
barre rispetto alla sorgente. Il caso dei rivelatori interferometrici è più delicato,
in quanto essi non sono allineati né orientati allo stesso modo, ed ognuno ha una
propria figura di antenna che predilige una certa direzione nel cielo e una certa
polarizzazione dell’onda. Le ampiezze risultano diverse le une dalle altre, e nel
confrontarle in cerca di coincidenze è necessario tenere conto di queste differenze.
3.3.3 Stime del fondo
L’approccio ideale per stimare il fondo sarebbe quello di ottenere una nuove serie
di dati da una popolazione con la stessa statistica, ma privata delle sorgenti, applicarle l’algoiritmo di ricerca e dopo confrontare i risultati con quelli del campione
originale.
Questo è quasi realizzabile (nel caso che le sorgenti siano supernovae, o comunque eventi esplosivi pressochè impulsivi) con un accorgimento: se i dati rispettano le ipotesi ergodiche
1
è possibile realizzare un nuovo campione indipendente
applicando delle traslazioni relative alla coordinata temporale dei dati provenienti
dai vari strumenti. I ritardi artificiali devono superare in lunghezza la massima finestra temporale per la ricerca di coincidenze, ed allo stesso tempo brevi abbastanza
affinchè il numero di coincidenze accidentali si mantenga stazionario. Valori di
compromesso per le traslazioni sono tra i 5 e i 15 secondi.
Nonostante gli accorgimenti, tra gli eventi estrapolati rimane un certo numero
di falsi allarmi. Nel caso di segnali impulsivi come le esplosioni di supernovae
il contributo di ogni rivelatore al numero di coincidenze casuali (falsi allarmi in
coincidenza) è dato dal prodotto tra la deviazione standard della stima del tempo di
1 Ipotesi
ergodica: è possibile sostituire la media temporale su un certo sistema con la media su
un opportuno insieme di sistemi simili ad un determinato istante.
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 63
arrivo e la sua frequenza di eventi λ mediate sul numero totale di candidati trovati:
σ̄t λ̄ ∑nie 1 σti
Toss
(3.10)
dove Toss è la durata totale delle osservazioni e le deviazioni standard vengono stimate con simulazioni Monte Carlo o misurando la risposta del rivelatore ad una
serie di sollecitazioni impulsive. La scelta della soglia di scambio è limitata da
due diversi fenomeni: un limite inferiore è dato dalla condizione che le stime delle
ampiezze e dei tempi di arrivo di ciascun evento debbano essere scorrelate, al tempo stesso un limite al numero di eventi scambiati al giorno tra i rivelatori pone un
taglio anche al tasso di falsi allarmi. Un valore di compromesso scelto da IGEC è
stato tale che il prodotto 3.10 sia minore dello 0,1%, dato il flusso massimo di 100
eventi giornalieri.
3.4 Analisi coerente
Il principio su cui è basato questo tipo di analisi è il considerare la rete come un
unico strumento di rivelazione, un tutto a cui ciascuna parte dà il proprio contributo.
Il rivelatore equivalente può essere idealmente posizionato su di uno già esistente,
oppure, più logicamente, essere immaginato al centro della Terra, in modo da farlo
essere equidistante da tutti gli altri.
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 64
La teoria matematica per questo studio è stata elaborata da A. Pai, S. Dhurandhar e S. Bose [14], e verrà qui riportata in breve. L’idea, come già accennato,
è quella di considerare un rivelatore equivalente alla rete, di costruirne le funzioni statistiche necessarie, in modo che possa essere in grado di misurare eventi e
determinarne i parametri della forma d’onda.
Utilizzando le notazioni introdotte precedentemente, la verosimiglianza, essendo ciascun rivelatore indipendente dagli altri, sarà il prodotto di quelle di ciascuno
strumento, di conseguenza il suo logaritmo sarà dato dalla somma dei logaritmi:
LLRNW
M
∑
Ie 1
*
sI xI
k
I
1
2
*
sI sI
k
I
(3.11)
Il segnale all’uscita di ogni rivelatore, s I t , può essere scritto nella forma:
sI t 5
dove k
5
2G 3 Mc3 π f s !
c4 r
2X
3
ξ
2kℜ EIl SI t exp iδc è l’ampiezza, EI
(3.12)
gI T2p ψ ε 0 DIp la funzione d’an-
tenna, dipendente sia dalla posizione della sorgente, che da quella dello strumento
tramite i suoi angoli di Eulero (la funzione D Ip è una combinazione delle funzioni
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 65
di Gel’fand di rango 2 2 Tsp degli angoli citati), in sostanza il guadagno in ampiezza introdotto dal rivelatore, infine S I t è l’espressione complessa e normalizzata
del segnale così come viene prodotto dalla sorgente, che ha per parte reale una
polarizzazione, per parte immaginaria l’altra:
SI t SoI t iSIπ t (3.13)
2
Con le notazioni introdotte, la seconda parte dell’espressione per la verosimiglianza logaritmica risulta essere:
*
s s
M
k
NW
∑
*
M
sI t s I t I
k
Ie 1
4k2 ∑ EIl E I
L
b2
(3.14)
Ie 1
essa rappresenta l’energia totale accessibile alla rete di rivelatori per un dato segnale.
3.4.1 Massimizzazioni analitiche
La massimizzazione della verosimiglianza può essere effettuata analiticamente per
quattro degli otto parametri: la radice dell’energia, b, che, a massa di chirp fissata
(dalla successiva massimizzazione rispetto al tempo di chirp), è funzione unicamente della distanza, per cui di fatto si massimizza rispetto alla distanza, ma in
modo più conveniente per i calcoli; la fase del’onda al momento della coalescenza,
δc , l’inclinazione dell’orbita rispetto al piano di vista, ε, e l’angolo di polarizzazione dell’ellisse ψ. Introducendo la quantità vettoriale C, che combina le correlazioni delle due polarizzazioni del modello di segnale normalizzato con i dati per ogni
rivelatore,
CI l
2 Le
cI0 icIπ
L
2
S I xI
*
k
(3.15)
I
funzioni di Gel’fand sono tensori così definiti:
Tml n P αβγ R
D
exp P
Q
i nα R exp P
Q
i mγ R Pml n P cos β R
dove
Pml n P x R
P
D
Q
1 R l H m in H m
2l P l Q m R ! v
P
P
l Q mR ! P l S nR ! P
1 Q xR
l S mR ! P l Q nR !
H
nw m
2 P
1 S xR
H
nx m
2
dl H
dxl H
n
n
P
y
1 Q xR
lH m
P
1 S xR
lz m{
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 66
la verosimiglianza logaritmica alla fine delle massimizzazioni analitiche può
essere scritta (utilizzando la notazione di Einstein sulla somma sugli indici ripetuti)
come:
LLR 2b 5 δc 5 ε 5 ψ }|
CH |
2
2
PIJ θ ψ 6 cI0 t τ θ ψ ~ cJ0 t τ θ ψ cIπ t τ θ ψ cIπ t τ θ ψ 2
2
(3.16)
ovvero in sostanza come la norma del vettore delle correlazioni proiettato sul piano
di elicità, piano determinato dai due tensori D I 2 presenti nelle funzioni d’antenna,
e dipendenti soltanto dalla direzione della sorgente e dalle orientazioni dei rivelatori, e qui rappresentato dalla matrice PIJ . I τ esprimono invece i ritardi dei vari
strumenti rispetto al sistema madre, quello della rete, e sono dovuti alle diverse
posizioni di essi sulla superficie terrestre.
Nel caso di singolo rivelatore l’espressione per il logaritmo della verosimiglianza si riduce alla 3.5: infatti resterà l’elemento P11 della matrice P a moltiplicare la somma delle correlazioni corrispondenti alle due polarizzazioni dell’onda,
e dalla relazione che lega S I ad sI si ricava esattamente la stessa formula. E’ interessante notare come con un singolo rivelatore non sia possibile ricavare alcuna
informazione sulla posizione della sorgente, nè sulla distanza, in quanto essendo
presente soltanto un’ampiezza, l’unico parametro di cui si abbia una stima è la
massa di chirp del sistema.
Nel procedere con l’analisi risulta più conveniente, invece di usare la norma
quadra di CH , definire come statistica di rete L L
|
CH | .
3.4.2 Massimizzazione rispetto al tempo di coalescenza
Al fine di massimizzare rispetto al tempo di coalescenza nel riferimento del network, apporta una notevole riduzione ai costi computazionali passare alla trasformata di Fourier: calcolata per la correlazione C I di ciascun rivelatore, e parametrizzata la differenza tra modello e dati come ∆t c L tc€ tc , la dipendenza da ∆tc sarà
presente soltanto in un fattore di fase, sarà quindi possibile avere C I ∆tc al variare
del parametro, con facilità. Applicando loro la trasformata inversa, si ottiene:
7
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 67
CI l ∆tc ;tc€ ξ€ θ€ φ€ *
SI t
τI θ€ φ€ ;tc€
∆tc ξ€ xI t;tc ξ k
I
(3.17)
dove le quantità primate si riferiscono al modello, le altre ai dati. I τ I 老 φ€ sono i ritardi di ciascun rivelatore rispetto al “fide”, come viene chiamato il sistema
della rete; il loro valore dipende strettamente dalla posizione della sorgente, e la
loro esistenza deriva dalla propagazione finita, e con velocità pari a quella della
luce, delle onde gravitazionali, motivo per cui a ciascun rivelatore arriveranno a
tempi diversi (se il fide è posto al centro della Terra, τ I 2 Rc‚ ). Se i valori che
saranno scelti per ξ €ƒ ϑ€ φ€ (il criterio è esplicitato nel sottoparagrafo successivo)
riproducono perfettamente l’eventuale segnale presente nei dati, la correlazione è
massima quando ∆tc compensa esattamente la differenza t c€ tc , da cui si ricava la
miglior stima per il tempo di coalescenza.
3.4.3 Griglia di parametri e determinazione delle incertezze
Per quanto riguarda i restanti parametri è necessario procedere invece in modo diverso. Al variare delle possibili posizioni nel cielo, ciascun rivelatore spazzerà una
regione finita di valori del ritardo, ma dato che i dati sono campionati discretamente, verrà a formarsi una griglia, necessariamente composta da un numero finito di
modelli. Se ad esempio la rete è costituita da due rivelatori è conveniente considerare come fide uno di essi, da cui è evidente che c’è un unico ritardo significativo,
che assumerà valori nell’intervallo
d1 „
c
6 2
d1 „
c
2
7
, dove d1
2
è la distanza tra i due
strumenti; se ∆ è l’intervallo di campionamento (dell’ordine di 0.5 ms), allora il
numero di punti della griglia di modelli è dato da:
nΩ
2τ1
∆
2
(3.18)
Nel caso di network di tre rivelatori i ritardi significativi sono due, ed i valori
permessi loro formano un’ellisse nel piano dei parametri (infatti ognuno assumerà
valori in un intervallo, ed essendo in generale i due intervalli diversi tra loro, la
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 68
regione di piano delimitata risulta un’ ellisse), di equazione:
τ21
2
τ21
3
d1
d1
3 2
2
2
d1
d1
3
2
cos α2 3 τ2 τ3 Y
d1 3
sin α2
c
3
2
0
(3.19)
con α2 3 angolo di vertice il primo rivelatore, e lati le congiungenti ad esso rispettivamente del secondo e del terzo. Ogni punto in questa regione rappresenta una
coppia di ritardi, corrispondenti ad una determinata posizione nel cielo θ € φ€ . Il
numero di modelli nella griglia sarà:
2πA
c2 ∆2
nΩ
(3.20)
dove A è l’area del triangolo che ha per vertici i tre rivelatori. Per la rete composta
da Virgo e i due LIGO il numero stimato è 3 10 3 . In un sistema di tre elementi, i due ritardi indipendenti formano due circonferenze nella sfera celeste, che si
intersecano in due punti, per cui le possibili posizioni della sorgente sono due.
Questa ambiguità può essere risolta aggiungendo un quarto rivelatore che in generale giacerà fuori dal piano formato dai primi, i ritardi significativi diventano tre, e
la regione permessa è la superficie di un’ellissoide, mentre il numero di punti della
zona permessa risulta il doppio rispetto al caso precedente:
nΩ
4πA
c2 ∆2
(3.21)
con la differenza che adesso A indica l’area del minimo triangolo tra tutti i possibili con vertici i rivelatori. Aumentando ulteriormente il numero di elementi le
informazioni ricavabili sulla posizione della sorgente sono ridondanti, ma possono
essere usate per ridurre l’errore sugli angoli dovuta alla presenza di rumore.
Inevitabile conseguenza del campionamento discreto è una possibile non perfetta sovrapposizione tra la reale posizione della sorgente, e quella del campione che meglio l’approssima, che porta ad una riduzione percentuale del rapporto
segnale-rumore. Convenzionalmente viene accettata una perdita massima del 3%.
Se la griglia è troppo fitta, e la perdita massima risulta minore, ci sarà un eccessivo
sforzo computazionale, mentre se è troppo spaziata, alcuni eventi rischieranno di
essere persi tra le maglie.
Al fine di determinare al meglio la spaziatura della griglia in funzione del-
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 69
l’errore sulla stima dei parametri, viene usato un approccio geometrico ideato da
Owen [13, 12] , che consiste nell’introdurre una metrica nello spazio dei parametri, la cui inversa è proporzionale alla matrice covarianza. Nell’approssimazione
newtoniana lo spazio dei parametri, generato da quelli rispetto cui non è possibile
massimizzare analiticamente, è quadridimensionale, e, in analogia con la Relatività Generale, le coordinate vegono espresse come coordinata temporale ϑ 0
coordinate spaziali
ϑi
Lor
L
tc e
ξ θ φ u , dopodichè, visto che la massimizzazione rispetto
a tc viene effettuata tramite la trasformata di Fourier, la griglia di modelli occorre
solamente per le coordinate spaziali. La metrica ristretta all’ipersuperficie, se g αβ
è la metrica quadridimensionale, è
γi j
gi j
g0i g0 j
g00
(3.22)
dove vale la convenzione per cui gli indici latini si riferiscono alle quantità spaziali.
Per ottenere il numero di modelli si calcola il volume proprio dello spazio dei
parametri tramite γi j
v
M
sp … param
a
det γi j d 3 ϑ
(3.23)
e lo si moltiplica per la densità numerica dei modelli, funzione della spaziatura µ
ρ3
1
2
3
µ
3
(3.24)
L’espressione per la metrica dell’intero spazio si ricava espandendo la statistica di
rete L normalizzata ad uno, attorno al suo massimo, che si ha quando il segnale
coincide perfettamente con uno dei modelli:
L ϑ ∆ϑ &
1
1 ∂2 L 2 ∂ϑα ∂ϑβ
∆ϑ e 0
∆ϑα ∆ϑβ
(3.25)
in quanto il termine contenente la derivata prima è nullo, essendo L massimo per
∆ϑ 0. La metrica è così definita:
gαβ
LB
1 ∂2 L 2 ∂ϑα ∂ϑβ
∆ϑ e 0
(3.26)
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 70
da questa è possibile calcolare la sua restrizione alla parte spaziale, γ i j , che da un
punto di vista statistico rappresenta l’informazione di Fisher 3 per un segnale di
ampiezza unitaria. Il suo inverso è la matrice covarianza, i cui elementi diagonali
sono le varianze sulle stime dei parametri ottenute con una determinata griglia. Per
un segnale di ampiezza arbitraria sarà necessario riscalarli dividendo per la radice
dell’ampiezza:
σi
M
γii
b
(3.27)
Con questo procedimento è possibile dunque trovare una relazione diretta tra il
numero di modelli della griglia e l’accuratezza dei parametri che si otterranno utilizzandola. Nella scelta purtroppo è necessario scendere a compromessi con i costi
computazionali, che pongono limiti inferiori alla spaziatura della griglia; tuttavia successivamente, una volta scelto il modello che più approssima il segnale tra
quelli della griglia, è possibile raffinare l’accuratezza sui parametri e ridurre così
l’incertezza sulla loro stima.
Per sottolineare i vantaggi dell’analisi coerente è utile l’espressione per l’energia accessibile alla rete 3.14 : nel caso di rivelatori con sensibilità identiche
essa è proporzionale al numero di elementi, nella situazione più realistica di curve di rumore diverse, la sensibilità del network risulta essere la media pesata di
quelle dei singoli strumenti. In questo modo i rivelatori più sensibili contribuiranno maggiormente alla rivelazione, che risulterà ottimale. La maggior sensibilità
della rete rispetto a quella dei singoli strumenti si traduce in un aumento del rapporto segnale-rumore misurabile, e di conseguenza un allargamento dell’orizzonte
osservabile per via gravitazionale. Il rapporto segnale-rumore, infatti, diminuisce
all’aumentare della distanza, presente nel fattore k.
La ricerca coerente è però ottimale soltanto nel caso ideale di rumore totalmente Gaussiano. Nella realtà si presentano degli eventi spuri non Gaussiani, che
danno luogo a lunghe code nella distribuzione del rapporto segnale-rumore della
rete. Esiste un metodo, detto test di consistenza, che filtra gli eventi dai falsi allarmi basandosi sulla distribuzione di frequenza attesa per le coalescenze, ma non
3 Esiste un limite inferiore alla varianza di un parametro, dato da un caso particolare della disu1
guaglianza di Cramer-Rao: Var P α R‡†
2 ‰ . Il termine al denominatore è detto informazione
P ∂
Eˆ
∂α lnL R
di Fisher, e nel caso di più parametri è una matrice.
CAPITOLO 3. ANALISI MEDIANTE UNA RETE DI INTERFEROMETRI 71
riesce comunque a riportare il numero di falsi allarmi sotto la soglia prestabilita
(non maggiore di 1 evento l’anno [20] ). Per evitare questo inconveniente è necessario analizzare i dati con il metodo della coincidenza, avendo prima verificato se
sia conveniente dal punto di vista della perdita di rapporto segnale-rumore.
Capitolo 4
Confronto tra i due metodi
4.1 Introduzione
Per poter sfruttare al meglio le scarse informazioni celate dal rumore che una sorgente concede a ciascun rivelatore ed essere in grado di costruire un osservatorio
astronomico gravitazionale, che aprirebbe la strada ad una nuova branca dell’Astrofisica e permetterebbe di studiare in modo diretto oggetti estremamente compatti
quali le stelle di neutroni ed i buchi neri, è necessario elaborare una strategia ideale
per l’ analisi dei dati della rete di rivelatori.
I due metodi efficienti per questo tipo di analisi sono stati presi in esame nel
capitolo precedente, il metodo coerente e quello in coincidenza, ciascuno con i
rispettivi vantaggi e svantaggi. Per decidere quale sia il più appropriato può essere
utile un confronto diretto applicandoli agli stessi dati simulati e confrontando i
risultati ottenuti. In questo lavoro di tesi è stato effettuato il parallelo per una rete
composta da Virgo e dai tre LIGO, il programma elaborato mediante Mathematica
permette comunque di modificare i componenti della rete a seconda delle esigenze.
La quantità rilevante per il paragone è la probabilità di rivelazione come funzione della distanza, che è una stima dell’ orizzonte osservabile per ogni coppia di
masse delle stelle, una volta fissata la soglia di probabilità a partire dalla quale si
ritiene significativa la presenza di un evento rispetto ai falsi allarmi. In prima approssimazione non ci sono direzioni privilegiate nel cielo per la ricerca di binarie
coalescenti -in realtà non è proprio così, infatti l’omogeneità dell’Universo è tale
72
CAPITOLO 4. CONFRONTO TRA I DUE METODI
73
solo su larga scala, per distanze dell’ordine delle decine di Megaparsec non è più
valida, ed inizia ad essere determinante la presenza di strutture- per cui le simulazioni sono state fatte creando artificialmente gli eventi con il metodo Monte Carlo
per i quattro parametri angolari (posizione, polarizzazione dell’onda e inclinazione
dell’orbita rispetto al piano di vista). Ogni simulazione crea 10 4 eventi, corrispondenti appunto a direzione, inclinazione e polarizzazione casuali, il numero è stato
scelto in modo tale che fosse più grande possibile, compatibilmente con la durata
di ciascuna simulazione, così da poter avere un campione ragionevolamente vasto
di misure, in grado di fornire risultati verosimili in un’analisi statistica.
4.2 Verifica della consistenza del programma
Prima di effettuare le simulazioni utili al confronto è stato verificato che i risultati
prodotti dal programma fossero consistenti con le sensibilità dei singoli rivelatori.
Un ulteriore test al programma è stato eseguito per quanto riguarda l’andamento del rapporto segnale-rumore (SNR) in funzione della distanza per un singolo
rivelatore di LIGO, più precisamente quello di 4 km situato ad Hanford. Il rapporto segnale-rumore è definito come il valore di aspettazione del segnale nell’ipotesi che esso sia presente nei dati, diviso per la varianza nell’ipotesi in cui non vi
sia segnale nei dati. Nel caso specifico delle binarie coalescenti, con le notazioni
introdotte precedentemente (cap. 2) si traduce in:
*
SNR X
*
s x k
s s
(4.1)
k
poichè in assenza di segnale il rumore è assunto gaussiano con media nulla e
varianza E 6 * s n
k
*
n s
k
7
*
s s
[21].
k
Per un singolo rivelatore la verosimiglianza logaritmica è data semplicemente
dal modulo della correlazione C I tra dati e modello
L
CI
0
cI02
cIπ2
(4.2)
2
Dall’ortonormalità tra sI0 e sIπ si ha che la covarianza tra cI0 e cIπ è nulla, mentre le
2
2
rispettive varianze sono uguali a uno, ed in assenza di segnale hanno media nulla.
CAPITOLO 4. CONFRONTO TRA I DUE METODI
74
Per cui L2 risulta un χ2 a due gradi di libertà, essendo la somma dei quadrati di due
variabili gaussiane con media zero e varianza uno, e le probabilità di falso allarme
e rivelazione diventano:
PFA L2 PDET L2 b0 ∞
a
exp L2
(4.3)
b0
exp n y b20 I0 2 0 y b20 dy
(4.4)
Mentre per il rapporto segnale-rumore si ha:
0
SNR
16k4 E I l E I 2
sI0 x
6 *
k
2
X
2k E I l E I
*
sIπ x
2
k
2
7
X
X
2 2k E I l E I
(4.5)
pari alla radice del doppio dell’energia accessibile al rivelatore.
Questo è proporzionale al segnale tramite l’ampiezza k, è quindi possibile studiarne l’andamento al crescere della distanza, per poter determinare i confini dell’universo osservabile con uno strumento. E’ stato quindi possibile testare l’attendibilità del programma verificando che le massime distanze raggiungibili dal
rivelatore di 4 km presente ad Hanford calcolate fossero, a parità di masse, le stesse dichiarate dall’esperimento LIGO[23]. Convenzionalmente infatti viene presa da LIGO come soglia al di sotto della quale non ha senso considerare misure
attendibili, un rapporto segnale-rumore mediato sui quattro angoli di posizione,
polarizzazione e inclinazione, pari a 5,5.
I sistemi di stelle di neutroni sono assunti gemelli con masse pari alla massa di
Chandraseckar per un gas degenere di elettroni (1,4 masse solari). Dato il piccolo
intervallo di masse di questo tipo di stelle (a circa 2,3-3 masse solari a seconda del
modello di equazione di stato si raggiunge già la massa di Chandrasekhar per un
gas degenere di neutroni e la stella collassa a buco nero) è sufficiente quest’ unico
valore di masse per cui calcolare la distanza massima raggiungibile. I risultati
ottenuti sono riassunti nel grafico seguente:
CAPITOLO 4. CONFRONTO TRA I DUE METODI
75
Rapporto segnale-rumore
SNR LIGO H4k
10
9,5
9
8,5
8
7,5
7
6,5
6
5,5
5
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
1,4-1,4 masse solari
0
5
10
15
20
25
30
35 40 45 50
Distanza (Mpc)
55
60
65
70
75
80
Le simulazioni danno come risultato circa 21 Megaparsec, in buono accordo
con i 20 calcolati da LIGO. La differenza residua è probabilmente dovuta a dettagli
trascurati nel calcolo della curva di sensibilità, che non risultava perfettamente
identica a quella presente sul sito di LIGO.
Per quanto riguarda i sistemi misti, la massa della stella di neutroni è lasciata fissa a 1,4 masse solari per i motivi espressi in precedenza, mentre i buchi neri
variano da un minimo di 2,4 ad un massimo di 10 masse solari. E’ altamente improbabile che buchi neri più massicci si leghino in sistemi binari con oggetti troppo
più piccoli, il che sommato alla considerazione che la durata della fase di spiraleggio sarebbe molto breve giustifica l’aver trascurato questi sistemi. Le distanze
raggiungibili in questo caso variano da 25 Mpc a 42 Mpc, e i grafici elaborati dal
programma hanno dato come risultato:
CAPITOLO 4. CONFRONTO TRA I DUE METODI
76
Rapporto segnale-rumore medio
LIGO H4k
10
9,5
9
8,5
8
7,5
7
6,5
6
5,5
5
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
sistemi misti
1,4-2,4 masse solari
1,4-10 masse solari
0
10
5
15
20
25
30
35 40 45 50
Distanza (Mpc)
55
60
65
70
75
80
che sono valori ragionevolmente realistici considerando le approssimazioni fatte. La forma d’onda è quella newtoniana, mentre per il calcolo della frequenza massima prima dell’impatto è stata usata l’approssimazione post-newtoniana al secondo ordine. L’energia orbitale, diminuendo a causa dell’irraggiamento, raggiungerà
un valore minimo oltre cui le due stelle non saranno più in equilibrio, ed il sistema
colasserà su se stesso. Il minimo dell’energia corrisponde alla cosiddetta ultima orbita stabile, dopodichè inizierà il processo di fusione dei due corpi, ma al momento
vi sono delle incertezze nei modelli che descrivano l’irraggiamento gravitazionale
in questa fase, per cui qui è stata esaminata soltanto la parte precedente al contatto.
Nell’approssimazione post-newtoniana al secondo ordine l’energia minima è
ELSO
dove x
L
πM f 1
1
1
ηM 1 η x 27 19η η2 ‹
9
b
2
12
8Š
2‹ 3
3Œ
x2 c
(4.6)
con M massa totale del sistema, f frequenza gravitazionale
istantanea, ed η rapporto tra massa ridotta e massa totale. Perciò la frequenza
gravitazionale alla quale il sistema termina la propria esistenza è:
1 2 M 1539 1008η 19η2 9 η /
πM .
3 81 57η η2 fLSO
3
2
Hz
(4.7)
CAPITOLO 4. CONFRONTO TRA I DUE METODI
77
Al crescere delle masse il taglio al segnale alla frequenza dell’ultima orbita
stabile diviene sempre più imponente, poiché il chirp viene interrotto via via a
frequenze minori. Parallelamente i risultati ottenuti dalle simulazioni si discostano
in misura maggiore dalle previsioni di LIGO, e ciò con molta probabilità è dovuto
ad un modello diverso usato per il calcolo dell’ultima orbita stabile; per buchi neri
relativamente piccoli (5 masse solari) essa è ancora poco evidente, 62,5 megaparsec
contro i 58 di LIGO.
Il limite massimo di misurabilità per LIGO è una massa totale di 30 masse
solari, al di là della quale, oltre ad essere poco popolato l’Universo, dato che la
funzione di massa è proporzionale ad m
2
7
, la fase di spiraleggio e irraggiamento
sarebbe troppo breve per poter sperare statisticamente di riuscire a rivelarla. Nel
caso di sistemi gemelli di 15 masse solari ciascuno, i problemi dati dai diversi
modelli risultano più evidenti: LIGO dichiara l’orizzonte osservativo a 105 Mpc,
mentre il programma di Mathematica calcola un rapporto segnale-rumore pari a
5,5 addirittura a 150 Megapaesec:
Rapporto segnale-rumore medio
LIGO H4k
10
9,5
9
8,5
8
7,5
7
6,5
6
5,5
5
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
sistemi di buchi neri
15-15 masse solari
5-5 masse solari
0
10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180
Distanza (Mpc)
CAPITOLO 4. CONFRONTO TRA I DUE METODI
78
4.3 Calcolo delle probabilità di rivelazione
Prima della descrizione dell’analisi parallela è necessario definirne le regole e le
espressioni per le quantità utilizzate. Quella fondamentale è la probabilità di rivelazione, che per un singolo strumento è data dalla 4.4, per l’intera rete è definita
in modi diversi a seconda del metodo di analisi, dei quali per comodità è riportata
una breve descrizione:
Coincidente: ciascun rivelatore esegue l’analisi in maniera indipendente e compila la propria lista di eventi (se ne ha misurati), successivamente queste vengono confrontate per cercare una coincidenza doppia (almeno
due strumenti hanno misurato lo stesso evento) o tripla. Prendendo in
prestito i nomi dal linguaggio booleano, esse vengono dette più brevemente AND2 e AND3. Le probabilità di rivelazione vengono calcolate
sotto la ragionevole ipotesi di strumenti indipendenti tra loro, e quindi
scorrelati, per cui l’espressione per la coincidenza doppia è data da:
Pdet coi2
1
.
4
∏ P0I
Ie 1
4
∑
I 5 J5 K 5 Y e 1
I
αIJKY PDET
P0J P0K P0Y /
(4.8)
calcolata come complemento alla probabilità che nessuno o uno solo
tra i quattro rivelatori misuri l’evento. α IJKY è puramente simbolico, e
sta ad indicare le permutazioni significative tra gli elementi della rete.
Analogamente, la probabilità di rivelazione per l’AND3 ha la forma:
Pdet coi3
1 BŽ ∏4I e
I
P0J P0K P0Y
∑4I 5 J 5 K 5 Y e 1 αIJKY PDET
IJKY PI
J
K Y
1α
DET PDET P0 P0 
I
1 P0
∑4I 5 J 5 K 5 Y e
(4.9)
dove PDET indica la probabilità di rivelazione di un singolo rivelatore, dipendente dalla soglia e dall’energia del segnale, mentre P0 è la
probabilità che lo strumento non riveli l’evento.
Coerente:
viene idealmente costruito un rivelatore equivalente che provveda ad
analizzare i dati sommando coerentemente i contributi di ciascun elemento della rete. Con le notazioni introdotte in precedenza, la statistica di network L2 risulta essere un χ2 a quattro gradi di libertà, infatti
CAPITOLO 4. CONFRONTO TRA I DUE METODI
79
la 3.16può essere riscritta come:
L2
c0
2
2
cπ 2
c0
2
cπ 2
2
(4.10)
dove ciascun termine è il quadrato di una variabile Gaussiana con media nulla e varianza unitaria in assenza di segnale nei dati. Per un χ 2
a quattro gradi di libertà le probabilità di falso allarme e di rivelazione
risultano essere rispettivamente:
PFA L2 PDET L2 b0 ∞
a
L2
L2 exp L2
(4.11)
L2
exp n y b0 I1 2 M yb0 dy
b0
(4.12)
1
E’ importante sottolineare le differenti espressioni per le probabilità nei due casi, in
quanto soltanto calcolandole nel modo giusto, e non utilizzando anche per il rivelatore equivalente alla rete una statistica a due gradi di libertà, è possibile stabilire
un confronto veritiero tra le due strategie.
4.4 Risultati ottenuti
Le simulazioni sono state eseguite mediando su 10 4 quadruplette di angoli generate
in modo casuale, facendo variare la distanza della sorgente in modo discreto, sino a
valori fisicamente interessanti (intorno alle soglie di osservabilità). Per ogni valore
della distanza il programma calcola le probabilità di falso allarme (normalizzate
ad 1 falso evento annuo) e di rivelazione sia per i singoli strumenti che per la rete,
dopodichè per il caso coerente media semplicemente quest’ultima sui quattro angoli. Nell’analisi in coincidenza, sempre mediando sugli angoli, calcola i quantili
più rilevanti delle probabilità in modalità AND2 ed AND3, e successivamente ne
valuta le due medie.
Essendo impossibile far variare in modo continuo le masse, sono stati scelti
soltanto alcuni valori più significativi: come detto in precedenza, per le stelle di
neutroni viene presa convenzionalmente pari a 1,4 masse solari, mentre per i buchi
neri è fatta variare da 2,4 a 10 masse solari quando sono in coppia con una stella di
CAPITOLO 4. CONFRONTO TRA I DUE METODI
80
neutroni, da 5 a 15 quando il compagno è un altro buco nero. In queste simulazioni
sono stati considerati soltanto gli estremi di ciascun gruppo a causa della lunga
durata di ciascuna di esse.
Per apprezzare maggiormente le differenze che apporta un’analisi in rete rispetto a quella di un singolo rivelatore sono state effettuate simulazioni prima per i
singoli LIGO (già una piccola rete, essendo costituito da tre strumenti), e Virgo, e
successivamente per la rete dei due.
4.4.1 LIGO
La rete rappresentata da LIGO comprende i due rivelatori presenti ad Hanford,
rispettivamente di 4 e 2 km, e quello a Livingston, anch’esso di 4 km. Una caratteristica particolare è che, facendo parte dello stesso esperimento, questi sono stati costruiti con identica orientazione, il che semplifica il lavoro dell’analisi
coincidente.
Prima di procedere con l’analisi in rete, e per avere un quadro di partenza da
confrontare poi con le probabilità ottenute facendo operare simultaneamente più
rivelatori, sono state effettuate delle simulazioni (per i valori di masse significativamente interessanti) con un singolo strumento di LIGO acceso, più precisamente
quello di 4 km presente ad Hanford, ed i risultati sono riassunti in figura:
LIGO Hanford 4km
1
0,9
1,4-1,4 masse solari
1,4-2,4 masse solari
1,4-10 masse solari
5-5 masse solari
15-15 masse solari
Probabilita di rivelazione media
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180
Distanza (Mpc)
CAPITOLO 4. CONFRONTO TRA I DUE METODI
81
L’orizzonte osservabile aumenta al crescere della massa, poiché il segnale è
più intenso, e questo fa sì che rimanga al di sopra della soglia per distanze via via
maggiori.
Per quanto riguarda la rete dei tre interferometri ci si aspetta che la probabilità
di rivelazione aumenti, in quanto è maggiore la quantità di energia catturata, nel
caso coerente è addirittura la somma delle tre. I grafici seguenti mostrano la probabilità media di rivelazione come funzione della distanza, e sono suddivisi in tre
categorie: i sistemi di stelle di neutroni, quelli composti da un buco nero compagno
di una stella di neutroni, e i sistemi di buchi neri.
Rete LIGO
1,4-1,4 masse solari
1
0,9
Coincidente 2/3
Coerente
Coincidente 3/3
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
5
10
15
20
30
25
Distanza (Mpc)
35
40
45
50
CAPITOLO 4. CONFRONTO TRA I DUE METODI
82
Rete LIGO
sistemi misti
1
Coincidente 2/3 1,4-2,4 masse solari
Coerente 1,4-2,4 masse solari
Coincidente 3/3 1,4-2,4 masse solari
Coincidente 2/3 1,4-10 masse solari
Coerente 1,4-10 masse solari
Coincidente 3/3 1,4-10 masse solari
0,9
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
5
10
15
20
25
30
35 40 45 50
Distanza (Mpc)
55
60
65
70
75
80
Rete LIGO
sistemi di buchi neri
1
Coincidente 2/3 5-5 masse solari
Coerente 5-5 mase solari
Coincidente 3/3 5-5 masse solari
Coincidente 2/3 15-15 masse solari
Coerente 15-15 masse solari
Coincidente 3/3 15-15 masse solari
0,9
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180
Distanza (Mpc)
4.4.2 Virgo
A causa della sensiblità leggermente minore, che raggiunge circa il 75% di quella
dei due LIGO di 4 km, le distanze raggiungibili da Virgo sono in media il 25%
minori, come è possibile notare in figura:
CAPITOLO 4. CONFRONTO TRA I DUE METODI
83
Virgo
1
0,9
1,4-1,4 masse solari
1,4-2,4 masse solari
1,4-10 masse solari
5-5 masse solari
15-15 masse solari
Probabilita di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180
Distanza (Mpc)
E’ interessante notare però che Virgo osserva a partire da frequenze più basse,
per cui in linea di principio gli è possibile rivelare segnali da sistemi di buchi neri
più massicci di 15 masse solari, grazie alla loro permanenza nella banda accessibile
allo strumento per un intervallo di tempo tale da poter essere misurati.
4.4.3 Rete Virgo-LIGO
Le simulazioni effettuate con la rete completa mostrano che Virgo contribuisce
con un allargamento dell’orizzonte di circa il 12% sia nel caso coerente che con
gli interferometri operanti in coincidenza doppia rispetto alla minirete LIGO, il
che, nell’ipotesi di distribuzione uniforme, corrisponde ad un aumento di circa il
40% del numero delle sorgenti osservabili. Il seguente grafico mostra il contributo
di Virgo alla rete nel caso di sistemi di stelle di neutroni, per le altre masse la
percentuale è comunque costante:
CAPITOLO 4. CONFRONTO TRA I DUE METODI
84
Contributo di Virgo alla rete
sistemi di stelle di neutroni
1
0,9
Coincidente 2/3 rete LIGO
Coerente rete LIGO
Coincidente 2/4 rete Virgo-LIGO
Coerente rete Virgo-LIGO
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
5
10
15
20
30
25
Distanza (Mpc)
35
40
45
50
Il parallelo tra i due metodi viene rappresentato nei grafici sottostanti, che descrivono l’andamento della probabilità media con la distanza della sorgente, nei
casi di analisi coerente ed in coincidenza doppia e tripla. Ciascuna figura contiene
una tipologia di sistemi al variare della massa, come nel sottoparagrafo 4.4.1.
Rete Virgo-LIGO
1,4-1,4 masse solari (stelle di neutroni)
1
0,9
Coincidente 2/4
Coerente
Coincidente 3/4
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
5
10
15
20
30
25
Distanza (Mpc)
35
40
45
50
CAPITOLO 4. CONFRONTO TRA I DUE METODI
85
Rete Virgo-LIGO
sistemi misti
1
0,9
Coincidente 2/4 1,4-2,4 masse solari
Coerente 1,4-2,4 masse solari
Coincidente 2/4 1,4-10 masse solari
Coerente 1,4-10 masse solari
Coincidente 3/4 1,4-2,4 masse solari
Coincidente 3/4 1,4-10 masse solari
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
5
10
15
20
25
30
35 40 45 50
Distanza (Mpc)
55
60
65
70
75
80
Rete Virgo-LIGO
sistemi di buchi neri
1
Coincidente 2/4 5-5 masse solari
Coerente 5-5 masse solari
Coincidente 2/4 15-15 masse solari
Coerente 15-15 masse solari
Coincidente 3/4 5-5 masse solari
Coincidente 3/4 15-15 masse solari
0,9
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180
Distanza (Mpc)
Dalle simulazioni effettuate risulta evidente la superiorità del metodo coerente,
bisogna ricordare però che le ipotesi di rumore completamente gaussiano non sono
realistiche, e che la presenza di eventi non gaussiani penalizza fortemente l’analisi
coerente, non sempre in grado di filtrare questi falsi allarmi. Sebbene abbia un orizzonte osservativo più ristretto di circa il 25%, quindi, un buon compromesso risulta
la strategia coincidente, che consente un miglior filtraggio dei dati gravitazionali.
CAPITOLO 4. CONFRONTO TRA I DUE METODI
86
4.5 Distribuzione delle sorgenti nel cielo
Risulta utile, prima di iniziare una ricerca di segnale gravitazionale, avere una stima
del numero di binarie che coalesceranno in tempi osservabili. Esistono due metodi
diversi per stabilirlo [11]: un’analisi statistica del campione osservativo dato dalle
binarie compatte conosciute, oppure un’indagine teorica basata sui meccanismi di
formazione di questi oggetti. Il primo approccio purtroppo è limitato dalle dimensioni ridotte del campione (al momento 3 sistemi), che risulta troppo dipendente
dagli effetti di selezione, oltre ad essere privo di sistemi di buchi neri e misti. Il
secondo procura risultati per ogni tipo di massa, ed è basato sui modelli di sintesi
di popolazione, generalmente calibrati per essere in accordo con le stime empiriche
dei flussi di supernovae di tipo II1 , che dipendono però dal tipo di modello scelto
per l’evoluzione del sistema.
Attualmente le stime dei flussi di coalescenze all’interno della Via Lattea sono:
10
5
%
10
3<
anno per i sistemi di stelle di neutroni, 10
misti, e 0 % 10
4<
6
%
10
4<
anno per quelli
anno per i buchi neri doppi.
Tutte le estrapolazioni a flussi extragalattici sono basate sull’assunzione che la
formazione di binarie compatte sia proporzionale alla luminosità nel blu di quella
regione, corretta dall’arrossamento dovuto alla distanza. Quindi il tasso di coalescenze alla distanza r risulta proporzionale a quello galattico ed al rapporto tra le
luminosità nel blu in quella sfera e nella Via Lattea:
ngal
lb 4 3
πr nV L
LbV L 3
(4.13)
dove lb è la densità media di luminosità nel blu entro r.
Nutzman, Kalogera, Finn, Hendrickson e Belczynski [11] hanno raffinato questo metodo, osservando tre cose:
1. Riscalare la luminosità è un procedimernto corretto se il volume considerato
è così ampio da rendere trascurabili le fluttuazioni locali nella densità di
1 Le
supernovae si suddividono in due categorie: quelle di tipo I sono le esplosioni di una singola
stella massiccia giunta al culmine della propria esistenza, mentre quelle di tipo II derivano dalla forte
quantità di energia liberata quando le due componenti di un sistema binario entrano in collisione tra
loro.
CAPITOLO 4. CONFRONTO TRA I DUE METODI
87
galassie, e questo non è valido nell’Universo locale, dove la distribuzione
di galassie è fortemente anisotropa. Per superare questa difficoltà hanno
usato dei cataloghi di galassie in modo da mappare la reale distribuzione
nello spazio che interessa le osservazioni (la massima distanza osservabile
dai rivelatori).
2. Le sensibilità dei rivelatori interferometrici non sono isotrope, ma essi riusultano più sensibili alle binarie immediatamente al di sopra o al di sotto del
piano determinato dai bracci, rispetto alle sorgenti presenti nel piano stesso.
3. La massima distanza osservabile dipende dalle masse delle stelle, per cui è
necessario calcolare il flusso al variare di queste.
Per tenere conto della distribuzione locale delle galassie sono stati utilizzati due
cataloghi, il Lyon-Meudon Extragalactic database (LEDA) e il Trully Nearby Galaxy Catalog (NBG) scelti per la loro mappatura pressochè omogenea del cielo. Il
catalogo nato dalla loro fusione risulta completo per galassie con magnitudine nel
blu inferiore a 14,52 , e per compensare questa perdita viene introdotto un fattore
di correzione dipendente dalla distanza.
Confrontando la lumonosità nel blu in funzione della distanza con quella ottenuta nell’ipotesi di isotropia, è possibile notare che il metodo “classico” sottostima il contributo delle galassie vicine, e che in prossimità dei 20 Mpc l’ammasso
della Vergine dà un consistente contributo. Inoltre al di là dei 20 Mpc la lumonisità cresce più lentamente di r 3 , e tende ad isotropizzarsi sempre di più a grandi
distanze.
2 La magnitudine è un’unità di misura della luminosità storicamente nata per rappresentare la
sensibilità dell’occhio umano che è approssimativamente logaritmica, e convenzionalmente ha una
scala negativa: mν DQ 2 G 5 ln Lν S cost ‘
CAPITOLO 4. CONFRONTO TRA I DUE METODI
88
Per determinare una popolazione realistica di ciascuna galassia in base alla
massa di chirp gli stessi autori hanno elaborato un programma di sintesi per le
binarie BKB [2]. L’estrapolazione del tasso di coalescenze extragalattico viene
effettuata riscalando quello della Via Lattea con la luminosità nel blu del nuovo
oggetto in unità galattiche:
ngal
Lb gal
nV L
LbV L
(4.14)
Il passo successivo è la comprensione di come la distribuzione di binarie in coalescenza si rifletta nel numero di eventi osservabili, occorre considerare l’efficienza
di rivelazione, definita come la frazione di sistemi di una data popolazione che hanno la possibilità di essere rivelati con un rapporto segnale-rumore al di sopra di una
certa soglia. Assumendo una distribuzione uniforme di galassie la sensibilità di
un rivelatore è il volume dello spazio che riesce ad abbracciare, espresso convenzionalmente dal suo raggio efficace, ma tenendo conto della distribuzione reale di
galassie, e della diversa popolazione di binarie in ciascuna di esse, occorre trovare
una nuova definizione. Il numero di galassie rivelabili è:
NG
L
ndet
nV L
Li
∑ LV L εi
(4.15)
i
dove εi è l’efficienza del rivelatore per la galassia i-esima, ed L i la corrispondente
luminosità nel blu. Con questa definizione, il flusso di eventi osservabili è dato da:
ndet
NG nV L
(4.16)
CAPITOLO 4. CONFRONTO TRA I DUE METODI
89
e il numero di binarie nella Via Lattea può essere calcolato a partire dai campioni
osservativi e dai modelli di sintesi di popolazione.
4.5.1 Parametri che influenzano l’efficienza di un rivelatore
I rivelatori interferometrici sono più sensibili ad onde gravitazionali con una polarizzazione incidente normale al piano dei bracci. A causa della rotazione terrestre
la posizione e la polarizzazione delle sorgenti cambia nel tempo, e poiché le galassie non sono uniformemente distribuite, il tasso di binarie rivelabili stimato è una
funzione periodica del giorno siderale 3 . La variazione dettagliata dipende dalla
geografia galattica, dalla distribuzione di binarie con data massa di chirp, e dalla
soglia scelta per il rapporto segnale-rumore. Un esempio elaborato dali autori è
quello in figura, che mostra l’efficienza di LIGO con una soglia pari ad 8.
Il tempo è misurato in ore ed è dato dal tempo universale sommato al tempo
siderale di Greenwich all’ora 0 del tempo universale. L’ammasso della Vergine
è “visibile” dal rivelatore per circa due ore, pressochè coincidenti con il picco
maggiore in figura.
3 Il
giorno siderale viene definito come l’intervallo di tempo che intercorre tra due culminazioni
successive di una stella sul meridiano locale, e vale circa 23 ore e 56 minuti.
Il giorno solare è definito invece come l’intervallo tra due passaggi consecutivi del Sole sul meridiano locale, e rispetto al giorno siderale è più lungo di circa 4 minuti, perchè tiene conto della
rivoluzione della terra attorno al Sole.
Il tempo universale è quello misurato dali orologi atomici, al momento gli strumenti più precisi,
anche se i segnali delle pulsar riescono a raggiungere precisioni simili.
CAPITOLO 4. CONFRONTO TRA I DUE METODI
90
E’ interessante notare la dipendenza della risposta dello strumento dalla posizione della sorgente. Una volta mediato sul tempo siderale, il flusso di sorgenti
rivelabili dipende dalla posizione nel cielo soltanto tramite la declinazione.
In particolare, la sensibilità alle coalescenze nell’ammmasso della Vergine è
migliore per rivelatori posti a latitudini corrispondenti a declinazioni vicine all’ammasso, per cui Virgo e l’interferometro di LIGO presente a Livingston sono
favoriti nelle misure rispetto al LIGO di Hanford o a GEO. Se ad esempio gli altri
due rivelatori di LIGO fossero stati costruiti a latitudini più vicine a quelle declinazioni, la rete dei tre avrebbe il 25% in più di probabilità di rivelare coalescenze
dall’ammasso della Vergine.
L’efficienza massima di un rivelatore si ha per galassie situate ai poli celesti,
a differenza di quanto ci si potrebbe aspettare, infatti, le sorgenti maggiormente
rivelabili non sono quelle allo zenit dello strumento. Questo perché le galassie
alle declinazioni corrispondente alla latitudine del rivelatore sono allo zenit per
una breve frazione di tempo, mentre l’efficienza delle galassie ai poli celesti è
indipendente dal tempo, in quanto sono visibili durante tutto il giorno.
I precedenti studi adottavano per l’efficienza di rivelazione in funzione della
distanza un gradino, questa valeva 1 fino ad una certa distanza, oltre la quale scendeva bruscamente a zero, per LIGO, ad esempio, era stimato un limite superiore a
20 Mpc per le stelle di neutroni, 40 Mpc per i sistemi misti, e di 100 Mpc per i buchi neri. Considerando invece che galassie ad una data distanza hanno una diversa
CAPITOLO 4. CONFRONTO TRA I DUE METODI
91
probabilità di essere rivelati a seconda della loro declinazione, la curva che hanno
ottenuto gli autori molto diversa, come è mostrato nel grafico:
L’efficienza ha una coda diversa da zero che si estende a distanze molto maggiori, per i buchi neri ad esempio fino a 130 Mpc è superiore al 10%. D’altro canto,
per lo stesso motivo non è mai il 100%, ma realisticamente minore (per l’ammasso
della Vergine l’efficienza stimata in questo modo è del 60%).
Le efficienze delle tre sottopopolazioni di sistemi binari sono diverse tra loro a
causa delle diverse distribuzioni della massa di chirp. La distribuzione di binarie
rivelabili in funzione della massa di chirp è dominata dai sistemi di buchi neri, in
quanto il segnale gravitazionale è più potente, comunque il contributo dato dalle
stelle doppie di neutroni risulta il doppio rispetto a quello nell’ipotesi di isotropia
locale, che sottostima il numero di galassie presenti nel vicino Universo. Questa
sottostima risulta maggiore alle distanze dell’ammasso della Vergine, rispetto che
a distanze maggiori, dove sono rivelabili soltanto buchi neri, e quindi penalizza
prevalentemente i sistemi meno massicci.
Gli autori hanno stimato per l’esperimento di LIGO un tasso di rivelazione
compreso tra i 2 10
2
ed i 3 10
1
eventi l’anno per i sistemi di stelle di neutroni.
Gli unici fattori che non sono stati tenuti in considerazione in questa correzione
sono la metallicità delle galassie, che influenza i venti stellari e le masse finali
degli oggetti compatti, e la storia della formazione stellare per ciascuna di esse,
informazioni ancora parzialmente note.
CAPITOLO 4. CONFRONTO TRA I DUE METODI
92
4.6 Il futuro prossimo: Virgo e LIGO advanced
Una distribuzione non isotropa delle sorgenti osservabili, sebbene sia più ottimistica nella previsione del numero di sistemi di stelle di neutroni, comporta ulteriori complicazioni, come la forte dipendenza dalla declinazione, dall’ora del
giorno e dalla posizione degli interferometri della probabilità di rivelazione, e la
constatazione che di fatto essa non si mai il 100%.
Per riuscire a raggiungere masse e distanze sempre maggiori, alcuni anni dopo
l’avvio degli esperimenti, i rivelatori saranno potenziati, in modo da aumentarne
significativamente la sensibilità. Il progetto per il raffinamento di Virgo, detto “Virgo advanced”, è attualmente in corso di definizione, e prevede alcuni accorgimenti
per la riduzione dei vari tipi di rumore.
Il rumore termico presente nelle sospensioni può essere ridotto utilizzando per
costruirle un materiale a bassa dissipazione, come fibre di silicio fuso, che attualmente sono la soluzione migliore. Queste permetterebbero di avere un fattore di
qualità Q k 109 che significherebbe ridurre di un fattore 30 l’ampiezza dello spettro
di rumore.
Il silicio sembra la soluzione più adatta anche per raffreddare gli specchi stessi,
ricoprendoli con uno strato sottile. Inoltre per evitare di avere troppi oggetti a
carico delle sospensioni, sono in progetto attuatori elettrostatici al posto di quelli
magnetici.
Per diminuire lo shot noise la potenza del laser varrà aumentata a 300W, e
questo ridurrà il rumore a basse frequenze di un fattore 30.
Un’altra possibilità allo studio è l’utilizzo del cosiddetto “ricircolo di segnale”,
una tecnica che consente di far diventare il rivelatore risonante e quindi di migliorare la sensibilità in una porzione della banda di frequenza, a scapito della sensibilità
nel resto della banda.
La combinazione di queste migliorie dovrebbe far sì che la sensibilità del rivelatore aumenti di circa un ordine di grandezza rispetto a quella attuale; ad esempio, se non si utilizza il ricircolo di segnale, si dovrebbe guadagnare un fattore
6,4 in distanza. Sono infatti state effettuate simulazioni nelle stesse ipotesi e condizioni utilizzate precedentemente, immettendo nel programma questa ipotesi di
miglioramento della sensibilità, ed i risultati sono mostrati in figura:
CAPITOLO 4. CONFRONTO TRA I DUE METODI
93
Virgo advanced
1
0,9
1,4-1,4 masse solari
1,4-2,4 masse solari
1,4-10 masse solari
5-5 masse solari
15-15 masse solari
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
100
200
300
400
500 600 700
Distanza (Mpc)
800
900
1000 1100 1200
Anche i rivelatori dell’esperimento parallelo LIGO saranno raffinati raggiungendo sensibilità di circa un ordine di grandezza maggiori di quelle attuali, e questo
consentirà di poter misurare con una rete estremamente potenziata. I grafici seguenti mostrano la probabilità media di rivelazione in funzione della distanza per
la rete completa dei rivelatori avanzati, per i differenti valori di masse delle stelle.
Rete Virgo adv-LIGO adv
1,4-1,4 masse solari (stelle di neutroni)
1
0,9
Coincidente 2/4
Coerente
Coincidente 3/4
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
50
100
150
200
300
250
Distanza (Mpc)
350
400
450
500
CAPITOLO 4. CONFRONTO TRA I DUE METODI
94
Rete Virgo adv-LIGO adv
sistemi misti
1
0,9
Coincidente 2/4 1,4-2,4 masse solari
Coerente 1,4-2,4 masse solari
Coincidente 2/4 1,4-10 masse solari
Coerente 1,4-10 masse solari
Coincidente 3/4 1,4-2,4 masse solari
Coincidente 3/4 1,4-10 masse solari
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
100
200
300
400
500
600
Distanza (Mpc)
700
800
900
1000
Rete Virgo adv-LIGO adv
sistemi di buchi neri
1
0,9
Coincidente 2/4 5-5 masse solari
Coerente 5-5 masse solari
Coincidente 2/4 15-15 masse solari
Coerente 15-15 masse solari
Coincidente 3/4 15-15 masse solari
Coincidente 3/4 5-5 masse solari
Coincidente 3/4 15-15 masse solari
Probabilita media di rivelazione
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
500
1000
1500
2000
3000
2500
Distanza (Mpc)
3500
4000
4500
5000
Come è facilmente osservabile, si ha un notevole allargamento dell’orizzonte,
di circa un fattore 15, e questo permette, nei casi di oggetti molto massicci, di
rivelare sistemi fino a distanze cosmologiche. La rete di interferometri potenziati
quindi potrebbe essere utilizzata, una volta rivelati i segnali, anche come base per
la determinazione della costante di Hubble con ulteriore precisione.
CAPITOLO 4. CONFRONTO TRA I DUE METODI
95
4.7 Accuratezza nella determinazione dei parametri
Una volta certi di aver rivelato un segnale gravitazionale proveniente da un sistema binario, oltre a confermare ulteriormente l’accuratezza della teoria della Relatività Generale, si apre una nuova branca dell’astrofisica, che permette di ricavare notevoli informazioni sulle sorgenti, come sottolineato in precedenza spesso
complementari a quelle elettromagnetiche.
Culter e Flanagan hanno compiuto uno studio sull’accuratezza nella determinazione dei parametri che caratterizzano una sorgente, supponendo di misurare con
una rete di interferometri [7].
Il rumore intrinseco dei rivelatori è previsto essere la principale causa delle
incertezze sulla determinazione dei parametri stellari, ma esistono altre fonti di
errori, quali la non perfetta conoscenza di un modello teorico di forma d’onda, e
l’amplificazione o la deamplificazione dell’ampiezza del segnale a causa delle lenti
gravitazionali.
E’ necessario osservare che i parametri ottenibili dalla fase dell’onda avranno
un’accuratezza maggiore rispetto a quelli che si ricavano dall’ampiezza, infatti il
numero di cicli che si osservano nella permanenza del segnale nella banda del
rivelatore ne aumenta notevolmente la sensibilità.
4.7.1 Parametri derivanti dalla fase: le masse
Le masse delle due stelle influenzano sia l’ampiezza che la fase del segnale, è però
conveniente ricavarle da quest’ultima , visto che l’accuratezza risulta proporzionale
al numero di cicli d’onda contenuti nei dati.
Assumendo che un interferometro riveli in media nella banda 10-500 Hz, un’onda compirà circa 103 cicli nel tempo di integrazione (durata della misura), e l’accuratezza nella determinazione delle masse aumenterà di un fattore pari al numero di cicli, ovvero di tre ordini di grandezza rispetto ai parametri ricavabili
dall’ampiezza.
Il segnale newtoniano consente di ricavare unicamente una combinazione dei
due parametri, la massa di chirp (definita di seguito alla 1.25), è quindi necessario
ricorrere agli ordini successivi. Tuttavia è possibile ottenere un limite superiore
alla massa minore m2 , ed uno inferiore a quella maggiore m 1 , anche conoscendo
CAPITOLO 4. CONFRONTO TRA I DUE METODI
96
solamente la massa di chirp, mediante la seguente osservazione: quando le due
masse sono uguali, m1 raggiunge il suo minimo, mentre la compagna il massimo,
1
5
in questa circostanza la massa di chirp vale m 1 2
1
mentre m2
2
, per cui si ha che m1
1
-
2 5 Mc ,
2 5 Mc .
L’errore nella determinazione della massa di chirp è dato dall’espressione:
∆ ln Mc
5
1 2 10
10
SNR
Mc
M#
5
3
(4.17)
dove SNR è il rapporto segnale-rumore, che per una rete di rivelatori è definito:
∑a SNR2a
Gli ordini post-newtoniani presentano un’ulteriore complicazione: la forma
SNRrete
L
M
d’onda dipende anche dalla rotazione delle stelle attorno al proprio asse, e questo
ha l’effetto di raddoppiare circa l’errore nella determinazione della massa ridotta
del sistema, infatti i due parametri sono fortemente correlati, e non è sempre possibile distinguerne i risultati all’interno del segnale misurato. All’ordine 1,5 postnewtoniano, e considerando solamente le correzioni dovute all’interazione dell’onda con il potenziale gravitazionale del sistema, trascurando le conseguenze della
rotazione, l’incertezza sulla massa ridotta risulta circa l’1%, contro lo 0,01-0,1%
della massa di chirp. Questo è dovuto al fatto che ciascun termine post-newtoniano
è circa
M
a
volte minore del precedente, per cui, assumendo che
M
a
>
1
20
la misura
della massa ridotta è circa 20 volte più imprecisa della massa di chirp se misurata
al primo ordine, di circa 90 se all’ordine 1,5. Per determinare le singole masse
viene usata la relazione:
m1 5 2
5
1
Mc2 µ
2 .
3
2 K
Mc5 µ 3
5
2
4Mc µ
1
2
1
2
(4.18)
/
e le rispettive varianze risultano:
σ m1
σµ
b
M µ 3m1 2µ m1 m2 2
c
σ m2
σµ
b
M µ 3m2 2µ m1 m2 2
c
(4.19)
Per un sistema composto da un buco nero di circa 10 masse solari e da una
stella di neutroni di 1,4, ad esempio,
∆µ
µ
>
15% ed i rispettivi errori sulle masse
CAPITOLO 4. CONFRONTO TRA I DUE METODI
97
saranno del 30% sulla primaria, e del 20% sulla compagna.
Considerando anche il contributo della rotazione, l’errore sulla massa ridotta
aumenta di un fattore che varia da 20 a 60, però è possibile conoscere, con la stessa
accuratezza di µ nel caso precedente, la combinazione:
σµβ
β
σβ
µ
(4.20)
dove σµβ è la correlazione tra la massa ridotta e β, definito come:
β
L
L̂
M2
N
Š
113
12
25 m2 Œ
4 m1
S1
Š
113
12
25 m1 Œ
4 m2
S2 O con L̂ momento angolare di ri-
voluzione unitario, ed S1 S2 momenti angolari di rotazione delle stelle.
Nel caso di binarie a grandi distanze, alle quali l’arrossamento dovuto all’espansione dell’Universo non sia più trascurabile, non è possibile determinare separatamente l’effetto Doppler avendo a disposizione soltanto h t , e le due masse
saranno note a meno del redshift cosmologico z:
Mc
1
z Mc reale µ 1
z µreale
(4.21)
se però la stella di neutroni è una pulsar, ad esempio, è possibile calcolare z in
maniera indipedente dal segnale gravitazionale, e ricavare le masse con maggior
precisione.
Un espediente per ottenere risultati migiori è quello di usare una rete con il
numero massimo di rivelatori a disposizione N, in quanto l’errore sulle singole
masse si riduce di un fattore
X
N.
4.7.2 Parametri derivanti dall’ampiezza: la distanza
Per determinare la distanza di una sorgente, è necessario localizzarla nel cielo,
e conoscerne ampiezza e polarizzazione dell’onda emessa; la rete di rivelatori in
questo caso diviene indispensabile. Rispetto al caso precedente, comunque, l’approssimazione newtoniana è sufficiente, il che semplifica notevolmente i calcoli.
L’ampiezza dell’onda può essere misurata da ogni rivelatore con un’accuratezza pari a:
∆A
A
1
SNRa
(4.22)
CAPITOLO 4. CONFRONTO TRA I DUE METODI
e considerato che A ∝
trebbe essere
∆r
r
&
1
r
1
SNRrete
98
, una stima “artigianale” dell’errore sulla distanza podell’ordine del 10%. Tuttavia l’ampiezza del segnale è
fortemente influenzata dalla posizione della sorgente (δ α), dalla polarizzazione
dell’onda, e in maniera ancor più determinante dall’inclinazione dell’orbita del sistema rispetto al piano di vista, esisterà quindi una correlazione tra le stime per la
distanza e quelle per gli angoli, che tenderà a ridurne l’accuratezza.
Detta Θ la matrice di correlazione tra le funzioni d’antenna dei rivelatori (risposte degli strumenti ad un segnale a forma di delta di Dirac), che assume la
forma:
0
3
dove σr ed εr
’
6
0
1 εr
(4.23)
4
0 17 sono funzioni dei parametri angolari, l’errore sulla distanza
ha come limite inferiore:
con σmax
εr
1
Θ σr
∆r
r
-
X
2
r
σmax r0
(4.24)
max δ 5 α ! σr δ α che assume valori intorno ad 1, ed r 0 una distanza di
riferimento dipendente dalle caratteristiche dello strumento.
Culter e Flanagan hanno effettuato delle simulazioni Monte Carlo di misure di
distanza utilizzando la rete di interferometri conposta da Virgo e due dei tre LIGO,
ottenendo circa l’8% delle misure con un’accuratezza entro il 15%, ed il 60% circa
entro il 30%.
La correlazione tra le misure di distanza ed i parametri angolari ne diminuisce
l’accuratezza di un fattore 2-3 rispetto alla stima iniziale che teneva conto soltanto dell’ampiezza, mentre l’orientazione del rivelatore influisce pesantemente nella
determinazione dei parametri, a causa della sua sensitività polarizzata. Per questo
motivo è importante scegliere adeguatamente le posizioni degli interferometri sulla
superficie terrestre, in modo da ottenere il maggior numero di informazioni possibili riguardanti una sorgente. In particolare con un numero maggiore di rivelatori
l’errore sulla distanza sarà sensibilmente diminuito, e sarà possibile utilizzare le
binarie coalescenti come candele standard, e determinare con maggior precisione
anche la costante di Hubble.
CAPITOLO 4. CONFRONTO TRA I DUE METODI
99
4.8 Conclusioni
Dallo studio effettuato sui risultati ottenibili mediante una rete di interferometri
sono emersi alcuni risultati interessanti.
La prima considerazione riguarda il parallelo tra i due metodi di analisi, quello coerente e quello coincidente: le simulazioni nelle ipotesi di rumore gaussiano
hanno confermato la superiorità del primo in termini di probabilità di rivelazione,
tuttavia l’esito della ricerca coincidente è stato tutt’altro che negativo, esso infatti
permette di raggiungere distanze il 25% circa inferiori al metodo coerente. Considerando il fatto che in condizioni più realistiche il rumore non è completamente
gaussiano, e che la procedura coerente non è perfettamente in grado di filatrare
questi falsi allarmi, mentre il metodo coincidente si basa proprio su questo tipo di
filtraggio, sembra che la scelta migliore sia far operare i rivelatori in coincidenza.
Ciascun interferometro quindi compilerebbe la sua lista di eventi, dopodiché queste
liste verrebbero confrontate in cerca di coincidenze, appunto, eventi che compatibilmente potrebbero provenire dalla stessa sorgente. Gli eventi che non riscontrerebbero almeno una controparte nella rete verrebbero scartati come falsi allarmi, i
rimanenti sarebbero con grande probabilità candidati a segnali gravitazionali veri
e propri.
Risulta utile osservare come la probabilità di rivelazione per entrambe le strategie di analisi prese in considerazione aumenti all’aumentare dei rivelatori coinvolti
nella misura. I risultati ottenibili con la minirete composta dai tre LIGO migliorano
sensibilmente di circa il 12% se si aggiunge anche Virgo, sarebbe utile quindi avere
a disposizione un numero maggiore di rivelatori, in posizioni diverse sulla superficie terrestre, in modo da poter coprire una porzione di cielo più ampia possibile, e
allo stesso tempo aumentare la probabilità di rivelare segnali gravitazionali. E’ importante però che le sensibilità degli strumenti non risultino troppo disomogenee,
ma tali che i pesi relativi degli elementi siano confrontabili, e ciascuno di essi sia
realmente utile alla ricerca.
E’ necessario ricordare inoltre che le stime sono state effettuate ipotizzando
una distribuzione uniforme delle sorgenti nel cielo, mentre su scale delle decinecentinaia di megaparsec questo non è vero, in quanto la presenza di ammassi è
determinante. La ricerca dunque è più complessa, in quanto la sensibilità dei ri-
CAPITOLO 4. CONFRONTO TRA I DUE METODI
100
velatori, e quindi la probabilità di rivelazione dipende sia dalla posizione della
sorgente nel cielo, che dall’ora del giorno, di conseguenza in condizioni favorevoli la probabilità aumenterà, in altre risulterà estremamente più difficile rivelare un
ipotetico segnale.
A questo problema potrebbe essere utile una mappatura dettagliata del cielo
a determinate distanze, con modelli di formazione delle binarie in modo da poter
calcolare in media il numero di sorgenti che ci si attende. Al tempo stesso, il
potenziamento degli interferometri che è in progetto, contribuirebbe a migliorare
la situazione, in quanto allargherebbe l’orizzonte osservabile di un fattore 15, tale
da poter rivelare, in determinati casi, anche sino a distanze cosmologiche.
Ringraziamenti
Prima di tutto vorrei ringraziare il mio relatore, una persona veramente disponibile
e gentile con cui ho lavorato benissimo, grazie anche alla sua capacità di mettermi a
mio agio sin dall’inizio della tesi. Mi piacerebbe anche ringraziare tutte le persone
che lavorano a Virgo con cui ho avuto modo di entrare in contatto durante il lavoro
e che hanno contribuito a renderlo un’esperienza positiva, tra i quali Leone Bosi e
Giovanni Losurdo.
Un ringraziamento speciale va ai miei genitori e a mio fratello, che mi hanno
pazientemente sopportata in questo periodo di stesura durante il quale sono stata
intrattabile, ma soprattutto per aver sempre avuto fiducia in me in tutti questi anni.
Grazie a Filippo, carissimo amico dai primi anni di corsi, su cui ho sempre
potuto contare nei momenti di difficoltà, sempre pronto a darmi una mano, un
consiglio, o semplicemente ad ascoltarmi quando ne avevo bisogno, per avermi
sopportata anche quando ero intrattabile...grazie davvero di cuore!
Un grazie speciale a Giulia, con cui sono praticamente cresciuta insieme, compagna di infiniti pomeriggi e sere a parlare e buona amica che mi ha sempre
sostenuta ed aiutata quando è servito.
Un grazie di cuore a Carlo, il mio compagno di laboratorio 4 preferito, che si
è rivelato un caro amico e “faretto” sempre acceso con consigli o incoraggiamenti
quando ne avevo bisogno.
Grazissimissime a Manuela, cara stellina e amica fedele che col suo sorriso
o con una parola al momento giusto ha rallegrato mille giornate di lezione e di
laboratorio, che senza di lei sarebbero state più grigie...
Grazie anche a Alessandro, il mio compagno di allenamenti da sempre, per
101
CAPITOLO 4. CONFRONTO TRA I DUE METODI
102
avermi ascoltata specialmente in questi ultimi mesi di lunghe corse durante le quali
ci raccontavamo le nostre vicessitudini universitarie...
Infine un grazie a Paola, amica che ho scoperto così cara soltanto recentemente,
a France, a Antonella, a Diego, a Giorgio, a Luca, a Simone, a Stefano, a Giulia....
Bibliografia
[1] Astone P., Babusci D., Baggio L., Bassan M., Blair D. G., Bonaldi M., Bonifazi P., Busby D., Carelli P., Cerdonio M., Coccia E., Conti L., Cosmelli C.,
D’Antonio S., Fafone V., Falferi P., Fortini P., Frasca S., Giordano G., Hamilton W. O., Heng I. S., Ivanov E. N., Johnson W. W., Marini A., Mauceli E.,
McHugh M. P., Mezzena R., Minenkov Y., Modena I., Modestino G., Moleti
A., Ortolan A., Pallottino G. V., Pizzella G., Prodi G. A., Quintieri L., Rocchi A., Rocco E., Ronga F., Salemi F., Santostasi G., Taffarello L., Terenzi
R., Tobar M. E., Torrioli G., Vedovato G., Vinante A., Visco M., Vitale S.,
Zendri J. P., “Methods and result of the IGEC search for burst gravitational
waves in the years 1997-2000”, Phys. Rev. D 68, 02201 (2003).
[2] Belczynski K., Kalogera V., Bulik T., “A comprehensive study of binary compact objects as gravitational wave sources: evolutionary channel, rates, and
physical properties”, Astrophys. J. 572 (2001) 407-431.
[3] Benacquista M. J., “Relativistic Binaries in Globular Clusters”, Living Rev.
Rel. 5 (2002) 2, http://relativity.livingreviews.org/lrr-2002-2 (2002).
[4] Blanchet L., “Energy loss by gravitational radiation in inspiraling compact
binaries to 5/2 post-Newtonian order”, Phys. Rev. D 54, 1417 (1996).
[5] Blanchet L., “Gravitational Radiation from Post-Newtonian Sources
and Inspiralling Compact Binaries”, Living Rev. Rel. 5 (2002) 3,
www.livingreviews.org/Articles/Volume5/2002-3blanchet (2002).
[6] Castellani V., “Astrofisica stellare - I fondamenti fisici dell’interpretazione
evolutiva di stelle e galassie”, Ed. Zanichelli, Bologna (1985).
103
BIBLIOGRAFIA
104
[7] Culter C., Flanagan E. E., “Gravitational waves from merging compact binaries: How accurately can one extract the binary’s parameters from the inspiral
waveform?”, Phys. Rev. D 49 2658 (1993).
[8] Fabri E., “Argomenti di Cosmologia e Astrofisica Relativistica”, Anno
Accademico 2001-02, ftp://osiris.df.unipi.it/pub/sagredo/afrel
[9] Hurley J. R., Tout C. A., Pols O. R., “Evolution of Binary Stars and the Effects
of Tides on Binary Populations”, Mon. Not. R. Astron. Soc. 000, 1-36 (2000).
[10] Losurdo G., “Ultra Low Frequency Inverted Pendulum for the VIRGO Test Mass Suspension”, Tesi di Perfezionamento in Fisica, Scuola Normale
Superiore di Pisa (1998).
[11] Nutzman P., Kalogera V., Finn L. S., Hendrickson C., Belczynski K., “Gravitational Waves from Extragalactic Inspiraling Binaries: Selection Effects and
Expected Detection Rates”, astro-ph/0402091 v2 (2004).
[12] Owen B. J., Sathyaprakash B. S., “Matched filtering of gravitational waves from inspiraling compact binaries: Computational cost and template
placement”, Phys. Rev. D 60, 022002 (1999).
[13] Owen B. J., “Search templates for gravitational waves from inspiraling
binaries: Choice of template spacing”, Phys. Rev. D 53, 6749-6761 (1996).
[14] Pai A., Dhurandhar S., Bose S., “A data analysis strategy for detecting
gravitational-wave signals from inspiraling compact binaries with a network
of laser-interferometric detectors”, Phys. Rev. D 64, 042004 (2001).
[15] Paolicchi
P.,
“Lezioni
di
Astrofisica
I”,
Astrofisica
II”,
http://www.df.unipi.it/ > paolic/dispense.html .
[16] Paolicchi
P.,
“Lezioni
di
http://www.df.unipi.it/ > paolic/dispense.html .
[17] Saulson P. R., “Fundamentals of interferometric gravitational wave
detectors”, World Scientific Publishing Co., Singapore (1994)
BIBLIOGRAFIA
105
[18] Sensibilità di LIGO advanced: Comunicazione privata di Peter Fritschel
[19] Sensibilità di Virgo advanced: M. Punturo “Possible scenarios of Advanced
Virgo sensitivity” nota di Virgo (2004).
[20] Viceré A., “Network analysis for coalescing binaries: coherent versus
coincidence based strategies”, Class. Quantum Grav. 21 (2004)
[21] Viceré A., “Introduction to data analysis in interferometric gravitational wave
experiments”, World Scientific (2000)
[22] Viceré A., “Virgo-SIGRAV school: Data Analysis for Coalescing Binaries”
(2003)
[23] www.tapir.caltech.edu/ > huges/ASIS/sourcelist.html
[24] www.virgo.infn.it/senscurve/VIR-NOT-PER-1390-51.pdf