Studio del canale di decadimento η — γγ nel

Transcript

Studio del canale di decadimento η — γγ nel
UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZA”
Facoltà di Scienze Matematiche, Fisiche e Naturali
Corso di Laurea in Fisica
Studio del canale di decadimento
η
γγ nel calorimetro
elettromagnetico di CMS
Tesi di Laurea
Relatore:
Candidato:
Prof. Egidio Longo
Stefano Venditti
matricola: 11112955
Correlatore:
Dott. Riccardo Paramatti
Anno Accademico 2003-2004
Tesine
Enigma
Relatore:
Prof.ssa Lucia Zanello
Throwing light on dark energy
Relatore:
Prof. Alessandro Melchiorri
“Omnis homines qui sese student
praestare ceteris animalibus summa ope
niti decet ne vitam silentio transeant
veluti pecora, quae natura prona
atque ventri oboedientia finxit.”
(Sallustio, Bellum Catilinae, Cap. I)
Indice
1 Modello Standard e LHC
1.1 Il Modello Standard . . . . . . . . . . . . . . . . . . . .
1.2 Il Large Hadron Collider . . . . . . . . . . . . . . . . .
1.2.1 Caratteristiche fisiche . . . . . . . . . . . . . . .
1.2.2 Soluzioni costruttive . . . . . . . . . . . . . . .
1.3 Fisica ad LHC . . . . . . . . . . . . . . . . . . . . . . .
1.4 Bosone di Higgs: canali di produzione e di decadimento
1.4.1 Canali di produzione dell’ Higgs . . . . . . . . .
1.4.2 Canali di decadimento dell’ Higgs . . . . . . . .
2 L’ esperimento CMS
2.1 Criteri di progettazione per CMS . . . .
2.2 Il rivelatore per muoni . . . . . . . . .
2.3 Il sistema di tracciamento . . . . . . . .
2.4 Il calorimetro adronico . . . . . . . . .
2.5 Il calorimetro elettromagnetico di CMS
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Soluzioni operative in CMS
3.1 Sistema di trigger . . . . . . . . . . . . . . .
3.2 Algoritmi di ricostruzione di elettroni e fotoni
3.2.1 Algoritmo island . . . . . . . . . . .
3.2.2 Algoritmo Hybrid . . . . . . . . . .
3.3 Procedure di calibrazione . . . . . . . . . . .
3.3.1 Sistema di monitoring della luce . . .
3.3.2 Precalibrazione . . . . . . . . . . . .
3.3.3 Calibrazione in situ con eventi fisici .
3.4 Programmi utilizzati . . . . . . . . . . . . .
3.4.1 Pythia . . . . . . . . . . . . . . . . .
3.4.2 OSCAR . . . . . . . . . . . . . . . .
3.4.3 ORCA . . . . . . . . . . . . . . . .
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
4
8
8
9
11
14
15
16
.
.
.
.
.
27
27
29
33
35
37
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
. . . . . . . 51
. . . . . . . 52
. . . . . . . 53
. . . . . . . 55
. . . . . . . 56
. . . . . . . 57
. . . . . . . 57
. . . . . . . 59
. . . . . . . 63
. . . . . . . 64
. . . . . . . 64
. . . . . . . 65
ii
4 Generazione e studio di eventi jet
4.1 Programmi e impostazioni utlilizzati . . . . . . . .
4.2 Analisi della sezione d’ urto . . . . . . . . . . . .
4.3 Selezione: considerazioni statistiche . . . . . . . .
4.4 Studio delle caratteristiche cinematiche del segnale
4.4.1 Caratteristiche cinematiche dell’ η . . . . .
4.4.2 Caratteristiche cinematiche dei fotoni . . .
4.5 Analisi delle rate del canale η γγ . . . . . . . .
4.6 Isolamento degli eventi e studio del picco di massa
5 Analisi del canale di decadimento η γγ a CMS
5.1 Studio di eventi isolati η γγ . . . . . . . . . . .
5.2 Analisi delle η all’ interno dei jet . . . . . . . . . .
5.2.1 Modalità di produzione del sample . . . . .
5.2.2 Proprietà cinematiche degli eventi generati
5.2.3 Ricostruzione e selezione . . . . . . . . . .
5.2.4 Analisi del picco di massa invariante . . . .
5.3 Studio della rate . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
67
67
69
72
73
73
76
78
81
.
.
.
.
.
.
.
85
85
91
91
92
93
94
96
6 Distinzione di eventi η γγ ad alta energia
101
6.1 Struttura della ricostruzione . . . . . . . . . . . . . . . . . . . . . 101
6.2 Picco ricostruito e rate totale . . . . . . . . . . . . . . . . . . . . 104
Bibliografia
108
Introduzione
L’ obiettivo principale degli esperimenti che opereranno ad LHC, presso il Cern
di Ginevra, a partire dal 2007 è la ricerca del bosone di Higgs, introdotto nel
modello standard per giustificare le masse dei costituenti fondamentali della materia e delle particelle che mediano le loro interazioni. In LHC i canali fondaγγ
mentali per la ricerca dell’ Higgs ad energie inferiori a 400 GeV sono H
eH
ZZ Z 4e: risulta dunque cruciale conseguire un’ alta precisione nelle misure di posizione e di energia delle particelle presenti negli stati finali. La
scelta fatta dall’ esperimento di CMS è quella di un calorimetro elettromagnetico
costituito da cristalli di tungstato di piombo (PbWO4 ): questo materiale, in virtù
delle sue proprietà fisiche, permette misure estremamente accurate di energia ed
un’ alta granularità. La risoluzione in energia del calorimetro è determinata da
tre contributi fondamentali: un contributo statistico, un contributo di rumore ed
un termine costante. Quest’ ultimo termine, dominante ad alte energie, dipende
in maniera cruciale dalla precisione sui coefficienti di calibrazione di ogni singolo cristallo. Occorre dunque ideare una procedura che permetta di valutare tali
coefficienti in modo da mantenere la risoluzione entro le specifiche progettuali.
La calibrazione del calorimetro di CMS è costituita da tre fasi distinte: precalibrazione sul fascio, sistema di monitoring e calibrazione in situ con eventi fisici.
La calibrazione con eventi fisici costituisce senza dubbio la fase più importante e
tiene conto del materiale posto dinnanzi al calorimetro, dell’ effettiva geometria
dello stesso e della temperatura di lavoro. Il punto fondamentale di questo tipo
di calibrazione è la presenza di un vincolo fisico o di una misura fisica di estrema
precisione rispetto alla quale si possa fare riferimento nel calcolo delle costanti di
calibrazione. Solitamente i canali presi in considerazione al fine della calibrazione
eν, con il quale si possono calibrare i singoli cristalli confrontansono due: W
do la misura di energia fornita dal calorimetro con quella di impulso fornita dal
sistema di tracciamento, e Z
e e , che permette di effettuare la calibrazione
di gruppi di cristalli utilizzando le informazioni provenienti dal solo calorimetro.
Queste due tipologie di calibrazione richiedono un tempo che può arrivare sino
a qualche mese per raggiungere la statistica necessaria a raggiungere la risoluzione richiesta in fase di progettazione di CMS. Si è pensato, allora, di provare
1
2
ad utilizzare decadimenti meno facili da ricostruire rispetto ai processi suddetti,
ma caratterizzati da una rate di produzione decisamente superiore. In particolare,
il canale in cui viene riposta maggior fiducia è η γγ. L’ utilizzo di tale canale
in una calibrazione durante la fase di presa dati, però, vanificherebbe di fatto la
sua alta rate: infatti le normali soglie di trigger previste in questa fase comporterebbero, a causa della bassa energia media dell’ η, una drastica diminuzione della
sua rate; tutto ciò si tradurrebbe in tempi di calibrazione paragonabili a quelli dei
canali esposti in precedenza, a parità di precisione richiesta. Inoltre la presenza
di soglie di trigger elevate si traduce in una diminuzione dell’ angolo medio tra i
due fotoni, che diminuisce all’ aumentare dell’ energia della particella, con conseguente peggioramento della ricostruzione. L’ idea considerata in questa tesi è
allora quella di optare per una calibrazione stand-alone, durante la quale, per un
periodo limitato di tempo, vengono acquisiti i soli dati del calorimetro elettromagnetico. In questo modo la soglia di trigger può essere abbassata, permettendo l’
acquisizione di un numero di η tale da permettere il raggiungimento della statistica necessaria in pochi giorni. La ricostruzione dei due fotoni provenienti dall’
eta, inoltre, presenta non poche difficoltà: infatti, come si vedrà, l’ uso degli algoritmi standard di ricostruzione di CMS presenta alcuni problemi. L’ argomento
della presente tesi è dunque lo studio della possibilità di ricostruire i due fotoni
provenienti dall’ η ai fini della calibrazione stand alone, attraverso una stima della
rate e delle caratteristiche cinematiche a livello di generatore e, successivamente,
attraverso l’ analisi dell’ evento in questione con i programmi di simulazione di
CMS. Il capitolo 1 è dedicato all’ esposizione della fisica del bosone di Higgs
a LHC. Il capitolo 2 riguarderà l’ esperimento CMS in generale, con particolare
attenzione al calorimetro elettromagnetico; nel capitolo 3 verranno invece esposte
le soluzioni operative adottate in CMS.
Il capitolo 4 è dedicato allo studio degli eventi protone-protone a livello di
generatore e allo studio delle rate di produzione dell’ η. Nel capitolo 5, dopo una
breve analisi su un campione ridotto di η singole all’ interno del barrel, eventi
protone-protone verranno simulati e verranno esposti alcuni problemi relativi alla ricostruzione del picco di massa invariante dell’ η. Nel capitolo 6, infine, si
esporrà una possibile tecnica per recuperare alcuni dei decadimenti η
γγ non
ricostruibili con gli algoritmi standard di ricostruzione per elettroni e fotoni.
Capitolo 1
Modello Standard e LHC
Il modello Standard (MS), introdotto da Weinberg, Glashow e Salam negli anni
’70, ha permesso di formalizzare con grande accuratezza molti risultati sperimentali della fisica delle particelle, permettendo di effettuare numerose previsioni teoriche che sono state poi verificate sperimentalmente. L’ obiettivo del MS è quello
di descrivere in un’ unica teoria tre delle quattro interazioni sinora conosciute:
elettromagnetica, debole e forte [1].
Tuttavia il meccanismo attraverso cui i mediatori delle interazioni tra particelle
fondamentali acquisiscono una massa, la rottura spontanea di simmetria, prevede
l’ introduzione di un campo scalare neutro associato ad una particella massiva, il
bosone di Higgs; di questa particella non è stata ancora fornita un’ evidenza sperimentale. La difficoltà nel rilevare il bosone di Higgs risiede nel fatto che la sua
massa, all’ interno del MS, è espressa in funzione di alcuni parametri non ottenibili da altri esperimenti; dunque non può essere individuato un preciso valore di
energia da indagare. A tutt’ oggi le previsioni teoriche possono fornire solamente
un limite inferiore e superiore alla sua massa.
Gli esperimenti condotti al LEP2, operante al CERN di Ginevra fino al novembre del 2000, hanno messo in luce segnali interpretabili come un Higgs di
bassa massa, intorno ai 115 GeV. Questa possibilità sarà confermata o smentita nel prossimo futuro dai dati dall’acceleratore Tevatron di Chicago (USA) e da
LHC.
LHC, in particolar modo, sarà in grado di analizzare l’intero spettro di massa
dell’ Higgs: se l’ intervallo di energia da indagare dovesse essere quello indicato
da LEP, cioè di poco superiore ai 100 GeV, il canale su cui fare più affidamento
sarebbe il decadimento dell’ Higgs in due fotoni. Per questo canale, la difficoltà
maggiore è rappresentata dal fondo continuo qq̄ γγ: per ottenere un’alta significatività del segnale, è richiesta dunque grande precisione sulla massa invariante dell’Higgs, raggiungibile grazie ad un calorimetro elettromagnetico di elevate
prestazioni sia nella di risoluzione in energia sia nella misura della posizione.
3
4
Il calorimetro elettromagnetico dell’esperimento CMS, che verrà installato ad
LHC, risponderà ad entrambe queste esigenze, garantendo la possibilità di raggiungere una significatività sufficiente per la scoperta di un Higgs con massa
compresa nell’intervallo 100 MH 150 GeV con una luminosità integrata di
30 fb 1 .
1.1 Il Modello Standard
L’ obiettivo del Modello Standard è quello di fornire una descrizione unitaria di tre
delle quattro interazioni fondamentali conosciute fino ad oggi: elettromagnetica,
debole e forte [2].
Le previsioni del settore elettrodebole del Modello Standard sono state verificate sperimentalmente in processi che avvengono in un ampio spettro di energia, dai pochi GeV dei decadimenti deboli alle energie del polo del bosone Z e
del quark t. Il settore delle interazioni forti appare anch’esso ben descritto dalla Cromodinamica Quantistica (QCD), anche se i problemi derivanti dalla natura
fortemente non perturbativa dei processi che coinvolgono interazioni forti a bassa energia rendono più arduo, rispetto al caso elettrodebole, il confronto tra dati
sperimentali e predizioni della teoria.
Il Modello Standard è una teoria di gauge delle interazioni elettrodeboli e forti
basata sul gruppo SU 3 C SU 2 T U 1 Y , prodotto diretto dei gruppi di simmetria di colore (C), di isospin debole (T), di ipercarica (Y). Associati al gruppo
di simmetria locale ci sono 12 bosoni di gauge di spin 1: 8 gluoni(g) per SU 3 C ,
3 bosoni di gauge (Wi ) per SU 2 T ed 1 (B) per U 1 Y . Il bosone Z ed il fotone γ
risulteranno, come si vedrà, da combinazioni lineari di W3 e di B.
Accanto a questi bosoni, troviamo i fermioni suddivisi in tre famiglie di quark
e leptoni, aventi le seguenti proprietà di trasformazione rispetto ad SU 3 C
SU 2 T U 1 Y :
QiL LiL uiL
dLi νiL
lLi 1
3 2
6
1 2 uiR 1
2
lRi 2
3 1
3
1 1 1 dRi 3 1 i 1 2 3
1
3
(1.1)
dove i numeri tra parentesi indicano rispettivamente la dimensione della rappresentazione di SU 3 C , la dimensione della rappresentazione SU 2 T ed il valore
dell’ipercarica Y .
I fermioni in 1.1 corrispondono a spinori di Weyl left-handed e right-handed
a due componenti. Non è possibile introdurre in modo diretto termini di massa
in quanto violerebbero la simmetria di gauge; essi pertanto potranno comparire
1. Modello Standard e LHC
5
solamente quando la simmetria sia rotta. La carica elettrica nella convenzione
assunta è data da Q T3 Y , dove T3 è il generatore diagonale di SU 2 T .
L’acquisizione di massa da parte dei fermioni e bosoni di gauge avviene trami
te il meccanismo di Higgs , che rompe il gruppo di simmetria SU 3 C SU 2 T
U 1 Y con l’introduzione di campi scalari. Si ottiene alla fine un gruppo di sim
metria residuo SU 3 C U 1 em , mentre, in conseguenza della rottura della simmetria iniziale, i bosoni W , W , Z acquistano massa. Al fine di rompere la sim
metria SU 2 T è necessario introdurre non un singolo campo, ma un campo a più
componenti. La scelta più semplice è quella di un doppietto di isospin debole:
φa
φb Φ
(1.2)
La nuova lagrangiana conterrà allora nuovi termini, che tengono conto del doppietto introdotto e delle sue interazioni con i fermioni e i bosoni di gauge:
L
L G
L f
L f G
L f Φ
L G Φ
V Φ
(1.3)
dove si è indicato con f i fermioni, con G i bosoni di gauge e con Φ il doppietto
di Higgs.
Il termine V rappresenta il potenziale del doppietto scalare ed è dato da
V
µ 2 Φ† Φ
λ Φ† Φ 2
(1.4)
Per un valore negativo di µ2 si ottiene un minimo del potenziale in corrispondenza
di un campo di Higgs costante:
Φ Φ0
φ0a
φ0b (1.5)
tale che:
µ2
(1.6)
2λ
Senza perdere in generalità, si può scegliere la prima componente di Φ 0 uguale
a 0. Allora la seconda componente del doppietto sviluppa un valore di aspettazione nel vuoto non nullo:
Φ†0 Φ0 φ0a 2
Φ0
φ0b 2 0
v
2
v
µ2
λ
(1.7)
In questo modo viene rotta la simmetria SU 2 T U 1 Y , mentre resta intatta quella rispetto ad U 1 em. Inoltre, tramite il meccanismo di Higgs, i bosoni
vettoriali carichi, ottenibili come combinazioni lineari di W1 2 :
Wµ
Wµ1
Wµ2
2
(1.8)
6
acquistano una massa pari a:
g2 v
(1.9)
2
Per quanto riguarda i bosoni neutri, ottenibili come combinazione lineare di W0 ,B:
MW
Zµ
1
g21
g2Wµ3
g22
g 1 Bµ (1.10)
si ha che Z acquista una massa:
g21
v
MZ
g22
2
(1.11)
mentre la combinazione ortogonale (il fotone):
Aµ
1
g21
g1Wµ3
g22
g 2 Bµ (1.12)
resta a massa nulla. Nelle equazioni precedenti g1 e g2 indicano, rispettivamente,
le costanti d’accoppiamento tra le correnti di isospin debole e i campi di gauge
W i e tra la corrente di ipercarica debole e il campo di gauge B. Esiste infine una
2
particella scalare fisica massiva, il bosone di Higgs H, avente una massa M H
2
2µ . I parametri v,g1 ,g2 sono legati alla costante di Fermi GF ed alla costante
d’accoppiamento elettromagnetica e, dalle relazioni
g22
GF
2
2 8MW
e g2 sin θW
1
2v2
g1 cos θW
(1.13)
dove l’angolo di mescolamento elettrodebole o angolo di Weinberg è dato da
tan θW g1 g2. L’angolo di mescolamento non è fissato dalla teoria, ma i suoi
valori sperimentali possono essere usati come una prova di consistenza del Modello Standard, in quanto tutti i fenomeni elettrodeboli devono condurre allo stesso
valore di θW . Un buon accordo tra teoria ed esperimenti si ottiene prendendo
sin2 θW 0 2316 0 0002[3]. In termini dell’angolo di Weinberg, di e e di G F ,
le masse dei bosoni vettori si possono esprimere come
MW
απ
GF 2 1 2
1
sin θW
MZ
απ
GF 2 1 2
2
sin 2θW
(1.14)
e sono legate quindi tra di loro dalla relazione:
MZ
MW
cos θW
(1.15)
1. Modello Standard e LHC
7
In termini dei bosoni W , Z e γ, la densità di lagrangiana delle interazioni di gauge
dei fermioni può essere scritta come:
L f G
g2 µ
jW Wµ
2
h c g2 µ
j Zµ cos θW Z
µ
e jem
Aµ
(1.16)
dove troviamo separate le diverse correnti cariche, elettromagnetiche e neutre date
da:
3
µ
jW
∑
ūiL γµ dLi
ν̄iL γµ lLi (1.17)
i 1
3
µ
jem
∑ ∑
Qu ūiA γµ uiA
Qd d¯Ai γµ dAi l¯Ai γµ lAi (1.18)
i 1 A L R
µ
jZ
3
g2
cos θW
∑ Q̄iLγµT3QiL
L̄iL γµ T3 LiL µ
sin2 θW jem
(1.19)
i 1 Il fatto che il campo Φ acquisti un valore di aspettazione sul vuoto non nullo
permette inoltre di generare i termini di massa per i fermioni. Questo si ottiene inserendo nella densità di lagrangiana un termine di interazione L f Φ di Yukawa
tra il doppietto di Higgs ed i fermioni:
L f Φ
3
∑
j
Yilj L̄iL ΦlR
i j 1
j
Yidj Q̄iL ΦdR
j
Yiuj Q̄iL Φc uR hc
(1.20)
dove Φc iτ2 Φ , e le costanti d’accoppiamento Y u , Y d , ed Y l sono matrici complesse 3 3, completamente arbitrarie. Quando Φ acquista un valore d’aspettazione sul vuoto diverso da zero, come discusso precedentemente, la lagrangiana
1.20 genera dei termini di massa per i fermioni:
L f Φ
3
∑
i j 1
j
mli j l¯Li lR
j
mdij d¯Li dR
j
muij ūiL uR 1
H
v
hc
(1.21)
dove mti j v Yitj con t l d u.
2
Il termine L G Φ nella eq.1.3 contiene invece l’accoppiamento del bosone
di Higgs con i bosoni di gauge W e Z. Gli accoppiamenti ad una coppia W W o ZZ risultano rispettivamente
gHWW
gHZZ
2
2mW
g2 v
gm
W
2 v
2
g v
gmZ
2
4cos θW
2cos θW
(1.22)
m2Z
2
(1.23)
8
L’ accoppiamento del bosone di Higgs sia ai fermioni che ai bosoni è quindi proporzionale alla massa del fermione o del bosone stesso, proprietà fondamentale
che caratterizza la fenomenologia dell’Higgs. Queste espressioni verranno utilizzate in seguito, quando si analizzeranno in dettaglio le proprietà di decadimento
del bosone di Higgs e le sue possibilità di scoperta ad LHC.
1.2 Il Large Hadron Collider
1.2.1 Caratteristiche fisiche
Il Large Hadron Collider (LHC) è un acceleratore adronico in fase di costruzione
presso il CERN di Ginevra nel quale sarà possibile far collidere tra loro fasci di
protoni ad un’ energia nel centro di massa pari a s 14 TeV: tale energia è
la più alta raggiunta sinora da un acceleratore. LHC sarà installato nella stessa
galleria sotterranea del Large Electron Positron (LEP); la sua circonferenza sarà
pari a poco meno di 27 Km.
La possibilità di sfruttare le collisioni protone-protone, anziché la classica
interazione particella-antiparticella, è garantita dall’ alta energia raggiungibile in
LHC, che fa in modo che la distribuzione in impulso degli antiquark sia sufficiente per ottenere gli eventi fisici desiderati: ci si riferisce al bosone di Higgs,
ma anche, ad esempio, agli eventi di alta energia che permetteranno di verificare
l’ attendibilità delle recenti teorie supersimmetriche. La scelta di una collisione protone-antiprotone avrebbe inoltre reso impossibile il raggiungimento di alte
luminosità, a causa della limitata efficienza di produzione degli antiprotoni.
La luminosità è dunque una delle caratteristiche critiche di LHC, in quanto determina la frequenza con cui avviene un qualsiasi evento di fisica all’ interno dell’
acceleratore. Essa è legata alle caratteristiche della macchina tramite la relazione:
L
N p2 f k
4πρ2
(1.24)
dove:
N p è il numero di protoni per pacchetto (1 05 1011 );
f è la frequenza di rivoluzione dei pacchetti nell’anello (1 1 104 Hz);
k è il numero di pacchetti che circolano contemporaneamente (2835);
ρ è il raggio quadratico medio della distribuzione spaziale dei protoni nel
piano ortogonale alla direzione del fascio (16µm).
1. Modello Standard e LHC
9
Il parametro attraverso cui è possibile legare la luminosità alla frequenza di
un evento fisico è la Rate (R). Quest’ ultima dipende, oltre che dalla lumionosità,
anche dalle proprietà prettamente fisiche dell’ evento in esame, delle quali rende
conto la sezione d’ urto (σint ). Si ha dunque:
R L σint
(1.25)
Una luminosità maggiore corrisponde, a parità di tempo, ad un maggior numero di eventi prodotti: questo permette di minimizzare la componente statistica
degli errori delle misure o di poter effettuare delle selezioni a bassa efficienza
mantenendo comunque una rate accettabile.
Circonferenza
26659m
Tempo di rivoluzione
88 µs
Campo magnetico dei dipoli
8.4 T
Energia dei fasci
7 TeV
Energia di iniezione
450 GeV
N. pacchetti
2835
N. protoni per pacchetto
1 05 1011
Lunghezza del pacchetto
7.5 cm
Raggio del pacchetto
16µm
Distanza tra i pacchetti
25 ns
Tabella 1.1: Alcuni parametri di LHC.
1.2.2 Soluzioni costruttive
Verranno brevemente esposte le soluzioni adottate nella costruzione di LHC e i
tempi e i modi previsti per l’ inizio della fase di acquisizione.
Iniezione Un piccolo acceleratore lineare, il LINAC, porterà il fascio di protoni
ad un’energia di 50 MeV; successivamente un BOOSTER li accelererà fino
a 1.4 GeV. Il fascio passerà poi attraverso il sincrotrone PS, arrivando ad
un’ energia di 50 GeV, per poi essere iniettato nel Super Proton Sincrotron
(SPS) dove raggiungerà un’energia di 450 GeV: da qui il fascio verrà poi
convogliato in LHC.
Per quanto riguarda gli ioni pesanti, la struttura di accelerazione è simile
a quella dei protoni: è però presente un anello di accumulazione, il LEIR,
posto subito dopo l’ acceleratore lineare, mentre è assente il BOOSTER.
Inoltre l’ energia raggiunta nel sincrotrone è di 25 GeV.
10
Figura 1.1: Struttura di LHC
Sistema di vuoto I due fasci correranno in due tubi a vuoto contigui, distanti 19.4
cm, e solo in prossimità dei punti di interazione passeranno nello stesso tubo per un percorso di 90 m. I tubi saranno in contatto con elio superfuido ad
una temperatura di 1.9 K. Sebbene la radiazione di sincrotrone sia soppressa
rispetto ad un collider elettrone-positrone dal fattore relativistico γ, il sistema di raffreddamento non avrebbe potuto sostenere il calore generato dalla
potenza emessa. Per tale ragione verrà installato una speciale protezione,
che sarà mantenuta ad una temperatura compresa tra 5 e 20 K, con lo scopo
di assorbire il calore derivante dalla radiazione.
Magneti e apparato criogenico I dipoli magnetici di LHC sono disegnati per
raggiungere un campo di 8.33 T. Saranno costituiti da un conduttore di
niobio-titanio, raffreddato ad una temperatura di 1.9 K. A tal fine viene
utilizzato elio superfluido, vantando esso caratteristiche di minor viscosità
e maggiore conducibilità termica rispetto al semplice elio liquido.
Sistema RF Il sistema a radio frequenza (RF) sarà indipendente per ciascuno dei
due fasci. La frequenza del sistema è fissata a 400.8 MHz.
Punti d’interazione Vi saranno due punti di interazione ad alta luminosità, dove
verranno installati i due rivelatori progettati per studiare tutte le principali
1. Modello Standard e LHC
11
caratteristiche delle interazioni protone-protone, ATLAS e CMS. Due punti
di interazione a bassa luminosità saranno invece occupati dagli esperimenti
ALICE ed LHC-B, ottimizzati rispettivamente per la fisica degli ioni pesanti
e la fisica dei quark b.
Si prevede che la costruzione di LHC potrà essere ultimata per il 2007. Il periodo di acquisizione dati sarà poi suddiviso in due fasi: nella prima, della durata approssimativa di tre anni, si raggiungeranno luminosità dell’ ordine di 10 33
cm 2 s 1 ; successivamente le potenzialità del collider verranno sfruttate appieno,
raggiungendo così una luminosità pari a 1034 cm 2 s 1 .
1.3 Fisica ad LHC
Verranno ora evidenziati alcuni elementi propri della produzione di eventi fisici in
LHC, per poi analizzare, nel prossimo paragrafo, la produzione ed il decadimento
del bosone di Higgs in maniera esauriente.
La sezione d’urto totale dell’ interazione protone-protone può essere stimata
utilizzando i risultati di precedenti esperimenti, UA4, UA5 ed E710 [4]:
σtot
110
20 mb
In questo valore sono comprese anche le interazioni puramente elastiche, che non
danno luogo alla produzione di particelle. Ipotizzando una luminosità di 10 34
cm 2 s 1 , i restanti 70 mb corrisponderanno dunque a circa 7 108 eventi/s. Questi
ultimi eventi possono essere suddivisi in due classi:
Interazioni a grande distanza tra protoni con piccolo impulso trasferito. In
questo caso le particelle nello stato finale avranno un grande momento longitudinale ed un piccolo momento trasverso ( pT
500 MeV), e quindi
un angolo di diffusione molto piccolo. Di conseguenza gran parte delle particelle finali sarà contenuta all’interno della beam pipe. Questi eventi vengono detti di minimum bias e non presentano caratteristiche fisiche di particolare interesse, ma possono contribuire a deteriorare significativamente
segnali fisicamente rilevanti.
Interazioni a breve distanza tra i costituenti dei protoni (quark e gluoni). Sono interazioni caratterizzate da un grande impulso trasferito e danno origine
a particelle negli stati finali a grandi angoli di diffusione, finendo dunque
nelle zone sensibili del detector, e ad alto impulso trasverso. Sono queste
le interazioni più interessanti da studiare, ma hanno una rate molto minore
rispetto agli eventi di Minimum Bias: ad esempio, la produzione del bosone
W attraverso il processo di annichilazione quark-antiquark ha una sezione
d’urto circa 105 volte inferiore a quella totale inelastica.
12
Lo schema generico di un’interazione ad alto momento trasferito tra protoni
è visibile in figura 1.2. Il protone, a causa delle alte energie in gioco, può essere
Figura 1.2: Schema di una generica interazione pp ad alto momento trasferito.
schematizzato a tutti gli effetti come un fascio di partoni, ognuno dei quali trasporta una frazione x dell’impulso totale del protone; le distribuzioni rispetto a x
dei partoni vengono chiamate funzioni di distribuzione partoniche (PDF).
Le PDF dipendono dal quadrimpulso scambiato nell’interazione (Q 2 ): a grandi Q2 , infatti, vi è la possibilità di risolvere la struttura interna del protone, spostando le PDF verso piccoli valori di x. Viceversa a piccoli Q2 il contributo maggiore deriva principalmente dai quark di valenza, con valori più elevati di x. Nella
figura 1.3 si trovano due esempi di PDF per il protone a Q2 20 GeV2 e Q2 104
GeV2 .
Figura 1.3: Funzioni di distribuzione partoniche CTEQ4M [5] per (sinistra) Q 2
20 Gev2 e per (destra) Q2
ridotta di un fattore 10.
104 Gev2 . La funzione di distribuzione per il gluone è stata
La determinazione della dipendenza delle funzioni di distribuzione dal Q 2
scambiato è tanto più difficile quanto più il Q2 diminuisce, in quanto l’ approssimazione perturbativa è sempre meno vera. Tale incertezza costituisce uno dei
maggiori limiti delle odierne simulazioni di eventi fisici.
1. Modello Standard e LHC
13
Da quanto detto segue che l’ interazione avviene non tra i due protoni, ma
tra due partoni che costituiscono il protone. Si può legare l’energia nel centro
di massa effettiva ( ŝ) all’ energia nel centro di massa nominale della macchina
( s) tramite la relazione:
xa xb s ŝ (1.26)
dove xa e xb sono le frazioni dell’impulso dei due protoni trasportate dai partoni
coinvolti nell’interazione.
La sezione d’urto di una generica interazione ad alto momento trasferito può
essere scritta come:
σ
∑
dxa dxb fa xa Q2 fb xb Q2 σ̂ab xa xb (1.27)
ab
Nella precedente σ̂ab è la sezione d’urto dell’interazione elementare tra i partoni
a e b, mentre fa xa Q2 e fb xb Q2 rappresentano le PDF per tali partoni.
Nella tabella 1.2 si riporta la frequenza prevista a LHC a bassa luminosità
(R L σ) per alcuni importanti processi.
Processo
W
eν
Z l l
tt
bb
H (MH 800 GeV)
QCD jet (pT 200 GeV)
Eventi/s Eventi/anno
15
5 108
1.5
5 107
0.8
3 107
105
3 1012
0.001
3 104
102
3 109
Tabella 1.2: Frequenze aspettate ad LHC per alcuni processi. [4]
Le alte rate esposte nella tabella precedente sono rese possibili dall’ alta luminosità prevista in LHC, che permetterà, grazie all’ alto numero di eventi prodotti,
di ottenere errori statistici piccoli rispetto agli errori sistematici.
Limitazioni alla minimizzazione di tale errore sono imposte principalmente da
due fenomeni: il cosiddetto pile-up, ossia la sovrapposizione di eventi minimum
bias alle collisioni ad alto Q2 , ed il fondo di QCD dovuto alla produzione di jet ad
alto pT .
Ad alta luminosità avvengono circa 20 interazioni minimum bias ad ogni bunch crossing, dando origine, ogni 25 ns, a circa 1000 particelle cariche nella regione di pseudorapidità1 η
2 5. Tale fenomeno rende dunque possibile che nello
pseudorapidità η è definita come η
linea di intersezione dei fasci.
1 La
ln cotθ 2, dove θ è l’angolo polare rispetto alla
14
stesso elemento di rivelatore il segnale misurato sia il risultato della sovrapposizione di segnali dovuti ad eventi diversi, provocando quindi errori nella misura
delle quantità fisiche volute.
Per quanto concerne invece il cosiddetto fondo di QCD, si può notare che la
frequenza di eventi ad alto impulso trasverso è dominata in LHC dalla produzione
di jet associata ad interazioni di QCD, cosa che rende del tutto impossibile l’analisi
di eventi fisici aventi stati finali esclusivamente adronici, non separabili dal fondo;
si preferisce utilizzare, quindi, stati finali in cui vi sia almeno un leptone, i quali,
di solito, presentano un branching ratio (B.R.) inferiore rispetto ai decadimenti in
quarks.
Gli obiettivi di ricerca di LHC non riguardano soltanto il bosone di Higgs,
che verrà discusso in dettaglio nel prossimo paragrafo, ma spaziano in molti degli
attuali campi di ricerca della fisica delle particelle. La ricerca verrà infatti indirizzata anche sulla verifica della teoria Supersimmetrica e sulla rilevazione delle
particelle che da tale teoria sono previste, sulla misura di precisione di alcune
grandezze fisiche di grande interesse, come αS o la massa dei quark, sullo studio
della violazione di CP.
1.4 Bosone di Higgs: canali di produzione e di decadimento
Come detto l’ obiettivo principale di LHC è la ricerca del bosone di Higgs, la cui
rilevazione darebbe un’ ulteriore conferma della validità del Modello Standard.
Sebbene il MS non predica la massa dell’ Higgs, è possibile dedurre dei limiti all’
interno dei quali effettuare la ricerca.
Il limite superiore è legato ad un’ argomentazione relativa alla consistenza
del MS [6]. Se il MS è consistente, l’ approccio perturbativo deve mantenere
la sua validità e i processi mediati dal bosone di Higgs devono compensare l’
aumento delle sezioni d’ urto dei processi (rinormalizzabilità della teoria). Se
però la massa dell’ Higgs fosse maggiore di 1 TeV, si avrebbe un fallimento della
teoria perturbativa prima che i processi mediati dall’ Higgs diventino rilevanti.
Dunque MH 1 TeV.
Il limite inferiore è invece stato fissato dagli esperimenti condotti al LEP ([7]):
dalle misure effettuate si evince che MH 114 1 GeV.
Inoltre i risultati di LEP2, ottenuti combinando i dati dei quattro esperimenti
ALEPH, L3, OPAL e DELPHI, mostrano un eccesso di eventi sopra il background
compatibile con un bosone di Higgs di bassa massa, intorno ai 115 GeV; per
questo motivo, nella progettazione degli esperimenti volti a rilevare l’ Higgs, si è
dedicata particolare attenzione al range energetico tra i 100 e i 200 GeV.
1. Modello Standard e LHC
15
1.4.1 Canali di produzione dell’ Higgs
I meccanismi principali di produzione del bosone di Higgs a LHC sono:
gg
H
fusione gluone-gluone
qq̄
W W ZZ
qq̄
W Z
W Z
Hqq̄
H
fusione WW o ZZ
brem da W o Z
qq̄ gg t t¯ H
radiazione da t t¯
I relativi diagrammi sono visualizzati in figura 1.4; la figura 1.5 mostra invece
le sezioni d’ urto relative ai processi descritti per un’energia del centro di massa
pari a 14 TeV.
Figura 1.4: Principali diagrammi di produzione del bosone di Higgs ad LHC
Il contributo principale alle sezioni d’ urto è quello proveniente dal cosiddetto leading order (LO), che rappresenta il contributo proveniente dai termini di
interazione della Lagrangiana di QCD. Alcuni processi hanno inoltre dei contributi significativi al next to leading order; queste correzioni possono essere incluse moltiplicando le sezioni d’ urto al leading order per un semplice fattore, il
cosiddetto fattore K = σNLO σLO .
La produzione di un Higgs da un loop del quark t, generato per fusione gluonegluone, è il processo dominante per tutto l’intervallo di massa preso in considerazione; tale processo è inoltre amplificato da processi di QCD di ordine superio-
16
Figura 1.5: Sezione d’urto totale di produzione del bosone di Higgs in funzione di M H
per i processi descritti ad un’ energia nel centro di massa di 14 TeV .
MH e i contributi con un
re (NLO), come i contributi virtuali al processo gg
ulteriore partone nello stato finale, che aumentano la sezione d’ urto del 60-90%.
Il processo di produzione dell’ Higgs per fusione tra bosoni vettori rappresenta
un contributo significativo: per una massa dell’ ordine di 100 GeV tale contributo
è inferiore di circa un ordine di grandezza, ma aumenta all’ aumentare della massa
dell’ Higgs fino a diventare comparabile con il processo di fusione gg per energie
prossime a 1 TeV. In questo caso le correzioni di ordine superiore hanno una
rilevanza minore: La sezione d’ urto LO subisce una correzione dell’ 8-10%.
I due rimanenti processi danno un contributo significativo solamente per M H 120
GeV; essi possono però risultare interessanti se è possibile identificare il bosone
vettore dalla coppia t t¯. Le correzioni al NLO portano un contributo tra il 25 e il
40% alla sezione d’ urto.
1.4.2 Canali di decadimento dell’ Higgs
In figura 1.6 sono riportati i principali canali di decadimento del bosone di Higgs
nel range di massa tra 50 GeV e 1 TeV. Si può osservare come la produzione di
coppie di fermioni e di gluoni sia più rilevante per MH M2W , mentre al di sopra
dei 200 GeV la produzione di coppie di bosoni vettori (WW, ZZ, γγ) prende il
sopravvento.
Dunque nel range di energie in cui ci si aspetta di trovare l’ Higgs il canale
di decadimento più rilevante è H
bb̄; questo, però, risulta estremamente complicato da rilevare a causa dell’ alto valore del fondo di produzione di coppie b b̄
1. Modello Standard e LHC
17
Figura 1.6: Rapporti di decadimento dell’ Higgs nel range di M H tra 50 GeV e 1 TeV
18
(106 coppie bb̄ di fondo al secondo alla massima luminosità contro 10 2 Hz del
bb). I canali più facilmente identificabili sono invece quelli che
processo H
presentano, nello stato finale, leptoni carichi o fotoni: le relative B.R. sono, però,
nettamente minori rispetto al decadimento bb̄.
Di seguito saranno ora riportati e discussi i canali più promettenti ai fini della
rilevazione del bosone di Higgs: si tratta principalmente di canali leptonici, per i
quali risulta cruciale l’ alta luminosità prevista in LHC, a causa della loro bassa
sezione d’ urto. Nella figura 1.7 sono riportati i canali più promettenti al variare
della massa dell’ Higgs.
Figura 1.7: Canali preferenziali per la rilevazione del bosone di Higgs al variare della
sua massa.
Il canale H
γγ
Il canale di decadimento dell’ Higgs in due fotoni è adatto alla ricerca della particella per una massa compresa tra 100 e 150 GeV. L’ identificazione avviene tramite la ricostruzione della massa invariante dei due fotoni, una volta note le energie
e le direzioni di entrambi. Le caratteristiche del canale in esame, oltre alla ridotta
branching ratio, sono la piccola ampiezza intrinseca dell’ Higgs (Γ H 10 MeV)
e il cospicuo background, che rende necessario avere un’ eccellente risoluzione in
massa al fine di distinguere il segnale.
Il fondo può essere distinto in due categorie:
1. Modello Standard e LHC
19
FONDO IRRIDUCIBILE: Si tratta di eventi che hanno lo stesso stato finale
γγ del segnale da rivelare:
qq
γγ
gg
γγ
qg
qγ
qγγ
È possibile migliorare il rapporto tra eventi di segnale ed eventi di fondo
applicando tagli che sfruttino le differenti proprietà cinematiche dei due
eventi.
FONDO RIDUCIBILE: Si tratta di eventi γ+jet, in cui un π0 all’ interno del
jet è stato scambiato per un fotone, o di eventi jet+jet, in cui entrambi i jet
sono stati scambiati per fotoni. Tale segnale è molto grande (dell’ ordine di
108 volte più grande del segnale), ma può essere ridotto utilizzando un calorimetro le cui prestazioni permettano di distinguere il segnale proveniente
da un fotone isolato da quello proveniente da particelle all’ interno dei jet.
Il risultato della riduzione del fondo sul segnale è mostrato in figura 1.8.
Figura 1.8: Plot di massa invariante da una coppia di fotoni dopo la sottrazione del
background con segnali a mH = 90, 110, 130 e 150 GeV ed una luminosità integrata pari
a 105 (sinistra) e 3 104 (destra) pb 1
L’ effettiva presenza di un segnale fisico in presenza di un background può
essere quantificata attraverso la significatività S. Indicando con NB il numero di
eventi di fondo nella regione del picco e con NS il numero di eventi di segnale
20
e assumendo che NB sia caratterizzata da una distribuzione Poissoniana e abbia
dunque deviazione standard pari a NB , si può definire la significatività come:
S
NS
NB
(1.28)
La grandezza in questione rappresenta dunque l’ampiezza del segnale normalizzata alla deviazione standard del fondo. Generalmente si considerano significativi i segnali con S 5, ossia i casi in cui il segnale è più di 5 volte maggiore
della deviazione standard del fondo (la probabilità che le fluttuazioni poissoniane
siano maggiori di 5σ è circa 6 10 5 ).
I due parametri fondamentali che incidono su S sono la risoluzione del rivelatore e la luminosità integrata della macchina. Per quanto riguarda la prima, una
variazione della σr di un fattore X comporta, ipotizzando che la risoluzione del
segnale sia dominata da σr , che l’ ampiezza del segnale vari di un fattore X. Di
conseguenza il numero di eventi di fondo nella regione del picco risulta moltiplicato di un fattore X, mentre il numero di eventi di segnale nel picco risulta
invariato. Invece una variazione della luminosità di un fattore Y fa in modo che
sia NB che NS varino di un fattore Y, dando così un contributo a S del tipo Y .
Complessivamente dunque si ha:
S∝
Lint
σr
(1.29)
Dunque, a parità di luminosità, rivelatori con risoluzione migliore hanno maggior probabilità di distinguere il segnale dal fondo. Dall’ equazione per il calcolo
della massa invariante a partire dal quadrivettore dei due fotoni:
Mγγ E1
E2 2
p1
p2 2
(1.30)
si ottiene:
σ Mγγ Mγγ
1
2
σ E1 σ E2 σ θ12 E1 E2 tg θ12 2
(1.31)
dove θ12 è l’angolo formato dai due fotoni ed il simbolo indica la somma in
quadratura a b a2 b2 . La formula precedente, dunque,
rende evidente la
necessitá di un calorimetro elettromagnetico in grado di garantire alte prestazioni
nella risoluzione delle misure in energia e in angolo.
Il calorimetro elettromagnetico di CMS è stato realizzato con cristalli di tungstato di piombo (PbWO4 ): tale materiale assicura un ottimo contenimento laterale dello sciame elettromagnetico (il raggio di Molière è pari a 21.9 mm) e
una lunghezza di radiazione contenuta (0.89 cm). La granularità ∆η ∆φ 1. Modello Standard e LHC
21
15
NS/√NB
10
5
30 fb–1 (low luminosity)
100 fb–1 (high luminosity)
0
100
110
120
130
140
150
mγγ (GeV)
Figura 1.9: Significatività del segnale in funzione di M H per H
bassa luminosità e dopo 100 fb
1
γγ dopo 30 fb
1
a
[8].
0 0175 0 0175 corrisponde ad una faccia del cristallo di circa 22 22 cm 2 , cioè
all’ incirca un raggio di Molière. Queste caratteristiche garantiranno un’ottima
risoluzione sia in energia che in angolo, permettettendo di ottenere una risoluzione sulla massa invariante della coppia fotonica derivante dal decadimento di
un Higgs di massa 100 GeV pari a σM
0.7 GeV.
La significatività, in CMS, del segnale in funzione della massa del bosone di
Higgs è riportata in figura 1.9. La differenza tra la fase a bassa luminosità e la
fase ad alta luminosità non è dovuta unicamente alla diversa statistica, ma anche
a diversi valori della risoluzione in energia e di quella angolare, dovuti agli effetti
del sovrapporsi di eventi di pile-up.
Il canale H
ZZ
4 leptoni carichi
Il decadimento dell’ Higgs in 4 leptoni (elettroni o muoni) attraverso la produzione
di due bosoni Z può essere sfruttato nell’ intervallo di energie 140 GeV < m H <
700 GeV. Al di sotto della soglia di produzione di due bosoni Z il decadimento
avviene con la produzione di uno stato intermedio ZZ in cui uno Z è reale e l’
altro virtuale. Le caratteristiche del canale sono:
branching ratio relativamente bassa (10 2
10 3
per i processi mediati da
22
ZZ , 0.3 per quelli mediati da ZZ); questi valori sono ulteriormente abbassati dalla branching ratio di Z in e e , µ µ , ognuna pari all’ incirca al
3.7%.
chiara segnatura sperimentale, costituita da cluster elettromagnetici isolati
e/o tracce ricostruite.
presenza di bremsstrahlung, che può limitare la capacità di ricostruzione del
segnale.
Il segnale è rappresentato dalla presenza di un picco nella distribuzione della
massa invariante dei 4 leptoni. Poichè in tale regione la larghezza intrinseca dell’
Higgs risulta piccola (ΓH 1 GeV), la significatività del segnale è fortemente
legata alla risoluzione della massa invariante: risulta dunque cruciale la misura
dell’ impulso dei leptoni.
Il fondo per questo segnale consiste nella produzione ZZ , ZZ (irriducibile),
tt, Zbb (riducibile). La riduzione del fondo può essere fatta richiedendo che la
massa invariante di una coppia leptonica (nel caso ZZ ) o di entrambe le coppie
leptoniche (nel caso ZZ) sia MZ . (e e e e , µ µ µ µ o µ µ e e ).
H
±
4l
ZZ*
Events / GeV for Lint = 105 pb–1
40
t t + Z b b + ZZ*
s = 14 TeV
bkgd
105 pb–1
30
CTEQ2L
mtop = 174 GeV
20
10
0
100
120
140
160
180
200
M 4l± (GeV)
D.D 609n
Figura 1.10: Segnale aspettato per il canale H
ZZ
4 leptoni carichi per
MH = 130 GeV, MH = 150 GeV, MH = 170 GeV [9].
Nelle figure 1.10 e 1.11 è mostrato il segnale aspettato per MH pari a 130,
150 e 170 GeV per decadimenti della coppia di bosoni Z, rispettivamente, in 4
leptoni e in 4 muoni. La luminosità integrata è pari, rispettivamente, a 10 5 e
2 105 pb 1 . Il fondo è stato ridotto imponendo che tre dei quattro leptoni carichi
1. Modello Standard e LHC
23
Figura 1.11: Segnale aspettato per il canale H
ZZ
µ µ µ µ per MH = 130 GeV,
MH = 150 GeV, MH = 170 GeV [9].
risultino isolati nel sistema di tracciamento interno, applicando i tagli sull’impulso
traverso indicati in figura, ed infine imponendo che la massa invariante di una
coppia leptonica sia contenuta in MZ 3σZ .
In figura 1.12 è mostrata la significatività di questo canale per diversi valori di
MH .
Il canale H
ZZ
2l2ν
Per alti valori della massa dell’ Higgs la significatività del canale di decadimento
in 4 leptoni diminuisce a causa della diminuzione della sezione d’ urto di produzione dell’ Higgs stesso. Occorre dunque sfruttare canali per i quali si possa
ottenere una maggiore rate di produzione; uno di questi è il decadimento dell’
Higgs in due leptoni (elettroni o muoni) e due neutrini attraverso lo stato intermedio ZZ. Tale processo mostra una B. R. pari a 6 volte quella del decadimento in 4
leptoni: infatti la B. R. del processo Z νν è pari a circa il 20%, contro il 3.37%
del decadimento in due leptoni, da cui si ottiene che il fattore di riduzione rispetto
al segnale totale H 2Z è di 0.027 2 0 0337 2 0 2 contro lo 0.0045
2 0 0337 2 0 0337 dello stato finale di 4 leptoni. Le caratteristiche
del canale sono:
segnale dell’ ordine delle decine di f b.
24
Figura 1.12: Significatività del segnale H
dell’ Higgs per luminosità integrate da 5
ZZ ZZ
4l
3
5
1
10 a 10 pb .
in funzione della massa
la massa dell’ Higgs non può essere ricostruita (il neutrino non è rilevabile)
ma può essere stimata dall’ energia trasversa del sistema.
I principali processi che contribuiscono al background sono coppie ZZ, ZW e
WW che decadono in due leptoni e due neutrini (fondo irriducibile), tt che decade
in leptoni e neutrini e jet in cui è presente uno Z che decade in 2 leptoni e per i
quali parte dell’ energia trasversa non sia stata ricostruita (fondo riducibile). La
riduzione del fondo avviene richiedendo che la massa invariante dei due leptoni
sia compatibile con quella dello Z e imponendo alcuni tagli sul Pt mancante dei
jet.
Il canale H
WW
2l2ν
L’ apertura del canale di decadimento H WW alla soglia di energia 2MW causa
un decremento rilevante della branching ratio del decadimento H ZZ. In questa
regione di energie si può utilizzare l’ alta branching ratio del canale H WW e
studiare i decadimenti leptonici del bosone W. Le caratteristiche del canale sono:
la massa dell’ Higgs non può essere ricostruita direttamente, ma può essere
stimata dalla cinematica del sistema dei due leptoni misurati.
la segnatura sperimentale dell’ evento H
WW è rappresentata da due
elettroni (o muoni) isolati e dall’ impulso trasverso totale pt mancante.
si può ottenere un rapporto tra segnale e background pari a 1.
1. Modello Standard e LHC
25
Figura 1.13: Segnale aspettato con background per M H
(sinistra) e per MH
800 GeV e Lint
105
500 GeV e Lint
104 pb 1
pb 1 (destra)
I processi che costituiscono il background sono la produzione non risonante
W W (fondo irriducibile), tt con t W b e la produzione di un W in associazione con i quark b o t (fondo riducibile).
I canali H WW l ν jet jet ed
H ZZ
l l jet jet
Nel caso in cui la massa dell’Higgs sia elevata (600 GeV MH 1 TeV) è necessario utilizzare canali con un elevato branching ratio per compensare la piccola
sezione d’urto di produzione dell’Higgs (σH 100 fb). I due canali presi in considerazione (H WW
lν jet jet ed H ZZ ll jet jet) hanno delle B.R. circa
150 volte più grandi dei canali precedenti.
Diversi processi contribuiscono al fondo: creazione di coppie WW o ZZ (irriducibile), coppie tt, produzione di W jet o Z jet (riducibile). Gli eventi
di segnale sono caratterizzati dalla presenza di un leptone e di una grande energia trasversa mancante, o di due leptoni carichi e di due jet con massa invariante
M2 j MW . Per ridurre ulteriormente il fondo si può sfruttare il fatto che a queste energie la produzione del bosone di Higgs tramite fusione WW o ZZ diviene
comparabile con la produzione tramite fusione gg. Tale meccanismo comporta la
produzione di due jet energetici in avanti, utilizzabili per il riconoscimento del
segnale. L’uso di un calorimetro adronico capace di coprire alti valori di rapidità
(fino ad η
5) consente di avere un segnale con significatività 6 dopo un anno
di presa dati alla massima luminosità.
In figura 1.14 sono riportati i segnali aspettati nel caso di MH = 1 TeV per
una luminosità integrata pari a 3 104 pb 1 , dopo aver effettuato i tagli cinematici
indicati.
26
Figura 1.14: Segnali aspettati per i canali H
WW
l ν jet jet ed H
ZZ
l l jet jet .
Capitolo 2
L’ esperimento CMS
L’ esperimento Compact Muon Solenoid (CMS) occuperà uno dei 4 punti di interazione previsti per LHC a partire dal 2007. CMS è stato progettato per rispondere
ad una delle maggiori questioni dell’ odierna fisica delle particelle: l’ origine della rottura spontanea di simmetria nel settore elettrodebole del Modello Standard.
L’ obiettivo principale è rappresentato dalla scoperta e l’ analisi del bosone di
Higgs, sia esso quello previsto dal Modello Standard o dalle sue estensioni.
Nel presente capitolo verranno presentate e motivate le soluzioni costruttive
scelte nella progettazione di CMS per raggiungere tali finalità. Nella figura 2.1 è
riportata una visione d’ insieme di CMS.
2.1 Criteri di progettazione per CMS
Le principali caratteristiche di LHC, come esposto nel capitolo precedente, sono:
grande molteplicità di particelle;
breve intervallo temporale tra i bunch crossing;
intensa radiazione di fondo.
Queste caratteristiche, assieme agli obiettivi di fisica da raggiungere, determinano per CMS i seguenti criteri di progettazione:
sistema ottimale di identificazione e misura dei muoni;
calorimetro elettromagnetico ad alta risoluzione per la misura di fotoni ed
elettroni;
sistema di tracciamento interno che permetta un efficiente ricostruzione delle tracce ed una precisa misura del loro momento al fine di raggiungere gli
obiettivi esposti;
27
28
The CMS Detector at point 5 of LHC
EXPERIMENTAL HALL
UXC 55
ACCESS SHAFT
PXC 54
Figura 2.1: Il rivelatore CMS ad LHC.
MB
Y
ME
JURA
p
HF
ME
HB
HE
EE
EB
TK
TK
TK
EE
1.23%
HE
HF
SALEVE
η
Z
φ
p
Beam Slope 1.23%
g
True Vertical
X
(Horizontal)
SIDE ACCESS
Machin
e Cente
r
jlb/Pi
Ground Slope 1.23%
2. L’ esperimento CMS
29
mantenimento delle dimensioni del rivelatore entro limiti che garantiscano
il contenimento dei costi.
Per raggiungere questi obiettivi, è stato scelto per CMS un campo magnetico
di 4 T, generato da un magnete solenoidale di raggio interno pari a 2.95 m e
lunghezza di 13 m, posto immediatamente all’ esterno del sistema calorimetrico.
I vantaggi di un campo magnetico di tale intensità sono la possibilità di ottenere
misure dell’ impulso dei muoni estremamente accurate e la diminuzione della
molteplicità delle tracce nel barrel del calorimetro elettromagnetico. Una sezione
di CMS con una tipica traccia muonica è mostrata in figura 2.2. All’ interno
del solenoide il campo magnetico è diretto lungo l’ asse z e incurva dunque la
particella nel piano trasverso; all’ esterno il campo magnetico assume direzione
opposta, dando così alla traccia del muone la classica forma a S.
Gli svantaggi di un alto valore del campo magnetico sono costituiti dall’ alta
molteplicità per piccoli valori del raggio, causata dalla spiralizzazione delle tracce
a basso impulso trasverso, e dai limiti sulle dimensioni massime di un magnete
solenoidale: il primo problema è stato risolto dotando di un’ alta granularità il
sistema di tracking interno, il secondo costruendo un calorimetro estremamente
compatto.
Dimensioni e peso: Il raggio del rivelatore è di 7.5 m, la lunghezza 21.6 m
ed il peso è circa 12500 t; CMS sarà installato nel punto 5 di LHC, nei pressi del
villaggio francese di Cessy, e dovrebbe essere pronto per le prime operazioni di
presa dati intorno al 2007.
Nei paragrafi successivi verranno esposte le peculiarità dei diversi rivelatori
che costituiscono CMS, prestando particolare attenzione nell’ analisi del calorimetro elettromagnetico, le cui prestazioni risultano fondamentali per gli argomenti trattati nel presente lavoro.
2.2 Il rivelatore per muoni
La rivelazione dei muoni risulta di grande importanza in CMS per il canale di
decadimento H
ZZ ZZ 4l, in cui almeno una coppia di leptoni sia costituita da muoni. Questo canale copre gran parte dell’ intervallo di energie in
cui verrà effettuata la ricerca. Inoltre una corretta individuazione dei muoni può
contribuire alla verifica delle teorie supersimmetriche, per esempio rivelando, nel
decadimento H
2τ, il muone proveniente dal decadimento del τ. La misura
del momento dei muoni può essere effettuata in due modalità indipendenti: utilizzando esclusivamente le informazioni del sistema dei muoni e la posizione del
vertice d’interazione, oppure combinandole alle informazioni date dal sistema di
tracciamento interno, metodo questo che garantisce una maggiore precisione sulla
misura.
30
Figura 2.2: Sezione dell’ esperimento CMS con la tipica traccia di un muone.
2. L’ esperimento CMS
31
Il rivelatore per muoni di CMS è suddiviso in due parti: una sezione centrale
che si estende fino a valori di pseudorapidità η 1 3, ed una sezione in avanti che
ricopre la regione con 0 9 η 2 4. Nel rivelatore centrale sono presenti tubi a
deriva che vengono a trovarsi in una regione caratterizzata da una bassa frequenza
di eventi (occupazione media = 10 Hz/cm2 ) e da un ridotto campo magnetico. Le
camere sono organizzate in 4 stazioni concentriche, alternate agli strati in ferro
del giogo di ritorno del magnete (vedi figura 2.1, dove sono indicate con la sigla
MB, e figura 2.3), suddivise, seguendo la struttura dello stesso giogo, in 5 anelli.
Un anello è costituito da 12 settori di 30o ciascuno ed in un settore si trovano 4
camere, appartenenti alle 4 stazioni, composte ognuna da 12 piani di tubi a deriva
per un totale di 195000 tubi [10].
Figura 2.3: Struttura del rivelatore per muoni.
I tubi sono organizzati in strutture indipendenti di 4 strati, dette Super Layers.
In ogni camera vi sono 3 SL; i primi due hanno celle parallele al fascio e forniscono quindi misure dell’angolo φ, nel terzo le celle sono posizionate perpendicolarmente al fascio e forniscono misure della coordinata z. Il tempo massimo di
deriva è 400 ns, sufficientemente piccolo per evitare sovrapposizioni di segnali.
Le risoluzioni spaziali raggiungibili sono: per un singolo tubo 250 µm; per la misura della coordinata z, effettuata con 3 o 4 punti, 150 µm; per la misura di R φ,
effettuata con 6/8 punti, 100 µm.
Per il rivelatore in avanti si è scelto di utilizzare camere a strisce catodiche
32
(CSC), adatte a lavorare in presenza di un campo magnetico elevato e di un alto
flusso di particelle (occupazione media = 103 Hz/cm2 ). Il rivelatore è costituito
anche in questo caso da 4 stazioni (indicate con la sigla ME in figura 2.1). La
stazione più interna è suddivisa in 3 anelli concentrici di camere, mentre le restanti
3 stazioni hanno ognuna 2 anelli (vedi figura 2.3). Gli anelli più esterni sono
composti da 36 camere, di struttura trapezoidale, che coprono un angolo in φ di
10o , mentre quelli più interni contano 18 camere ciascuno, andando a coprire un
angolo in φ di 20o per un totale di 540 camere.
Ogni camera è composta da 6 strati di strisce catodiche (strip), disposte in
direzione radiale, e da 6 strati di fili anodici, alternati ai piani di strip, posizionati
perpendicolarmente alla linea radiale centrale. Ogni camera fornisce dunque 6
misure per la coordinata φ (Piani di strip) e 6 misure per la coordinata R (fili
anodici). Il tempo massimo di deriva è 40 ns. In questo caso, la risoluzione
nella misura di R φ è di 150 µm (ridotta a 75 µm per gli anelli più interni della
prima stazione), mentre la misura di R ha una risoluzione di circa 5 µm.
Sono state inoltre predisposte delle camere a piatti resistivi (RPC) sia nella
parte centrale che in quella in avanti del rivelatore, fino ad una pseudorapidità
η = 2.1, che vengono utilizzate nel sistema di trigger per i muoni. Gli RPC
sono infatti rivelatori molto veloci, hanno una risoluzione temporale di circa 3 ns
e sono sufficientemente economici da permettere un’alta segmentazione. Vi sono
6 stazioni di RPC nella regione centrale e 4 nella regione in avanti per un totale di
612 camere.
Le prestazioni che il sistema per muoni sarà in grado di fornire possono essere
riassunte in:
corretta assegnazione di carica con un livello di confidenza del 99 % per
muoni con impulso fino a 7 TeV;
risoluzione sulla misura del momento trasverso nella zona 0
η
2 (effettuata non avvalendosi del contributo di altri rivelatori) pari a: ∆pT pT
6 10% per un pT 10 GeV, 7 20% per pT 100 GeV e 15 35% per
pT 1 TeV;
risoluzione sulla misura del momento trasverso nella zona 0 η 2 (combinando i dati con quelli forniti dal sistema di tracciamento interno) pari a:
∆pT pT 0 5 1 0% per un pT 10 GeV, 1 57 5% per pT 100 GeV
e 5 20% per pT 1 TeV;
identificazione del bunch crossing con efficienza
99%.
In figura 2.4 è riportato l’andamento della risoluzione sulla misura del momento
dei muoni rispetto alla pseudorapidità, effettuata esclusivamente tramite il sistema
2. L’ esperimento CMS
33
per muoni o combinando i risultati con quelli provenienti dal sistema di tracciamento interno. Tale risultato è stato ottenuto tramite una simulazione dettagliata
del rivelatore.
Figura 2.4: Risoluzione sul momento per traccie di muoni simulate, ottenuta (sinistra) esclusivamente con il sistema per muoni e (destra) combinando i risultati con quelli
provenienti dal sistema di tracciamento interno.
2.3 Il sistema di tracciamento
Il sistema di tracciamento interno permette una misura accurata del momento delle
particelle cariche all’ interno di CMS: in particolare permette misure di momento per tutti i prodotti di decadimento dell’ Higgs rappresentati da leptoni carichi.
Verrà inoltre utilizzato per separare i fotoni dai leptoni all’ interno del calorimetro
elettromagnetico, per stabilirne l’isolamento e per sopprimere il fondo nella maggior parte dei canali di decadimento dell’Higgs; permetterà infine di localizzare il
vertice di molti processi, come, ad esempio, nel canale H
γγ.
Le richieste principali per il sistema di tracciamento sono una buona efficienza
nella misura di tracce (particelle cariche) ad alto pT , siano esse isolate o all’interno
di jet, nella regione η
2 6, e la capacità di identificare i vertici di produzione,
primari e non. Inoltre l’ alta luminosità di LHC e l’ elevato valore del campo
magnetico richiederanno la necessità di confrontarsi con un gran numero di tracce,
caratterizzate, soprattutto a piccole distanze dal punto d’ interazione, da un’ alta
densità [11].
La struttura del sistema è rappresentata in fig. 2.5.
I rivelatori sono sistemati in strutture cilindriche (Barrel), centrate sulla regione d’interazione, ed in dischi (Endcap) posti a chiudere tali strutture.
34
Figura 2.5: Schema del sistema di tracciamento.
Nella regione a maggior densità di particelle (fino ad un raggio di 20 cm)
sono presenti 3 cilindri e 4 dischi (2 in avanti e 2 indietro) di rivelatori a
Pixel di silicio. Le dimensioni della cella di lettura del segnale sono di
150 µm 150 µm per un totale di circa 4 107 celle. La risoluzione è di
circa 15 µm sia in z che in φ.
Nella regione intermedia (raggio tra 22 e 60 cm) sono presenti 5 cilindri e
10 dischi per ogni lato di rivelatori di strip di Silicio. I primi due cilindri
hanno lunghezza minore dei successivi e, per completare la copertura della
regione, sono stati inseriti 3 dischi per lato (Mini Endcap), per un totale di
circa 5.4 106 canali. Una singola strip ha lunghezza pari a 12.5 cm e
passo tra 61 µm e 244 µm permettendo una risoluzione di 15 µm per le strip
di passo minore ed una risoluzione pari al limite (spessore/ 12) nel caso di
passo maggiore.
Anche per la regione più esterna si utilizzano strip di Silicio. Le dimensioni
delle strip sono maggiori rispetto a quelle utilizzate nella regione intermedia: hanno infatti una lunghezza di 16 cm ed un passo di 140 µm e 210
µm, fornendo una risoluzione di 40 µm e 60 µm. La lunghezza di 16 cm,
confrontata con i 12 cm della regione intermedia, dovrebbe aumentare il rumore di circa il 15%; questo effetto sarà compensato dall’utilizzo di sensori
di spessore maggiore, pari a 400 µm, invece degli usuali 300 µm.
Per un valore della pseudorapidità fino a η
2.0 una traccia sarà ricostruita
a partire da 13 punti. Per pseudorapidità maggiori tale valore diminuisce fino ad
un minimo di 8 per η 2.5. Tale sistema è in grado di assicurare una risoluzione
2. L’ esperimento CMS
per η
35
1.6 pari a:
∆pT
pT
15 pT
0 5 %
pT in TeV peggiorando con l’aumentare della pseudorapidità fino a raggiungere, per η = 2.5
il valore di:
∆pT
pT
60 pT
0 5 %
Nel caso di muoni, la risoluzione sul momento è minore del 10% fino a p
ed η
2.0.
4 TeV
2.4 Il calorimetro adronico
Il calorimetro adronico viene utilizzato per misurare posizione ed energia delle
particelle che costituiscono un jet, al fine di ricostruire direzione ed energia dei
partoni da cui hanno origine. Ha anche la funzione di misurare indirettamente i
neutrini, identificando la cosidetta ET mancante , in combinazione con il calorimetro elettromagnetico. Il calorimetro adronico contribuisce inoltre all’identificazione di particelle elettromagnetiche e muoni.
È suddiviso in una parte centrale, con simmetria cilindrica intorno alla direzione dei fasci, che ricopre la regione con η 1 3, indicata nella fig. 2.1 con HB, ed
in due parti poste a chiudere tale struttura fino ad una pseudorapidità η 3, indicate con HE; il fatto che il calorimetro sia posizionato interamente all’interno del
magnete solenoidale rende necessario che esso sia realizzato con materiale non
magnetico. Il calorimetro adronico di CMS è un calorimetro a campionamento
che utilizza strati di rame come assorbitori e strati di scintillatore plastico come
materiale attivo; la lettura della luce di scintillazione avviene tramite delle fibre
plastiche.
La granularità laterale è ∆φ ∆η = 0.087 0.087, sufficiente per ottenere
una buona separazione tra i jet ed una buona risoluzione sulla massa. La parte
centrale è realizzata con 13 strati in rame spessi 5 cm, mentre lo strato più interno
e più esterno sono in acciaio inossidabile di spessore pari a 7 cm, in modo da
fornire un’adeguta rigidità. La profondità totale è di 79 cm (corrispondente a
5.15 lunghezze di interazione nucleare λ), estesa poi al valore di 89 cm (5.89
λ) equipaggiando opportunamente lo spazio a ridosso delle travi di sostegno del
calorimetro elettromagnetico. Per aumentare la profondità di campionamento un
ulteriore strato di scintillatore è posizionato dopo il primo assorbitore del sistema
per muoni. Le strutture poste a chiudere la parte centrale sono realizzate nello
36
Figura 2.6: Il calorimetro adronico a CMS.
stessa maniera, ma con strati di rame di spessore maggiore (8 cm), conferendo
una profondità totale di 10.5 λ.
Un calorimetro adronico così realizzato permette di soddisfare le richieste fondamentali: buona ermeticità, granularità, sufficiente profondità per il contenimento degli sciami adronici e adeguata risoluzione in energia.
Test su fascio hanno mostrato che è possibile ottenere una risoluzione in energia pari a:
σE
E GeV 100%
E GeV 4 5%
nell’intervallo compreso tra 30 GeV ed 1 TeV. Si sono effettuate, inoltre, simulazioni dettagliate per quantificare la risoluzione sulla ET dei jet e su quella mancante. Ad esempio, un bosone W proveniente da un Higgs di 800 GeV che decade in
lν j j) può essere ricostruito con una risoluzione sulla massa
due jet (H WW
di 12 GeV in presenza di eventi di pile-up (8 GeV senza pile-up); la stessa risoluzione può essere ottenuta per un bosone W della catena di decadimento di un
quark top (t W b
j jb).
2. L’ esperimento CMS
37
2.5 Il calorimetro elettromagnetico di CMS
È stata già sottolineata nel primo capitolo l’ importanza di disporre di un calorimetro elettromagnetico di alte prestazioni nei decadimenti dell’ Higgs in cui risulti
associata la produzione di almeno un fotone (H
γγ) o un elettrone (H
4l in
cui almeno una coppia di leptoni è costituita da elettroni), nonchè nell’ identificazione di eventuali particelle supersimmetriche o di nuovi bosoni di gauge, che
possano decadere in fotoni o elettroni.
La scelta di CMS è stata quella di utilizzare un calorimetro omogeneo: questa
soluzione comporta una risoluzione in energia e in posizione migliore rispetto ad
un calorimetro a sample in quanto permette, almeno in principio, di rilevare l’
intera quantità di energia depositata.
I cristalli di PbWO4
Al fine di soddisfare le richieste del progetto di CMS, le proprietà richieste al
materiale di scintillazione costituente i cristalli sono [8]:
piccola lunghezza di radiazione;
piccolo raggio di Molière;
tempo di decadimento contenuto;
sufficiente tolleranza alla radiazione.
La scelta è caduta su cristalli di tungstato di piombo (PbWO4 ), che, grazie alle loro caratteristiche, consentiranno di contenere notevolmente le dimensioni del
calorimetro elettromagnetico. La possibilità di costruire un calorimetro di dimensioni ridotte, come richiesto per il contenimento delle dimensioni del solenoide
superconduttore, è legata alla lunghezza di radiazione X0 ed al raggio di Molière
del materiale. La lunghezza di radiazione (X0 ) è la distanza media nella quale un elettrone di alta energia perde una frazione (1 1 e) della sua energia per
Bremsstrahlung, ed è la scala naturale della lunghezza di un calorimetro elettromagnetico. Entro 25 lunghezze di radiazione è contenuta longitudinalmete circa
il 99% dell’ energia dello sciame elettromagnetico.
Il raggio di Molière RM è dato da [12]:
RM
X 0 Es Ec (2.1)
dove Es è una costante con le dimensioni di un’ energia, fissata a 21.2 MeV,
ed Ec è la cosiddetta energia critica, ossia l’energia per la quale l’energia persa
per ionizzazione eguaglia quella persa per bremsstrahlung. Il raggio di Molière
38
caratterizza lo sviluppo laterale dello sciame elettromagnetico: in un cilindro infinitamente lungo, di raggio pari a 1 RM e avente come asse principale la direzione
della particella, è contenuto il 90% dell’ energia della particella stessa, il 99% se
il raggio è pari a 3.5 RM . In tabella 2.1 sono riportate le caratteristiche fondamentali del PbWO4 , assieme a quelle di altri materiali solitamente utilizzati nella
realizzazione di cristalli di scintillazione.
Dai dati in tabella si vede come il materiale scelto presenti le seguenti proprietà:
la ridotta lunghezza di radiazione (0.89 cm) permette la realizzazione di un
calorimetro compatto: infatti cristalli di soli 23 cm di lunghezza assicurano
25.8 lunghezze di radiazione di profondità;
il raggio di Molière è sufficientemente piccolo (circa 2.2 cm) per consentire allo stesso tempo un buon contenimento laterale degli sciami elettromagnetici ed un’alta granularità, riducendo gli effetti del Pile-up fisico e
garantendo un’ottima risoluzione angolare;
la bassa resa in luce del materiale determina la necessità di amplificare
adeguatamente il segnale;
il 95% della luce di scintillazione viene emessa all’ interno del cristallo in
meno di 25 ns;
adeguata resistenza alle radiazioni.
[g/cm3 ]
Densità
Lunghezza di radiazione [cm]
Raggio di Molière [cm]
Massimo di emissione [nm]
LY relativo a NaI [%]
Tempo di emissione [ns]
PbWO4 NaI BGO
8.28
3.67 7.13
0.89
2.59 1.12
2.2
4.5
2.4
420
410 410
440
1
100
15
5(39%) 250 300
15 (60%)
CSI(Tl)
4.53
1.85
3.8
305
40
16
BaF2
4.89
2.05
3.4
220
310
5
0.7
620
CeF3
6.16
1.68
2.6
310
340
10
10
30
Tabella 2.1: Alcune caratteristiche del PbWO 4 a confronto con quelle di altri scintillatori
(LY indica la risposta di luce) [3].
L’ emissione di luce di scintillazione da parte di un cristallo, come schematizzato in figura 2.7, avviene tramite l’ eccitazione di un elettrone dalla banda di
2. L’ esperimento CMS
39
valenza a quella di conduzione del cristallo (causata dai processi di ionizzazione
dello sciame elettromagnetico) ed il suo successivo decadimento in stati energetici
intermedi, che si possono distinguere in:
livelli di luminescenza: il ritorno allo stato fondamentale è accompagnato
dall’emissione di un fotone;
livelli di quenching: l’energia di eccitazione è dissipata termicamente senza
radiazione;
trappole: gli elettroni possono ritornare alla banda di conduzione acquisendo energia dalle vibrazioni del reticolo, oppure ritornare allo stato fondamentale senza emissione di radiazione.
La risposta luminosa dei cristalli di PbWO4 è fortemente limitata dal notevole quenching termico. Questo ha comportato la necessità di sviluppare un nuovo tipo di fotorivelatore, il fotodiodo ad amplificazione interna (APD), descritto
successivamente, che garantisce un’alta efficienza quantica nella regione di emissione del PbWO4 , sufficiente amplificazione ( 50), basso rumore e scarsa sensibilità al campo magnetico, ragione quest’ultima che impediva l’utilizzo di un
fotomoltiplicatore come rivelatore di luce. Il quenching termico rende poi il meccanismo di scintillazione del PbWO4 intrinsecamente dipendente dalla temperatura ( 2% o C); ciò richiede una stabilizzazione della temperatura all’interno del
calorimetro con variazioni minori di 0.1 o C.
Figura 2.7: Schema tipico di emissione di luce tramite il processo di scintillazione.
40
Figura 2.8: Sviluppo tipico di uno sciame elettromagnetico nei cristalli.
In figura 2.9 è rappresentato lo spettro di emissione del PbWO4 ; è il risultato
della sovrapposizone di due bande di emissione, piccate rispettivamente a 420 e
440 nm [9]. Come si vede l’ emissione di luce è consistente nella regione compresa tra 360 e 570 nm; è proprio in tale regione che si è cercato di migliorare
la trasmissione ottica. Tale quantità può essere ridotta per la presenza di difetti
microscopici che diffondono la luce o da impurità che possono intrappolare un
elettrone dalla banda di conduzione e rilasciarlo riassorbendo la luce emessa dai
livelli di luminescenza. Questo effetto può essere ridotto drogando i cristalli, cioè
introducendo una piccola percentuale di elementi chimici che possono occupare
le trappole. In figura 2.10 è mostrata la trasmissione dei cristalli attualmente in
fabbricazione rispetto a quelli caratterizzati da impurità: si noti come, in corrispondenza del picco dello spettro di emissione del PbWO4 , la trasmissione sia
intorno al 70 % per i cristalli attualmente in uso.
Un altro problema è rappresentato dal deterioramento a cui vanno incontro i
cristalli a seguito della prolungata esposizione all’ irraggiamento di fotoni, che
causa la creazione di centri di colore con conseguente riduzione della luce prodotta. Tale riduzione, indicando con LY0 e LYirr la risposta in luce rispettivamente
prima e dopo l’ irraggiamento, può essere quantificata come:
2. L’ esperimento CMS
41
1.2
La doped
Nb doped
Normalised emission
1
0.8
0.6
0.4
0.2
0
300
350
400
450
wavelength (nm)
500
550
600
Figura 2.9: Spettro di emissione del PbWO4 .
100
90
Theoretical transmission from Fresnel losses
80
Transmission (%)
70
60
50
1997 crystal
1995 crystal
40
30
20
10
0
300
350
400
450
500
550
Wavelength (nm)
600
650
700
Figura 2.10: Curva di trasmissione ottica per i cristalli di PbWO 4 , prima e dopo il
drogaggio.
42
LY0 LYirr
(2.2)
LY0
Tale riduzione è stata attenuata tramite l’ introduzione di elementi droganti
(Lantanio, Ittrio, Lutezio, Antimonio e Niobio) e ottimizzando la stechiometria.
In figura 2.11 è riportato l’ andamento di LYperso in funzione dell’ irraggiamento
per le varie tipologie di cristalli esaminati. Si tenga presente che la dose rate
aspettata nel Barrel varia da 0.18 a 0.28 Gy/h.
LYperso
Figura 2.11: Danneggiamento da radiazione per diversi cristalli.
Fotorivelatori e catena elettronica
La struttura di un APD è schematizzata in figura 2.12. Un fotone di scintillazione
proveniente dal cristallo entra attraverso la finestra di Si3 N4 e viene assorbito
nello strato p sottostante, creando una coppia elettrone-lacuna. Nei successivi
strati p ed n l’elettrone viene accelerato da un elevato campo elettrico, creando
un effetto di moltiplicazione tramite ionizzazione per collisione. Gli elettroni così
generati migrano attraverso lo strato π fino a raggiungere l’elettrodo n dove
vengono raccolti.
I vantaggi di un APD sono costituiti da un guadagno interno fino a 200, una
piccola corrente di saturazione, una resistenza alle radiazioni che lo rende adatto
a lavorare in gran parte del calorimetro e l’ insensibilità al campo magnetico.
2. L’ esperimento CMS
43
Figura 2.12: Struttura di un APD Hamamatsu.
La realizzazione di un APD di elevata superficie risulta complicata: in CMS si
è dunque scelto di utilizzare 2 APD per ogni cristallo, ognuno di dimensioni pari a
circa 5 5 mm2 . Il danneggiamento, causato dal passaggio di neutroni attraverso l’
APD (stimato in circa 1013 /cm2 nel Barrel in 10 anni di attività di LHC) è dovuto a
due meccanismi: spostamento degli atomi dal loro sito reticolare con conseguente
aumento della corrente oscura (bulk damage), oppure creazione di difetti nello
strato superficiale, con conseguente diminuzione dell’efficienza quantica (surface
damage)[13].
I fototriodi a vuoto (VPT), schematizzati in figura 2.13, possono essere utilizzati nel calorimetro in avanti, in quanto sono in grado sia di lavorare in presenza
di un elevato campo magnetico assiale, sia di sopravvivere all’ elevato flusso di
neutroni proprio delle zone ad alta pseudorapidità (circa 1015 neutroni/cm2 in 10
anni nella zona di maggiore pseudorapidità).
I fotoni di scintillazione dal cristallo colpiscono il fotocatodo del fototriodo,
dove creano alcuni fotoelettroni. I fotoelettroni vengono accelerati verso l’ anodo
a causa della differenza di potenziale (circa 1000 V) di quest’ ultimo con il fototriodo (collegato a terra). Gran parte dei fotoelettroni colpisce il dinodo, dove
vengono prodotti numerosi elettroni secondari (circa 20 per ogni elettrone primario). Gli elettroni secondari, a loro volta, vengono accelerati verso l’ anodo, dove
un’ ampia frazione viene raccolta. Il guadagno effettivo è pari a circa 12.
Diverse prove effettuate su prototipi di VPT hanno confermato una buona resistenza alle radiazioni della finestra di vetro posta davanti al fotocatodo (uno dei
44
40
22 dia.
SEMITRANSPARENT
PHOTOCATHODE
4.5
2.5
DYNODE
MESH ANODE
Figura 2.13: Struttura di un VPT.
principali problemi in questo caso è infatti la creazione di centri di colore con
conseguente diminuzione della trasmissione di luce), ed una variazione del guadagno di circa il 10% dopo l’assorbimento di una dose di radiazioni equivalente a
10 anni di attività ad LHC.
La catena elettronica, schematizzata in figura 2.14 ha la funzione di trasmettere il segnale del rivelatore alla Counting Room e di fornire le somme digitali al
sistema di trigger. Le caratteristiche della catena devono essere un range dinamico fino ad energie dell’ ordine di 2 TeV, un basso contributo al rumore, una buona
resistenza alle radiazioni per le componenti interne al rivelatore ed una frequenza
di campionamento del segnale pari ai 40 MhZ di frequenza del bunch crossing a
LHC.
La luce prodotta dai cristalli è convertita in corrente dai fotorivelatori; tale corrente va incontro ad una preamplificazione prima di essere convertita in tensione.
La tensione è poi convertita in digitale usando un apposito convertitore (ADC).
In uscita agli ADC sono presenti delle schede di front-end digitali, ciascuna delle quali effettua le somme digitali di una torre di trigger (25 cristalli). Per ogni
scheda 3 fibre ottiche (una di timing in ingresso con impulso ogni 25 ns e due in
uscita con funzioni di trigger e di registrazione dei dati raccolti) trasmettono i dati
alla counting room, dove vengono elaborati e trasmessi al Data AQuisition system
(DAQ).
2. L’ esperimento CMS
45
Timing ←
Si avalanche
photodiode
→ Readout
l
rysta
c
O4
PbW
Digital
readout
→ Trigger
Preamplifier
Floating
p oint ADC
s
m
su
ge
r
Σ
Σ
Σ
Tr
ig
Σ
Σ
Σ
Figura 2.14: Schema del sistema di lettura del segnale.
Geometria del rivelatore
Il calorimetro elettromagnetico può essere suddiviso in tre strutture distinte: Il
Barrel, che ricopre valori di pseudorapidità per i quali η 1 4979, i due Endcap,
che coprono l’ intervallo di pseudorapidità 1.48
η
3.0 e i due Preshower i
quali, posti davanti agli Endcap, ne integrano le funzioni.
Il Barrel Il Barrel è costituito da 61200 cristalli di PbWO4 , disposti in una struttura cilindrica di raggio 1.29 metri. I cristalli hanno una forma a tronco di piramide con sezione trapezoidale, lunghezza pari a 23 cm e la faccia più piccola,
quella rivolta verso il centro del rivelatore (front-face), di dimensioni 22 22
mm2 (vi sono 34 differenti tipi di cristalli con dimensioni leggermente differenti
per ottenere una geometria che punti al vertice d’interazione). La granularità del
rivelatore è di 360 cristalli in φ e di 2 85 cristalli in η.
Sulla base (Rear-face) di ogni cristallo sono posizionati due fotodiodi a valanga (APD) contenuti in una capsula di materiale plastico che in alcuni casi alloggia
anche un sensore termico . L’insieme del cristallo, dei due APD con i loro cavi,
del sensore termico e della capsula viene detto sottounità.
L’ organizzazione dei cristalli all’ interno del Barrel viene inquadrata in strutture modulari, descritte di seguito:
I Sottomoduli: rappresentano l’ unità più piccola e sono composti da 10
46
Figura 2.15: Il calorimetro elettromagnetico di CMS [9].
sottounità, disposte in una struttura rettangolare 2(in φ) 5(in η) detta Tablette, realizzata in fibra di vetro e chiusa da un piano in alluminio. Il peso
totale di un sottomodulo è di circa 12 Kg.
I Moduli: comprendono 50 o 40 sottomoduli (500 o 400 cristalli), una griglia in alluminio per fissare i sottomoduli nella parte superiore ed una struttura in alluminio detta Basket per fissare i sottomoduli nella parte inferiore.
La distanza nominale tra i cristalli adiacenti appartenenti a moduli diversi è
pari a 6.0 mm sia in φ che in η.
I Supermoduli: un supermodulo è costituito da 4 moduli e copre un angolo
di 20o in φ ed una regione in η da 0 a 1.49, per un totale di 36 supermoduli.
In figura 2.16 è mostrata la struttura di un modulo e la sua disposizione all’
interno di un supermodulo.
L’ Endcap i due Endcap coprono l’intervallo di pseudorapidità 1 4979
η
3 0; è composto da 7324 cristalli di PbW O4 , tutti uguali tra loro, di dimensioni
28.6 28.6 mm2 per la faccia anteriore, 30.0 30.0 mm per la faccia posteriore e
220 mm2 di lunghezza, posizionati su una superficie verticale distante circa 3.2 m
dal punto d’interazione. I cristalli dell’ Endcap, raggruppati in moduli di 5 5
detti supercristalli, sono leggermente più corti rispetto a quelli del Barrel a causa
della presenza del Preshower, che assorbe parte dell’ energia.
2. L’ esperimento CMS
Module
47
Side Plate
Module 4
Module 3
Module 2
Module 1
Back Plate
Sliding Plate
Supermodule
Sliding Pad
Spacer
Patch Panel
Space
4 Modules,
Services and Cables (not shown),
2 Side Plates,
Back Plate,
2 Spacers,
Sliding plate,
4 Sliding Pads
Monitoring Fiber (not shown),
Moderator (not shown),
Patch Panel
Figura 2.16: Struttura di un modulo e posizionamento dei 4 moduli nel supermodulo.
Ogni Endcap è composto da 268 supercristalli identici completi e da 64 supercristalli non completi, utilizzati per realizzare le parti più interne e più esterne. I
supercristalli sono disposti nell’Endcap seguendo una griglia ortogonale che semplifica le procedure di ricostruzione degli eventi (gli angoli e gli spigoli dei cristalli
sono allineati) e di realizzazione del rivelatore (consentendo l’utilizzo di cristalli
tutti uguali tra loro). Questa disposizione consente anche di posizionare i cristalli
con l’asse longitudinale spostato di un angolo compreso tra 2 e 8 gradi rispetto al
raggio che punta al centro della zona di interazione. La distanza tra cristalli appartenenti ad uno stesso supercristallo è pari a 0.5 mm, mentre nel caso di cristalli
appartenenti a diversi supercristalli tale valore varia tra 1 e 3 mm. La struttura
dell’ Endcap è visualizzata in figura 2.17.
Il Preshower Nella regione in avanti viene utilizzato anche un Preshower, che
ricopre l’intervallo di pseudorapidità compreso tra η = 1.65 ed η = 2.61. La sua
funzione principale è la separazione dei fotoni dai π0 : ad alte energie, infatti,
il π0 decade in due fotoni molto vicini tra di loro, il cui segnale può risultare
indistinguibile da quello di un fotone singolo. L’ alta granularità del detector
permette invece di ottenere la separazione dei due depositi originati dal π 0 .
Il Preshower in avanti ha una struttura a corona circolare di raggio interno pari
a 457 mm e raggio esterno pari a 1230 mm, per uno spessore totale di 190 mm.
48
Figura 2.17: Struttura del calorimetro elettromagnetico in avanti.
Le misure di posizione sono effettuate tramite due piani di rivelatori, dei quali il
primo permette di misurare la posizione verticale e il secondo la posizione orizzontale delle particelle. Questi due piani sono preceduti ognuno da un convertitore
in piombo, di spessore rispettivamente 1.75 e 0.77 lunghezze di radiazione.
2. L’ esperimento CMS
Figura 2.18: Struttura d’ insieme del preshower.
49
50
Capitolo 3
Soluzioni operative in CMS
In questo capitolo verranno esposte alcune soluzioni operative adottate nell’ immagazzinamento, ricostruzione e analisi degli eventi nell’ esperimento CMS e che
assumono particolare importanza negli argomenti trattati in questa tesi.
3.1 Sistema di trigger
In LHC si prevede la presenza di circa 20 collisioni al secondo ad alta luminosità
(1034 cm 2 s 1 ), cioè, in media, un evento ogni 25 ns. La frequenza totale di eventi, pari dunque a circa 109 Hz, deve essere ridotta fino ad un valore dell’ ordine di
100 Hz, che rappresenta la rate massima di eventi che è possibile archiviare. Tale
riduzione avviene in due fasi:
Trigger di livello 1: ha la funzione di selezionare eventi all’ interno dei
quali siano presenti oggetti identificabili come muoni, elettroni, fotoni, jet
ed energia trasversa mancante; tali oggetti devono soddisfare alcuni criteri di selezione. Sono previsti anche trigger su elettroni o fotoni doppi e
su eventi in cui siano presenti fino a 4 jet. Le informazioni utilizzate in
questa prima fase provengono solamente dai calorimetri (elettromagnetico
e adronico) e dal rivelatore di muoni. Il sistema di trigger deve avere un’
efficienza sufficientemente alta al fine di assicurare la statistica necessaria
all’ individuazione dell’ evento analizzato. La rate di eventi che supera il
livello 1 di trigger sarà in teoria pari a circa 100 kHz ad alta luminosità, 50
kHz a bassa luminosità; in realtà si manterrà un fattore di sicurezza pari a
circa 3, per cui le rate finali saranno rispettivamente pari a 33.5 e 16 kHz
[14].
Trigger di livello superiore: In quesa fase è possibile accedere alle informazioni provenienti da altri subdetector, come il tracciatore, per ridurre
51
52
ulteriormente la rate totale di eventi. La rate finale deve essere intorno ai
100 Hz [15].
Il livello 1 di trigger è organizzato in tre sezioni principali: il trigger muonico,
il trigger calorimetrico e il trigger globale. Quest’ ultimo accetta le informazioni
provenienti dai primi due trigger ed effettua la scelta utilizzando le informazioni di entrambi. Di seguito verrà descritto il trigger calorimetrico, di particolare
importanza per il presente lavoro.
Il trigger calorimetrico sfrutta le informazioni provenienti dalle torri di trigger: si tratta di unità di 5 5 cristalli, pari a ∆η ∆Φ 0 087 0 087 per quanto
riguarda il barrel e di estensione angolare variabile nell’ endcap. L’ algoritmo
di riconoscimento degli elettroni e dei fotoni coinvolge otto torri di trigger che
circondano quella con il maggior deposito di energia (hit). L’energia trasversa Et
del candidato elettrone/fotone viene determinata sommando la Et della hit tower
con la massima Et trovata nelle quattro torri adiacenti. In ogni regione costituita
da 4 4 torri di trigger vengono separatamente trovati i candidati elettromagnetici, successivamente suddivisi in isolati e non. I candidati non-isolati devono
soddisfare due criteri, il primo dei quali si basa sul riconoscimento del profilo laterale di rilascio dell’energia (FG veto), mentre il secondo richiede che il rapporto
tra l’energia rilasciata nel calorimetro elettromagnetico ed in quello adronico sia
inferiore al 5% (HAC veto). Per un candidato isolato, oltre a questi criteri, si richiede anche che le otto torri di trigger più vicine soddisfino le condizioni FG
e HAC, e che almeno uno dei 4 lati costituiti da 5 torri di trigger adiacenti alla
regione centrale di 3 3 torri abbia un’energia trasversa inferiore a 1.5 GeV.
Soltanto i 4 candidati non-isolati e i 4 candidati isolati aventi la massima Et
vengono salvati per il successivo utilizzo da parte del trigger globale di CMS.
Nella tabella successiva vengono riportate le trigger-rate di livello 1 relative
ai vari eventi, per bassa ed alta luminosità (rispettivamente 16 e 33.5 kHz di rate
totale).
3.2 Algoritmi di ricostruzione di elettroni e fotoni
Il primo passo per la definizione delle caratteristiche di una particella che interagisce elettromagneticamente è la ricostruzione del relativo deposito di energia all’
interno del calorimetro. Questa operazione permette di ottenere una stima dell’
energia e della posizione della particella stessa, utilizzando i depositi di energia
misurati dai cristalli di PbWO4 .
L’ esposizione dei metodi di ricostruzione verrà fatta riferendosi agli elettroni, ma quanto detto vale anche per i fotoni. Gli elettroni viaggiano dal vertice di
produzione fino alla superficie del calorimetro; all’ interno dei cristalli sviluppano
3. Soluzioni operative in CMS
53
Figura 3.1: Contorni di isorate sul piano delle soglie in Et relative al trigger per elettronefotone singolo e doppio[14].
uno sciame elettromagnetico, che può coinvolgere un numero variabile di cristalli.
I fotoni di bremsstrahlung, emessi all’ interno del materiale del tracker, producono, assieme all’ elettrone iniziale (la cui traiettoria viene modificata dal campo
magnetico), una distribuzione di energia, allineata con buona approssimazione
lungo una stretta striscia di cristalli in φ. Nasce dunque la necessità di un opportuno algoritmo di ricostruzione che tenga conto di questo problema. Per i fotoni
la difficoltà maggiore nella fase di ricostruzione è rappresentata dalle conversioni,
dovute alla presenza di materiale all’ interno del volume del calorimetro.
Saranno di seguito discussi i due principali algoritmi usati nella ricostruzione
dei depositi elettromagnetici: l’ algoritmo island e l’ algoritmo hybrid[16].
3.2.1 Algoritmo island
L’ algoritmo Island comincia con una ricerca dei seed, ovvero dei cristalli caratterizzati da un energia trasversa maggiore di una soglia predefinita, pari a 0.5 GeV;
tale valore rappresenta un compromesso tra la necessità di eliminare i cristalli ru-
54
trigger
Soglia a bassa Rate massima a Soglia ad alta Rate massima ad
luminosità
bassa luminosità
luminosità
alta luminosità
(GeV)
(kHz)
(GeV)
(kHz)
elettrone/fotone isolato
29
3.3
34
6.5
elettrone/fotone doppio
17
1.3
19
3.3
muone isolato
14
2.7
20
6.2
muone doppio
3
0.9
5
1.7
tau-jet singolo
86
2.2
101
5.3
tau-jet doppio
59
1.0
67
3.6
1, 3, 4 jet
177, 86, 70
3.0
250, 110, 95
3.0
jet con Et mancante
88(jet) 46(Et )
2.3
113(jet) 70(Et )
4.5
jet con elettrone
45(jet) 21 (e)
0.8
52(jet) 25 (e)
1.3
jet con muone
40(jet) 15 (µ)
0.8
Tabella 3.1: Soglie e rate per il trigger di livello 1. Le soglie corrispondono ad
un’ efficienza del 95% [14].
Figura 3.2: Schema dell’ algoritmo di clustering Island.
morosi e quella di ricostruire il maggior numero di depositi possibile. In presenza
di due seed adiacenti viene eliminato dalla lista quello con energia minore.
A partire dal seed più energetico, l’ algoritmo ricerca i cristalli in φ in entrambe
le direzioni, finchè non trova una risalita in energia o un cristallo privo di segnale
(che corrisponde, per il barrel, ad un’ energia inferiore a 60 MeV). Si sposta poi
di un cristallo in η ed effettua di nuovo la ricerca in φ; lo spostamento in η si
interrompe quando, analogamente a φ, si trova una risalita o l’ assenza di segnale;
si passa allora all’ altra direzione in η per effettuare la stessa operazione. I cristalli
3. Soluzioni operative in CMS
55
inclusi in un cluster non possono essere assegnati ad un altro, evitando così doppi
conteggi dello stesso deposito energetico. L’ intero processo è schematizzato in
figura 3.2.
Per recuperare i fotoni emessi per bremsstrahlung è possibile utilizzare un algoritmo che associ più cluster vicini tra di loro: infatti i fotoni emessi, se non
ricadono all’ interno del cluster dell’ elettrone, vanno a formare cluster indipendenti disposti lungo una linea in φ. Si può procedere costruendo un cluster di
cluster, cioè un supercluster, raccogliendo, a partire dal cluster principale, tutti i
cluster all’ interno di una stretta finestra in η (fig. 3.3).
Figura 3.3: Schema di costruzione di un SuperCluster.
3.2.2 Algoritmo Hybrid
Per i depositi isolati, come quelli prodotti da fotoni non convertiti, una ricostruzione basata sull’ uso di finestre fisse di cristalli sembra dare risultati migliori, in
termini di risoluzione in energia, rispetto all’ uso di algoritmi dinamici come l’
Island. Si è dunque sviluppato un algoritmo che unisca l’ utilizzo di finestre fisse
con le proprietà dinamiche dell’ algoritmo Island.
L’ algoritmo Hybrid utilizza domino fissi di 3 o 5 cristalli in η, mentre cerca
dinamicamente in φ depositi di energia separati. Partendo da un seed con energia
E ET hybseed , sono creati domino di cristalli di dimensione 1 5 o 1 3 a seconda
che l’ energia del cristallo centrale sia o meno maggiore di una soglia E wing . La
creazione di questi domino procede per un numero di cristalli pari a Nstep in ogni
56
direzione a partire dal seed. I domino con energia minore di Ethresh sono eliminati.
Successivamente i domino sono clusterizzati in φ. Ogni distinto cluster di domino
deve avere un seed con energia maggiore di Eseed . Alla fine si ottiene un cluster
di cluster, cioè un supercluster. I parametri citati sono quantificati nella tabella
3.2, mentre in figura 3.4 è schematizzata la costruzione dei domino nell’ algoritmo
Hybrid.
Figura 3.4: Costruzione dei domino per l’ algoritmo Hybrid.
Descrizione del parametro
simbolo nel testo valore di default
Valore minimo di Et per il seed
ET hybseed
1 GeV
Numero di cristalli di spostamento
Nstep
10
in φ (in ogni direzione)
Soglia per utilizzo domino 1 5
Ewing
1 GeV
invece di 1 3
Soglia per utilizzare il domino
Ethresh
0.1 GeV
Energia minima del seed del domino
Eseed
0.35 GeV
per fare un cluster sconnesso
Tabella 3.2: Parametri di controllo per l’ algoritmo hybrid.
3.3 Procedure di calibrazione
La calibrazione ha una importanza fondamentale nelle prestazioni fornite dal caγγ per la scoperta dell’ Higgs, per
lorimetro di CMS. L’ utilizzo del canale H
esempio, dipende dalla possibilità di ottenere una risoluzione in energia con un
termine costante 0 5%: un tale obiettivo richiede la calibrazione di tutti i 75848
cristalli di PbW O4 .
3. Soluzioni operative in CMS
57
Come detto nel capitolo precedente, la trasmissione di luce nei cristalli è sensibile alla radiazione. Questo fatto può influenzare l’ intercalibrazione dei cristalli: i periodi critici sono costituiti dal momento dell’ accensione e dopo uno
spegnimento prolungato della macchina, nei quali sono previsti cambiamenti nella calibrazione variabili dal 2 al 5% nelle prime 12 ore per zone del calorimetro
particolarmente esposte alla radiazione. Per ovviare a tale problema è stato approntato un sistema di monitoraggio della luce per misurare la risposta di ogni
cristallo durante la fase di acquisizione dati.
La realizzazione della calibrazione di tutti i cristalli è prevista attraverso diverse fasi e utilizzando strumentazioni diverse; queste verranno descritte nei paragrafi
seguenti.
3.3.1 Sistema di monitoring della luce
Come accennato in precedenza, questo sistema misura la trasmissione di luce e
il guadagno della catena di photodetector per ogni canale. Questa parte dell’ intercalibrazione riguarderà gruppi di cristalli accomunati dallo stesso sistema di
monitoring e consisterà nell’ immissione di impulsi di luce di lunghezza d’ onda prossima al picco dello spettro di emissione ( 500 nm) all’ interno di ogni
cristallo. Il controllo verrà effettuato sia in fase di acquisizione (Continuos in-fill
monitoring) che nelle fasi di spegnimento della macchina (Stand-alone monitoring runs). Nella figura 3.5 è mostrato il sistema di distribuzione degli impulsi
di luce: la sorgente laser è posta al di fuori del calorimetro e un sistema di fibre
in quarzo provvede a smistare la luce nei vari elementi del calorimetro (barrel,
endcap), dove un ulteriore sistema di distribuzione fa arrivare la luce ad ogni
cristallo.
3.3.2 Precalibrazione
In questa fase i cristalli verranno illuminati da fasci di elettroni aventi energie note.
Questa procedura fornirà un insieme di costanti di calibrazione da utilizzare come
valore iniziale per l’ applicazione dei metodi di calibrazione in situ, per almeno
due valori di energia scelti all’ interno del range coperto dagli eventi fisici. Per
l’ accensione della macchina si prevede che solo una parte dei cristalli di CMS
saranno stati precalibrati: i restanti utilizzeranno come costanti di precalibrazione
le misure eseguite durante la qualificazione dei cristalli, facendo uso di sorgenti
radioattive ad energie diverse da quelle degli eventi fisici che verranno analizzati.
L’ uso di queste tecniche dovrebbe permettere di raggiungere una calibrazione al
5% per le misure effettuate in laboratorio e al 2% per la precalibrazione con il
fascio di prova.
58
Light Source and High Level
Distribution System
Laser
500/700
nm
optical fibre
switch
quartz fibres to
level-2 fanouts
(150m)
Level-2
Fanout
PN photodiode
Crystals
Level-1
Fanout
Level-1
Fanout
PN photodiode
Figura 3.5: Distribuzione della luce nel sistema di monitoring.
Figura 3.6: Struttura con cui viene effettuata la precalibrazione.
3. Soluzioni operative in CMS
59
3.3.3 Calibrazione in situ con eventi fisici
La calibrazione con eventi fisici rappresenta la procedura di calibrazione di maggior rilevanza, attraverso la quale è possibile raggiungere lo 0.5% di precisione
sul termine costante della risoluzione. I canali analizzati sinora sono:
eventi Z 0
e e e η
γγ, in cui si sfrutta il picco di massa invariante
ricostruito per intercalibrare gruppi di cristalli (nel primo caso) o cristalli
singoli (nel secondo). La presenza di un vincolo fisico garantisce la possibilità di utilizzare, nella ricostruzione, le sole informazioni del calorimetro
elettromagnetico.
eventi W
eν, nei quali si confrontano le misure di energia fornite dal calorimetro con quelle d’ impulso date dal sistema di tracciamento (matching
E/p). La statistica aspettata può permettere la calibrazione individuale dei
cristalli: si tratta, però, di una calibrazione relativa, rispetto alle misure di
impulso del tracker [17].
Quanto segue vuole essere una breve descrizione delle procedure matematiche
alla base della calibrazione [18]; ci si riferirà al solo barrel, mentre l’ endcap, a
causa della presenza del preshower, richiede una diversa trattazione.
Indicato con Si il segnale prodotto dagli APD e digitizzato dagli ADC, si vuole
relazionare Si all’ energia E(ε) rilasciata all’ interno del calorimetro, che differirà
da ε a causa delle perdite di energia dovute al materiale di fronte al calorimetro e
al non contenimento longitudinale dei cristalli. La relazione è allora:
∑
S i ci
E ε
(3.1)
cristalli cluster
La relazione precedente suppone la perfetta conoscenza dei coefficienti c i . I
valori ottenibili dalla precalibrazione sul fascio o dalle misure di laboratorio stimeranno solo un valore approssimato di ci : lo si indichi con cai . Occorre allora
un’ ulteriore correzione e la precedente diventa:
∑
Di Eia
cristalli cluster
cai .
∑
Di Si cai
E ε
(3.2)
cristalli cluster
dove Eia è la stima dell’ energia ottenibile usando i coefficienti approssimati
La relazione di cui si necessita è, però, quella che lega la stima delle energie dei cristalli con l’ energia vera della particella. Indicando con ε out l’ energia
esclusa dal gruppo di cristalli considerato nella ricostruzione, si ha:
1 εout 1
∑
cristalli cluster
Ci η φ Eia η φ ε
(3.3)
60
dove si è indicato l’ i-esimo cristallo con la relativa coordinata in η e φ nel
barrel. I coefficienti Ci η φ sono legati ai coefficienti Di introdotti in precedenza, ma includono anche le correzioni in base alle perdite dovute al materiale
attraversato e al non contenimento longitudinale.
Se dunque si conosce l’ energia ε delle particelle ricostruite, che nel caso della
calibrazione con elettroni può essere stimata attraverso la misura del loro impulso
nel tracciatore, si ottiene, per ognuna di esse, una relazione lineare che lega le
stime di energia E a η φ all’ energia ε. Ricostruito un numero N di particelle, si
ottiene un sistema del tipo:
A j m Cm b j
(3.4)
dove j identifica la particella (j [1,N]) e m il cristallo (m [1,n], dove n è il
numero di cristalli). Il vettore dei coefficienti Cm è ciò che si vuole determinare.
Si noti che il sistema è sovradeterminato, essendoci più equazioni che incognite
(N n): in letteratura sono descritti vari metodi per la risoluzione di questi sistemi,
ad esempio quello di Householder [19].
Nel caso di eventi η γγ l’ alta rate del canale in LHC dovrebbe permettere
di calibrare i singoli cristalli. Indicate con E1 e E2 le energie dei due fotoni finali,
la cinematica relativistica fornisce la relazione:
M2
E1 E2 (3.5)
θ12
2 4 sin2
dove M è la massa dell’ η e θ12 l’ angolo tra i due fotoni. Per entrambi i fotoni,
con riferimento alla relazione 3.3, è inoltre possibile scrivere:
1 εout 1
s1
∑ Ck1
η φ Eka1 η φ E1 ;
(3.6)
η φ Eka2 η φ E2 ;
(3.7)
k1 1
1
εout 1
s2
∑ Ck2
k2 1
dove s1 e s2 rappresentano il numero di cristalli accesi per i due fotoni ricostruiti.
Moltiplicando tra di loro le due relazioni si ottiene:
1 εout 2
s1
∑ Ck1
η φ Eka1 η φ s2
∑ Ck2
η φ Eka2 η φ M2
E 1 E2 4 sin2 θ212 (3.8)
Si sono dunque legati i prodotti di coppie di coefficienti di calibrazione Ck1 k2 Ck1 Ck2 alla massa invariante dell’ η. Dopo aver raccolto un numero sufficiente
k1 1
k2 1
3. Soluzioni operative in CMS
61
di eventi, è possibile ricavare i valori di Ck1 k2 tramite i metodi citati e, da questi,
risalire ai valori di Ck .
Per avere una stima della precisione statistica raggiungibile, approssimando
la distribuzione della massa della particella con una gaussiana centrata intorno a
Mη e di larghezza ση e utilizzando il metodo della massima verosimiglianza si
ottiene:
σ Ck 2 ση
Mη N
(3.9)
dove N è il numero medio di eventi che coinvolge il singolo cristallo.
Approcci alla calibrazione
Utilizzando i canali descritti si possono distinguere 3 diversi approcci:
Intercalibrazione locale delle risposte di un cristallo rispetto all’ altro. Si
può suddividere questa parte in intercalibrazione locale e regionale, che riguardano rispettivamente coppie di cristalli limitrofi e gruppi adiacenti di
cristalli;
Intercalibrazione globale tra le differenti regioni del calorimetro che sono
direttamente coinvolte nella ricostruzione della massa;
Calibrazione assoluta, utilizzata per determinare la scala di energia.
L’ intercalibrazione locale verrà effettuata confrontando il valore di energia
fornito dal sistema di tracciamento con quello dato dal calorimetro per le energie di elettroni isolati, sfruttando il canale W
eν. L’ intercalibrazione globale e la calibrazione assoluta verranno invece effettuate sfruttando il decadimento
Z
e e , ricostruendo la massa invariante del bosone attraverso precise misure di energia e direzione dei due elettroni. L’ acquisizione degli eventi necessari
alla calibrazione avviene contemporaneamente alla fase di acquisizione dati; si
prevede di poter raggiungere una intercalibrazione locale allo 0 5% e globale allo 0 7% entro 2 mesi dall’ accensione di LHC, assumendo una luminosità pari a
2 1033 cm 2 s 1 e un’ efficienza della macchina del 50%. Occorre sottolineare
che le procedure di calibrazione esposte verranno effettuate contemporaneamente
alla fase di presa dati.
Calibrazione stand alone
Il problema legato alla calibrazione contemporaneamente alla fase di presa dati è
la necessità di raccogliere eventi per alcuni mesi prima di raggiungere la precisione desiderata: ciò è dovuto essenzialmente alla rate insufficiente che caratterizza
62
Figura 3.7: Tipico evento Z
e e utile per la calibrazione in situ.
3. Soluzioni operative in CMS
63
la produzione di Z e W . D’ altra parte, l’ uso di canali con rate molto più alγγ, non è compatibile con le normali condizioni di presa dati. In
te, come η
questo caso l’ idea è allora quella di utilizzare l’ intera rate di eventi scrivibile su
nastro per immagazzinare i dati del calorimetro, in modo da poter sfruttare il gran
numero di eventi propri dei canali utilizzati [20]. Questo comporta la necessità di
riservare un piccolo periodo di funzionamento della macchina esclusivamente alla
procedura di calibrazione, anzichè effettuarla di pari passo con la fase di presa dati: si prevede che sia possibile raggiungere una statistica sufficiente in tempi inferiori alla settimana. Alcuni aspetti della calibrazione stand alone, con particolare
riferimento al canale η γγ, verranno approfonditi nei capitoli successivi.
Calibrazione mediante flusso totale di energia (Energy Flow)
Un altro metodo per ovviare ai lunghi tempi richiesti dalle procedure di calibrazione a bassa luminosità è quello di utilizzare il metodo di calibrazione dell’ Energy
Flow[21, 22], che sfrutta la simmetria in φ dell’ apparato di rivelazione. Questa
tecnica di calibrazione utilizza i depositi di energia nel calorimetro in corrispondenza di eventi di minimum-bias. Poichè il flusso di energia, per un certo valore
di η , è simmetrico in φ, questo metodo permette di intercalibrare i cristalli appartenenti ai due anelli del calorimetro: in questo modo il numero di costanti di
calibrazione scende da 75848 (numero totale di cristalli nel calorimetro) a 125
(numero di coppie di anelli a η fisso). Le restanti costanti verranno determinate
usando il decadimento Z
e e . Nella somma sono escluse energie al di sotto dei 150 MeV nel barrel e 750 MeV nell’ endcap; non vengono inoltre contate
energie al di sopra di 800 MeV, in quanto la loro bassa statistica potrebbe compromettere la simmetria. In teoria la precisione raggiungibile sarebbe proporzionale
a 1/ N, dove N è il numero di eventi analizzati. In realtà la simmetria in φ è solo
approssimata, a causa dell’ inomogeneità del materiale dinnanzi al calorimetro:
ciò determina l’ esistenza di un valore limite della precisione. Con questa tecnica
si dovrebbe raggiungere in poche ore una precisione di intrcalibrazione intorno
al 2%, ovviando, così, all’ eventuale mancanza della precalibrazione sul fascio di
prova.
3.4 Programmi utilizzati
Poichè nella presente tesi il lavoro di analisi si è accompagnato di pari passo alla
generazione e simulazione degli eventi da analizzare, occorre descrivere brevemente i programmi utilizzati a tal fine. La complessità di tali programmi, che
simulano l’ evento fisico e la sua ricostruzione all’ interno del volume di CMS,
64
richiederebbe una trattazione ben più ampia; in questa sede ci si accontenterà di
darne una descrizione sommaria.
3.4.1 Pythia
Pythia è probabilmente il programma più usato per la generazione di eventi con
metodi Montecarlo. Ideato da Torbjorn Sjostrand dell’ università di Lund, in Svezia, nel 1978 e giunto ormai alla versione 6.16, Pythia permette di generare eventi
prodotti in collisioni tra particelle di varia natura, elementari o dotate di struttura interna. L’ evoluzione dell’ evento è basata su teoria e modelli riguardanti
numerosi aspetti fisici, come interazioni forti e deboli, distribuzioni partoniche,
interazioni multiple, frammentazioni. Le strutture implementate si basano sia su
ricerche originali, svolte dal grupppo teorico dell’ università di Lund, che su altre pubblicazioni scientifiche. Pythia è, allo stato attuale, scritto in Fortran 77;
si sta però provvedendo a riscriverlo interamente in C++ [23]. Il suo funzionamento avviene tramite la definizione di un certo numero di parametri, che fissano
le caratteristiche dell’ evento fisico da simulare, le grandezze fisiche da ottenere in
output e permettono persino di modificare i canali di fisica in gioco a discrezione
dell’ utente. Degno di nota è l’ uso del codice standard HEPEVT per la memorizzazione delle particelle, che oltre a darne le caratteristiche cinematiche (angoli,
energie e impulsi), permette , per ognuna di esse, di risalire alle particelle da cui è
stata originata ed eventualmente a quelle in cui è decaduta.
In questa tesi Pythia è stato dapprima usato per generare i dati utilizzati nell’
analisi a livello di generatore del prossimo capitolo; inoltre tutti gli eventi simulati con OSCAR e ORCA sono stati generati con CMKIN, il programma per la
generazione di eventi in CMS, attraverso l’ interfacciamento con PYTHIA.
3.4.2 OSCAR
OSCAR (Object oriented Simulation for Cms Analysis and Reconstruction) si occupa della simulazione degli eventi di fisica all’ interno di CMS. Questa operazione presuppone sia la conoscenza della geometria del calorimetro che la capacità
di simulare l’ interazione delle particelle con il materiale che forma il calorimetro stesso: per simulare questi aspetti OSCAR utilizza GEANT (GEometry ANd
Tracking[24]), programma per la simulazione dell’ interazione delle particelle con
la materia utilizzato fin dagli anni ’70 in numerosi esperimenti di fisica delle alte
energie. Il programma è scritto interamente in C++, essendo tale linguaggio il
migliore per raggiungere i livelli di astrazione richiesti nella simulazione di un
ambiente complesso come CMS. La versione più recente di OSCAR è la 3_4_0
[25].
3. Soluzioni operative in CMS
65
Nella catena di simulazione OSCAR acquisisce i dati prodotti da Pythia sotto
forma di ennuple ed effettua le operazioni descritte. Il risultato dell’ operazione
funge da imput per ORCA, che viene descritto di seguito. Nella presente tesi tutti i
dati della cui analisi si rende conto nei capitoli 5 e 6 sono stati trattati con OSCAR.
3.4.3 ORCA
ORCA (Object oriented Reconstruction for Cms Analysis) è l’ ultimo anello della
fase di ricostruzione, ovvero quello in cui si provvede alla digitizzazione, cioè alla
simulazione dell’ elettronica di CMS, e dove i dati acquisiti vengono ricostruiti
sotto forma di strutture più complesse (cluster, jet, tracce). Anche ORCA è scritto
in C++. La complessità della simulazione di CMS richiede un numero di righe di
codice di gran lunga superiore a quello necessario in qualsiasi altro esperimento
di fisica delle alte energie, al fine di riprodurre ogni aspetto dell’ esperimento
attraverso la tipica struttura per classi propria del linguaggio usato. All’ interno
di ORCA, inoltre, è possibile introdurre il proprio codice di analisi, anch’ esso
scritto in C++, ed eventualmente modificare, in fase di simulazione, i parametri
standard di CMS. La versione più recente di ORCA è la 8_2_0 [26].
La digitizzazione avviene a partire dall’ output di OSCAR; il risultato finale,
ovvero l’ evento completamente simulato, può essere utilizzato da ogni utente con
il proprio codice di analisi, oppure parte dei dati può essere salvata sotto forma
di file ROOT. In questa tesi è stata scelta la prima opzione, scrivendo di volta in
volta il codice di analisi adatto e utilizzandolo per i dati da analizzare.
66
Capitolo 4
Generazione e studio di eventi jet
Uno studio completo di ogni evento fisico non può prescindere da un’ accurata
analisi dello stesso a livello di generatore. Nel presente capitolo, dopo l’ esposizione delle scelte effettuate in fase di generazione dei sample, verranno in primo
luogo analizzate alcune caratteristiche degli eventi prodotti; successivamente ci si
concentrerà sulla produzione e il successivo decadimento in due fotoni delle particelle η all’ interno di tali eventi e sulle relative rate di produzione, che verranno
confrontate con quelle ottenute in studi sullo stesso argomento.
4.1 Programmi e impostazioni utlilizzati
La generazione di eventi jet è stata effettuata utilizzando Pythia nella versione
6.131. Pythia, come già accennato nel capitolo precedente, è un programma basato su metodi Montecarlo che permette di simulare collisioni tra particelle di varia
natura. Il programma simula un evento iniziale appartenente alla categoria desiderata e lo fa poi sviluppare, restituendo le proprietà delle particelle finali, con le
loro caratteristiche cinematiche (direzione, massa, energia). L’ evento generato
viene accettato ad un primo livello di analisi se le sue caratteristiche soddisfano i
parametri fissati, altrimenti viene eliminato, senza essere sviluppato sino allo stato
finale.
Il simulatore calcola inoltre le sezioni d’ urto associate ad ogni singolo sottoprocesso: nel caso di collisione protone-protone, ad esempio, vengono calcolate
le sezioni d’ urto di tutte le interazioni partone-partone possibili. Il calcolo viene
effettuato attraverso un processo di integrazione Montecarlo nel corso della simulazione. L’ incertezza sulle sezioni d’ urto può essere calcolata assumendo per il
singolo sottoprocesso un’ incertezza di tipo Poissoniano([27]): questo comporta
un errore relativo sulla sezione d’ urto del singolo sottoprocesso pari all’ inverso
della radice quadrata del numero di eventi generati:
67
68
σ σsubprocess
1
Ngen
σsubprocess
(4.1)
dove Ngen è il numero di eventi di quel tipo generati. La sezione d’ urto stimata
con generazioni di pochi eventi risulta caratterizzata da grandi errori sulle sezioni
d’ urto; inoltre tende ad avere un bias verso valori più alti del normale: una generazione di un evento, ripetuta N volte, restituisce una sezione d’ urto fino a due
volte più grande di quella prevista da un’ unica generazione di N eventi ([27]).
Le possibili interazioni partone-partone presenti nelle collisioni protone-protone
per un energia nel centro di massa pari a 14 TeV sono riportate nella tabella 4.1,
assieme al valore della sezione d’ urto propria di ciascun processo, per un impulso trasverso scambiato tra i due partoni maggiore di 15 GeV. Nella tabella f f¯)
rappresenta un fermione (un antifermione) e g un gluone.
processo sezione d’ urto (mb)
ff
ff
4 96 10 2
fg
fg
5 38 10 1
f f¯
f f¯
6 21 10 4
gg
f f¯
3 32 10 2
f f¯ gg
5 83 10 4
gg gg
1 03 100
Tabella 4.1: Possibili interazioni tra partoni nelle collisioni protone-protone e relative
sezioni d’ urto a Pt 15 GeV.
Punto cruciale della generazione è la scelta dell’ impulso trasverso minimo
scambiato: infatti è proprio l’ impulso trasverso scambiato tra i due partoni nell’
interazione che distingue, come già osservato nel capitolo 1, un evento rilevante
ai fini dell’ analisi da un evento di minimum bias. Occorre dunque generare eventi protone-protone per i quali i partoni coinvolti nel processo scambino tra loro
un impulso trasverso maggiore di una certa soglia, al fine di non dover generare
migliaia di eventi inutili per ogni evento utile (si ricorda che per ogni evento ad
alto impulso trasverso ce ne sono circa 105 di minimum bias). Allo stesso tempo
occorrerà saper calcolare accuratamente la sezione d’ urto collegata ai processi
così generati, in modo da poter stimare correttamente le rate delle varie particelle
nello stato finale.
Un altro fattore importante ai fini della stima delle sezioni d’ urto è rappresentato dal modo in cui trattare le correzioni di QCD agli ordini successivi. I
generatori Montecarlo permettono una stima delle sezioni d’ urto al leading order
(LO). È possibile seguire due differenti approcci per descrivere gli effetti dovuti
4. Generazione e studio di eventi jet
69
alle correzioni di ordine superiore: utilizzare il solo processo inclusivo e sfruttare
la possibilità offerta dai generatori Montecarlo di emissione radiativa sia nello stato iniziale che in quello finale, oppure includere effettivamente processi di ordine
superiore usando elementi di matrice espliciti calcolati al next to leading order
(NLO). In teoria quest’ ultimo trattamento sarebbe più corretto, ma le sezioni d’
urto per questa classe di processi sono divergenti al tendere a zero dell’ impulso
trasverso scambiato tra i due partoni, cioè quando si verifica l’ emissione di partoni soffici. È necessaria dunque l’ introduzione di correzioni agli ordini superiori,
dovute ai loop, che però non sono disponibili che per un numero ridotto di casi,
almeno allo stato attuale di Pythia. Dunque i valori della sezione d’ urto nella
regione a basso impulso trasverso scambiato non sono attendibili: gli alti valori
della sezione d’ urto che verranno ottenuti per valori di Pt minimo al di sotto dei
5 GeV sono causati proprio da questo problema.
La seconda possibilità è quella di includere i processi di QCD al leading order
e di aggiungere le correzioni dovute all’ ordine superiore sotto forma di radiazione di stato iniziale e finale. In questo caso un numero arbitrario di diramazioni di
un partone in due o più partoni può essere combinato per fornire una descrizione
di eventi multijet. Questo è possibile in quanto non vengono utilizzati gli elementi di matrice completi, ma una loro approssimazione ottenuta semplificando
la cinematica e alcuni effetti fisici [28].
L’ ultima questione è quella legata alle funzioni di distribuzione partoniche,
che rappresentano, come già detto nel capitolo 1, la principale fonte di incertezza
degli odierni programmi di simulazione di fisica. La scelta effettuata nella presente analisi è stata quella di utilizzare la funzione di distribuzione standard in Pythia
per quanto riguarda il protone, ovvero la PDF CTEQ 5L ([28]).
I vari campioni di eventi jet sono stati generati utilizzando le macchine del
CERN. Per ragioni di praticità il sample da analizzare è stato diviso in pacchetti
da 1000 e di 10000 eventi. Di conseguenza il calcolo delle sezioni d’ urto effettuato da Pythia e descritto in precedenza può contare non sulla totalità degli eventi
generati, ma sulla dimensione del singolo pacchetto, in quanto tale calcolo viene
reinizializzato alla generazione di ogni nuovo pacchetto: occorrerà dunque qualche considerazione statistica per poter sfruttare tutti gli eventi a disposizione. D’
altra parte, come si vedrà, nel calcolo delle rate l’ incertezza statistica sulla sezione d’ urto è trascurabile rispetto a quella sul numero delle particelle che passano
la selezione.
4.2 Analisi della sezione d’ urto
Il primo passo dell’ analisi degli eventi da generatore è stato lo studio della sezione
d’ urto totale di eventi protone-protone. Questo studio preliminare ha avuto una
70
imptrasv2
2000
Entries
1800
1600
10000
Mean
20.43
RMS
7.045
mbarn
duplice funzione: in primo luogo ha permesso di verificare che l’ andamento delle
grandezze fisiche associate alla generazione di eventi è quello che ci si aspetta;
inoltre una corretta determinazione della sezione d’ urto totale è necessaria per
stimare correttamente le rate dei processi fisici da analizzare.
Gli eventi sono stati inizialmente generati utilizzando pacchetti da 1000 eventi,
per un totale di 100000 eventi a Pt minimo scambiato pari a 3, 4, 5, 6, 7, 8, 9, 10,
15 GeV. Successivamente è stato ridotto il numero dei valori di Pt in analisi (3,
5, 8, 15 GeV), aumentando però la dimensione dei pacchetti a 10000 eventi e
generando un numero totale di eventi pari a 2000000 per ogni valore di Pt . Nelle
figure 4.1 sono mostrate, per un singolo pacchetto di 10000 eventi generati e per
un valore di Pt = 15 GeV, le distribuzioni dell’ impulso trasverso scambiato tra i
due partoni e l’ andamento della sezione d’ urto calcolata da Pythia in funzione
del numero di eventi generati, assumendo, come detto, un incertezza statistica di
tipo Poissoniano. La barra di errore è visualizzata dal 100 evento.
3.4
3.2
3
1400
2.8
1200
1000
2.6
800
2.4
600
2.2
400
2
200
0
0
1.8
10
20
30
40
50
60
70
80
90
100
GeV
0
2000
4000
6000
8000
10000
N eventi
Figura 4.1: Distribuzione dell’ impulso trasverso scambiato tra i due partoni (a sinistra)
e andamento della sezione d’ urto calcolata da Pythia (a destra) per un campione generato
di 10000 eventi.
SEZIONE D’ URTO: ci si aspetta che la sezione d’ urto totale abbia un andamento decrescente all’ aumentare dell’ impulso trasverso minimo scambiato tra
i due partoni, in quanto la frequenza di tali eventi diminuisce all’ aumentare del
Pt scambiato. In tabella 4.2 sono riportati i valori della sezione d’ urto, con le
relative incertezze statistiche, per i valori di Pt analizzati, mentre nelle figure 4.2
e 4.3 ne è visualizzato l’ andamento, rispettivamente per 105 e per 2 106 eventi.
Per poter calcolare la sezione d’ urto totale basandosi sulle informazioni di tutti i
pacchetti generati si è utilizzato il teorema del limite centrale: questo ha permesso
di calcolare il valor medio della sezione d’ urto come media dei valori ottenuti
dai singoli pacchetti e la σ su tale valore come somma in quadratura delle σ dei
singoli pacchetti, divisa per N.
4. Generazione e studio di eventi jet
σtot
σi
∑N
i 0
N
71
σ σtot
1
N
N
∑ σ2σi
(4.2)
i 0
dove N è il numero di pacchetti generati: 100, da 1000 eventi ciascuno, per
un numero di eventi pari a 105 , 200, da 10000 eventi ognuno, per un numero di
eventi pari a 2 106 .
Pt minimo
scambiato (GeV)
3
4
5
6
7
8
9
10
15
σtot (mb)
σtot (mb)
5
(10 ev.)
( 2 106 ev.)
610.2 2.1
610.36 0.43
254.41 0.80
125.95 0.40 126.002 0.089
69.85 0.22
42.08 0.13
26.61 0.14
26.645 0.033
17.964 0.057
12.498 0.040
2.952 0.010 2.9555 0.0021
mbarn
Tabella 4.2: Valori delle sezioni d’ urto totali.
700
600
500
400
300
200
100
0
5
10
15
20
25
30
GeV
Figura 4.2: Andamento della sezione d’ urto totale del processo p-p in funzione dell’
impulso trasverso minimo scambiato (pacchetti da 1000 eventi).
mbarn
72
600
500
400
300
200
100
0
2
4
6
8
10
12
14
16
GeV
Figura 4.3: Andamento della sezione d’ urto totale del processo p-p in funzione dell’
impulso trasverso minimo scambiato (pacchetti da 10000 eventi).
4.3 Selezione: considerazioni statistiche
La frazione degli eventi utilizzabili ai fini dell’ analisi aumenta all’ aumentare
dell’ impulso trasverso scambiato tra i due partoni. Se però si opera una selezione
sulle particelle finali, l’ imposizione di un alto Pt minimo può portare a sottostimare la rate dell’ evento selezionato, in quanto parte degli eventi che passerebbero
la selezione non viene generata e dunque non viene conteggiata nella rate finale. Occorre dunque fare alcune considerazioni sul valore delle rate ottenibili da
Pythia e sul loro valore statistico.
La rate di produzione di un evento selezionato è:
R L σtot
Ngoodevnt
Ngenevnt
(4.3)
dove:
L è la luminosità.
σtot è la sezione d’ urto totale dell’ evento al Pt scelto.
Ngoodevnt è il numero di particelle che passano la selezione.
Ngenevnt è il numero di eventi totali generati.
Il rapporto Ngoodevnt Ngenevnt è dunque l’ efficienza della selezione effettuata.
Il numero di eventi che passano la selezione si può assumere a distribuzione
Poissoniana. Ne segue che l’ incertezza statistica relativa a Ngoodevnt è pari a
4. Generazione e studio di eventi jet
73
Ngoodevnt . Il valore della rate è allora condizionato da 2 fattori: l’ incertezza
sulla sezione d’ urto totale calcolata da Pythia e l’ incertezza, di tipo Poissoniano,
sul numero di eventi che passano la selezione. Sviluppando i calcoli si ottiene:
σR
R
1
Ngoodevnt
Ngoodevnt
Ngoodevnt 2
Ngenevnt
(4.4)
Si vede dunque quanto affermato in precedenza: l’ incertezza dovuta al calcolo della sezione d’ urto è più piccolo rispetto all’ incertezza dovuta al numero
di particelle che passano la selezione di un fattore Ngoodevnt Ngenevnt e può dunque essere trascurata a patto che la selezione effettuata selezioni un numero di
particelle molto minore del numero di eventi generati.
4.4 Studio delle caratteristiche cinematiche del segnale
L’ analisi che segue è stata svolta sui campioni già utilizzati nello studio delle sezioni d’ urto: in un primo momento sono stati analizzati sample da 100000 eventi
per valori di Pt minimo compresi tra 3 e 15 GeV; successivamente l’ analisi si
è concentrata su un minor numero di valori di Pt , i cui sample sono però costituiti da 2000000 di eventi, per ottenere risultati più rilevanti dal punto di vista
statistico. L’ obiettivo è, da una parte, quello di individuare il valore di Pt più
adatto per generare eventi da utilizzare poi nei programmi di simulazione di CMS
(OSCAR e ORCA), dall’ altra quello di analizzare le caratteristiche proprie del
canale in esame, ovvero il decadimento dell’ η in due fotoni. Per non appesantire eccessivamente la trattazione, i grafici esposti si riferiscono al solo sample
di 2000000 di eventi generato a Pt 15 GeV; grafici analoghi sono stati però
analizzati relativamente ad ogni valore di Pt minimo citato.
4.4.1 Caratteristiche cinematiche dell’ η
L’ η è un mesone di massa 547.30 0 12 MeV. La sua ampiezza di decadimento
totale è pari a 1.18 0 11 KeV. I principali canali di decadimento neutri sono
quello in 2 γ, con una branching ratio pari al 39.4%, e in 3 π0 , con b.r. pari al 32.5
%. I decadimenti carichi più importanti sono quello in π π π0 (22.6 %) e π π γ
(4.68 %) [3].
L’ attenzione nel presente lavoro verrà concentrata sul decadimento in 2 fotoni, che permette, una volta che questi siano stati identificati e isolati, di ricostruire
la massa invariante della particella. Utilizzando semplici trasformazioni di Lorentz, si vede che esiste un legame tra l’ energia della particella e l’ angolo minimo
74
tra i due fotoni derivanti dal decadimento. Indicati con (x, y, z) e (x , y , z ) rispettivamente il riferimento in cui la particella è a riposo e il riferimento del laboratorio
e ipotizzando per semplicità che la particella si muova rispetto al laboratorio lungo l’ asse z e che, nel riferimento in cui la particella è a riposo, il decadimento
avvenga nel piano (y, z) (fig. 4.4), si ha:
Y’
Y
γ1
η
θ
θ
Vη
Z’
Z
γ2
X’
X
Figura 4.4: Schema del decadimento dell’ η.
p1
Mc2
Mc
Mc
0
sin θ cos θ 2
2
2
(4.5)
Mc2
Mc
Mc
0 (4.6)
sin θ cos θ 2
2
2
Dopo le trasformazioni di Lorentz i quadrivettori relativi ai due fotoni diventano, nel riferimento del laboratorio:
p2
γ
p1
p2
γ
βMc2
Mc
Mc
cos θ 0 sin θ γ
cos θ
2
2
2
Mc2
2
Mc2
2
βMc2
Mc
cos θ 0 sin θ γ
2
2
Mc
cos θ
2
βMc
2
βMc
2
(4.7)
(4.8)
L’ angolo tra i due fotoni si ottiene calcolando l’ angolo formato da ognuno di
essi con l’ asse z:
θγγ
θ1 θ2
arctan
sin θ
γ cos θ β arctan
γ
sin θ
cos θ β (4.9)
4. Generazione e studio di eventi jet
75
In particolare l’ angolo minimo tra i due fotoni nel riferimento del laboratorio
corrisponde al caso in cui i due fotoni decadano perpendicolarmente alla direzione
di moto dell’ η nel riferimento in cui questa è a riposo, cioè quando si abbia θ π2
(fig. 4.5):
RIFERIMENTO
DEL LABORATORIO
RIFERIMENTO
DELLA PARTICELLA
y
γ1
y’
γ1
θ = π/2
θ min
z
γ2
z’
γ2
x’
x
Figura 4.5: Angolo minimo tra i due fotoni.
Si ha allora:
θγγ
arctan
1
γβ
arctan
1
γβ
2 arctan
1
γβ
(4.10)
Poichè inoltre γβ pη mη e, per piccoli angoli la tangente può essere sostituita dall’ arco relativo, si ottiene:
θγγ
2mη
pη
63
p GeV (4.11)
Nella figura 4.6 è riportato lo scatter plot dell’ energia dell’ η rispetto all’
angolo tra i due fotoni generati nel decadimento, assieme alla curva prevista dalla
teoria per l’ angolo minimo al variare dell’ energia. L’ andamento è proprio quello
previsto dal calcolo cinematico.
Questa proprietà, come si vedrà meglio in seguito, influisce notevolmente sulla
capacità di ricostruzione della particella: infatti più l’ η è energetica e più l’ angolo
tra i due fotoni risulterà piccolo: ciò comporta una difficoltà sempre maggiore nel
ricostruire l’ evento, in quanto c’è la possibilità che i depositi di energia dei due
fotoni si sovrappongano. D’ altra parte i fotoni provenienti da un’ η di bassa
energia saranno ben separati tra di loro, ma risulteranno di difficile rilevazione
rispetto al fondo.
Nella figura 4.7 è mostrata la distribuzione degli eventi generati in funzione
del numero di η da essi contenuti, relativamente a η in tutto il range angolare
GeV
76
Entries 1328713
14
12
10
Mean x
72.42
Mean y
1.752
RMS x
39.26
RMS y
1.592
8
6
4
2
0
0
20
40
60
80
100
120
140
160
180
gradi
Figura 4.6: Energia dell’ η in funzione dell’ angolo tra i due fotoni
(sinistra) e nel solo barrel (destra). La figura 4.8 mostra invece la distribuzione
degli eventi generati in funzione del numero di coppie γγ provenienti dallo stesso
η che finiscono all’ interno del barrel.
x10
2
x10
2
2500
5000
Entries 2000000
2000
Entries 2000000
Mean
1500
4000
7.712
3000
RMS
2000
500
1000
5
10
15
1.919
RMS
1.522
3.123
1000
0
0
Mean
20
25
Neta
0
0
5
10
15
20
25
Neta
Figura 4.7: Eventi in funzione del numero η generate nell’ evento in tutto il range
angolare (sinistra) e limitatamente al barrel (destra).
4.4.2 Caratteristiche cinematiche dei fotoni
La caratteristica principale del canale in esame è la presenza di due fotoni nello
stato finale; le proprietà cinematiche di questi due fotoni verranno utilizzate per
ridurre il fondo.
Innanzitutto occorre premettere che l’ analisi è stata svolta prendendo in con-
4. Generazione e studio di eventi jet
x10
77
2
10000
Entries 2000000
Mean
8000
RMS
0.6644
0.845
6000
4000
2000
0
0
1
2
3
4
5
6
7
8
9
10
Ntwophoto
Figura 4.8: Eventi in funzione delle coppie di fotoni dall’ η nel barrel
siderazione le sole particelle all’ interno del barrel, per le quali dunque η
1 479.
5000
6000
4000
5000
4000
3000
Entries
Mean
2000
1328713
0.0003976
Entries
RMS
0.8413
1000
0
3000
Mean -0.0006685
RMS
1000
-1
-0.5
0
0.5
1
pseudorapidita’
1328713
2000
0
-1
-0.5
0
0.7461
0.5
1
pseudorapidita’
Figura 4.9: Distribuzione della pseudorapidità per i fotoni provenienti dal decadimento
dell’ η: più energetico (sinistra) e meno energetico (destra)
Un’ importante caratteristica è la distribuzione in energia trasversa dei fotoni
provenienti dal decadimento dell’ η. Tali fotoni sono caratterizzati da una distribuzione in Et piuttosto alta, che permette, assieme al più alto angolo tra i fotoni
stessi, di distinguerli dai fotoni provenienti dal π0 tramite un’ opportuna selezione. Inoltre le tecniche di ricostruzione dell’ energia depositata nel calorimetro di
CMS, come descritto nel capitolo 3, impongono su questa variabile una selezione
piuttosto stringente, in quanto, ad esempio, la formazione del supercluster richiede un valore di energia trasversa superiore ai 4 GeV nel seed-cluster. Nella figura
4.10 è riportata la distribuzione in energia trasversa del fotone più e meno energetico proveniente dal decadimento dell’ η in due fotoni nel barrel, mentre nella
78
figura 4.11 è riportata la stessa distribuzione per Et >3 GeV. Si noti come la coda
della distribuzione in energia trasversa in entrambi i plot si traduca nella presenza
di eventi anche per un alto taglio in Et ; l’ alta rate propria della produzione delle
η supplisce alla bassa efficienza del taglio imposto.
20000
40000
18000
16000
Entries 1328713
14000
Mean
Entries 1328713
30000
Mean
0.3724
25000
RMS
0.4157
0.9545
12000
RMS
35000
0.9346
10000
20000
8000
15000
6000
10000
4000
5000
2000
0
0
1
2
3
4
5
6
7
8
9
0
0
10
GeV
1
2
3
4
5
6
7
8
9
10
GeV
Figura 4.10: Energia trasversa del fotone più energetico (sinistra) e meno energetico
(destra) dal decadimento di un’ η in due fotoni nel barrel.
Entries 1328713
Entries 1328713
Mean
4.419
Mean
4.106
RMS
1.435
RMS
1.213
50
400
350
40
300
250
30
200
20
150
100
10
50
0
3
4
5
6
7
8
0
9
3
4
5
6
7
GeV
8
9
GeV
Figura 4.11: Energia trasversa del fotone più energetico (sinistra) e meno energetico
(destra) dal decadimento di un’ η in due fotoni nel barrel per E t
4.5 Analisi delle rate del canale η
3 GeV.
γγ
Questo paragrafo verterà sul calcolo della rate di produzione di η che decadono
in due fotoni: verranno considerati i risultati ottenuti per i sample di 100000 e
di 2000000 di eventi, al variare dell’ impulso trasverso minimo scambiato. Nella
figura 4.12 è riportato l’ andamento della rate al variare dell’ impulso trasverso
minimo scambiato (Pt ). La dimensione dei sample utilizzati è pari a 100000 eventi
per ogni valore di Pt tranne per Pt = 15 GeV, dove si è scelto di utilizzare 500000
4. Generazione e studio di eventi jet
79
eventi per confrontare la riduzione dell’ incertezza rispetto agli altri sample. È
stato imposto su ognuno dei due fotoni un taglio in energia trasversa Et 3 GeV.
Hz
60000
50000
40000
30000
20000
10000
2
4
6
8
10
12
14
16
GeV
Figura 4.12: Andamento della rate al variare del Pt minimo fissato.
Dalla figura si possono notare diversi elementi. Innanzitutto si vede come la
rate stimata, dopo una prima fase in cui ha un andamento costante, diminuisca all’
aumentare del Pt minimo scambiato tra i due partoni. Questo fatto si spiega considerando che, all’ aumentare del Pt minimo, parte degli eventi che contribuirebbero
alla rate totale non vengono generati, in quanto provenienti da eventi caratterizzati
da un impulso scambiato tra i due partoni minore del Pt minimo impostato. Questo porta a sottostimare la rate totale dell’ evento. D’ altra parte la generazione ad
un valore di Pt eccessivamente basso, pur evitando tale sottostima, comporta un
numero estremamente ridotto di eventi che passano la selezione. Questo fatto ha
come conseguenza diretta l’ aumento della σ: come si vede in figura l’ incertezza
statistica aumenta per bassi valori di Pt . In altre parole, considerare eventi con
un Pt basso comporterebbe la necessità di generare un sample di eventi enorme
per avere un risultato statisticamente valido. Occorre invece scegliere un valore di
Pt tale da avere a disposizione un campione di eventi statisticamente rilevante e,
contemporaneamente, sapere come viene modificata la rate in conseguenza di tale
scelta. All’ aumentare del taglio effettuato sulle energie dei fotoni, inoltre, ci si
aspetta che le rate relative a eventi generati con diverso Pt minimo siano sempre
più vicine tra di loro, in quanto più i fotoni sono energetici e più vengono generati
a valori alti di Pt scambiato.
Si noti infine come l’ incertezza diminuisca in maniera consistente per il sample di 500000 eventi: questo rappresenta una riprova di quanto affermato in prece-
80
denza, cioè che l’ incertezza sulla rate è dominata dal termine relativo al numero
di eventi che passano la selezione.
L’ analisi relativa ai sample da 2000000 di eventi è mostrata in figura 4.13: si
noti come l’ incertezza risulta ridotta di un fattore
Ntotevnt 1 Ntotevnt 2 1 20 rispetto al caso in cui vengono utilizzati 100000 eventi.
Hz
40000
35000
30000
25000
20000
15000
2
4
6
8
10
12
14
16
GeV
Figura 4.13: Andamento della rate al variare del Pt fissato (sample da 2M di eventi).
Come verifica sulla consistenza dei dati ottenuti da Pythia si è verificato che
la rate di produzione di eventi per un impulso scambiato al di sopra dei 15 GeV
fosse la stessa per ognuno dei sample analizzati. Il risultato, normalizzato alla
rate del sample a Pt 15 GeV è riportato in figura 4.14: il fatto che tutti i punti
siano compatibili con l’ unità entro 1 σ fornisce una prova della validità dei dati
generati.
Le rate ottenute sono state confrontate con quelle di articoli sullo stesso argomento [20]: l’ ordine di grandezza è lo stesso e permette di considerare la possibilità di una calibrazione stand alone, di cui si è parlato nel precedente capitolo.
La scelta nell’ analisi a livello di generatore, come pure nell’ analisi operata con
ORCA che verrà descritta nel capitolo successivo, è stata quella di generare un
sample con Pt > 15 GeV: questa scelta è dettata dalla necessità di avere un numero
statisticamente rilevante di eventi dopo la selezione. Si noti che nell’ analisi in
ORCA, richiedendo un energia per Et 10 GeV per ogni η, il problema della
sottostima della rate non dovrebbe essere rilevante.
4. Generazione e studio di eventi jet
81
2
1.8
1.6
1.4
1.2
1
0.8
0.6
2
4
6
8
10
12
14
16
GeV
Figura 4.14: Andamento della rate delle interazioni protone-protone con Pt scambiato
maggiore di 15 GeV dei vari sample, normalizzata alla rate del sample a Pt > 15 GeV.
4.6 Isolamento degli eventi e studio del picco di massa
L’ incertezza dovuta alla ricostruzione delle energie dei due fotoni, che si traduce
in un allargamento del picco di massa invariante, è dovuta essenzialmente a tre
fattori:
Larghezza naturale dell’ η.
Risposta del calorimetro all’ energia depositata dalla particella.
Inefficienza dell’ algoritmo di ricostruzione dell’ evento.
Il problema della ricostruzione dell’ evento richiede una simulazione completa
delle componenti e dell’ elettronica di CMS e verrà affrontato nei capitoli successivi; a livello di simulazione MC è importante vedere anzitutto la fattiblità dello
studio in questione, cioè vedere se il numero di eventi presenti rende possibile la
ricostruzione di un picco di massa invariante.
Trascurando la larghezza naturale, che nel caso dell’ η è irrilevante, la risposta
del calorimetro può essere simulata, per quanto riguarda i dati a livello di generatore, introducendo uno smearing gaussiano sulle misure in energia e in angolo.
In altre parole si tratta di correggere i valori esatti di energie e angoli forniti dal
generatore secondo un termine che simuli la perdita di energia dovuta alle caratteristiche intrinseche del calorimetro di CMS, come la non perfetta calibrazione dei
82
cristalli o il rumore generato dall’ elettronica. La σ sull’ energia e sull’ angolo tra
i due fotoni ricostruiti può essere parametrizzata come [9]:
σE
E
2 7%
150MeV
2 0%
E
E (4.12)
1mrad
(4.13)
E
dove le somme si intendono in quadratura. Si noti come l’ incertezza sull’
energia sia il risultato della somma di tre termini, rispettivamente il termine stocastico, quello dovuto al rumore e quello costante. L’ abbassamento di quest’ ultimo
termine fino ad un valore prossimo allo 0 5% rappresenta l’ obiettivo principale
della calibrazione: qui il valore di questo termine è stato fissato al 2% per simulare
la situazione all’ inizio della presa dati, quando i cristalli sono stati calibrati con
l’ energy flow (paragrafo 3.3).
L’ analisi è stata svolta prendendo in considerazione un taglio rispettivamente
di 3, 4 e 5 GeV sull’ energia trasversa delle particelle: in questo modo viene
eliminato gran parte del fondo di QCD, caratterizzato da un basso valore di Et .
In figura 4.15 è mostrata la distanza tra i due fotoni in numero di cristalli per
le diverse selezioni effettuate. La distanza in cristalli è definita come max(∆η,
∆φ), cioè il massimo tra il numero di cristalli in η e in φ1 . Come ci si aspetta il
valor medio, così come il numero di eventi, diminuisce all’ aumentare del taglio
imposto.
σθ
1000
300
500
Entries
Entries 4772
800
400
Mean
600
RMS
6.005
1.797
1861
Mean
4.609
RMS
1.329
250
Entries
875
Mean
3.809
RMS
1.112
200
300
150
400
200
200
0
0
100
100
2
4
6
8
10
12
14
16
18
20
N cristalli
0
0
50
2
4
6
8
10
12
14
16
18
20
N cristalli
0
0
Figura 4.15: Distanza in cristalli tra i due fotoni per Et γ
2
4
6
8
10
12
14
16
18
20
N cristalli
3 4 5 GeV.
Isolamento dal fondo: Il picco di massa invariante dell’ η viene ottenuto facendo il combinatorio di tutte le particelle nello stato finale. Per diminuire il fondo
dovuto al combinatorio si è effettuata una selezione sull’ angolo tra le varie particelle, imponendo che sia minore di 15 . La selezione non diminuisce il numero di
eventi nel picco dell’ η: questo si può vedere confrontando le figure 4.16, 4.17 e
1 η,
in questo caso, si riferisce alla pseudorapidità
4. Generazione e studio di eventi jet
83
4.18, dove sono riportati, per i vari tagli in Et effettuati, il picco di massa invariante prima e dopo il taglio sull’ angolo. La parte in chiaro della distribuzione indica
gli eventi che provengono effettivamente dal decadimento di un η in due fotoni.
1200
1200
1000
1000
800
800
600
600
400
400
200
200
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
GeV
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
GeV
Figura 4.16: Distribuzione della massa invariante del combinatorio, prima (sinistra) e
dopo (destra) del taglio sull’ angolo tra le due particelle finali. Per entrambe le particelle
si richiede Et 3 GeV.
400
400
350
350
300
300
250
250
200
200
150
150
100
100
50
50
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
GeV
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
GeV
Figura 4.17: Distribuzione della massa invariante del combinatorio, prima (sinistra) e
dopo (destra) del taglio sull’ angolo tra le due particelle finali. Per entrambe le particelle
si richiede Et 4 GeV.
Come ci si aspetta la larghezza della distribuzione di massa invariante delle η
diminuisce all’ aumentare del taglio imposto nella selezione: questo è una diretta
conseguenza delle caratteristiche della risoluzione in energia. A basse energie,
infatti la risoluzione è dominata dal termine statistico e da quello di rumore, che
hanno una dipendenza dall’ energia del tipo, rispettivamente, E1 e 1E .
Il risultato di questa analisi a livello di generatore, oltre a fornire un’ analisi
sulle caratteristiche cinematiche dell’ η, è dunque quello di aver stimato, come si
vede in figura 4.12, l’ ordine di grandezza della rate del canale η γγ in alcune
84
140
140
120
120
100
100
80
80
60
60
40
40
20
20
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
GeV
0
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
GeV
Figura 4.18: Distribuzione della massa invariante del combinatorio, prima (sinistra) e
dopo (destra) del taglio sull’ angolo tra le due particelle finali. Per entrambe le particelle
si richiede Et 5 GeV.
migliaia di Hz e di aver mostrato la possibilità di ottenere un picco di massa invariante come punto di partenza per le procedure di calibrazione in CMS, cioè con
un termine costante nello smearing pari al 2%. La ricostruzione della massa invariante su eventi completamente simulati, in modo da riprodurre la geometria del
rivelatore e l’ elettronica dell’ esperimento, sarà oggetto dei prossimi due capitoli.
Capitolo 5
Analisi del canale di decadimento
η γγ a CMS
L’ analisi del presente capitolo riguarderà la generazione, la simulazione e la ricostruzione di eventi in cui siano presenti particelle η (M = 547.30 0.12 MeV); in
particolare l’ attenzione verrà concentrata sul canale η γγ (Br. Ratio = 39 4%).
L’ idea è quella di ricostruire la massa invariante dell’ η tramite la ricostruzione
dei due fotoni in vista di un utilizzo del picco di massa invariante ricostruito per
la calibrazione. A questo proposito si ricorda che, come ricavato nel capitolo 3, l’
incertezza relativa della costante di calibrazione è direttamente legata al picco di
massa invariante ricostruito tramite la relazione:
σC
C
2ση
mη Nγ
(5.1)
dove ση è la σ del picco di massa invariante, mη il valore della massa dell’ η
e Nγ il numero medio di eventi nel picco che coinvolge il singolo cristallo.
5.1 Studio di eventi isolati η
γγ
Prima di analizzare la ricostruzione delle η prodotte a partire da collisioni protoneprotone, riproducendo così l’ evento fisico nella sua completezza, si è pensato di
analizzare preliminarmente un campione di η singole appartenenti ad un ampio
range di energie. Questo campione di eventi, pur non avendo grande rilevanza dal
punto di vista fisico, è servito per testare le capacità ricostruttive dei programmi
di simulazione di CMS riguardo la particella in questione e per evidenziare alcuni
problemi in fase di ricostruzione, come la conversione dei fotoni e il ridotto angolo
di decadimento tra di essi.
Il campione analizzato è stato creato nel modo seguente:
85
86
GENERAZIONE : l’ analisi è stata svolta su un campione di 104 η con uno spettro in impulso trasverso piatto tra 3 e 30 GeV; la direzione delle η (pseudorapidità minore di 0.435 in modulo) è stata fissata in modo che appartenessero
al primo gruppo di moduli del calorimetro di CMS, al fine di limitare le conversioni in fase di simulazione. Inoltre le η sono state forzate a decadere in
2 fotoni modificando opportunamente le routine del programma utilizzato
per la generazione, CMKIN_2_1_0.
DIGITIZZAZIONE E SIMULAZIONE : il campione generato con CMKIN è
stato trattato con OSCAR (versione 2_4_5) per effettuare la simulazione,
cioè per simulare l’ interazione della particella con le varie componenti del
detector. La digitizzazione e l’ analisi dei dati sono state effettuate con
ORCA versione 7_6_0.
400
350
300
Entries 10000
250
Mean
17.06
RMS
8.079
200
150
100
50
0
0
10
20
30
40
50
60
70
80
90
100
GeV
Figura 5.1: Energia delle η.
Un’ importante variabile cinematica è rappresentata dall’ angolo tra i due fotoni che, come si è visto nel capitolo 4, è legato all’ energia dell’ η. In figura 5.3 è
riportata la distribuzione di tale angolo: circa il 77% delle coppie di fotoni hanno
un angolo di decadimento minore di 10 .
Le conversioni dei fotoni ed eventuale successiva bremsstrahlung degli elettroni da essi generati comportano, come si vedrà nelle distribuzioni di massa invariante, un netto peggioramento nella ricostruzione dell’ η. In figura 5.4 è mostrata
la somma di conversioni e bremsstrahlung per ogni coppia di fotoni, dove i due
processi si riferiscono rispettivamente ai fotoni e agli elettroni dello sciame elettromagnetico dovuto al fotone iniziale all’ interno del materiale posto di fronte
al calorimetro. Si vede come circa il 50% delle coppie di fotoni giungano non
convertite sulla superficie sensibile del calorimetro.
5. Analisi del canale di decadimento η
γγ a CMS
140
87
Entries 10000
Mean
3.15
RMS
1.811
40
120
35
Entries
10000
30
100
Mean
0.001061
25
80
RMS
0.2517
20
60
15
40
10
20
5
0
-1.5
-1
-0.5
0
0.5
0
0
1
1.5
pseudorapidita’
1
2
3
4
5
6
radianti
Figura 5.2: Distribuzioni in pseudorapidità (a sinistra) e in φ (a destra) delle η.
2000
1800
1600
Entries 10000
1400
1200
Mean
7.832
RMS
8.394
1000
800
600
400
200
0
0
10
20
30
40
50
60
70
80
90
100
gradi
Figura 5.3: Distribuzione dell’ angolo tra i due fotoni.
RICOSTRUZIONE L’ utilizzo delle tecniche di ricostruzione standard di CMS
(algoritmi Hybrid e Island) deve essere considerato alla luce del particolare tipo
di evento da ricostruire. Occorre infatti considerare due fattori:
La possibilità, per i due fotoni, di effettuare conversioni.
La possibilità, data la vicinanza tra i due fotoni, che essi vengano ricostruiti
nello stesso oggetto, rendendo di fatto impossibile la ricostruzione della
massa invariante.
L’ uso del cluster, sebbene permetta una distinzione dei due fotoni nella maggior parte dei casi, non consente di recuperare l’ energia persa a causa delle conversioni; d’ altra parte l’ utilizzo del supercluster standard comporta spesso la ricostruzione dei due fotoni nello stesso oggetto, per quanto permetta di recuperare,
almeno in parte, l’ energia persa per conversione.
88
5000
Entries 10000
4000
Mean
2.071
RMS
3.092
3000
2000
1000
0
0
2
4
6
8
10
12
14
N conversioni
Figura 5.4: Numero di conversioni-bremsstrahlung per evento.
Si è dunque provato a scrivere un algoritmo di ricostruzione utilizzando i
cluster di tipo island come punto di partenza e implementando le operazioni di
seguito descritte.
DESCRIZIONE DELL’ ALGORITMO L’ algoritmo è stato strutturato in modo da ordinare i cluster presenti nell’ evento in base all’ energia e scegliere il cluster più energetico. A partire dalla posizione ricostruita di tale cluster si cerca
il secondo cluster all’ interno di un cono. Infine si considera per entrambi i cluster una finestra ampia in φ e stretta in pseudorapidità: tutti i cluster all’ interno
di tale finestra formano un supercluster (cioè un cluster di cluster) con il cluster
di partenza, che diventa il seed-cluster. Le impostazioni dell’ algoritmo sono le
seguenti:
Cono di ricerca del secondo cluster di ampiezza pari a 10 .
Energia del secondo cluster maggiore di 1 GeV.
Finestra attorno ad ogni cluster selezionato pari a 3 cristalli in pseudorapidità e 20 cristalli in φ. Gli eventuali cluster in comune vengono assegnati al
seed-cluster più energetico.
RICOSTRUZIONE DELL’ ANGOLO In figura 5.5 è visualizzata la differenza tra angoli ricostruiti e angoli simulati per i fotoni. L’ associazione tra fotoni
simulati e ricostruiti è stata fatta tramite matching angolare, richiedendo che la
direzione ricostruita sia compresa entro un cono di 0.05 radianti di apertura dalla
traccia simulata. Si noti come, per la maggior parte degli eventi, l’ errore sulla
5. Analisi del canale di decadimento η
γγ a CMS
89
ricostruzione angolare sia inferiore a 5 millesimi di radiante. Gli eventi ricostruiti
sono circa la metà dei fotoni generati (2 104 ): questo risulta chiaro considerando
che i fotoni che subiscono conversioni per lo più falliscono il matching angolare.
2500
3000
2500
Entries
2000
Mean -4.72e-05
1500
RMS
13914
2000
Entries
13914
1500
Mean -7.471e-05
0.00684
RMS
1000
0.01128
1000
500
500
0
-0.05 -0.04 -0.03 -0.02 -0.01
0
0.01
0.02
0.03
0.04 0.05
radianti
0
-0.05 -0.04 -0.03 -0.02 -0.01
0
0.01
0.02
0.03
0.04 0.05
radianti
Figura 5.5: Differenza tra angoli ricostruiti e angoli simulati per i fotoni provenienti dal
decadimento dell’ η: pseudorapidità (a sinistra) e φ (a destra).
CORREZIONE DELL’ ENERGIA Negli algoritmi di ricostruzione standard
di CMS, vengono effettuate alcune correzioni sull’ energia ricostruita al fine di
tenere in considerazione effetti che portano a sottostimare l’ energia. In particolare
si effettua una correzione in funzione del numero di cristalli che compongono il
cluster. Come si vede dalla figura 5.6, per i cluster island la percentuale di energia
ricostruita, per un numero di cristalli sufficientemente elevato, ragginge il 98 %,
mentre diminuisce man mano che il numero di cristalli di cui è formato il cluster
si riduce. L’ associazione tra cluster ed energie MC avviene tramite matching
angolare.
Questa imprecisione si ripercuote sull’ algoritmo sviluppato, che si basa sul
cluster di tipo island, provocando uno spostamento del picco di massa invariante
ricostruito verso valori di energia più bassi.
MASSA INVARIANTE Si mostrano infine le distribuzioni di massa invariante
ricostruita utilizzando l’ algoritmo esposto. Si noti come, per quanto detto, in
precedenza il picco sia sottostimato rispetto alla massa nominale dell’ η (547
MeV).
Per evidenziare il deterioramento della ricostruzione dovuto alla presenza di
conversioni nel materiale del calorimetro, nella figura 5.8 la distribuzione precedente viene distinta in eventi in cui entrambi i fotoni non abbiano convertito e in
eventi in cui c’è stata almeno una conversione.
Si vuole ribadire che l’ analisi svolta in questo primo paragrafo ha avuto la sola
funzione di testare la risposta del calorimetro al particolare tipo di eventi analizza-
1.2
Erec/Etrue
Erec/Etrue
90
1
1
0.8
0.8
0.6
Entries 10874
0.6
Entries 10874
Mean x
0.4
0.4
15.75
Mean
15.8
RMS
6.631
Mean y 0.9403
RMS x
0.2
6.631
0.2
RMS y 0.08411
0
0
5
10
15
20
25
30
0
0
35
40
N cristalli
5
10
15
20
25
30
35
40
N cristalli
Figura 5.6: rapporto Erec Etrue in funzione del numero di cristalli (a sinistra) e relativo
profile (a destra) per il cluster island.
800
700
600
500
400
Entries
6957
Mean
0.536
RMS
0.1953
300
200
100
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
Figura 5.7: Distribuzione di massa invariante delle η ricostruite.
700
140
600
500
Entries
400
Mean
0.5094
300
RMS
0.05726
120
3845
Entries
100
80
3112
Mean 0.5689
60
RMS
200
100
0
0
0.2815
40
20
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
Figura 5.8: Distribuzione di massa invariante per le η ricostruite in assenza (sinistra) e
in presenza (destra) di conversione.
5. Analisi del canale di decadimento η
γγ a CMS
91
ti, nei quali l’ η è prodotto da solo. Gli eventi rilevanti dal punto di vista fisico, nei
quali l’ η si trova all’ interno di un jet, verranno analizzati nei paragrafi successivi
e nel prossimo capitolo, usando gli strumenti standard di ricostruzione di CMS.
La ricerca di un algoritmo che identifichi i cluster all’ interno dei supercluster
standard sarà comunque ripresa nel capitolo 6.
5.2 Analisi delle η all’ interno dei jet
In questo paragrafo il problema della ricostruzione delle η verrà affrontato procedendo ad una simulazione completa degli eventi protone-protone: la particella in
questione non verrà quindi prodotta isolata, ma assieme a tutte le particelle previste nello stato finale in eventi di questo tipo. Inoltre, in fase di generazione,
verranno imposte alcune condizioni per limitare le dimensioni del campione prodotto, condizioni di cui si dovrà tenere conto nel calcolo delle rate, descritto nel
paragrafo successivo.
5.2.1 Modalità di produzione del sample
L’ analisi è stata svolta su 4 104 eventi protone-protone. La generazione dell’
evento MC è stata effettuata con CMKIN_2_1_0, richiedendo un’ energia nel centro di massa pari a 14 TeV. La scelta dell’ impulso trasverso minimo scambiato
tra i due partoni in fase di generazione, alla luce dei risultati ottenuti nel precedente capitolo, è stata fatta a 15 GeV. Sono state inoltre effettuate alcune richieste
sul sample generato, volte a rendere il sample adatto per l’ analisi che si vuole
effettuare:
Le η all’ interno di ogni evento vengono forzate a decadere in due fotoni
(Γη γγ = 39.43 %);
In ogni evento deve essere presente almeno un η all’ interno del barrel;
Ognuno dei due fotoni provenienti dall’ η nel barrel deve avere un impulso
trasverso maggiore di 5 GeV.
Successivamente è stata effettuata la simulazione dell’ evento all’ interno del
volume di CMS, utilizzando OSCAR_3_2_2, mentre la digitizzazione e l’ analisi è
stata fatta con ORCA_8_2_1. Per quest’ ultima fase sono stati utilizzati i computer
della farm di CMS-Roma1, mentre la generazione di eventi MC è stata effettuata
sui computer del CERN.
92
5.2.2 Proprietà cinematiche degli eventi generati
Risulta chiaro che le richieste fatte sugli eventi in fase di generazione comporteranno distribuzioni caratteristiche delle variabili cinematiche delle particelle interessate da tale selezione. Si guardi, ad esempio, la figura 5.9, in cui si mostra la
distribuzione dell’ energia dei fotoni più e meno energetici provenienti dal decadimento dell’ η: il classico andamento decrescente mostra una risalita a partire da E
= 5 GeV, conseguenza del fatto che si è richiesto la presenza in ogni evento di un
η che decada nel barrel in due fotoni aventi impulso trasverso maggiore di 5 GeV.
Anche la distribuzione dell’ angolo tra i due fotoni (fig. 5.10) è interpretabile allo
stesso modo, mostrando un picco per angoli piccoli, che corrispondono alle alte
energie selezionate in fase di generazione.
40000
20000
35000
18000
16000
30000
Entries 102964
25000
Mean
4.112
RMS
5.051
Entries 102964
14000
12000
10000
8000
Mean
6.636
20000
RMS
7.629
15000
6000
10000
4000
5000
2000
0
0
5
10
15
20
25
30
35
40
45
0
0
50
GeV
5
10
15
20
25
30
35
40
45
50
GeV
Figura 5.9: Energia dei fotoni più energetici (a sinistra) e meno energetici (a destra)
provenienti dal decadimento dell’ η.
3500
3000
Entries 102964
2500
2000
Mean
15.76
1500
RMS
17.45
40
50
1000
500
0
0
10
20
30
60
gradi
Figura 5.10: Distribuzione dell’ angolo tra i due fotoni.
5. Analisi del canale di decadimento η
γγ a CMS
93
5.2.3 Ricostruzione e selezione
Per la ricostruzione dei depositi di energia si è scelto di utilizzare come algoritmo
di ricostruzione il supercluster di tipo hybrid, che si è dimostrato estremamente
efficiente nella ricostruzione dei fotoni (per i dettagli sull’ algoritmo in questione
si rimanda al capitolo 3). L’ utilizzo del supercluster hybrid garantisce una precisa
ricostruzione in energia e in angolo dei fotoni; d’ altra parte occorrerà evidenziare quali sono i problemi legati all’ utilizzo di tale algoritmo nel caso specifico,
dovuti, in particolare, all’ estrema vicinanza dei due fotoni ad alte energie.
8000
7000
6000
Entries 86795
5000
Mean
0.7682
RMS
0.1831
4000
3000
2000
1000
0
0
0.2
0.4
0.6
0.8
1
1.2
GeV
Figura 5.11: Rapporto E9/Esc tra l’ energia della matrice di cristalli 3
3 centrata nel
seed del supercluster e l’ energia del supercluster stesso.
A questo proposito estremamente significativa è la figura 5.12, dove viene riportato il valore MC dell’ energia dell’ η, in ascisse, a confronto con il valore
dell’ energia del supercluster più energetico entro un cono di semiampiezza pari
a 4 cristalli (0.07 radianti) dalla direzione dell’ η stessa. Si possono chiaramente
individuare due zone: nella prima l’ energia del supercluster più energetico è maggiore della metà dell’ energia dell’ η e minore dell’ energia totale; nella seconda
i supercluster individuati hanno all’ incirca la stessa energia dell’ η simulato. È
chiaro che i supercluster appartenenti a questo secondo gruppo sono quelli in cui i
due fotoni vengono ricostruiti insieme, rendendo così impossibile la ricostruzione
della massa invariante utilizzando le informazioni del solo supercluster.
I supercluster ricostruiti all’ interno di ogni singolo evento vengono associati
l’ uno all’ altro secondo i seguenti criteri selettivi:
Rapporto E9/Esc > 0.9 per entrambi i supercluster;
Angolo tra i due supercluster minore di 15 ;
GeV
94
50
Entries 40000
45
Mean x
21.89
40
Mean y
17.22
35
RMS x
7.994
30
RMS y
9.541
25
20
15
10
5
0
10
15
20
25
30
35
40
45
50
GeV
Figura 5.12: Energia del supercluster più energetico all’ interno di un cono di semiam-
piezza 4 cristalli centrato nella direzione dell’ η simulata in funzione dell’ energia dell’ η
stessa.
La prima condizione è finalizzata all’ eliminazione dei supercluster generati
dai depositi di più particelle, cosa che determina un allargamento del deposito di
energia verso le zone periferiche del SC, con conseguente diminuzione del rapporto suddetto; vengono dunque eliminati anche quei SC in cui cadono entrambi
i fotoni provenienti dall’ η. La seconda condizione, invece, elimina quelle coppie
di SC che non possono riferirsi a fotoni provenienti dallo stesso η, in quanto, considerata l’ energia minima di formazione del supercluster (4 GeV), la cinematica
svantaggerebbe angoli tanto grandi per fotoni così energetici.
5.2.4 Analisi del picco di massa invariante
Utilizzando le coppie di SC selezionate nella maniera esposta nel paragrafo precedente, si è proceduto, sommando i quadriimpulsi, al calcolo della massa invariante:
Minv
E1
E2 2
p 1
p 2 2
(5.2)
La selezione effettuata e descritta in precedenza ha proprio lo scopo di individuare, tramite opportuni tagli cinematici, le coppie più probabili di SC generati
da fotoni provenienti dallo stesso η. I risultati della ricostruzione sono mostrati
nella figura 5.14: sul picco è stato inoltre effettuato un fit gaussiano nell’ intervallo 0.51-0.59 GeV. Tramite il fit gaussiano è possibile operare una scelta degli
eventi all’ interno del picco di massa: si è scelto di considerare come effettivamente provenienti dal decadimento dell’ η gli eventi entro 2σ del fit. Nelle figure
5. Analisi del canale di decadimento η
γγ a CMS
95
successive (5.15 e 5.16), invece, le η ricostruite mostrate in figura 5.14 vengono distinte in base al tipo di gruppi di moduli in cui finiscono: esistono infatti 4
tipi diversi di moduli, distinguibili in base al valore di pseudorapidità coperto e
al numero e all’ inclinazione dei cristalli. Ci si aspetta che, all’ aumentare della
pseudorapidità, diminuisca il numero di eventi che finiscono nei relativi cristalli, a
causa dell’ aumento del materiale da attraversare (figura 5.17), il quale, aumentando la probabilità di conversioni, limita di fatto la ricostruzione dell’ evento. Tutto
ciò si ripercuote sul tempo richiesto per la calibrazione, che sarà maggiore, a parità di numero di eventi per cristallo, per i cristalli di pseudorapidità maggiore. È
da notare il fatto che la larghezza del fit diminuisce all’ aumentare della pseudorapidità, pur diminuendo di pari passo il numero di eventi ricostruiti. Questo si può
spiegare considerando che le η prodotte a pseudorapidità maggiori sono mediamente più energetiche, come mostrato in figura 5.18: dunque la loro ricostruzione
è caratterizzata da una risoluzione maggiore. Si noti inoltre, dal confronto delle
due figure 5.13 e 5.14, l’ efficacia del taglio S9/Esc nell’ isolamento degli eventi nel picco rispetto al fondo. I dati forniti dai fit gaussiani per i vari gruppi di
moduli verranno poi utilizzati nella stima dei tempi di accumulazione degli eventi
necessari per raggiungere una precisione di calibrazione dello 0.5 %.
1800
1600
1400
Entries 33128
1200
1000
800
Mean
0.8473
RMS
0.3918
600
400
200
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
Figura 5.13: Distribuzione di massa invariante dell’ η dal combinatorio dei supercluster
prima del taglio S9/Esc 0 9.
Se si guarda la figura 5.19, in cui viene confrontata la distribuzione in energia
trasversa delle η simulate con quella delle η ricostruite entro 2σ del fit gaussiano del picco di massa ricostruito, si vede come l’ efficienza di ricostruzione
cali decisamente all’ aumentare dell’ energia trasversa. Se ne deduce, dunque, l’
inefficienza del supercluster nella ricostruzione di eventi η γγ ad alte energie:
il tentativo di scrivere un algoritmo capace di recuperare tali eventi sarà esposto
nel capitolo successivo.
96
1200
1000
Entries
7463
Mean
800
0.6416
0.2464
RMS
χ2 / ndf
18.43 / 5
Prob
600
0.002458
1136 ± 21.8
Constant
0.5476 ± 0.0003
Mean
400
0.01726 ± 0.00025
Sigma
200
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
Figura 5.14: Distribuzione di massa invariante dell’ η dal combinatorio dei supercluster.
450
250
400
Entries
350
2644
Mean
300
RMS
250
χ2 / ndf
100
0.226
χ 2 / ndf
5.749 / 5
Prob
411.7 ± 12.7
0.3315
Constant
100
0.5479 ± 0.0005
Mean
0.01802 ± 0.00042
Sigma
0.6296
RMS
150
0.5569
Mean
1588
Mean
0.2125
Constant
150
200
3.948 / 5
Prob
200
Entries
0.6268
Sigma
250.9 ± 10.2
0.5476 ± 0.0006
0.01732 ± 0.00053
50
50
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
Figura 5.15: Distribuzione di massa invariante per le η che finiscono nel primo gruppo
di moduli (sinistra, η
0 783).
0 435) e nel secondo gruppo di moduli (destra, 0 435
η
5.3 Studio della rate
Avendo a disposizione i dati relativi alle sezioni d’ urto e all’ incidenza degli
eventi ricostruiti rispetto al numero di eventi totali, è ora possibile dare una stima
delle rate degli eventi ricostruiti e dei tempi necessari per accumulare la statistica
necessaria per la calibrazione, tempi che verranno distinti a seconda del gruppo
di moduli del barrel considerato. In questo calcolo, però, occorre considerare l’
efficienza del livello-1 di trigger relativo agli eventi e/γ isolati: questa efficienza,
per il valore di energia di 5 GeV che si è richiesto per i fotoni provenienti dall’ η,
è pari al 38.1 % [20].
Si noti come la rate in questione sia legata all’ algoritmo di ricostruzione scelto
e dunque passibile di miglioramento.
5. Analisi del canale di decadimento η
γγ a CMS
97
220
200
140
Entries
180
Mean
160
0.6178
RMS
140
Prob
100
Constant
Mean
Sigma
Mean
100
χ2 / ndf
815
0.6154
0.2335
RMS
9.827 / 5
120
60
120
0.2132
χ 2 / ndf
80
Entries
1282
9.452 / 5
Prob
0.0803
80
Constant
206.8 ± 9.5
60
0.5482 ± 0.0006
0.01672 ± 0.00058
0.09233
142.3 ± 8.6
Mean
0.5455 ± 0.0007
Sigma
0.0145 ± 0.0006
40
40
20
20
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
0
0
2
GeV
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
Figura 5.16: Distribuzione di massa invariante per le η che finiscono nel terzo gruppo
η
di moduli (sinistra, 0 783
η 1 479).
1 131) e nel quarto gruppo di moduli (destra, 1 131
La rate degli eventi η
R Hz γγ ricostruiti è espressa dalla seguente relazione:
σPt
σPt
L
Ngood
Ntot
L Γη
Γη
γγ
E
γγ
E
N 2σ
Ngood
N 2σ
Ntot
(5.3)
(5.4)
dove:
σPt è la sezione d’ urto per interazione protone-protone impulso trasverso minimo scambiato tra i due partoni pari a 15 GeV, il cui valore è stato
stimato nel capitolo 4;
L è la luminosità a LHC per uno scenario di bassa luminosità (2 1033 cm 2 s 1 );
Ngood è il numero di eventi prodotti in cui è contenuto un η con le caratteristiche richieste (nel caso in esame, con entrambi i fotoni provenienti dal
decadimento aventi energia maggiore di 5 GeV e nel barrel);
Ntot è il numero di eventi che si è dovuto generare per raggiungere il numero
di eventi Ngood richiesto: tale valore è stato ottenuto in fase di generazione
da CMKIN;
Γη γγ è l’ ampiezza di decadimento relativa dell’ η in due fotoni; infatti,
richiedendo, come è stato fatto, che tutte le η decadessero in due fotoni,
bisogna poi correggere la rate per tale fattore, pari a circa 0.39;
E è l’ efficienza del trigger per elettrone/fotone singolo a E = 5 GeV.
98
All Tracker
1.4
Beam Pipe
Pixel
Inner Silicon
Outer Silicon
Common
Outside
1.2
X/X0
1
0.8
0.6
0.4
0.2
0
0
0.5
1
1.5
η
2
2.5
Figura 5.17: Spessore del materiale di fronte al calorimetro in unità di lunghezza di
radiazione al variare della pseudorapidità.
N 2σ è il numero di eventi che rientrano entro 2σ dal valor medio del fit
gaussiano: sono questi gli eventi che si possono considerare effettivamente
provenienti dal decadimento delle η, e dunque buoni per la calibrazione.
Il calcolo della rate, utilizzando i valori esposti, risulta pari a circa 107 Hz.
Per dare un’ idea dell’ ordine di grandezza dei tempi necessari ad accumulare
una quantità di eventi rilevante, si può stimare il tempo necessario per accumulare
100 fotoni per cristallo nei vari gruppi di moduli. Detto T100 tale tempo, si ha:
T100
dove:
Ncrys 100
2 R Fmod
(5.5)
GeV
5. Analisi del canale di decadimento η
γγ a CMS
99
Entries 102964
Mean x 0.004785
10.18
Mean y
RMS x
0.8506
11.13
RMS y
50
45
40
35
30
25
20
15
10
5
0
-1.5
-1
-0.5
0
0.5
1
1.5
pseudorapidita’
Figura 5.18: Energia dell’ η in funzione della pseudorapidità nel barrel.
5000
700
600
4000
Entries 40268
2000
Mean
17.07
RMS
7.204
Entries
4726
Mean
14.61
RMS
3.299
500
3000
400
300
200
1000
100
0
0
10
20
30
40
50
60
70
80
90
100
GeV
0
0
10
20
30
40
50
60
70
80
90
100
GeV
Figura 5.19: Distribuzione dell’ energia trasversa per η simulate (a sinistra) e per η
ricostruite (a destra).
Ncrys è il numero di cristalli presenti nel gruppo di moduli considerato;
R è la rate, calcolata in precedenza;
Fmod è la frazione di eventi che finisce nel gruppo di moduli considerato.
Il fattore 2, inoltre, è dovuto al fatto che ci sono 2 fotoni per ogni η.
Nella tabella 5.1 è riportato, relativamente a ciascun gruppo di moduli, la frazione Fmod di eventi, il numero Ncrys di cristalli presenti nel gruppo di moduli
in questione, il numero di fotoni per secondo relativo ad un gruppo di moduli,
il valore stimato di T100 e il tempo T0 5% stimato per raggiungere una precisione
sui coefficienti di calibrazione dello 0.5 %, per una luminosità pari a 2 10 33
cm 2 s 1 : a tal proposito si è utilizzata la formula 3.9, fissando σcalib allo 0.5 %.
100
gruppo
moduli
1
2
3
4
Fmod
41.8 %
25.1 %
20.3 %
12.8 %
Ncrys
500 400 400 400 18 18 18 18 Nγ /sec
2
2
2
2
45
27
22
14
T100
T0 5%
5.6 h
7.4 h
9.2 h
14.6 h
9.6 h
11.8 h
13.7 h
16.3 h
Tabella 5.1: Tabella riassuntiva per i diversi gruppi di moduli all’ interno del barrel.
Capitolo 6
Distinzione di eventi η
energia
γγ ad alta
Si è visto, da quanto esposto nel precedente capitolo, che la ricostruzione della
massa invariante dell’ η tramite la ricostruzione dei due fotoni provenienti dal
suo decadimento viene limitata dal fatto che, soprattutto ad alte energie, i due
fotoni finiscono all’ interno dello stesso supercluster. Sarebbe dunque auspicabile
individuare una tecnica per recuperare, almeno in parte, questi eventi: la rate
totale di eventi ricostruiti ne risulterebbe aumentata, con conseguente diminuzione
dei tempi di calibrazione.
6.1 Struttura della ricostruzione
L’ algoritmo sviluppato nel paragrafo 5.1 per eventi di η singole non è immediatamente applicabile ad eventi η + jet, a causa della presenza di altri depositi di
energia vicini a quelli dell’ η stesso. Negli eventi jet, per ricostruire gli η per i
quali i due fotoni vengono ricostruiti nello stesso supercluster standard, la scelta
più semplice è allora quella di guardare i cluster di cui il supercluster è composto.
L’ obiettivo è quello di selezionare, tra questi cluster, due candidati per il calcolo
della massa invariante. La scelta di questi candidati è avvenuta con le seguenti
modalità:
Energia dei cluster maggiore di 4 GeV;
rapporto tra energia del domino di cristalli 3 3 attorno al seed-crystal ed
energia del cluster maggiore di 0.9;
Scelta dei due cluster più energetici tra quelli che soddisfano le due precedenti condizioni;
101
102
distanza tra i due cluster maggiore di 2 cristalli.
Ci si aspetta che l’ utilizzo del cluster, anzichè del supercluster, determini
un aumento degli eventi appartenenti al fondo, in quanto, dato l’ alto numero di
cluster presenti, è più probabile che depositi di energia non originati da fotoni
vengano scambiati come tali; inoltre ci si aspetta un peggioramento della risoluzione del picco di massa invariante, in quanto, essendo i cluster vicini tra di loro,
parte dell’ energia di un deposito può essere ricostruita in un altro cluster.
C’è inoltre il problema della correzione dell’ energia: per i supercluster è
presente, come già accennato in precedenza, una correzione in energia dipendente
dal numero di cristalli che formano il supercluster stesso. Tale correzione non è
presente nelle energie dei singoli cluster: questo fa in modo che la somma delle
energie dei cluster sia leggermente inferiore dell’ energia del supercluster a cui
appartengono. Nella presente analisi si è dunque scelto di riscalare l’ energia dei
singoli cluster per il fattore di correzione applicato ai supercluster. D’ altra parte,
poichè tale correzione non è ottimizzata per il cluster, la posizione del picco di
massa risulterà comunque sottostimata.
In figura 6.1 viene riportata la distribuzione di massa invariante ottenuta con
il metodo esposto: è stato parametrizzato il segnale con una gaussiana e il fondo
con un polinomio del secondo ordine.
600
Entries
10271
Mean
0.6278
RMS
0.2611
58.38 / 56
χ2 / ndf
499.7 ± 14.8
p0
0.5345 ± 0.0006
p1
0.02154 ± 0.00057
p2
-150.4 ± 0.0
p3
987.4 ± 2.5
p4
-901.9 ± 0.0
p5
500
400
300
200
100
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
GeV
Figura 6.1: Distribuzione di massa invariante dai cluster appartenenti ai supercluster
hybrid.
Si vede chiaramente la presenza del picco nei pressi della massa nominale
dell’ η; si noti inoltre che il valore del picco viene leggermente inferiore al valore
nominale della massa dell’ η. Dunque, pur applicando il fattore di correzione, il
picco delle η risulta sottostimato: per poter studiare il picco ricostruito con tutti gli
6. Distinzione di eventi η
γγ ad alta energia
103
GeV
eventi verrà allora riscalato il picco ricostruito con i cluster per farne coincidere il
valor medio con la massa nominale dell’ η.
È ora necessario verificare quali sono gli eventi che vengono ricostruiti all’ interno della distribuzione precedente. Si vuole mostrare l’ analogo della figura 5.12
del precedente capitolo, in cui veniva mostrata l’ energia delle η da generatore associata all’ energia del supercluster più energetico entro un cono di semiampiezza
4 cristalli. Partendo dunque dal supercluster in cui vengono individuati i due candidati fotoni che soddisfano le richieste per l’ algoritmo esposte in precedenza, si
è proceduto ad associare ad esso, quando possibile, un η simulata, tramite un matching angolare entro un cono di semiampiezza 4 cristalli. Il risultato è mostrato in
figura 6.2.
50
Entries 10887
45
Mean x
24.26
35
Mean y
23.33
30
RMS x
8.631
25
RMS y
9.141
40
20
15
10
5
0
10
15
20
25
30
35
40
45
50
GeV
Figura 6.2: Energia del supercluster da cui provengono i due cluster usati per la ricostruzione della massa invariante vs energia dell’ η associata al SC tramite matching
angolare.
Risulta chiaro come, tramite l’ algoritmo scritto, vengano selezionati proprio
quei supercluster nei quali, come notato nel capitolo precedente, i due fotoni vengono ricostruiti assieme. Questa tecnica sembra dunque costituire un buon metodo
per aumentare la rate degli eventi ricostruibili.
Si era visto inoltre nel capitolo 5, mostrando le distribuzioni di energia trasversa per le η generate e per quelle ricostruite, come l’ efficienza della ricostruzione
peggiorasse sensibilmente ad alte energie. Si mostra ora la stessa distribuzione per
le η ricostruite con i cluster, prendendo i soli valori entro le 2 σ dal valor medio
del picco (fig. 6.3).
Confrontando le figure 5.19 e 6.3 si vede come parte degli eventi ad alta
energia che non venivano ricostruiti utilizzando i supercluster sono recuperati
utilizzando questo algoritmo basato sui cluster.
104
400
350
300
Entries
3933
250
Mean
14.9
RMS
4.903
200
150
100
50
0
0
10
20
30
40
50
60
70
80
90
100
GeV
Figura 6.3: Distribuzione di energia trasversa per le η ricostruite entro
2σ dal valor
medio del fit gaussiano del picco.
6.2 Picco ricostruito e rate totale
L’ utilizzo degli eventi recuperati mediante l’ analisi dei cluster permette dunque
di aumentare il numero di eventi ricostruiti che finiscono nel picco di massa invariante: occorre però tenere in considerazione l’ eventuale aumento della larghezza
della distribuzione, dovuta all’ utilizzo di eventi di questo tipo. Mettendo insieme
le η ricostruite con i due metodi, si ottiene la distribuzione mostrata in figura 6.4,
dove, come in precedenza, si è utilizzato come fit la somma di una gaussiana e di
un polinomio di secondo grado:
1800
1600
Entries
17734
Mean
0.6406
RMS
0.255
2
76.94 / 41
χ / ndf
1584 ± 26.6
p0
0.5469 ± 0.0003
p1
0.01824 ± 0.00025
p2
-169 ± 0.0
p3
1047 ± 4.2
p4
-803.2 ± 0.0
p5
1400
1200
1000
800
600
400
200
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
Figura 6.4: Distribuzione di massa invariante dai Supercluster e dai cluster appartenenti
ai supercluster hybrid.
6. Distinzione di eventi η
gruppo
moduli
1
2
3
4
Fmod
43.1 %
25.6 %
20.9 %
10.4 %
γγ ad alta energia
Ncrys
500 400 400 400 18 18 18 18 105
Nγ /sec
2
2
2
2
66
39
32
16
T100
T0 5%
3.8 h 8.0 h
5.1 h 9.8 h
6.3 h 12.6 h
12.6 h 23.4 h
Tabella 6.1: Tabella riassuntiva per i diversi gruppi di moduli all’ interno del barrel.
A fronte di un leggero aumento della larghezza della distribuzione rispetto all’
utilizzo dei soli supercluster, come si nota dalla σ del fit gaussiano, si ottiene un
numero di eventi entro 2σ pari a circa 7000, cioè più del 40% in più rispetto all’
utilizzo del solo supercluster.
Rimane ora da chiarire in che modo la presenza di questi eventi aggiuntivi
porti un effettivo vantaggio nella ricostruzione del picco ai fini della calibrazione. Come già scritto in apertura del capitolo 5, la σ che entra nella calibrazione,
utilizzando il decadimento η γγ è data da:
σcalib
2ση
mη Nγ
(6.1)
Nella precedente si ha una dipendenza dal numero degli eventi al di sotto del
picco gaussiano pari all’ inverso della radice. Un aumento degli eventi ricostruiti,
dunque, porta, a parità di larghezza del fit, una diminuzione di σ calib , che si traduce
a sua volta in una diminuzione dei tempi necessari per calibrare ad una precisione
fissata.
Di seguito vengono riportati i valori delle rate e dei tempi tipici di accumulazione dei fotoni nei cristalli dei diversi gruppi di moduli utilizzando la tecnica
esposta. Tali valori sono da confrontarsi con quelli della tabella 5.1 del capitolo
precedente. La rate di eventi ricostruiti, utilizzando la formula 5.4 del capitolo
precedente, è da stimarsi in circa 153 Hz, superiore di circa il 43 % rispetto all’
utilizzo dei soli supercluster (rate stimata pari a 107 Hz).
La necessità di un numero di fotoni per cristallo maggiore del caso precedente
a parità di precisione richiesta è conseguenza dell’ allargamento delle distribuzioni
di massa invariante. In base a questi risultati il metodo esposto comporta tempi di
calibrazione minori rispetto all’ utilizzo dei soli supercluster nella ricostruzione,
almeno per i moduli di tipo 1, 2 e 3.
106
Conclusioni
Lo studio della possibilità di utilizzare decadimenti di particelle leggere ai fini
della calibrazione nel calorimetro di CMS rappresenta un campo nel quale solo
di recente sono stati fatti passi significativi: gli articoli presenti nella letteratura
di CMS non sono numerosi. Lo studio esposto nella presente tesi si propone di
condurre un’ analisi completa, dalla scelta degli eventi da produrre sino alla loro
analisi, passando per lo studio delle sezioni d’ urto e delle rate, la simulazione
degli eventi nel calorimetro di CMS, lo studio delle tecniche ricostruttive migliori
da utilizzare.
Il primo obiettivo è stato quello di verificare se le rate ottenute negli studi a
livello di generatore sono tali da giustificare l’ utilizzo del canale analizzato. In
particolare la rate stimata sembra permettere di considerare la possibilità di una
calibrazione stand-alone in un lasso di tempo dell’ ordine di alcuni giorni.
Il secondo obiettivo, sul quale sono stati concentrati la maggior parte degli
sforzi, è stato quello di scrivere e ottimizzare un algoritmo che permettesse di
ricostruire il picco di massa invariante delle η, sfruttando il suo decadimento in 2
fotoni, con la maggiore efficienza possibile: a questo proposito, dopo aver vagliato
diverse soluzioni, si è mostrato come, tramite opportune selezioni, sia possibile
recuperare eventi nel picco di massa che, altrimenti, andrebbero persi. In questa
fase fondamentale è stato l’ utilizzo dei programmi di simulazione di CMS, in
particolare ORCA.
Il passo successivo sarà quello di stimare con maggiore precisione il contributo al fondo degli eventi di minimum-bias, che qui non sono stati inclusi, e analizzare più dettagliatamente l’ effetto del trigger sull’ efficienza, aspetto che qui
è stato solamente accennato: più in generale, occorrerà confermare la fattibilità
di questa calibrazione verificando l’ intera procedura su un campione di eventi
completamente processato attraverso i vari livelli di trigger di CMS.
107
108
Bibliografia
[1] A. Salam , Elementary Particle Theory (1968);
[2] F. Mandl , O. Shaw, Quantum Field Theory, Wiley&Sons Ed. (1993);
[3] Particle Data Group, Particle Physics Booklet, AIP (2001)
[4] F. Gianotti, Collider Physics:LHC, CERN-open-2000-293;
[5] J. Huston, LHC Guide to Parton Distribution Functions and Cross Sections,
Atlas Internal Note, ATL-PHYS-99-008;
[6] B.W. Lee, C. Quigg, H. Thacker, Phys. Rev. D16, 1519 (1977);
[7] Working Group for Higgs Boson Searches, Search for the Standard Model
Higgs Boson at LEP, CERN-EP 2001/055 (2001);
[8] Collaborazione CMS,The Electromagnetic Calorimeter Project, Technical
Design Report, CERN/LHCC 97-33 (1997);
[9] Collaborazione CMS, Compact Muon Solenoid Technical Proposal,
CERN/LHCC 94-38 (1994);
[10] Collaborazione CMS, The Muon Project, Technical Design Report,
CERN/LHCC 97-32 (1997);
[11] Collaborazione CMS, The Tracker Project, Technical Design Report,
CERN/LHCC 98-6 (1998);
[12] W. R. Leo, Techniques for Nuclear and Particle Physics Experiments,
Springer-Verlag ed. (1987);
[13] M. Angelone et al., Neutron flux Measurement at Tapiro fast reactor for
APD’s Irradiation fluence evaluation, CMS Note 1998/060 (1998);
[14] Collaborazione CMS, The Level-1 Trigger, Technical Design Report,
CERN/LHCC 2000-038 (2000);
109
110
[15] Collaborazione CMS, Data
CERN/LHCC 2002-26 (2002);
Acquisition
&
High-Level
Trigger,
[16] E. Meschi et al., Electron Reconstruction in the CMS Electromagnetic
Calorimeter, CMS Note 2001/034;
[17] G. P. Di Giovanni, Studio della ricostruzione degli elettroni per la calibrazione del calorimetro elettromagnetico di CMS, Università degli studi di Roma
“La Sapienza” (2004);
[18] P. Meridiani, Studio della calibrazione in situ con eventi fisici del calorimetro elettromagnetico dell’esperimento CMS, Università degli studi di Roma
“La Sapienza”, (2001);
[19] S.A. Householder, A glossary for numerical analysis, 1958;
[20] V. Litvin et al., ECAL barrel calibration at LHC startup with η
CMS Note IN 2004/021;
γγ decays,
[21] F. Santanastasio, Calibrazione di un calorimetro elettromagnetico tramite il
flusso totale di energia, Università degli studi di Roma “La Sapienza” (2004);
[22] D. Futyan et al., Intercalibration of ECAL crystals in Phi Using Symmetry of
Energy Deposition, CMS IN 2002/031;
[23] PYTHIA home page:http://www.thep.lu.se/ torbjorn/Pythia.html;
[24] GEANT4 home page:http://wwwasd.web.cern.ch/wwwasd/geant4/geant4.html;
[25] OSCAR home page: http://cmsdoc.cern.ch/oscar;
[26] ORCA home page: http://cmsdoc.cern.ch/orca;
[27] T. Sjostrand et al., PYTHIA 6.2 Physics and Manual (2002);
[28] CTEQ home page:http://www.phys.psu.edu/ cteq;