Studio del canale di decadimento η — γγ nel
Transcript
Studio del canale di decadimento η — γγ nel
UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZA” Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea in Fisica Studio del canale di decadimento η γγ nel calorimetro elettromagnetico di CMS Tesi di Laurea Relatore: Candidato: Prof. Egidio Longo Stefano Venditti matricola: 11112955 Correlatore: Dott. Riccardo Paramatti Anno Accademico 2003-2004 Tesine Enigma Relatore: Prof.ssa Lucia Zanello Throwing light on dark energy Relatore: Prof. Alessandro Melchiorri “Omnis homines qui sese student praestare ceteris animalibus summa ope niti decet ne vitam silentio transeant veluti pecora, quae natura prona atque ventri oboedientia finxit.” (Sallustio, Bellum Catilinae, Cap. I) Indice 1 Modello Standard e LHC 1.1 Il Modello Standard . . . . . . . . . . . . . . . . . . . . 1.2 Il Large Hadron Collider . . . . . . . . . . . . . . . . . 1.2.1 Caratteristiche fisiche . . . . . . . . . . . . . . . 1.2.2 Soluzioni costruttive . . . . . . . . . . . . . . . 1.3 Fisica ad LHC . . . . . . . . . . . . . . . . . . . . . . . 1.4 Bosone di Higgs: canali di produzione e di decadimento 1.4.1 Canali di produzione dell’ Higgs . . . . . . . . . 1.4.2 Canali di decadimento dell’ Higgs . . . . . . . . 2 L’ esperimento CMS 2.1 Criteri di progettazione per CMS . . . . 2.2 Il rivelatore per muoni . . . . . . . . . 2.3 Il sistema di tracciamento . . . . . . . . 2.4 Il calorimetro adronico . . . . . . . . . 2.5 Il calorimetro elettromagnetico di CMS . . . . . . . . . . . . . . . 3 Soluzioni operative in CMS 3.1 Sistema di trigger . . . . . . . . . . . . . . . 3.2 Algoritmi di ricostruzione di elettroni e fotoni 3.2.1 Algoritmo island . . . . . . . . . . . 3.2.2 Algoritmo Hybrid . . . . . . . . . . 3.3 Procedure di calibrazione . . . . . . . . . . . 3.3.1 Sistema di monitoring della luce . . . 3.3.2 Precalibrazione . . . . . . . . . . . . 3.3.3 Calibrazione in situ con eventi fisici . 3.4 Programmi utilizzati . . . . . . . . . . . . . 3.4.1 Pythia . . . . . . . . . . . . . . . . . 3.4.2 OSCAR . . . . . . . . . . . . . . . . 3.4.3 ORCA . . . . . . . . . . . . . . . . i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 4 8 8 9 11 14 15 16 . . . . . 27 27 29 33 35 37 . . . . . . . . . . . . . . . . . . . . . . 51 . . . . . . . 51 . . . . . . . 52 . . . . . . . 53 . . . . . . . 55 . . . . . . . 56 . . . . . . . 57 . . . . . . . 57 . . . . . . . 59 . . . . . . . 63 . . . . . . . 64 . . . . . . . 64 . . . . . . . 65 ii 4 Generazione e studio di eventi jet 4.1 Programmi e impostazioni utlilizzati . . . . . . . . 4.2 Analisi della sezione d’ urto . . . . . . . . . . . . 4.3 Selezione: considerazioni statistiche . . . . . . . . 4.4 Studio delle caratteristiche cinematiche del segnale 4.4.1 Caratteristiche cinematiche dell’ η . . . . . 4.4.2 Caratteristiche cinematiche dei fotoni . . . 4.5 Analisi delle rate del canale η γγ . . . . . . . . 4.6 Isolamento degli eventi e studio del picco di massa 5 Analisi del canale di decadimento η γγ a CMS 5.1 Studio di eventi isolati η γγ . . . . . . . . . . . 5.2 Analisi delle η all’ interno dei jet . . . . . . . . . . 5.2.1 Modalità di produzione del sample . . . . . 5.2.2 Proprietà cinematiche degli eventi generati 5.2.3 Ricostruzione e selezione . . . . . . . . . . 5.2.4 Analisi del picco di massa invariante . . . . 5.3 Studio della rate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 67 69 72 73 73 76 78 81 . . . . . . . 85 85 91 91 92 93 94 96 6 Distinzione di eventi η γγ ad alta energia 101 6.1 Struttura della ricostruzione . . . . . . . . . . . . . . . . . . . . . 101 6.2 Picco ricostruito e rate totale . . . . . . . . . . . . . . . . . . . . 104 Bibliografia 108 Introduzione L’ obiettivo principale degli esperimenti che opereranno ad LHC, presso il Cern di Ginevra, a partire dal 2007 è la ricerca del bosone di Higgs, introdotto nel modello standard per giustificare le masse dei costituenti fondamentali della materia e delle particelle che mediano le loro interazioni. In LHC i canali fondaγγ mentali per la ricerca dell’ Higgs ad energie inferiori a 400 GeV sono H eH ZZ Z 4e: risulta dunque cruciale conseguire un’ alta precisione nelle misure di posizione e di energia delle particelle presenti negli stati finali. La scelta fatta dall’ esperimento di CMS è quella di un calorimetro elettromagnetico costituito da cristalli di tungstato di piombo (PbWO4 ): questo materiale, in virtù delle sue proprietà fisiche, permette misure estremamente accurate di energia ed un’ alta granularità. La risoluzione in energia del calorimetro è determinata da tre contributi fondamentali: un contributo statistico, un contributo di rumore ed un termine costante. Quest’ ultimo termine, dominante ad alte energie, dipende in maniera cruciale dalla precisione sui coefficienti di calibrazione di ogni singolo cristallo. Occorre dunque ideare una procedura che permetta di valutare tali coefficienti in modo da mantenere la risoluzione entro le specifiche progettuali. La calibrazione del calorimetro di CMS è costituita da tre fasi distinte: precalibrazione sul fascio, sistema di monitoring e calibrazione in situ con eventi fisici. La calibrazione con eventi fisici costituisce senza dubbio la fase più importante e tiene conto del materiale posto dinnanzi al calorimetro, dell’ effettiva geometria dello stesso e della temperatura di lavoro. Il punto fondamentale di questo tipo di calibrazione è la presenza di un vincolo fisico o di una misura fisica di estrema precisione rispetto alla quale si possa fare riferimento nel calcolo delle costanti di calibrazione. Solitamente i canali presi in considerazione al fine della calibrazione eν, con il quale si possono calibrare i singoli cristalli confrontansono due: W do la misura di energia fornita dal calorimetro con quella di impulso fornita dal sistema di tracciamento, e Z e e , che permette di effettuare la calibrazione di gruppi di cristalli utilizzando le informazioni provenienti dal solo calorimetro. Queste due tipologie di calibrazione richiedono un tempo che può arrivare sino a qualche mese per raggiungere la statistica necessaria a raggiungere la risoluzione richiesta in fase di progettazione di CMS. Si è pensato, allora, di provare 1 2 ad utilizzare decadimenti meno facili da ricostruire rispetto ai processi suddetti, ma caratterizzati da una rate di produzione decisamente superiore. In particolare, il canale in cui viene riposta maggior fiducia è η γγ. L’ utilizzo di tale canale in una calibrazione durante la fase di presa dati, però, vanificherebbe di fatto la sua alta rate: infatti le normali soglie di trigger previste in questa fase comporterebbero, a causa della bassa energia media dell’ η, una drastica diminuzione della sua rate; tutto ciò si tradurrebbe in tempi di calibrazione paragonabili a quelli dei canali esposti in precedenza, a parità di precisione richiesta. Inoltre la presenza di soglie di trigger elevate si traduce in una diminuzione dell’ angolo medio tra i due fotoni, che diminuisce all’ aumentare dell’ energia della particella, con conseguente peggioramento della ricostruzione. L’ idea considerata in questa tesi è allora quella di optare per una calibrazione stand-alone, durante la quale, per un periodo limitato di tempo, vengono acquisiti i soli dati del calorimetro elettromagnetico. In questo modo la soglia di trigger può essere abbassata, permettendo l’ acquisizione di un numero di η tale da permettere il raggiungimento della statistica necessaria in pochi giorni. La ricostruzione dei due fotoni provenienti dall’ eta, inoltre, presenta non poche difficoltà: infatti, come si vedrà, l’ uso degli algoritmi standard di ricostruzione di CMS presenta alcuni problemi. L’ argomento della presente tesi è dunque lo studio della possibilità di ricostruire i due fotoni provenienti dall’ η ai fini della calibrazione stand alone, attraverso una stima della rate e delle caratteristiche cinematiche a livello di generatore e, successivamente, attraverso l’ analisi dell’ evento in questione con i programmi di simulazione di CMS. Il capitolo 1 è dedicato all’ esposizione della fisica del bosone di Higgs a LHC. Il capitolo 2 riguarderà l’ esperimento CMS in generale, con particolare attenzione al calorimetro elettromagnetico; nel capitolo 3 verranno invece esposte le soluzioni operative adottate in CMS. Il capitolo 4 è dedicato allo studio degli eventi protone-protone a livello di generatore e allo studio delle rate di produzione dell’ η. Nel capitolo 5, dopo una breve analisi su un campione ridotto di η singole all’ interno del barrel, eventi protone-protone verranno simulati e verranno esposti alcuni problemi relativi alla ricostruzione del picco di massa invariante dell’ η. Nel capitolo 6, infine, si esporrà una possibile tecnica per recuperare alcuni dei decadimenti η γγ non ricostruibili con gli algoritmi standard di ricostruzione per elettroni e fotoni. Capitolo 1 Modello Standard e LHC Il modello Standard (MS), introdotto da Weinberg, Glashow e Salam negli anni ’70, ha permesso di formalizzare con grande accuratezza molti risultati sperimentali della fisica delle particelle, permettendo di effettuare numerose previsioni teoriche che sono state poi verificate sperimentalmente. L’ obiettivo del MS è quello di descrivere in un’ unica teoria tre delle quattro interazioni sinora conosciute: elettromagnetica, debole e forte [1]. Tuttavia il meccanismo attraverso cui i mediatori delle interazioni tra particelle fondamentali acquisiscono una massa, la rottura spontanea di simmetria, prevede l’ introduzione di un campo scalare neutro associato ad una particella massiva, il bosone di Higgs; di questa particella non è stata ancora fornita un’ evidenza sperimentale. La difficoltà nel rilevare il bosone di Higgs risiede nel fatto che la sua massa, all’ interno del MS, è espressa in funzione di alcuni parametri non ottenibili da altri esperimenti; dunque non può essere individuato un preciso valore di energia da indagare. A tutt’ oggi le previsioni teoriche possono fornire solamente un limite inferiore e superiore alla sua massa. Gli esperimenti condotti al LEP2, operante al CERN di Ginevra fino al novembre del 2000, hanno messo in luce segnali interpretabili come un Higgs di bassa massa, intorno ai 115 GeV. Questa possibilità sarà confermata o smentita nel prossimo futuro dai dati dall’acceleratore Tevatron di Chicago (USA) e da LHC. LHC, in particolar modo, sarà in grado di analizzare l’intero spettro di massa dell’ Higgs: se l’ intervallo di energia da indagare dovesse essere quello indicato da LEP, cioè di poco superiore ai 100 GeV, il canale su cui fare più affidamento sarebbe il decadimento dell’ Higgs in due fotoni. Per questo canale, la difficoltà maggiore è rappresentata dal fondo continuo qq̄ γγ: per ottenere un’alta significatività del segnale, è richiesta dunque grande precisione sulla massa invariante dell’Higgs, raggiungibile grazie ad un calorimetro elettromagnetico di elevate prestazioni sia nella di risoluzione in energia sia nella misura della posizione. 3 4 Il calorimetro elettromagnetico dell’esperimento CMS, che verrà installato ad LHC, risponderà ad entrambe queste esigenze, garantendo la possibilità di raggiungere una significatività sufficiente per la scoperta di un Higgs con massa compresa nell’intervallo 100 MH 150 GeV con una luminosità integrata di 30 fb 1 . 1.1 Il Modello Standard L’ obiettivo del Modello Standard è quello di fornire una descrizione unitaria di tre delle quattro interazioni fondamentali conosciute fino ad oggi: elettromagnetica, debole e forte [2]. Le previsioni del settore elettrodebole del Modello Standard sono state verificate sperimentalmente in processi che avvengono in un ampio spettro di energia, dai pochi GeV dei decadimenti deboli alle energie del polo del bosone Z e del quark t. Il settore delle interazioni forti appare anch’esso ben descritto dalla Cromodinamica Quantistica (QCD), anche se i problemi derivanti dalla natura fortemente non perturbativa dei processi che coinvolgono interazioni forti a bassa energia rendono più arduo, rispetto al caso elettrodebole, il confronto tra dati sperimentali e predizioni della teoria. Il Modello Standard è una teoria di gauge delle interazioni elettrodeboli e forti basata sul gruppo SU 3 C SU 2 T U 1 Y , prodotto diretto dei gruppi di simmetria di colore (C), di isospin debole (T), di ipercarica (Y). Associati al gruppo di simmetria locale ci sono 12 bosoni di gauge di spin 1: 8 gluoni(g) per SU 3 C , 3 bosoni di gauge (Wi ) per SU 2 T ed 1 (B) per U 1 Y . Il bosone Z ed il fotone γ risulteranno, come si vedrà, da combinazioni lineari di W3 e di B. Accanto a questi bosoni, troviamo i fermioni suddivisi in tre famiglie di quark e leptoni, aventi le seguenti proprietà di trasformazione rispetto ad SU 3 C SU 2 T U 1 Y : QiL LiL uiL dLi νiL lLi 1 3 2 6 1 2 uiR 1 2 lRi 2 3 1 3 1 1 1 dRi 3 1 i 1 2 3 1 3 (1.1) dove i numeri tra parentesi indicano rispettivamente la dimensione della rappresentazione di SU 3 C , la dimensione della rappresentazione SU 2 T ed il valore dell’ipercarica Y . I fermioni in 1.1 corrispondono a spinori di Weyl left-handed e right-handed a due componenti. Non è possibile introdurre in modo diretto termini di massa in quanto violerebbero la simmetria di gauge; essi pertanto potranno comparire 1. Modello Standard e LHC 5 solamente quando la simmetria sia rotta. La carica elettrica nella convenzione assunta è data da Q T3 Y , dove T3 è il generatore diagonale di SU 2 T . L’acquisizione di massa da parte dei fermioni e bosoni di gauge avviene trami te il meccanismo di Higgs , che rompe il gruppo di simmetria SU 3 C SU 2 T U 1 Y con l’introduzione di campi scalari. Si ottiene alla fine un gruppo di sim metria residuo SU 3 C U 1 em , mentre, in conseguenza della rottura della simmetria iniziale, i bosoni W , W , Z acquistano massa. Al fine di rompere la sim metria SU 2 T è necessario introdurre non un singolo campo, ma un campo a più componenti. La scelta più semplice è quella di un doppietto di isospin debole: φa φb Φ (1.2) La nuova lagrangiana conterrà allora nuovi termini, che tengono conto del doppietto introdotto e delle sue interazioni con i fermioni e i bosoni di gauge: L L G L f L f G L f Φ L G Φ V Φ (1.3) dove si è indicato con f i fermioni, con G i bosoni di gauge e con Φ il doppietto di Higgs. Il termine V rappresenta il potenziale del doppietto scalare ed è dato da V µ 2 Φ† Φ λ Φ† Φ 2 (1.4) Per un valore negativo di µ2 si ottiene un minimo del potenziale in corrispondenza di un campo di Higgs costante: Φ Φ0 φ0a φ0b (1.5) tale che: µ2 (1.6) 2λ Senza perdere in generalità, si può scegliere la prima componente di Φ 0 uguale a 0. Allora la seconda componente del doppietto sviluppa un valore di aspettazione nel vuoto non nullo: Φ†0 Φ0 φ0a 2 Φ0 φ0b 2 0 v 2 v µ2 λ (1.7) In questo modo viene rotta la simmetria SU 2 T U 1 Y , mentre resta intatta quella rispetto ad U 1 em. Inoltre, tramite il meccanismo di Higgs, i bosoni vettoriali carichi, ottenibili come combinazioni lineari di W1 2 : Wµ Wµ1 Wµ2 2 (1.8) 6 acquistano una massa pari a: g2 v (1.9) 2 Per quanto riguarda i bosoni neutri, ottenibili come combinazione lineare di W0 ,B: MW Zµ 1 g21 g2Wµ3 g22 g 1 Bµ (1.10) si ha che Z acquista una massa: g21 v MZ g22 2 (1.11) mentre la combinazione ortogonale (il fotone): Aµ 1 g21 g1Wµ3 g22 g 2 Bµ (1.12) resta a massa nulla. Nelle equazioni precedenti g1 e g2 indicano, rispettivamente, le costanti d’accoppiamento tra le correnti di isospin debole e i campi di gauge W i e tra la corrente di ipercarica debole e il campo di gauge B. Esiste infine una 2 particella scalare fisica massiva, il bosone di Higgs H, avente una massa M H 2 2µ . I parametri v,g1 ,g2 sono legati alla costante di Fermi GF ed alla costante d’accoppiamento elettromagnetica e, dalle relazioni g22 GF 2 2 8MW e g2 sin θW 1 2v2 g1 cos θW (1.13) dove l’angolo di mescolamento elettrodebole o angolo di Weinberg è dato da tan θW g1 g2. L’angolo di mescolamento non è fissato dalla teoria, ma i suoi valori sperimentali possono essere usati come una prova di consistenza del Modello Standard, in quanto tutti i fenomeni elettrodeboli devono condurre allo stesso valore di θW . Un buon accordo tra teoria ed esperimenti si ottiene prendendo sin2 θW 0 2316 0 0002[3]. In termini dell’angolo di Weinberg, di e e di G F , le masse dei bosoni vettori si possono esprimere come MW απ GF 2 1 2 1 sin θW MZ απ GF 2 1 2 2 sin 2θW (1.14) e sono legate quindi tra di loro dalla relazione: MZ MW cos θW (1.15) 1. Modello Standard e LHC 7 In termini dei bosoni W , Z e γ, la densità di lagrangiana delle interazioni di gauge dei fermioni può essere scritta come: L f G g2 µ jW Wµ 2 h c g2 µ j Zµ cos θW Z µ e jem Aµ (1.16) dove troviamo separate le diverse correnti cariche, elettromagnetiche e neutre date da: 3 µ jW ∑ ūiL γµ dLi ν̄iL γµ lLi (1.17) i 1 3 µ jem ∑ ∑ Qu ūiA γµ uiA Qd d¯Ai γµ dAi l¯Ai γµ lAi (1.18) i 1 A L R µ jZ 3 g2 cos θW ∑ Q̄iLγµT3QiL L̄iL γµ T3 LiL µ sin2 θW jem (1.19) i 1 Il fatto che il campo Φ acquisti un valore di aspettazione sul vuoto non nullo permette inoltre di generare i termini di massa per i fermioni. Questo si ottiene inserendo nella densità di lagrangiana un termine di interazione L f Φ di Yukawa tra il doppietto di Higgs ed i fermioni: L f Φ 3 ∑ j Yilj L̄iL ΦlR i j 1 j Yidj Q̄iL ΦdR j Yiuj Q̄iL Φc uR hc (1.20) dove Φc iτ2 Φ , e le costanti d’accoppiamento Y u , Y d , ed Y l sono matrici complesse 3 3, completamente arbitrarie. Quando Φ acquista un valore d’aspettazione sul vuoto diverso da zero, come discusso precedentemente, la lagrangiana 1.20 genera dei termini di massa per i fermioni: L f Φ 3 ∑ i j 1 j mli j l¯Li lR j mdij d¯Li dR j muij ūiL uR 1 H v hc (1.21) dove mti j v Yitj con t l d u. 2 Il termine L G Φ nella eq.1.3 contiene invece l’accoppiamento del bosone di Higgs con i bosoni di gauge W e Z. Gli accoppiamenti ad una coppia W W o ZZ risultano rispettivamente gHWW gHZZ 2 2mW g2 v gm W 2 v 2 g v gmZ 2 4cos θW 2cos θW (1.22) m2Z 2 (1.23) 8 L’ accoppiamento del bosone di Higgs sia ai fermioni che ai bosoni è quindi proporzionale alla massa del fermione o del bosone stesso, proprietà fondamentale che caratterizza la fenomenologia dell’Higgs. Queste espressioni verranno utilizzate in seguito, quando si analizzeranno in dettaglio le proprietà di decadimento del bosone di Higgs e le sue possibilità di scoperta ad LHC. 1.2 Il Large Hadron Collider 1.2.1 Caratteristiche fisiche Il Large Hadron Collider (LHC) è un acceleratore adronico in fase di costruzione presso il CERN di Ginevra nel quale sarà possibile far collidere tra loro fasci di protoni ad un’ energia nel centro di massa pari a s 14 TeV: tale energia è la più alta raggiunta sinora da un acceleratore. LHC sarà installato nella stessa galleria sotterranea del Large Electron Positron (LEP); la sua circonferenza sarà pari a poco meno di 27 Km. La possibilità di sfruttare le collisioni protone-protone, anziché la classica interazione particella-antiparticella, è garantita dall’ alta energia raggiungibile in LHC, che fa in modo che la distribuzione in impulso degli antiquark sia sufficiente per ottenere gli eventi fisici desiderati: ci si riferisce al bosone di Higgs, ma anche, ad esempio, agli eventi di alta energia che permetteranno di verificare l’ attendibilità delle recenti teorie supersimmetriche. La scelta di una collisione protone-antiprotone avrebbe inoltre reso impossibile il raggiungimento di alte luminosità, a causa della limitata efficienza di produzione degli antiprotoni. La luminosità è dunque una delle caratteristiche critiche di LHC, in quanto determina la frequenza con cui avviene un qualsiasi evento di fisica all’ interno dell’ acceleratore. Essa è legata alle caratteristiche della macchina tramite la relazione: L N p2 f k 4πρ2 (1.24) dove: N p è il numero di protoni per pacchetto (1 05 1011 ); f è la frequenza di rivoluzione dei pacchetti nell’anello (1 1 104 Hz); k è il numero di pacchetti che circolano contemporaneamente (2835); ρ è il raggio quadratico medio della distribuzione spaziale dei protoni nel piano ortogonale alla direzione del fascio (16µm). 1. Modello Standard e LHC 9 Il parametro attraverso cui è possibile legare la luminosità alla frequenza di un evento fisico è la Rate (R). Quest’ ultima dipende, oltre che dalla lumionosità, anche dalle proprietà prettamente fisiche dell’ evento in esame, delle quali rende conto la sezione d’ urto (σint ). Si ha dunque: R L σint (1.25) Una luminosità maggiore corrisponde, a parità di tempo, ad un maggior numero di eventi prodotti: questo permette di minimizzare la componente statistica degli errori delle misure o di poter effettuare delle selezioni a bassa efficienza mantenendo comunque una rate accettabile. Circonferenza 26659m Tempo di rivoluzione 88 µs Campo magnetico dei dipoli 8.4 T Energia dei fasci 7 TeV Energia di iniezione 450 GeV N. pacchetti 2835 N. protoni per pacchetto 1 05 1011 Lunghezza del pacchetto 7.5 cm Raggio del pacchetto 16µm Distanza tra i pacchetti 25 ns Tabella 1.1: Alcuni parametri di LHC. 1.2.2 Soluzioni costruttive Verranno brevemente esposte le soluzioni adottate nella costruzione di LHC e i tempi e i modi previsti per l’ inizio della fase di acquisizione. Iniezione Un piccolo acceleratore lineare, il LINAC, porterà il fascio di protoni ad un’energia di 50 MeV; successivamente un BOOSTER li accelererà fino a 1.4 GeV. Il fascio passerà poi attraverso il sincrotrone PS, arrivando ad un’ energia di 50 GeV, per poi essere iniettato nel Super Proton Sincrotron (SPS) dove raggiungerà un’energia di 450 GeV: da qui il fascio verrà poi convogliato in LHC. Per quanto riguarda gli ioni pesanti, la struttura di accelerazione è simile a quella dei protoni: è però presente un anello di accumulazione, il LEIR, posto subito dopo l’ acceleratore lineare, mentre è assente il BOOSTER. Inoltre l’ energia raggiunta nel sincrotrone è di 25 GeV. 10 Figura 1.1: Struttura di LHC Sistema di vuoto I due fasci correranno in due tubi a vuoto contigui, distanti 19.4 cm, e solo in prossimità dei punti di interazione passeranno nello stesso tubo per un percorso di 90 m. I tubi saranno in contatto con elio superfuido ad una temperatura di 1.9 K. Sebbene la radiazione di sincrotrone sia soppressa rispetto ad un collider elettrone-positrone dal fattore relativistico γ, il sistema di raffreddamento non avrebbe potuto sostenere il calore generato dalla potenza emessa. Per tale ragione verrà installato una speciale protezione, che sarà mantenuta ad una temperatura compresa tra 5 e 20 K, con lo scopo di assorbire il calore derivante dalla radiazione. Magneti e apparato criogenico I dipoli magnetici di LHC sono disegnati per raggiungere un campo di 8.33 T. Saranno costituiti da un conduttore di niobio-titanio, raffreddato ad una temperatura di 1.9 K. A tal fine viene utilizzato elio superfluido, vantando esso caratteristiche di minor viscosità e maggiore conducibilità termica rispetto al semplice elio liquido. Sistema RF Il sistema a radio frequenza (RF) sarà indipendente per ciascuno dei due fasci. La frequenza del sistema è fissata a 400.8 MHz. Punti d’interazione Vi saranno due punti di interazione ad alta luminosità, dove verranno installati i due rivelatori progettati per studiare tutte le principali 1. Modello Standard e LHC 11 caratteristiche delle interazioni protone-protone, ATLAS e CMS. Due punti di interazione a bassa luminosità saranno invece occupati dagli esperimenti ALICE ed LHC-B, ottimizzati rispettivamente per la fisica degli ioni pesanti e la fisica dei quark b. Si prevede che la costruzione di LHC potrà essere ultimata per il 2007. Il periodo di acquisizione dati sarà poi suddiviso in due fasi: nella prima, della durata approssimativa di tre anni, si raggiungeranno luminosità dell’ ordine di 10 33 cm 2 s 1 ; successivamente le potenzialità del collider verranno sfruttate appieno, raggiungendo così una luminosità pari a 1034 cm 2 s 1 . 1.3 Fisica ad LHC Verranno ora evidenziati alcuni elementi propri della produzione di eventi fisici in LHC, per poi analizzare, nel prossimo paragrafo, la produzione ed il decadimento del bosone di Higgs in maniera esauriente. La sezione d’urto totale dell’ interazione protone-protone può essere stimata utilizzando i risultati di precedenti esperimenti, UA4, UA5 ed E710 [4]: σtot 110 20 mb In questo valore sono comprese anche le interazioni puramente elastiche, che non danno luogo alla produzione di particelle. Ipotizzando una luminosità di 10 34 cm 2 s 1 , i restanti 70 mb corrisponderanno dunque a circa 7 108 eventi/s. Questi ultimi eventi possono essere suddivisi in due classi: Interazioni a grande distanza tra protoni con piccolo impulso trasferito. In questo caso le particelle nello stato finale avranno un grande momento longitudinale ed un piccolo momento trasverso ( pT 500 MeV), e quindi un angolo di diffusione molto piccolo. Di conseguenza gran parte delle particelle finali sarà contenuta all’interno della beam pipe. Questi eventi vengono detti di minimum bias e non presentano caratteristiche fisiche di particolare interesse, ma possono contribuire a deteriorare significativamente segnali fisicamente rilevanti. Interazioni a breve distanza tra i costituenti dei protoni (quark e gluoni). Sono interazioni caratterizzate da un grande impulso trasferito e danno origine a particelle negli stati finali a grandi angoli di diffusione, finendo dunque nelle zone sensibili del detector, e ad alto impulso trasverso. Sono queste le interazioni più interessanti da studiare, ma hanno una rate molto minore rispetto agli eventi di Minimum Bias: ad esempio, la produzione del bosone W attraverso il processo di annichilazione quark-antiquark ha una sezione d’urto circa 105 volte inferiore a quella totale inelastica. 12 Lo schema generico di un’interazione ad alto momento trasferito tra protoni è visibile in figura 1.2. Il protone, a causa delle alte energie in gioco, può essere Figura 1.2: Schema di una generica interazione pp ad alto momento trasferito. schematizzato a tutti gli effetti come un fascio di partoni, ognuno dei quali trasporta una frazione x dell’impulso totale del protone; le distribuzioni rispetto a x dei partoni vengono chiamate funzioni di distribuzione partoniche (PDF). Le PDF dipendono dal quadrimpulso scambiato nell’interazione (Q 2 ): a grandi Q2 , infatti, vi è la possibilità di risolvere la struttura interna del protone, spostando le PDF verso piccoli valori di x. Viceversa a piccoli Q2 il contributo maggiore deriva principalmente dai quark di valenza, con valori più elevati di x. Nella figura 1.3 si trovano due esempi di PDF per il protone a Q2 20 GeV2 e Q2 104 GeV2 . Figura 1.3: Funzioni di distribuzione partoniche CTEQ4M [5] per (sinistra) Q 2 20 Gev2 e per (destra) Q2 ridotta di un fattore 10. 104 Gev2 . La funzione di distribuzione per il gluone è stata La determinazione della dipendenza delle funzioni di distribuzione dal Q 2 scambiato è tanto più difficile quanto più il Q2 diminuisce, in quanto l’ approssimazione perturbativa è sempre meno vera. Tale incertezza costituisce uno dei maggiori limiti delle odierne simulazioni di eventi fisici. 1. Modello Standard e LHC 13 Da quanto detto segue che l’ interazione avviene non tra i due protoni, ma tra due partoni che costituiscono il protone. Si può legare l’energia nel centro di massa effettiva ( ŝ) all’ energia nel centro di massa nominale della macchina ( s) tramite la relazione: xa xb s ŝ (1.26) dove xa e xb sono le frazioni dell’impulso dei due protoni trasportate dai partoni coinvolti nell’interazione. La sezione d’urto di una generica interazione ad alto momento trasferito può essere scritta come: σ ∑ dxa dxb fa xa Q2 fb xb Q2 σ̂ab xa xb (1.27) ab Nella precedente σ̂ab è la sezione d’urto dell’interazione elementare tra i partoni a e b, mentre fa xa Q2 e fb xb Q2 rappresentano le PDF per tali partoni. Nella tabella 1.2 si riporta la frequenza prevista a LHC a bassa luminosità (R L σ) per alcuni importanti processi. Processo W eν Z l l tt bb H (MH 800 GeV) QCD jet (pT 200 GeV) Eventi/s Eventi/anno 15 5 108 1.5 5 107 0.8 3 107 105 3 1012 0.001 3 104 102 3 109 Tabella 1.2: Frequenze aspettate ad LHC per alcuni processi. [4] Le alte rate esposte nella tabella precedente sono rese possibili dall’ alta luminosità prevista in LHC, che permetterà, grazie all’ alto numero di eventi prodotti, di ottenere errori statistici piccoli rispetto agli errori sistematici. Limitazioni alla minimizzazione di tale errore sono imposte principalmente da due fenomeni: il cosiddetto pile-up, ossia la sovrapposizione di eventi minimum bias alle collisioni ad alto Q2 , ed il fondo di QCD dovuto alla produzione di jet ad alto pT . Ad alta luminosità avvengono circa 20 interazioni minimum bias ad ogni bunch crossing, dando origine, ogni 25 ns, a circa 1000 particelle cariche nella regione di pseudorapidità1 η 2 5. Tale fenomeno rende dunque possibile che nello pseudorapidità η è definita come η linea di intersezione dei fasci. 1 La ln cotθ 2, dove θ è l’angolo polare rispetto alla 14 stesso elemento di rivelatore il segnale misurato sia il risultato della sovrapposizione di segnali dovuti ad eventi diversi, provocando quindi errori nella misura delle quantità fisiche volute. Per quanto concerne invece il cosiddetto fondo di QCD, si può notare che la frequenza di eventi ad alto impulso trasverso è dominata in LHC dalla produzione di jet associata ad interazioni di QCD, cosa che rende del tutto impossibile l’analisi di eventi fisici aventi stati finali esclusivamente adronici, non separabili dal fondo; si preferisce utilizzare, quindi, stati finali in cui vi sia almeno un leptone, i quali, di solito, presentano un branching ratio (B.R.) inferiore rispetto ai decadimenti in quarks. Gli obiettivi di ricerca di LHC non riguardano soltanto il bosone di Higgs, che verrà discusso in dettaglio nel prossimo paragrafo, ma spaziano in molti degli attuali campi di ricerca della fisica delle particelle. La ricerca verrà infatti indirizzata anche sulla verifica della teoria Supersimmetrica e sulla rilevazione delle particelle che da tale teoria sono previste, sulla misura di precisione di alcune grandezze fisiche di grande interesse, come αS o la massa dei quark, sullo studio della violazione di CP. 1.4 Bosone di Higgs: canali di produzione e di decadimento Come detto l’ obiettivo principale di LHC è la ricerca del bosone di Higgs, la cui rilevazione darebbe un’ ulteriore conferma della validità del Modello Standard. Sebbene il MS non predica la massa dell’ Higgs, è possibile dedurre dei limiti all’ interno dei quali effettuare la ricerca. Il limite superiore è legato ad un’ argomentazione relativa alla consistenza del MS [6]. Se il MS è consistente, l’ approccio perturbativo deve mantenere la sua validità e i processi mediati dal bosone di Higgs devono compensare l’ aumento delle sezioni d’ urto dei processi (rinormalizzabilità della teoria). Se però la massa dell’ Higgs fosse maggiore di 1 TeV, si avrebbe un fallimento della teoria perturbativa prima che i processi mediati dall’ Higgs diventino rilevanti. Dunque MH 1 TeV. Il limite inferiore è invece stato fissato dagli esperimenti condotti al LEP ([7]): dalle misure effettuate si evince che MH 114 1 GeV. Inoltre i risultati di LEP2, ottenuti combinando i dati dei quattro esperimenti ALEPH, L3, OPAL e DELPHI, mostrano un eccesso di eventi sopra il background compatibile con un bosone di Higgs di bassa massa, intorno ai 115 GeV; per questo motivo, nella progettazione degli esperimenti volti a rilevare l’ Higgs, si è dedicata particolare attenzione al range energetico tra i 100 e i 200 GeV. 1. Modello Standard e LHC 15 1.4.1 Canali di produzione dell’ Higgs I meccanismi principali di produzione del bosone di Higgs a LHC sono: gg H fusione gluone-gluone qq̄ W W ZZ qq̄ W Z W Z Hqq̄ H fusione WW o ZZ brem da W o Z qq̄ gg t t¯ H radiazione da t t¯ I relativi diagrammi sono visualizzati in figura 1.4; la figura 1.5 mostra invece le sezioni d’ urto relative ai processi descritti per un’energia del centro di massa pari a 14 TeV. Figura 1.4: Principali diagrammi di produzione del bosone di Higgs ad LHC Il contributo principale alle sezioni d’ urto è quello proveniente dal cosiddetto leading order (LO), che rappresenta il contributo proveniente dai termini di interazione della Lagrangiana di QCD. Alcuni processi hanno inoltre dei contributi significativi al next to leading order; queste correzioni possono essere incluse moltiplicando le sezioni d’ urto al leading order per un semplice fattore, il cosiddetto fattore K = σNLO σLO . La produzione di un Higgs da un loop del quark t, generato per fusione gluonegluone, è il processo dominante per tutto l’intervallo di massa preso in considerazione; tale processo è inoltre amplificato da processi di QCD di ordine superio- 16 Figura 1.5: Sezione d’urto totale di produzione del bosone di Higgs in funzione di M H per i processi descritti ad un’ energia nel centro di massa di 14 TeV . MH e i contributi con un re (NLO), come i contributi virtuali al processo gg ulteriore partone nello stato finale, che aumentano la sezione d’ urto del 60-90%. Il processo di produzione dell’ Higgs per fusione tra bosoni vettori rappresenta un contributo significativo: per una massa dell’ ordine di 100 GeV tale contributo è inferiore di circa un ordine di grandezza, ma aumenta all’ aumentare della massa dell’ Higgs fino a diventare comparabile con il processo di fusione gg per energie prossime a 1 TeV. In questo caso le correzioni di ordine superiore hanno una rilevanza minore: La sezione d’ urto LO subisce una correzione dell’ 8-10%. I due rimanenti processi danno un contributo significativo solamente per M H 120 GeV; essi possono però risultare interessanti se è possibile identificare il bosone vettore dalla coppia t t¯. Le correzioni al NLO portano un contributo tra il 25 e il 40% alla sezione d’ urto. 1.4.2 Canali di decadimento dell’ Higgs In figura 1.6 sono riportati i principali canali di decadimento del bosone di Higgs nel range di massa tra 50 GeV e 1 TeV. Si può osservare come la produzione di coppie di fermioni e di gluoni sia più rilevante per MH M2W , mentre al di sopra dei 200 GeV la produzione di coppie di bosoni vettori (WW, ZZ, γγ) prende il sopravvento. Dunque nel range di energie in cui ci si aspetta di trovare l’ Higgs il canale di decadimento più rilevante è H bb̄; questo, però, risulta estremamente complicato da rilevare a causa dell’ alto valore del fondo di produzione di coppie b b̄ 1. Modello Standard e LHC 17 Figura 1.6: Rapporti di decadimento dell’ Higgs nel range di M H tra 50 GeV e 1 TeV 18 (106 coppie bb̄ di fondo al secondo alla massima luminosità contro 10 2 Hz del bb). I canali più facilmente identificabili sono invece quelli che processo H presentano, nello stato finale, leptoni carichi o fotoni: le relative B.R. sono, però, nettamente minori rispetto al decadimento bb̄. Di seguito saranno ora riportati e discussi i canali più promettenti ai fini della rilevazione del bosone di Higgs: si tratta principalmente di canali leptonici, per i quali risulta cruciale l’ alta luminosità prevista in LHC, a causa della loro bassa sezione d’ urto. Nella figura 1.7 sono riportati i canali più promettenti al variare della massa dell’ Higgs. Figura 1.7: Canali preferenziali per la rilevazione del bosone di Higgs al variare della sua massa. Il canale H γγ Il canale di decadimento dell’ Higgs in due fotoni è adatto alla ricerca della particella per una massa compresa tra 100 e 150 GeV. L’ identificazione avviene tramite la ricostruzione della massa invariante dei due fotoni, una volta note le energie e le direzioni di entrambi. Le caratteristiche del canale in esame, oltre alla ridotta branching ratio, sono la piccola ampiezza intrinseca dell’ Higgs (Γ H 10 MeV) e il cospicuo background, che rende necessario avere un’ eccellente risoluzione in massa al fine di distinguere il segnale. Il fondo può essere distinto in due categorie: 1. Modello Standard e LHC 19 FONDO IRRIDUCIBILE: Si tratta di eventi che hanno lo stesso stato finale γγ del segnale da rivelare: qq γγ gg γγ qg qγ qγγ È possibile migliorare il rapporto tra eventi di segnale ed eventi di fondo applicando tagli che sfruttino le differenti proprietà cinematiche dei due eventi. FONDO RIDUCIBILE: Si tratta di eventi γ+jet, in cui un π0 all’ interno del jet è stato scambiato per un fotone, o di eventi jet+jet, in cui entrambi i jet sono stati scambiati per fotoni. Tale segnale è molto grande (dell’ ordine di 108 volte più grande del segnale), ma può essere ridotto utilizzando un calorimetro le cui prestazioni permettano di distinguere il segnale proveniente da un fotone isolato da quello proveniente da particelle all’ interno dei jet. Il risultato della riduzione del fondo sul segnale è mostrato in figura 1.8. Figura 1.8: Plot di massa invariante da una coppia di fotoni dopo la sottrazione del background con segnali a mH = 90, 110, 130 e 150 GeV ed una luminosità integrata pari a 105 (sinistra) e 3 104 (destra) pb 1 L’ effettiva presenza di un segnale fisico in presenza di un background può essere quantificata attraverso la significatività S. Indicando con NB il numero di eventi di fondo nella regione del picco e con NS il numero di eventi di segnale 20 e assumendo che NB sia caratterizzata da una distribuzione Poissoniana e abbia dunque deviazione standard pari a NB , si può definire la significatività come: S NS NB (1.28) La grandezza in questione rappresenta dunque l’ampiezza del segnale normalizzata alla deviazione standard del fondo. Generalmente si considerano significativi i segnali con S 5, ossia i casi in cui il segnale è più di 5 volte maggiore della deviazione standard del fondo (la probabilità che le fluttuazioni poissoniane siano maggiori di 5σ è circa 6 10 5 ). I due parametri fondamentali che incidono su S sono la risoluzione del rivelatore e la luminosità integrata della macchina. Per quanto riguarda la prima, una variazione della σr di un fattore X comporta, ipotizzando che la risoluzione del segnale sia dominata da σr , che l’ ampiezza del segnale vari di un fattore X. Di conseguenza il numero di eventi di fondo nella regione del picco risulta moltiplicato di un fattore X, mentre il numero di eventi di segnale nel picco risulta invariato. Invece una variazione della luminosità di un fattore Y fa in modo che sia NB che NS varino di un fattore Y, dando così un contributo a S del tipo Y . Complessivamente dunque si ha: S∝ Lint σr (1.29) Dunque, a parità di luminosità, rivelatori con risoluzione migliore hanno maggior probabilità di distinguere il segnale dal fondo. Dall’ equazione per il calcolo della massa invariante a partire dal quadrivettore dei due fotoni: Mγγ E1 E2 2 p1 p2 2 (1.30) si ottiene: σ Mγγ Mγγ 1 2 σ E1 σ E2 σ θ12 E1 E2 tg θ12 2 (1.31) dove θ12 è l’angolo formato dai due fotoni ed il simbolo indica la somma in quadratura a b a2 b2 . La formula precedente, dunque, rende evidente la necessitá di un calorimetro elettromagnetico in grado di garantire alte prestazioni nella risoluzione delle misure in energia e in angolo. Il calorimetro elettromagnetico di CMS è stato realizzato con cristalli di tungstato di piombo (PbWO4 ): tale materiale assicura un ottimo contenimento laterale dello sciame elettromagnetico (il raggio di Molière è pari a 21.9 mm) e una lunghezza di radiazione contenuta (0.89 cm). La granularità ∆η ∆φ 1. Modello Standard e LHC 21 15 NS/√NB 10 5 30 fb–1 (low luminosity) 100 fb–1 (high luminosity) 0 100 110 120 130 140 150 mγγ (GeV) Figura 1.9: Significatività del segnale in funzione di M H per H bassa luminosità e dopo 100 fb 1 γγ dopo 30 fb 1 a [8]. 0 0175 0 0175 corrisponde ad una faccia del cristallo di circa 22 22 cm 2 , cioè all’ incirca un raggio di Molière. Queste caratteristiche garantiranno un’ottima risoluzione sia in energia che in angolo, permettettendo di ottenere una risoluzione sulla massa invariante della coppia fotonica derivante dal decadimento di un Higgs di massa 100 GeV pari a σM 0.7 GeV. La significatività, in CMS, del segnale in funzione della massa del bosone di Higgs è riportata in figura 1.9. La differenza tra la fase a bassa luminosità e la fase ad alta luminosità non è dovuta unicamente alla diversa statistica, ma anche a diversi valori della risoluzione in energia e di quella angolare, dovuti agli effetti del sovrapporsi di eventi di pile-up. Il canale H ZZ 4 leptoni carichi Il decadimento dell’ Higgs in 4 leptoni (elettroni o muoni) attraverso la produzione di due bosoni Z può essere sfruttato nell’ intervallo di energie 140 GeV < m H < 700 GeV. Al di sotto della soglia di produzione di due bosoni Z il decadimento avviene con la produzione di uno stato intermedio ZZ in cui uno Z è reale e l’ altro virtuale. Le caratteristiche del canale sono: branching ratio relativamente bassa (10 2 10 3 per i processi mediati da 22 ZZ , 0.3 per quelli mediati da ZZ); questi valori sono ulteriormente abbassati dalla branching ratio di Z in e e , µ µ , ognuna pari all’ incirca al 3.7%. chiara segnatura sperimentale, costituita da cluster elettromagnetici isolati e/o tracce ricostruite. presenza di bremsstrahlung, che può limitare la capacità di ricostruzione del segnale. Il segnale è rappresentato dalla presenza di un picco nella distribuzione della massa invariante dei 4 leptoni. Poichè in tale regione la larghezza intrinseca dell’ Higgs risulta piccola (ΓH 1 GeV), la significatività del segnale è fortemente legata alla risoluzione della massa invariante: risulta dunque cruciale la misura dell’ impulso dei leptoni. Il fondo per questo segnale consiste nella produzione ZZ , ZZ (irriducibile), tt, Zbb (riducibile). La riduzione del fondo può essere fatta richiedendo che la massa invariante di una coppia leptonica (nel caso ZZ ) o di entrambe le coppie leptoniche (nel caso ZZ) sia MZ . (e e e e , µ µ µ µ o µ µ e e ). H ± 4l ZZ* Events / GeV for Lint = 105 pb–1 40 t t + Z b b + ZZ* s = 14 TeV bkgd 105 pb–1 30 CTEQ2L mtop = 174 GeV 20 10 0 100 120 140 160 180 200 M 4l± (GeV) D.D 609n Figura 1.10: Segnale aspettato per il canale H ZZ 4 leptoni carichi per MH = 130 GeV, MH = 150 GeV, MH = 170 GeV [9]. Nelle figure 1.10 e 1.11 è mostrato il segnale aspettato per MH pari a 130, 150 e 170 GeV per decadimenti della coppia di bosoni Z, rispettivamente, in 4 leptoni e in 4 muoni. La luminosità integrata è pari, rispettivamente, a 10 5 e 2 105 pb 1 . Il fondo è stato ridotto imponendo che tre dei quattro leptoni carichi 1. Modello Standard e LHC 23 Figura 1.11: Segnale aspettato per il canale H ZZ µ µ µ µ per MH = 130 GeV, MH = 150 GeV, MH = 170 GeV [9]. risultino isolati nel sistema di tracciamento interno, applicando i tagli sull’impulso traverso indicati in figura, ed infine imponendo che la massa invariante di una coppia leptonica sia contenuta in MZ 3σZ . In figura 1.12 è mostrata la significatività di questo canale per diversi valori di MH . Il canale H ZZ 2l2ν Per alti valori della massa dell’ Higgs la significatività del canale di decadimento in 4 leptoni diminuisce a causa della diminuzione della sezione d’ urto di produzione dell’ Higgs stesso. Occorre dunque sfruttare canali per i quali si possa ottenere una maggiore rate di produzione; uno di questi è il decadimento dell’ Higgs in due leptoni (elettroni o muoni) e due neutrini attraverso lo stato intermedio ZZ. Tale processo mostra una B. R. pari a 6 volte quella del decadimento in 4 leptoni: infatti la B. R. del processo Z νν è pari a circa il 20%, contro il 3.37% del decadimento in due leptoni, da cui si ottiene che il fattore di riduzione rispetto al segnale totale H 2Z è di 0.027 2 0 0337 2 0 2 contro lo 0.0045 2 0 0337 2 0 0337 dello stato finale di 4 leptoni. Le caratteristiche del canale sono: segnale dell’ ordine delle decine di f b. 24 Figura 1.12: Significatività del segnale H dell’ Higgs per luminosità integrate da 5 ZZ ZZ 4l 3 5 1 10 a 10 pb . in funzione della massa la massa dell’ Higgs non può essere ricostruita (il neutrino non è rilevabile) ma può essere stimata dall’ energia trasversa del sistema. I principali processi che contribuiscono al background sono coppie ZZ, ZW e WW che decadono in due leptoni e due neutrini (fondo irriducibile), tt che decade in leptoni e neutrini e jet in cui è presente uno Z che decade in 2 leptoni e per i quali parte dell’ energia trasversa non sia stata ricostruita (fondo riducibile). La riduzione del fondo avviene richiedendo che la massa invariante dei due leptoni sia compatibile con quella dello Z e imponendo alcuni tagli sul Pt mancante dei jet. Il canale H WW 2l2ν L’ apertura del canale di decadimento H WW alla soglia di energia 2MW causa un decremento rilevante della branching ratio del decadimento H ZZ. In questa regione di energie si può utilizzare l’ alta branching ratio del canale H WW e studiare i decadimenti leptonici del bosone W. Le caratteristiche del canale sono: la massa dell’ Higgs non può essere ricostruita direttamente, ma può essere stimata dalla cinematica del sistema dei due leptoni misurati. la segnatura sperimentale dell’ evento H WW è rappresentata da due elettroni (o muoni) isolati e dall’ impulso trasverso totale pt mancante. si può ottenere un rapporto tra segnale e background pari a 1. 1. Modello Standard e LHC 25 Figura 1.13: Segnale aspettato con background per M H (sinistra) e per MH 800 GeV e Lint 105 500 GeV e Lint 104 pb 1 pb 1 (destra) I processi che costituiscono il background sono la produzione non risonante W W (fondo irriducibile), tt con t W b e la produzione di un W in associazione con i quark b o t (fondo riducibile). I canali H WW l ν jet jet ed H ZZ l l jet jet Nel caso in cui la massa dell’Higgs sia elevata (600 GeV MH 1 TeV) è necessario utilizzare canali con un elevato branching ratio per compensare la piccola sezione d’urto di produzione dell’Higgs (σH 100 fb). I due canali presi in considerazione (H WW lν jet jet ed H ZZ ll jet jet) hanno delle B.R. circa 150 volte più grandi dei canali precedenti. Diversi processi contribuiscono al fondo: creazione di coppie WW o ZZ (irriducibile), coppie tt, produzione di W jet o Z jet (riducibile). Gli eventi di segnale sono caratterizzati dalla presenza di un leptone e di una grande energia trasversa mancante, o di due leptoni carichi e di due jet con massa invariante M2 j MW . Per ridurre ulteriormente il fondo si può sfruttare il fatto che a queste energie la produzione del bosone di Higgs tramite fusione WW o ZZ diviene comparabile con la produzione tramite fusione gg. Tale meccanismo comporta la produzione di due jet energetici in avanti, utilizzabili per il riconoscimento del segnale. L’uso di un calorimetro adronico capace di coprire alti valori di rapidità (fino ad η 5) consente di avere un segnale con significatività 6 dopo un anno di presa dati alla massima luminosità. In figura 1.14 sono riportati i segnali aspettati nel caso di MH = 1 TeV per una luminosità integrata pari a 3 104 pb 1 , dopo aver effettuato i tagli cinematici indicati. 26 Figura 1.14: Segnali aspettati per i canali H WW l ν jet jet ed H ZZ l l jet jet . Capitolo 2 L’ esperimento CMS L’ esperimento Compact Muon Solenoid (CMS) occuperà uno dei 4 punti di interazione previsti per LHC a partire dal 2007. CMS è stato progettato per rispondere ad una delle maggiori questioni dell’ odierna fisica delle particelle: l’ origine della rottura spontanea di simmetria nel settore elettrodebole del Modello Standard. L’ obiettivo principale è rappresentato dalla scoperta e l’ analisi del bosone di Higgs, sia esso quello previsto dal Modello Standard o dalle sue estensioni. Nel presente capitolo verranno presentate e motivate le soluzioni costruttive scelte nella progettazione di CMS per raggiungere tali finalità. Nella figura 2.1 è riportata una visione d’ insieme di CMS. 2.1 Criteri di progettazione per CMS Le principali caratteristiche di LHC, come esposto nel capitolo precedente, sono: grande molteplicità di particelle; breve intervallo temporale tra i bunch crossing; intensa radiazione di fondo. Queste caratteristiche, assieme agli obiettivi di fisica da raggiungere, determinano per CMS i seguenti criteri di progettazione: sistema ottimale di identificazione e misura dei muoni; calorimetro elettromagnetico ad alta risoluzione per la misura di fotoni ed elettroni; sistema di tracciamento interno che permetta un efficiente ricostruzione delle tracce ed una precisa misura del loro momento al fine di raggiungere gli obiettivi esposti; 27 28 The CMS Detector at point 5 of LHC EXPERIMENTAL HALL UXC 55 ACCESS SHAFT PXC 54 Figura 2.1: Il rivelatore CMS ad LHC. MB Y ME JURA p HF ME HB HE EE EB TK TK TK EE 1.23% HE HF SALEVE η Z φ p Beam Slope 1.23% g True Vertical X (Horizontal) SIDE ACCESS Machin e Cente r jlb/Pi Ground Slope 1.23% 2. L’ esperimento CMS 29 mantenimento delle dimensioni del rivelatore entro limiti che garantiscano il contenimento dei costi. Per raggiungere questi obiettivi, è stato scelto per CMS un campo magnetico di 4 T, generato da un magnete solenoidale di raggio interno pari a 2.95 m e lunghezza di 13 m, posto immediatamente all’ esterno del sistema calorimetrico. I vantaggi di un campo magnetico di tale intensità sono la possibilità di ottenere misure dell’ impulso dei muoni estremamente accurate e la diminuzione della molteplicità delle tracce nel barrel del calorimetro elettromagnetico. Una sezione di CMS con una tipica traccia muonica è mostrata in figura 2.2. All’ interno del solenoide il campo magnetico è diretto lungo l’ asse z e incurva dunque la particella nel piano trasverso; all’ esterno il campo magnetico assume direzione opposta, dando così alla traccia del muone la classica forma a S. Gli svantaggi di un alto valore del campo magnetico sono costituiti dall’ alta molteplicità per piccoli valori del raggio, causata dalla spiralizzazione delle tracce a basso impulso trasverso, e dai limiti sulle dimensioni massime di un magnete solenoidale: il primo problema è stato risolto dotando di un’ alta granularità il sistema di tracking interno, il secondo costruendo un calorimetro estremamente compatto. Dimensioni e peso: Il raggio del rivelatore è di 7.5 m, la lunghezza 21.6 m ed il peso è circa 12500 t; CMS sarà installato nel punto 5 di LHC, nei pressi del villaggio francese di Cessy, e dovrebbe essere pronto per le prime operazioni di presa dati intorno al 2007. Nei paragrafi successivi verranno esposte le peculiarità dei diversi rivelatori che costituiscono CMS, prestando particolare attenzione nell’ analisi del calorimetro elettromagnetico, le cui prestazioni risultano fondamentali per gli argomenti trattati nel presente lavoro. 2.2 Il rivelatore per muoni La rivelazione dei muoni risulta di grande importanza in CMS per il canale di decadimento H ZZ ZZ 4l, in cui almeno una coppia di leptoni sia costituita da muoni. Questo canale copre gran parte dell’ intervallo di energie in cui verrà effettuata la ricerca. Inoltre una corretta individuazione dei muoni può contribuire alla verifica delle teorie supersimmetriche, per esempio rivelando, nel decadimento H 2τ, il muone proveniente dal decadimento del τ. La misura del momento dei muoni può essere effettuata in due modalità indipendenti: utilizzando esclusivamente le informazioni del sistema dei muoni e la posizione del vertice d’interazione, oppure combinandole alle informazioni date dal sistema di tracciamento interno, metodo questo che garantisce una maggiore precisione sulla misura. 30 Figura 2.2: Sezione dell’ esperimento CMS con la tipica traccia di un muone. 2. L’ esperimento CMS 31 Il rivelatore per muoni di CMS è suddiviso in due parti: una sezione centrale che si estende fino a valori di pseudorapidità η 1 3, ed una sezione in avanti che ricopre la regione con 0 9 η 2 4. Nel rivelatore centrale sono presenti tubi a deriva che vengono a trovarsi in una regione caratterizzata da una bassa frequenza di eventi (occupazione media = 10 Hz/cm2 ) e da un ridotto campo magnetico. Le camere sono organizzate in 4 stazioni concentriche, alternate agli strati in ferro del giogo di ritorno del magnete (vedi figura 2.1, dove sono indicate con la sigla MB, e figura 2.3), suddivise, seguendo la struttura dello stesso giogo, in 5 anelli. Un anello è costituito da 12 settori di 30o ciascuno ed in un settore si trovano 4 camere, appartenenti alle 4 stazioni, composte ognuna da 12 piani di tubi a deriva per un totale di 195000 tubi [10]. Figura 2.3: Struttura del rivelatore per muoni. I tubi sono organizzati in strutture indipendenti di 4 strati, dette Super Layers. In ogni camera vi sono 3 SL; i primi due hanno celle parallele al fascio e forniscono quindi misure dell’angolo φ, nel terzo le celle sono posizionate perpendicolarmente al fascio e forniscono misure della coordinata z. Il tempo massimo di deriva è 400 ns, sufficientemente piccolo per evitare sovrapposizioni di segnali. Le risoluzioni spaziali raggiungibili sono: per un singolo tubo 250 µm; per la misura della coordinata z, effettuata con 3 o 4 punti, 150 µm; per la misura di R φ, effettuata con 6/8 punti, 100 µm. Per il rivelatore in avanti si è scelto di utilizzare camere a strisce catodiche 32 (CSC), adatte a lavorare in presenza di un campo magnetico elevato e di un alto flusso di particelle (occupazione media = 103 Hz/cm2 ). Il rivelatore è costituito anche in questo caso da 4 stazioni (indicate con la sigla ME in figura 2.1). La stazione più interna è suddivisa in 3 anelli concentrici di camere, mentre le restanti 3 stazioni hanno ognuna 2 anelli (vedi figura 2.3). Gli anelli più esterni sono composti da 36 camere, di struttura trapezoidale, che coprono un angolo in φ di 10o , mentre quelli più interni contano 18 camere ciascuno, andando a coprire un angolo in φ di 20o per un totale di 540 camere. Ogni camera è composta da 6 strati di strisce catodiche (strip), disposte in direzione radiale, e da 6 strati di fili anodici, alternati ai piani di strip, posizionati perpendicolarmente alla linea radiale centrale. Ogni camera fornisce dunque 6 misure per la coordinata φ (Piani di strip) e 6 misure per la coordinata R (fili anodici). Il tempo massimo di deriva è 40 ns. In questo caso, la risoluzione nella misura di R φ è di 150 µm (ridotta a 75 µm per gli anelli più interni della prima stazione), mentre la misura di R ha una risoluzione di circa 5 µm. Sono state inoltre predisposte delle camere a piatti resistivi (RPC) sia nella parte centrale che in quella in avanti del rivelatore, fino ad una pseudorapidità η = 2.1, che vengono utilizzate nel sistema di trigger per i muoni. Gli RPC sono infatti rivelatori molto veloci, hanno una risoluzione temporale di circa 3 ns e sono sufficientemente economici da permettere un’alta segmentazione. Vi sono 6 stazioni di RPC nella regione centrale e 4 nella regione in avanti per un totale di 612 camere. Le prestazioni che il sistema per muoni sarà in grado di fornire possono essere riassunte in: corretta assegnazione di carica con un livello di confidenza del 99 % per muoni con impulso fino a 7 TeV; risoluzione sulla misura del momento trasverso nella zona 0 η 2 (effettuata non avvalendosi del contributo di altri rivelatori) pari a: ∆pT pT 6 10% per un pT 10 GeV, 7 20% per pT 100 GeV e 15 35% per pT 1 TeV; risoluzione sulla misura del momento trasverso nella zona 0 η 2 (combinando i dati con quelli forniti dal sistema di tracciamento interno) pari a: ∆pT pT 0 5 1 0% per un pT 10 GeV, 1 57 5% per pT 100 GeV e 5 20% per pT 1 TeV; identificazione del bunch crossing con efficienza 99%. In figura 2.4 è riportato l’andamento della risoluzione sulla misura del momento dei muoni rispetto alla pseudorapidità, effettuata esclusivamente tramite il sistema 2. L’ esperimento CMS 33 per muoni o combinando i risultati con quelli provenienti dal sistema di tracciamento interno. Tale risultato è stato ottenuto tramite una simulazione dettagliata del rivelatore. Figura 2.4: Risoluzione sul momento per traccie di muoni simulate, ottenuta (sinistra) esclusivamente con il sistema per muoni e (destra) combinando i risultati con quelli provenienti dal sistema di tracciamento interno. 2.3 Il sistema di tracciamento Il sistema di tracciamento interno permette una misura accurata del momento delle particelle cariche all’ interno di CMS: in particolare permette misure di momento per tutti i prodotti di decadimento dell’ Higgs rappresentati da leptoni carichi. Verrà inoltre utilizzato per separare i fotoni dai leptoni all’ interno del calorimetro elettromagnetico, per stabilirne l’isolamento e per sopprimere il fondo nella maggior parte dei canali di decadimento dell’Higgs; permetterà infine di localizzare il vertice di molti processi, come, ad esempio, nel canale H γγ. Le richieste principali per il sistema di tracciamento sono una buona efficienza nella misura di tracce (particelle cariche) ad alto pT , siano esse isolate o all’interno di jet, nella regione η 2 6, e la capacità di identificare i vertici di produzione, primari e non. Inoltre l’ alta luminosità di LHC e l’ elevato valore del campo magnetico richiederanno la necessità di confrontarsi con un gran numero di tracce, caratterizzate, soprattutto a piccole distanze dal punto d’ interazione, da un’ alta densità [11]. La struttura del sistema è rappresentata in fig. 2.5. I rivelatori sono sistemati in strutture cilindriche (Barrel), centrate sulla regione d’interazione, ed in dischi (Endcap) posti a chiudere tali strutture. 34 Figura 2.5: Schema del sistema di tracciamento. Nella regione a maggior densità di particelle (fino ad un raggio di 20 cm) sono presenti 3 cilindri e 4 dischi (2 in avanti e 2 indietro) di rivelatori a Pixel di silicio. Le dimensioni della cella di lettura del segnale sono di 150 µm 150 µm per un totale di circa 4 107 celle. La risoluzione è di circa 15 µm sia in z che in φ. Nella regione intermedia (raggio tra 22 e 60 cm) sono presenti 5 cilindri e 10 dischi per ogni lato di rivelatori di strip di Silicio. I primi due cilindri hanno lunghezza minore dei successivi e, per completare la copertura della regione, sono stati inseriti 3 dischi per lato (Mini Endcap), per un totale di circa 5.4 106 canali. Una singola strip ha lunghezza pari a 12.5 cm e passo tra 61 µm e 244 µm permettendo una risoluzione di 15 µm per le strip di passo minore ed una risoluzione pari al limite (spessore/ 12) nel caso di passo maggiore. Anche per la regione più esterna si utilizzano strip di Silicio. Le dimensioni delle strip sono maggiori rispetto a quelle utilizzate nella regione intermedia: hanno infatti una lunghezza di 16 cm ed un passo di 140 µm e 210 µm, fornendo una risoluzione di 40 µm e 60 µm. La lunghezza di 16 cm, confrontata con i 12 cm della regione intermedia, dovrebbe aumentare il rumore di circa il 15%; questo effetto sarà compensato dall’utilizzo di sensori di spessore maggiore, pari a 400 µm, invece degli usuali 300 µm. Per un valore della pseudorapidità fino a η 2.0 una traccia sarà ricostruita a partire da 13 punti. Per pseudorapidità maggiori tale valore diminuisce fino ad un minimo di 8 per η 2.5. Tale sistema è in grado di assicurare una risoluzione 2. L’ esperimento CMS per η 35 1.6 pari a: ∆pT pT 15 pT 0 5 % pT in TeV peggiorando con l’aumentare della pseudorapidità fino a raggiungere, per η = 2.5 il valore di: ∆pT pT 60 pT 0 5 % Nel caso di muoni, la risoluzione sul momento è minore del 10% fino a p ed η 2.0. 4 TeV 2.4 Il calorimetro adronico Il calorimetro adronico viene utilizzato per misurare posizione ed energia delle particelle che costituiscono un jet, al fine di ricostruire direzione ed energia dei partoni da cui hanno origine. Ha anche la funzione di misurare indirettamente i neutrini, identificando la cosidetta ET mancante , in combinazione con il calorimetro elettromagnetico. Il calorimetro adronico contribuisce inoltre all’identificazione di particelle elettromagnetiche e muoni. È suddiviso in una parte centrale, con simmetria cilindrica intorno alla direzione dei fasci, che ricopre la regione con η 1 3, indicata nella fig. 2.1 con HB, ed in due parti poste a chiudere tale struttura fino ad una pseudorapidità η 3, indicate con HE; il fatto che il calorimetro sia posizionato interamente all’interno del magnete solenoidale rende necessario che esso sia realizzato con materiale non magnetico. Il calorimetro adronico di CMS è un calorimetro a campionamento che utilizza strati di rame come assorbitori e strati di scintillatore plastico come materiale attivo; la lettura della luce di scintillazione avviene tramite delle fibre plastiche. La granularità laterale è ∆φ ∆η = 0.087 0.087, sufficiente per ottenere una buona separazione tra i jet ed una buona risoluzione sulla massa. La parte centrale è realizzata con 13 strati in rame spessi 5 cm, mentre lo strato più interno e più esterno sono in acciaio inossidabile di spessore pari a 7 cm, in modo da fornire un’adeguta rigidità. La profondità totale è di 79 cm (corrispondente a 5.15 lunghezze di interazione nucleare λ), estesa poi al valore di 89 cm (5.89 λ) equipaggiando opportunamente lo spazio a ridosso delle travi di sostegno del calorimetro elettromagnetico. Per aumentare la profondità di campionamento un ulteriore strato di scintillatore è posizionato dopo il primo assorbitore del sistema per muoni. Le strutture poste a chiudere la parte centrale sono realizzate nello 36 Figura 2.6: Il calorimetro adronico a CMS. stessa maniera, ma con strati di rame di spessore maggiore (8 cm), conferendo una profondità totale di 10.5 λ. Un calorimetro adronico così realizzato permette di soddisfare le richieste fondamentali: buona ermeticità, granularità, sufficiente profondità per il contenimento degli sciami adronici e adeguata risoluzione in energia. Test su fascio hanno mostrato che è possibile ottenere una risoluzione in energia pari a: σE E GeV 100% E GeV 4 5% nell’intervallo compreso tra 30 GeV ed 1 TeV. Si sono effettuate, inoltre, simulazioni dettagliate per quantificare la risoluzione sulla ET dei jet e su quella mancante. Ad esempio, un bosone W proveniente da un Higgs di 800 GeV che decade in lν j j) può essere ricostruito con una risoluzione sulla massa due jet (H WW di 12 GeV in presenza di eventi di pile-up (8 GeV senza pile-up); la stessa risoluzione può essere ottenuta per un bosone W della catena di decadimento di un quark top (t W b j jb). 2. L’ esperimento CMS 37 2.5 Il calorimetro elettromagnetico di CMS È stata già sottolineata nel primo capitolo l’ importanza di disporre di un calorimetro elettromagnetico di alte prestazioni nei decadimenti dell’ Higgs in cui risulti associata la produzione di almeno un fotone (H γγ) o un elettrone (H 4l in cui almeno una coppia di leptoni è costituita da elettroni), nonchè nell’ identificazione di eventuali particelle supersimmetriche o di nuovi bosoni di gauge, che possano decadere in fotoni o elettroni. La scelta di CMS è stata quella di utilizzare un calorimetro omogeneo: questa soluzione comporta una risoluzione in energia e in posizione migliore rispetto ad un calorimetro a sample in quanto permette, almeno in principio, di rilevare l’ intera quantità di energia depositata. I cristalli di PbWO4 Al fine di soddisfare le richieste del progetto di CMS, le proprietà richieste al materiale di scintillazione costituente i cristalli sono [8]: piccola lunghezza di radiazione; piccolo raggio di Molière; tempo di decadimento contenuto; sufficiente tolleranza alla radiazione. La scelta è caduta su cristalli di tungstato di piombo (PbWO4 ), che, grazie alle loro caratteristiche, consentiranno di contenere notevolmente le dimensioni del calorimetro elettromagnetico. La possibilità di costruire un calorimetro di dimensioni ridotte, come richiesto per il contenimento delle dimensioni del solenoide superconduttore, è legata alla lunghezza di radiazione X0 ed al raggio di Molière del materiale. La lunghezza di radiazione (X0 ) è la distanza media nella quale un elettrone di alta energia perde una frazione (1 1 e) della sua energia per Bremsstrahlung, ed è la scala naturale della lunghezza di un calorimetro elettromagnetico. Entro 25 lunghezze di radiazione è contenuta longitudinalmete circa il 99% dell’ energia dello sciame elettromagnetico. Il raggio di Molière RM è dato da [12]: RM X 0 Es Ec (2.1) dove Es è una costante con le dimensioni di un’ energia, fissata a 21.2 MeV, ed Ec è la cosiddetta energia critica, ossia l’energia per la quale l’energia persa per ionizzazione eguaglia quella persa per bremsstrahlung. Il raggio di Molière 38 caratterizza lo sviluppo laterale dello sciame elettromagnetico: in un cilindro infinitamente lungo, di raggio pari a 1 RM e avente come asse principale la direzione della particella, è contenuto il 90% dell’ energia della particella stessa, il 99% se il raggio è pari a 3.5 RM . In tabella 2.1 sono riportate le caratteristiche fondamentali del PbWO4 , assieme a quelle di altri materiali solitamente utilizzati nella realizzazione di cristalli di scintillazione. Dai dati in tabella si vede come il materiale scelto presenti le seguenti proprietà: la ridotta lunghezza di radiazione (0.89 cm) permette la realizzazione di un calorimetro compatto: infatti cristalli di soli 23 cm di lunghezza assicurano 25.8 lunghezze di radiazione di profondità; il raggio di Molière è sufficientemente piccolo (circa 2.2 cm) per consentire allo stesso tempo un buon contenimento laterale degli sciami elettromagnetici ed un’alta granularità, riducendo gli effetti del Pile-up fisico e garantendo un’ottima risoluzione angolare; la bassa resa in luce del materiale determina la necessità di amplificare adeguatamente il segnale; il 95% della luce di scintillazione viene emessa all’ interno del cristallo in meno di 25 ns; adeguata resistenza alle radiazioni. [g/cm3 ] Densità Lunghezza di radiazione [cm] Raggio di Molière [cm] Massimo di emissione [nm] LY relativo a NaI [%] Tempo di emissione [ns] PbWO4 NaI BGO 8.28 3.67 7.13 0.89 2.59 1.12 2.2 4.5 2.4 420 410 410 440 1 100 15 5(39%) 250 300 15 (60%) CSI(Tl) 4.53 1.85 3.8 305 40 16 BaF2 4.89 2.05 3.4 220 310 5 0.7 620 CeF3 6.16 1.68 2.6 310 340 10 10 30 Tabella 2.1: Alcune caratteristiche del PbWO 4 a confronto con quelle di altri scintillatori (LY indica la risposta di luce) [3]. L’ emissione di luce di scintillazione da parte di un cristallo, come schematizzato in figura 2.7, avviene tramite l’ eccitazione di un elettrone dalla banda di 2. L’ esperimento CMS 39 valenza a quella di conduzione del cristallo (causata dai processi di ionizzazione dello sciame elettromagnetico) ed il suo successivo decadimento in stati energetici intermedi, che si possono distinguere in: livelli di luminescenza: il ritorno allo stato fondamentale è accompagnato dall’emissione di un fotone; livelli di quenching: l’energia di eccitazione è dissipata termicamente senza radiazione; trappole: gli elettroni possono ritornare alla banda di conduzione acquisendo energia dalle vibrazioni del reticolo, oppure ritornare allo stato fondamentale senza emissione di radiazione. La risposta luminosa dei cristalli di PbWO4 è fortemente limitata dal notevole quenching termico. Questo ha comportato la necessità di sviluppare un nuovo tipo di fotorivelatore, il fotodiodo ad amplificazione interna (APD), descritto successivamente, che garantisce un’alta efficienza quantica nella regione di emissione del PbWO4 , sufficiente amplificazione ( 50), basso rumore e scarsa sensibilità al campo magnetico, ragione quest’ultima che impediva l’utilizzo di un fotomoltiplicatore come rivelatore di luce. Il quenching termico rende poi il meccanismo di scintillazione del PbWO4 intrinsecamente dipendente dalla temperatura ( 2% o C); ciò richiede una stabilizzazione della temperatura all’interno del calorimetro con variazioni minori di 0.1 o C. Figura 2.7: Schema tipico di emissione di luce tramite il processo di scintillazione. 40 Figura 2.8: Sviluppo tipico di uno sciame elettromagnetico nei cristalli. In figura 2.9 è rappresentato lo spettro di emissione del PbWO4 ; è il risultato della sovrapposizone di due bande di emissione, piccate rispettivamente a 420 e 440 nm [9]. Come si vede l’ emissione di luce è consistente nella regione compresa tra 360 e 570 nm; è proprio in tale regione che si è cercato di migliorare la trasmissione ottica. Tale quantità può essere ridotta per la presenza di difetti microscopici che diffondono la luce o da impurità che possono intrappolare un elettrone dalla banda di conduzione e rilasciarlo riassorbendo la luce emessa dai livelli di luminescenza. Questo effetto può essere ridotto drogando i cristalli, cioè introducendo una piccola percentuale di elementi chimici che possono occupare le trappole. In figura 2.10 è mostrata la trasmissione dei cristalli attualmente in fabbricazione rispetto a quelli caratterizzati da impurità: si noti come, in corrispondenza del picco dello spettro di emissione del PbWO4 , la trasmissione sia intorno al 70 % per i cristalli attualmente in uso. Un altro problema è rappresentato dal deterioramento a cui vanno incontro i cristalli a seguito della prolungata esposizione all’ irraggiamento di fotoni, che causa la creazione di centri di colore con conseguente riduzione della luce prodotta. Tale riduzione, indicando con LY0 e LYirr la risposta in luce rispettivamente prima e dopo l’ irraggiamento, può essere quantificata come: 2. L’ esperimento CMS 41 1.2 La doped Nb doped Normalised emission 1 0.8 0.6 0.4 0.2 0 300 350 400 450 wavelength (nm) 500 550 600 Figura 2.9: Spettro di emissione del PbWO4 . 100 90 Theoretical transmission from Fresnel losses 80 Transmission (%) 70 60 50 1997 crystal 1995 crystal 40 30 20 10 0 300 350 400 450 500 550 Wavelength (nm) 600 650 700 Figura 2.10: Curva di trasmissione ottica per i cristalli di PbWO 4 , prima e dopo il drogaggio. 42 LY0 LYirr (2.2) LY0 Tale riduzione è stata attenuata tramite l’ introduzione di elementi droganti (Lantanio, Ittrio, Lutezio, Antimonio e Niobio) e ottimizzando la stechiometria. In figura 2.11 è riportato l’ andamento di LYperso in funzione dell’ irraggiamento per le varie tipologie di cristalli esaminati. Si tenga presente che la dose rate aspettata nel Barrel varia da 0.18 a 0.28 Gy/h. LYperso Figura 2.11: Danneggiamento da radiazione per diversi cristalli. Fotorivelatori e catena elettronica La struttura di un APD è schematizzata in figura 2.12. Un fotone di scintillazione proveniente dal cristallo entra attraverso la finestra di Si3 N4 e viene assorbito nello strato p sottostante, creando una coppia elettrone-lacuna. Nei successivi strati p ed n l’elettrone viene accelerato da un elevato campo elettrico, creando un effetto di moltiplicazione tramite ionizzazione per collisione. Gli elettroni così generati migrano attraverso lo strato π fino a raggiungere l’elettrodo n dove vengono raccolti. I vantaggi di un APD sono costituiti da un guadagno interno fino a 200, una piccola corrente di saturazione, una resistenza alle radiazioni che lo rende adatto a lavorare in gran parte del calorimetro e l’ insensibilità al campo magnetico. 2. L’ esperimento CMS 43 Figura 2.12: Struttura di un APD Hamamatsu. La realizzazione di un APD di elevata superficie risulta complicata: in CMS si è dunque scelto di utilizzare 2 APD per ogni cristallo, ognuno di dimensioni pari a circa 5 5 mm2 . Il danneggiamento, causato dal passaggio di neutroni attraverso l’ APD (stimato in circa 1013 /cm2 nel Barrel in 10 anni di attività di LHC) è dovuto a due meccanismi: spostamento degli atomi dal loro sito reticolare con conseguente aumento della corrente oscura (bulk damage), oppure creazione di difetti nello strato superficiale, con conseguente diminuzione dell’efficienza quantica (surface damage)[13]. I fototriodi a vuoto (VPT), schematizzati in figura 2.13, possono essere utilizzati nel calorimetro in avanti, in quanto sono in grado sia di lavorare in presenza di un elevato campo magnetico assiale, sia di sopravvivere all’ elevato flusso di neutroni proprio delle zone ad alta pseudorapidità (circa 1015 neutroni/cm2 in 10 anni nella zona di maggiore pseudorapidità). I fotoni di scintillazione dal cristallo colpiscono il fotocatodo del fototriodo, dove creano alcuni fotoelettroni. I fotoelettroni vengono accelerati verso l’ anodo a causa della differenza di potenziale (circa 1000 V) di quest’ ultimo con il fototriodo (collegato a terra). Gran parte dei fotoelettroni colpisce il dinodo, dove vengono prodotti numerosi elettroni secondari (circa 20 per ogni elettrone primario). Gli elettroni secondari, a loro volta, vengono accelerati verso l’ anodo, dove un’ ampia frazione viene raccolta. Il guadagno effettivo è pari a circa 12. Diverse prove effettuate su prototipi di VPT hanno confermato una buona resistenza alle radiazioni della finestra di vetro posta davanti al fotocatodo (uno dei 44 40 22 dia. SEMITRANSPARENT PHOTOCATHODE 4.5 2.5 DYNODE MESH ANODE Figura 2.13: Struttura di un VPT. principali problemi in questo caso è infatti la creazione di centri di colore con conseguente diminuzione della trasmissione di luce), ed una variazione del guadagno di circa il 10% dopo l’assorbimento di una dose di radiazioni equivalente a 10 anni di attività ad LHC. La catena elettronica, schematizzata in figura 2.14 ha la funzione di trasmettere il segnale del rivelatore alla Counting Room e di fornire le somme digitali al sistema di trigger. Le caratteristiche della catena devono essere un range dinamico fino ad energie dell’ ordine di 2 TeV, un basso contributo al rumore, una buona resistenza alle radiazioni per le componenti interne al rivelatore ed una frequenza di campionamento del segnale pari ai 40 MhZ di frequenza del bunch crossing a LHC. La luce prodotta dai cristalli è convertita in corrente dai fotorivelatori; tale corrente va incontro ad una preamplificazione prima di essere convertita in tensione. La tensione è poi convertita in digitale usando un apposito convertitore (ADC). In uscita agli ADC sono presenti delle schede di front-end digitali, ciascuna delle quali effettua le somme digitali di una torre di trigger (25 cristalli). Per ogni scheda 3 fibre ottiche (una di timing in ingresso con impulso ogni 25 ns e due in uscita con funzioni di trigger e di registrazione dei dati raccolti) trasmettono i dati alla counting room, dove vengono elaborati e trasmessi al Data AQuisition system (DAQ). 2. L’ esperimento CMS 45 Timing ← Si avalanche photodiode → Readout l rysta c O4 PbW Digital readout → Trigger Preamplifier Floating p oint ADC s m su ge r Σ Σ Σ Tr ig Σ Σ Σ Figura 2.14: Schema del sistema di lettura del segnale. Geometria del rivelatore Il calorimetro elettromagnetico può essere suddiviso in tre strutture distinte: Il Barrel, che ricopre valori di pseudorapidità per i quali η 1 4979, i due Endcap, che coprono l’ intervallo di pseudorapidità 1.48 η 3.0 e i due Preshower i quali, posti davanti agli Endcap, ne integrano le funzioni. Il Barrel Il Barrel è costituito da 61200 cristalli di PbWO4 , disposti in una struttura cilindrica di raggio 1.29 metri. I cristalli hanno una forma a tronco di piramide con sezione trapezoidale, lunghezza pari a 23 cm e la faccia più piccola, quella rivolta verso il centro del rivelatore (front-face), di dimensioni 22 22 mm2 (vi sono 34 differenti tipi di cristalli con dimensioni leggermente differenti per ottenere una geometria che punti al vertice d’interazione). La granularità del rivelatore è di 360 cristalli in φ e di 2 85 cristalli in η. Sulla base (Rear-face) di ogni cristallo sono posizionati due fotodiodi a valanga (APD) contenuti in una capsula di materiale plastico che in alcuni casi alloggia anche un sensore termico . L’insieme del cristallo, dei due APD con i loro cavi, del sensore termico e della capsula viene detto sottounità. L’ organizzazione dei cristalli all’ interno del Barrel viene inquadrata in strutture modulari, descritte di seguito: I Sottomoduli: rappresentano l’ unità più piccola e sono composti da 10 46 Figura 2.15: Il calorimetro elettromagnetico di CMS [9]. sottounità, disposte in una struttura rettangolare 2(in φ) 5(in η) detta Tablette, realizzata in fibra di vetro e chiusa da un piano in alluminio. Il peso totale di un sottomodulo è di circa 12 Kg. I Moduli: comprendono 50 o 40 sottomoduli (500 o 400 cristalli), una griglia in alluminio per fissare i sottomoduli nella parte superiore ed una struttura in alluminio detta Basket per fissare i sottomoduli nella parte inferiore. La distanza nominale tra i cristalli adiacenti appartenenti a moduli diversi è pari a 6.0 mm sia in φ che in η. I Supermoduli: un supermodulo è costituito da 4 moduli e copre un angolo di 20o in φ ed una regione in η da 0 a 1.49, per un totale di 36 supermoduli. In figura 2.16 è mostrata la struttura di un modulo e la sua disposizione all’ interno di un supermodulo. L’ Endcap i due Endcap coprono l’intervallo di pseudorapidità 1 4979 η 3 0; è composto da 7324 cristalli di PbW O4 , tutti uguali tra loro, di dimensioni 28.6 28.6 mm2 per la faccia anteriore, 30.0 30.0 mm per la faccia posteriore e 220 mm2 di lunghezza, posizionati su una superficie verticale distante circa 3.2 m dal punto d’interazione. I cristalli dell’ Endcap, raggruppati in moduli di 5 5 detti supercristalli, sono leggermente più corti rispetto a quelli del Barrel a causa della presenza del Preshower, che assorbe parte dell’ energia. 2. L’ esperimento CMS Module 47 Side Plate Module 4 Module 3 Module 2 Module 1 Back Plate Sliding Plate Supermodule Sliding Pad Spacer Patch Panel Space 4 Modules, Services and Cables (not shown), 2 Side Plates, Back Plate, 2 Spacers, Sliding plate, 4 Sliding Pads Monitoring Fiber (not shown), Moderator (not shown), Patch Panel Figura 2.16: Struttura di un modulo e posizionamento dei 4 moduli nel supermodulo. Ogni Endcap è composto da 268 supercristalli identici completi e da 64 supercristalli non completi, utilizzati per realizzare le parti più interne e più esterne. I supercristalli sono disposti nell’Endcap seguendo una griglia ortogonale che semplifica le procedure di ricostruzione degli eventi (gli angoli e gli spigoli dei cristalli sono allineati) e di realizzazione del rivelatore (consentendo l’utilizzo di cristalli tutti uguali tra loro). Questa disposizione consente anche di posizionare i cristalli con l’asse longitudinale spostato di un angolo compreso tra 2 e 8 gradi rispetto al raggio che punta al centro della zona di interazione. La distanza tra cristalli appartenenti ad uno stesso supercristallo è pari a 0.5 mm, mentre nel caso di cristalli appartenenti a diversi supercristalli tale valore varia tra 1 e 3 mm. La struttura dell’ Endcap è visualizzata in figura 2.17. Il Preshower Nella regione in avanti viene utilizzato anche un Preshower, che ricopre l’intervallo di pseudorapidità compreso tra η = 1.65 ed η = 2.61. La sua funzione principale è la separazione dei fotoni dai π0 : ad alte energie, infatti, il π0 decade in due fotoni molto vicini tra di loro, il cui segnale può risultare indistinguibile da quello di un fotone singolo. L’ alta granularità del detector permette invece di ottenere la separazione dei due depositi originati dal π 0 . Il Preshower in avanti ha una struttura a corona circolare di raggio interno pari a 457 mm e raggio esterno pari a 1230 mm, per uno spessore totale di 190 mm. 48 Figura 2.17: Struttura del calorimetro elettromagnetico in avanti. Le misure di posizione sono effettuate tramite due piani di rivelatori, dei quali il primo permette di misurare la posizione verticale e il secondo la posizione orizzontale delle particelle. Questi due piani sono preceduti ognuno da un convertitore in piombo, di spessore rispettivamente 1.75 e 0.77 lunghezze di radiazione. 2. L’ esperimento CMS Figura 2.18: Struttura d’ insieme del preshower. 49 50 Capitolo 3 Soluzioni operative in CMS In questo capitolo verranno esposte alcune soluzioni operative adottate nell’ immagazzinamento, ricostruzione e analisi degli eventi nell’ esperimento CMS e che assumono particolare importanza negli argomenti trattati in questa tesi. 3.1 Sistema di trigger In LHC si prevede la presenza di circa 20 collisioni al secondo ad alta luminosità (1034 cm 2 s 1 ), cioè, in media, un evento ogni 25 ns. La frequenza totale di eventi, pari dunque a circa 109 Hz, deve essere ridotta fino ad un valore dell’ ordine di 100 Hz, che rappresenta la rate massima di eventi che è possibile archiviare. Tale riduzione avviene in due fasi: Trigger di livello 1: ha la funzione di selezionare eventi all’ interno dei quali siano presenti oggetti identificabili come muoni, elettroni, fotoni, jet ed energia trasversa mancante; tali oggetti devono soddisfare alcuni criteri di selezione. Sono previsti anche trigger su elettroni o fotoni doppi e su eventi in cui siano presenti fino a 4 jet. Le informazioni utilizzate in questa prima fase provengono solamente dai calorimetri (elettromagnetico e adronico) e dal rivelatore di muoni. Il sistema di trigger deve avere un’ efficienza sufficientemente alta al fine di assicurare la statistica necessaria all’ individuazione dell’ evento analizzato. La rate di eventi che supera il livello 1 di trigger sarà in teoria pari a circa 100 kHz ad alta luminosità, 50 kHz a bassa luminosità; in realtà si manterrà un fattore di sicurezza pari a circa 3, per cui le rate finali saranno rispettivamente pari a 33.5 e 16 kHz [14]. Trigger di livello superiore: In quesa fase è possibile accedere alle informazioni provenienti da altri subdetector, come il tracciatore, per ridurre 51 52 ulteriormente la rate totale di eventi. La rate finale deve essere intorno ai 100 Hz [15]. Il livello 1 di trigger è organizzato in tre sezioni principali: il trigger muonico, il trigger calorimetrico e il trigger globale. Quest’ ultimo accetta le informazioni provenienti dai primi due trigger ed effettua la scelta utilizzando le informazioni di entrambi. Di seguito verrà descritto il trigger calorimetrico, di particolare importanza per il presente lavoro. Il trigger calorimetrico sfrutta le informazioni provenienti dalle torri di trigger: si tratta di unità di 5 5 cristalli, pari a ∆η ∆Φ 0 087 0 087 per quanto riguarda il barrel e di estensione angolare variabile nell’ endcap. L’ algoritmo di riconoscimento degli elettroni e dei fotoni coinvolge otto torri di trigger che circondano quella con il maggior deposito di energia (hit). L’energia trasversa Et del candidato elettrone/fotone viene determinata sommando la Et della hit tower con la massima Et trovata nelle quattro torri adiacenti. In ogni regione costituita da 4 4 torri di trigger vengono separatamente trovati i candidati elettromagnetici, successivamente suddivisi in isolati e non. I candidati non-isolati devono soddisfare due criteri, il primo dei quali si basa sul riconoscimento del profilo laterale di rilascio dell’energia (FG veto), mentre il secondo richiede che il rapporto tra l’energia rilasciata nel calorimetro elettromagnetico ed in quello adronico sia inferiore al 5% (HAC veto). Per un candidato isolato, oltre a questi criteri, si richiede anche che le otto torri di trigger più vicine soddisfino le condizioni FG e HAC, e che almeno uno dei 4 lati costituiti da 5 torri di trigger adiacenti alla regione centrale di 3 3 torri abbia un’energia trasversa inferiore a 1.5 GeV. Soltanto i 4 candidati non-isolati e i 4 candidati isolati aventi la massima Et vengono salvati per il successivo utilizzo da parte del trigger globale di CMS. Nella tabella successiva vengono riportate le trigger-rate di livello 1 relative ai vari eventi, per bassa ed alta luminosità (rispettivamente 16 e 33.5 kHz di rate totale). 3.2 Algoritmi di ricostruzione di elettroni e fotoni Il primo passo per la definizione delle caratteristiche di una particella che interagisce elettromagneticamente è la ricostruzione del relativo deposito di energia all’ interno del calorimetro. Questa operazione permette di ottenere una stima dell’ energia e della posizione della particella stessa, utilizzando i depositi di energia misurati dai cristalli di PbWO4 . L’ esposizione dei metodi di ricostruzione verrà fatta riferendosi agli elettroni, ma quanto detto vale anche per i fotoni. Gli elettroni viaggiano dal vertice di produzione fino alla superficie del calorimetro; all’ interno dei cristalli sviluppano 3. Soluzioni operative in CMS 53 Figura 3.1: Contorni di isorate sul piano delle soglie in Et relative al trigger per elettronefotone singolo e doppio[14]. uno sciame elettromagnetico, che può coinvolgere un numero variabile di cristalli. I fotoni di bremsstrahlung, emessi all’ interno del materiale del tracker, producono, assieme all’ elettrone iniziale (la cui traiettoria viene modificata dal campo magnetico), una distribuzione di energia, allineata con buona approssimazione lungo una stretta striscia di cristalli in φ. Nasce dunque la necessità di un opportuno algoritmo di ricostruzione che tenga conto di questo problema. Per i fotoni la difficoltà maggiore nella fase di ricostruzione è rappresentata dalle conversioni, dovute alla presenza di materiale all’ interno del volume del calorimetro. Saranno di seguito discussi i due principali algoritmi usati nella ricostruzione dei depositi elettromagnetici: l’ algoritmo island e l’ algoritmo hybrid[16]. 3.2.1 Algoritmo island L’ algoritmo Island comincia con una ricerca dei seed, ovvero dei cristalli caratterizzati da un energia trasversa maggiore di una soglia predefinita, pari a 0.5 GeV; tale valore rappresenta un compromesso tra la necessità di eliminare i cristalli ru- 54 trigger Soglia a bassa Rate massima a Soglia ad alta Rate massima ad luminosità bassa luminosità luminosità alta luminosità (GeV) (kHz) (GeV) (kHz) elettrone/fotone isolato 29 3.3 34 6.5 elettrone/fotone doppio 17 1.3 19 3.3 muone isolato 14 2.7 20 6.2 muone doppio 3 0.9 5 1.7 tau-jet singolo 86 2.2 101 5.3 tau-jet doppio 59 1.0 67 3.6 1, 3, 4 jet 177, 86, 70 3.0 250, 110, 95 3.0 jet con Et mancante 88(jet) 46(Et ) 2.3 113(jet) 70(Et ) 4.5 jet con elettrone 45(jet) 21 (e) 0.8 52(jet) 25 (e) 1.3 jet con muone 40(jet) 15 (µ) 0.8 Tabella 3.1: Soglie e rate per il trigger di livello 1. Le soglie corrispondono ad un’ efficienza del 95% [14]. Figura 3.2: Schema dell’ algoritmo di clustering Island. morosi e quella di ricostruire il maggior numero di depositi possibile. In presenza di due seed adiacenti viene eliminato dalla lista quello con energia minore. A partire dal seed più energetico, l’ algoritmo ricerca i cristalli in φ in entrambe le direzioni, finchè non trova una risalita in energia o un cristallo privo di segnale (che corrisponde, per il barrel, ad un’ energia inferiore a 60 MeV). Si sposta poi di un cristallo in η ed effettua di nuovo la ricerca in φ; lo spostamento in η si interrompe quando, analogamente a φ, si trova una risalita o l’ assenza di segnale; si passa allora all’ altra direzione in η per effettuare la stessa operazione. I cristalli 3. Soluzioni operative in CMS 55 inclusi in un cluster non possono essere assegnati ad un altro, evitando così doppi conteggi dello stesso deposito energetico. L’ intero processo è schematizzato in figura 3.2. Per recuperare i fotoni emessi per bremsstrahlung è possibile utilizzare un algoritmo che associ più cluster vicini tra di loro: infatti i fotoni emessi, se non ricadono all’ interno del cluster dell’ elettrone, vanno a formare cluster indipendenti disposti lungo una linea in φ. Si può procedere costruendo un cluster di cluster, cioè un supercluster, raccogliendo, a partire dal cluster principale, tutti i cluster all’ interno di una stretta finestra in η (fig. 3.3). Figura 3.3: Schema di costruzione di un SuperCluster. 3.2.2 Algoritmo Hybrid Per i depositi isolati, come quelli prodotti da fotoni non convertiti, una ricostruzione basata sull’ uso di finestre fisse di cristalli sembra dare risultati migliori, in termini di risoluzione in energia, rispetto all’ uso di algoritmi dinamici come l’ Island. Si è dunque sviluppato un algoritmo che unisca l’ utilizzo di finestre fisse con le proprietà dinamiche dell’ algoritmo Island. L’ algoritmo Hybrid utilizza domino fissi di 3 o 5 cristalli in η, mentre cerca dinamicamente in φ depositi di energia separati. Partendo da un seed con energia E ET hybseed , sono creati domino di cristalli di dimensione 1 5 o 1 3 a seconda che l’ energia del cristallo centrale sia o meno maggiore di una soglia E wing . La creazione di questi domino procede per un numero di cristalli pari a Nstep in ogni 56 direzione a partire dal seed. I domino con energia minore di Ethresh sono eliminati. Successivamente i domino sono clusterizzati in φ. Ogni distinto cluster di domino deve avere un seed con energia maggiore di Eseed . Alla fine si ottiene un cluster di cluster, cioè un supercluster. I parametri citati sono quantificati nella tabella 3.2, mentre in figura 3.4 è schematizzata la costruzione dei domino nell’ algoritmo Hybrid. Figura 3.4: Costruzione dei domino per l’ algoritmo Hybrid. Descrizione del parametro simbolo nel testo valore di default Valore minimo di Et per il seed ET hybseed 1 GeV Numero di cristalli di spostamento Nstep 10 in φ (in ogni direzione) Soglia per utilizzo domino 1 5 Ewing 1 GeV invece di 1 3 Soglia per utilizzare il domino Ethresh 0.1 GeV Energia minima del seed del domino Eseed 0.35 GeV per fare un cluster sconnesso Tabella 3.2: Parametri di controllo per l’ algoritmo hybrid. 3.3 Procedure di calibrazione La calibrazione ha una importanza fondamentale nelle prestazioni fornite dal caγγ per la scoperta dell’ Higgs, per lorimetro di CMS. L’ utilizzo del canale H esempio, dipende dalla possibilità di ottenere una risoluzione in energia con un termine costante 0 5%: un tale obiettivo richiede la calibrazione di tutti i 75848 cristalli di PbW O4 . 3. Soluzioni operative in CMS 57 Come detto nel capitolo precedente, la trasmissione di luce nei cristalli è sensibile alla radiazione. Questo fatto può influenzare l’ intercalibrazione dei cristalli: i periodi critici sono costituiti dal momento dell’ accensione e dopo uno spegnimento prolungato della macchina, nei quali sono previsti cambiamenti nella calibrazione variabili dal 2 al 5% nelle prime 12 ore per zone del calorimetro particolarmente esposte alla radiazione. Per ovviare a tale problema è stato approntato un sistema di monitoraggio della luce per misurare la risposta di ogni cristallo durante la fase di acquisizione dati. La realizzazione della calibrazione di tutti i cristalli è prevista attraverso diverse fasi e utilizzando strumentazioni diverse; queste verranno descritte nei paragrafi seguenti. 3.3.1 Sistema di monitoring della luce Come accennato in precedenza, questo sistema misura la trasmissione di luce e il guadagno della catena di photodetector per ogni canale. Questa parte dell’ intercalibrazione riguarderà gruppi di cristalli accomunati dallo stesso sistema di monitoring e consisterà nell’ immissione di impulsi di luce di lunghezza d’ onda prossima al picco dello spettro di emissione ( 500 nm) all’ interno di ogni cristallo. Il controllo verrà effettuato sia in fase di acquisizione (Continuos in-fill monitoring) che nelle fasi di spegnimento della macchina (Stand-alone monitoring runs). Nella figura 3.5 è mostrato il sistema di distribuzione degli impulsi di luce: la sorgente laser è posta al di fuori del calorimetro e un sistema di fibre in quarzo provvede a smistare la luce nei vari elementi del calorimetro (barrel, endcap), dove un ulteriore sistema di distribuzione fa arrivare la luce ad ogni cristallo. 3.3.2 Precalibrazione In questa fase i cristalli verranno illuminati da fasci di elettroni aventi energie note. Questa procedura fornirà un insieme di costanti di calibrazione da utilizzare come valore iniziale per l’ applicazione dei metodi di calibrazione in situ, per almeno due valori di energia scelti all’ interno del range coperto dagli eventi fisici. Per l’ accensione della macchina si prevede che solo una parte dei cristalli di CMS saranno stati precalibrati: i restanti utilizzeranno come costanti di precalibrazione le misure eseguite durante la qualificazione dei cristalli, facendo uso di sorgenti radioattive ad energie diverse da quelle degli eventi fisici che verranno analizzati. L’ uso di queste tecniche dovrebbe permettere di raggiungere una calibrazione al 5% per le misure effettuate in laboratorio e al 2% per la precalibrazione con il fascio di prova. 58 Light Source and High Level Distribution System Laser 500/700 nm optical fibre switch quartz fibres to level-2 fanouts (150m) Level-2 Fanout PN photodiode Crystals Level-1 Fanout Level-1 Fanout PN photodiode Figura 3.5: Distribuzione della luce nel sistema di monitoring. Figura 3.6: Struttura con cui viene effettuata la precalibrazione. 3. Soluzioni operative in CMS 59 3.3.3 Calibrazione in situ con eventi fisici La calibrazione con eventi fisici rappresenta la procedura di calibrazione di maggior rilevanza, attraverso la quale è possibile raggiungere lo 0.5% di precisione sul termine costante della risoluzione. I canali analizzati sinora sono: eventi Z 0 e e e η γγ, in cui si sfrutta il picco di massa invariante ricostruito per intercalibrare gruppi di cristalli (nel primo caso) o cristalli singoli (nel secondo). La presenza di un vincolo fisico garantisce la possibilità di utilizzare, nella ricostruzione, le sole informazioni del calorimetro elettromagnetico. eventi W eν, nei quali si confrontano le misure di energia fornite dal calorimetro con quelle d’ impulso date dal sistema di tracciamento (matching E/p). La statistica aspettata può permettere la calibrazione individuale dei cristalli: si tratta, però, di una calibrazione relativa, rispetto alle misure di impulso del tracker [17]. Quanto segue vuole essere una breve descrizione delle procedure matematiche alla base della calibrazione [18]; ci si riferirà al solo barrel, mentre l’ endcap, a causa della presenza del preshower, richiede una diversa trattazione. Indicato con Si il segnale prodotto dagli APD e digitizzato dagli ADC, si vuole relazionare Si all’ energia E(ε) rilasciata all’ interno del calorimetro, che differirà da ε a causa delle perdite di energia dovute al materiale di fronte al calorimetro e al non contenimento longitudinale dei cristalli. La relazione è allora: ∑ S i ci E ε (3.1) cristalli cluster La relazione precedente suppone la perfetta conoscenza dei coefficienti c i . I valori ottenibili dalla precalibrazione sul fascio o dalle misure di laboratorio stimeranno solo un valore approssimato di ci : lo si indichi con cai . Occorre allora un’ ulteriore correzione e la precedente diventa: ∑ Di Eia cristalli cluster cai . ∑ Di Si cai E ε (3.2) cristalli cluster dove Eia è la stima dell’ energia ottenibile usando i coefficienti approssimati La relazione di cui si necessita è, però, quella che lega la stima delle energie dei cristalli con l’ energia vera della particella. Indicando con ε out l’ energia esclusa dal gruppo di cristalli considerato nella ricostruzione, si ha: 1 εout 1 ∑ cristalli cluster Ci η φ Eia η φ ε (3.3) 60 dove si è indicato l’ i-esimo cristallo con la relativa coordinata in η e φ nel barrel. I coefficienti Ci η φ sono legati ai coefficienti Di introdotti in precedenza, ma includono anche le correzioni in base alle perdite dovute al materiale attraversato e al non contenimento longitudinale. Se dunque si conosce l’ energia ε delle particelle ricostruite, che nel caso della calibrazione con elettroni può essere stimata attraverso la misura del loro impulso nel tracciatore, si ottiene, per ognuna di esse, una relazione lineare che lega le stime di energia E a η φ all’ energia ε. Ricostruito un numero N di particelle, si ottiene un sistema del tipo: A j m Cm b j (3.4) dove j identifica la particella (j [1,N]) e m il cristallo (m [1,n], dove n è il numero di cristalli). Il vettore dei coefficienti Cm è ciò che si vuole determinare. Si noti che il sistema è sovradeterminato, essendoci più equazioni che incognite (N n): in letteratura sono descritti vari metodi per la risoluzione di questi sistemi, ad esempio quello di Householder [19]. Nel caso di eventi η γγ l’ alta rate del canale in LHC dovrebbe permettere di calibrare i singoli cristalli. Indicate con E1 e E2 le energie dei due fotoni finali, la cinematica relativistica fornisce la relazione: M2 E1 E2 (3.5) θ12 2 4 sin2 dove M è la massa dell’ η e θ12 l’ angolo tra i due fotoni. Per entrambi i fotoni, con riferimento alla relazione 3.3, è inoltre possibile scrivere: 1 εout 1 s1 ∑ Ck1 η φ Eka1 η φ E1 ; (3.6) η φ Eka2 η φ E2 ; (3.7) k1 1 1 εout 1 s2 ∑ Ck2 k2 1 dove s1 e s2 rappresentano il numero di cristalli accesi per i due fotoni ricostruiti. Moltiplicando tra di loro le due relazioni si ottiene: 1 εout 2 s1 ∑ Ck1 η φ Eka1 η φ s2 ∑ Ck2 η φ Eka2 η φ M2 E 1 E2 4 sin2 θ212 (3.8) Si sono dunque legati i prodotti di coppie di coefficienti di calibrazione Ck1 k2 Ck1 Ck2 alla massa invariante dell’ η. Dopo aver raccolto un numero sufficiente k1 1 k2 1 3. Soluzioni operative in CMS 61 di eventi, è possibile ricavare i valori di Ck1 k2 tramite i metodi citati e, da questi, risalire ai valori di Ck . Per avere una stima della precisione statistica raggiungibile, approssimando la distribuzione della massa della particella con una gaussiana centrata intorno a Mη e di larghezza ση e utilizzando il metodo della massima verosimiglianza si ottiene: σ Ck 2 ση Mη N (3.9) dove N è il numero medio di eventi che coinvolge il singolo cristallo. Approcci alla calibrazione Utilizzando i canali descritti si possono distinguere 3 diversi approcci: Intercalibrazione locale delle risposte di un cristallo rispetto all’ altro. Si può suddividere questa parte in intercalibrazione locale e regionale, che riguardano rispettivamente coppie di cristalli limitrofi e gruppi adiacenti di cristalli; Intercalibrazione globale tra le differenti regioni del calorimetro che sono direttamente coinvolte nella ricostruzione della massa; Calibrazione assoluta, utilizzata per determinare la scala di energia. L’ intercalibrazione locale verrà effettuata confrontando il valore di energia fornito dal sistema di tracciamento con quello dato dal calorimetro per le energie di elettroni isolati, sfruttando il canale W eν. L’ intercalibrazione globale e la calibrazione assoluta verranno invece effettuate sfruttando il decadimento Z e e , ricostruendo la massa invariante del bosone attraverso precise misure di energia e direzione dei due elettroni. L’ acquisizione degli eventi necessari alla calibrazione avviene contemporaneamente alla fase di acquisizione dati; si prevede di poter raggiungere una intercalibrazione locale allo 0 5% e globale allo 0 7% entro 2 mesi dall’ accensione di LHC, assumendo una luminosità pari a 2 1033 cm 2 s 1 e un’ efficienza della macchina del 50%. Occorre sottolineare che le procedure di calibrazione esposte verranno effettuate contemporaneamente alla fase di presa dati. Calibrazione stand alone Il problema legato alla calibrazione contemporaneamente alla fase di presa dati è la necessità di raccogliere eventi per alcuni mesi prima di raggiungere la precisione desiderata: ciò è dovuto essenzialmente alla rate insufficiente che caratterizza 62 Figura 3.7: Tipico evento Z e e utile per la calibrazione in situ. 3. Soluzioni operative in CMS 63 la produzione di Z e W . D’ altra parte, l’ uso di canali con rate molto più alγγ, non è compatibile con le normali condizioni di presa dati. In te, come η questo caso l’ idea è allora quella di utilizzare l’ intera rate di eventi scrivibile su nastro per immagazzinare i dati del calorimetro, in modo da poter sfruttare il gran numero di eventi propri dei canali utilizzati [20]. Questo comporta la necessità di riservare un piccolo periodo di funzionamento della macchina esclusivamente alla procedura di calibrazione, anzichè effettuarla di pari passo con la fase di presa dati: si prevede che sia possibile raggiungere una statistica sufficiente in tempi inferiori alla settimana. Alcuni aspetti della calibrazione stand alone, con particolare riferimento al canale η γγ, verranno approfonditi nei capitoli successivi. Calibrazione mediante flusso totale di energia (Energy Flow) Un altro metodo per ovviare ai lunghi tempi richiesti dalle procedure di calibrazione a bassa luminosità è quello di utilizzare il metodo di calibrazione dell’ Energy Flow[21, 22], che sfrutta la simmetria in φ dell’ apparato di rivelazione. Questa tecnica di calibrazione utilizza i depositi di energia nel calorimetro in corrispondenza di eventi di minimum-bias. Poichè il flusso di energia, per un certo valore di η , è simmetrico in φ, questo metodo permette di intercalibrare i cristalli appartenenti ai due anelli del calorimetro: in questo modo il numero di costanti di calibrazione scende da 75848 (numero totale di cristalli nel calorimetro) a 125 (numero di coppie di anelli a η fisso). Le restanti costanti verranno determinate usando il decadimento Z e e . Nella somma sono escluse energie al di sotto dei 150 MeV nel barrel e 750 MeV nell’ endcap; non vengono inoltre contate energie al di sopra di 800 MeV, in quanto la loro bassa statistica potrebbe compromettere la simmetria. In teoria la precisione raggiungibile sarebbe proporzionale a 1/ N, dove N è il numero di eventi analizzati. In realtà la simmetria in φ è solo approssimata, a causa dell’ inomogeneità del materiale dinnanzi al calorimetro: ciò determina l’ esistenza di un valore limite della precisione. Con questa tecnica si dovrebbe raggiungere in poche ore una precisione di intrcalibrazione intorno al 2%, ovviando, così, all’ eventuale mancanza della precalibrazione sul fascio di prova. 3.4 Programmi utilizzati Poichè nella presente tesi il lavoro di analisi si è accompagnato di pari passo alla generazione e simulazione degli eventi da analizzare, occorre descrivere brevemente i programmi utilizzati a tal fine. La complessità di tali programmi, che simulano l’ evento fisico e la sua ricostruzione all’ interno del volume di CMS, 64 richiederebbe una trattazione ben più ampia; in questa sede ci si accontenterà di darne una descrizione sommaria. 3.4.1 Pythia Pythia è probabilmente il programma più usato per la generazione di eventi con metodi Montecarlo. Ideato da Torbjorn Sjostrand dell’ università di Lund, in Svezia, nel 1978 e giunto ormai alla versione 6.16, Pythia permette di generare eventi prodotti in collisioni tra particelle di varia natura, elementari o dotate di struttura interna. L’ evoluzione dell’ evento è basata su teoria e modelli riguardanti numerosi aspetti fisici, come interazioni forti e deboli, distribuzioni partoniche, interazioni multiple, frammentazioni. Le strutture implementate si basano sia su ricerche originali, svolte dal grupppo teorico dell’ università di Lund, che su altre pubblicazioni scientifiche. Pythia è, allo stato attuale, scritto in Fortran 77; si sta però provvedendo a riscriverlo interamente in C++ [23]. Il suo funzionamento avviene tramite la definizione di un certo numero di parametri, che fissano le caratteristiche dell’ evento fisico da simulare, le grandezze fisiche da ottenere in output e permettono persino di modificare i canali di fisica in gioco a discrezione dell’ utente. Degno di nota è l’ uso del codice standard HEPEVT per la memorizzazione delle particelle, che oltre a darne le caratteristiche cinematiche (angoli, energie e impulsi), permette , per ognuna di esse, di risalire alle particelle da cui è stata originata ed eventualmente a quelle in cui è decaduta. In questa tesi Pythia è stato dapprima usato per generare i dati utilizzati nell’ analisi a livello di generatore del prossimo capitolo; inoltre tutti gli eventi simulati con OSCAR e ORCA sono stati generati con CMKIN, il programma per la generazione di eventi in CMS, attraverso l’ interfacciamento con PYTHIA. 3.4.2 OSCAR OSCAR (Object oriented Simulation for Cms Analysis and Reconstruction) si occupa della simulazione degli eventi di fisica all’ interno di CMS. Questa operazione presuppone sia la conoscenza della geometria del calorimetro che la capacità di simulare l’ interazione delle particelle con il materiale che forma il calorimetro stesso: per simulare questi aspetti OSCAR utilizza GEANT (GEometry ANd Tracking[24]), programma per la simulazione dell’ interazione delle particelle con la materia utilizzato fin dagli anni ’70 in numerosi esperimenti di fisica delle alte energie. Il programma è scritto interamente in C++, essendo tale linguaggio il migliore per raggiungere i livelli di astrazione richiesti nella simulazione di un ambiente complesso come CMS. La versione più recente di OSCAR è la 3_4_0 [25]. 3. Soluzioni operative in CMS 65 Nella catena di simulazione OSCAR acquisisce i dati prodotti da Pythia sotto forma di ennuple ed effettua le operazioni descritte. Il risultato dell’ operazione funge da imput per ORCA, che viene descritto di seguito. Nella presente tesi tutti i dati della cui analisi si rende conto nei capitoli 5 e 6 sono stati trattati con OSCAR. 3.4.3 ORCA ORCA (Object oriented Reconstruction for Cms Analysis) è l’ ultimo anello della fase di ricostruzione, ovvero quello in cui si provvede alla digitizzazione, cioè alla simulazione dell’ elettronica di CMS, e dove i dati acquisiti vengono ricostruiti sotto forma di strutture più complesse (cluster, jet, tracce). Anche ORCA è scritto in C++. La complessità della simulazione di CMS richiede un numero di righe di codice di gran lunga superiore a quello necessario in qualsiasi altro esperimento di fisica delle alte energie, al fine di riprodurre ogni aspetto dell’ esperimento attraverso la tipica struttura per classi propria del linguaggio usato. All’ interno di ORCA, inoltre, è possibile introdurre il proprio codice di analisi, anch’ esso scritto in C++, ed eventualmente modificare, in fase di simulazione, i parametri standard di CMS. La versione più recente di ORCA è la 8_2_0 [26]. La digitizzazione avviene a partire dall’ output di OSCAR; il risultato finale, ovvero l’ evento completamente simulato, può essere utilizzato da ogni utente con il proprio codice di analisi, oppure parte dei dati può essere salvata sotto forma di file ROOT. In questa tesi è stata scelta la prima opzione, scrivendo di volta in volta il codice di analisi adatto e utilizzandolo per i dati da analizzare. 66 Capitolo 4 Generazione e studio di eventi jet Uno studio completo di ogni evento fisico non può prescindere da un’ accurata analisi dello stesso a livello di generatore. Nel presente capitolo, dopo l’ esposizione delle scelte effettuate in fase di generazione dei sample, verranno in primo luogo analizzate alcune caratteristiche degli eventi prodotti; successivamente ci si concentrerà sulla produzione e il successivo decadimento in due fotoni delle particelle η all’ interno di tali eventi e sulle relative rate di produzione, che verranno confrontate con quelle ottenute in studi sullo stesso argomento. 4.1 Programmi e impostazioni utlilizzati La generazione di eventi jet è stata effettuata utilizzando Pythia nella versione 6.131. Pythia, come già accennato nel capitolo precedente, è un programma basato su metodi Montecarlo che permette di simulare collisioni tra particelle di varia natura. Il programma simula un evento iniziale appartenente alla categoria desiderata e lo fa poi sviluppare, restituendo le proprietà delle particelle finali, con le loro caratteristiche cinematiche (direzione, massa, energia). L’ evento generato viene accettato ad un primo livello di analisi se le sue caratteristiche soddisfano i parametri fissati, altrimenti viene eliminato, senza essere sviluppato sino allo stato finale. Il simulatore calcola inoltre le sezioni d’ urto associate ad ogni singolo sottoprocesso: nel caso di collisione protone-protone, ad esempio, vengono calcolate le sezioni d’ urto di tutte le interazioni partone-partone possibili. Il calcolo viene effettuato attraverso un processo di integrazione Montecarlo nel corso della simulazione. L’ incertezza sulle sezioni d’ urto può essere calcolata assumendo per il singolo sottoprocesso un’ incertezza di tipo Poissoniano([27]): questo comporta un errore relativo sulla sezione d’ urto del singolo sottoprocesso pari all’ inverso della radice quadrata del numero di eventi generati: 67 68 σ σsubprocess 1 Ngen σsubprocess (4.1) dove Ngen è il numero di eventi di quel tipo generati. La sezione d’ urto stimata con generazioni di pochi eventi risulta caratterizzata da grandi errori sulle sezioni d’ urto; inoltre tende ad avere un bias verso valori più alti del normale: una generazione di un evento, ripetuta N volte, restituisce una sezione d’ urto fino a due volte più grande di quella prevista da un’ unica generazione di N eventi ([27]). Le possibili interazioni partone-partone presenti nelle collisioni protone-protone per un energia nel centro di massa pari a 14 TeV sono riportate nella tabella 4.1, assieme al valore della sezione d’ urto propria di ciascun processo, per un impulso trasverso scambiato tra i due partoni maggiore di 15 GeV. Nella tabella f f¯) rappresenta un fermione (un antifermione) e g un gluone. processo sezione d’ urto (mb) ff ff 4 96 10 2 fg fg 5 38 10 1 f f¯ f f¯ 6 21 10 4 gg f f¯ 3 32 10 2 f f¯ gg 5 83 10 4 gg gg 1 03 100 Tabella 4.1: Possibili interazioni tra partoni nelle collisioni protone-protone e relative sezioni d’ urto a Pt 15 GeV. Punto cruciale della generazione è la scelta dell’ impulso trasverso minimo scambiato: infatti è proprio l’ impulso trasverso scambiato tra i due partoni nell’ interazione che distingue, come già osservato nel capitolo 1, un evento rilevante ai fini dell’ analisi da un evento di minimum bias. Occorre dunque generare eventi protone-protone per i quali i partoni coinvolti nel processo scambino tra loro un impulso trasverso maggiore di una certa soglia, al fine di non dover generare migliaia di eventi inutili per ogni evento utile (si ricorda che per ogni evento ad alto impulso trasverso ce ne sono circa 105 di minimum bias). Allo stesso tempo occorrerà saper calcolare accuratamente la sezione d’ urto collegata ai processi così generati, in modo da poter stimare correttamente le rate delle varie particelle nello stato finale. Un altro fattore importante ai fini della stima delle sezioni d’ urto è rappresentato dal modo in cui trattare le correzioni di QCD agli ordini successivi. I generatori Montecarlo permettono una stima delle sezioni d’ urto al leading order (LO). È possibile seguire due differenti approcci per descrivere gli effetti dovuti 4. Generazione e studio di eventi jet 69 alle correzioni di ordine superiore: utilizzare il solo processo inclusivo e sfruttare la possibilità offerta dai generatori Montecarlo di emissione radiativa sia nello stato iniziale che in quello finale, oppure includere effettivamente processi di ordine superiore usando elementi di matrice espliciti calcolati al next to leading order (NLO). In teoria quest’ ultimo trattamento sarebbe più corretto, ma le sezioni d’ urto per questa classe di processi sono divergenti al tendere a zero dell’ impulso trasverso scambiato tra i due partoni, cioè quando si verifica l’ emissione di partoni soffici. È necessaria dunque l’ introduzione di correzioni agli ordini superiori, dovute ai loop, che però non sono disponibili che per un numero ridotto di casi, almeno allo stato attuale di Pythia. Dunque i valori della sezione d’ urto nella regione a basso impulso trasverso scambiato non sono attendibili: gli alti valori della sezione d’ urto che verranno ottenuti per valori di Pt minimo al di sotto dei 5 GeV sono causati proprio da questo problema. La seconda possibilità è quella di includere i processi di QCD al leading order e di aggiungere le correzioni dovute all’ ordine superiore sotto forma di radiazione di stato iniziale e finale. In questo caso un numero arbitrario di diramazioni di un partone in due o più partoni può essere combinato per fornire una descrizione di eventi multijet. Questo è possibile in quanto non vengono utilizzati gli elementi di matrice completi, ma una loro approssimazione ottenuta semplificando la cinematica e alcuni effetti fisici [28]. L’ ultima questione è quella legata alle funzioni di distribuzione partoniche, che rappresentano, come già detto nel capitolo 1, la principale fonte di incertezza degli odierni programmi di simulazione di fisica. La scelta effettuata nella presente analisi è stata quella di utilizzare la funzione di distribuzione standard in Pythia per quanto riguarda il protone, ovvero la PDF CTEQ 5L ([28]). I vari campioni di eventi jet sono stati generati utilizzando le macchine del CERN. Per ragioni di praticità il sample da analizzare è stato diviso in pacchetti da 1000 e di 10000 eventi. Di conseguenza il calcolo delle sezioni d’ urto effettuato da Pythia e descritto in precedenza può contare non sulla totalità degli eventi generati, ma sulla dimensione del singolo pacchetto, in quanto tale calcolo viene reinizializzato alla generazione di ogni nuovo pacchetto: occorrerà dunque qualche considerazione statistica per poter sfruttare tutti gli eventi a disposizione. D’ altra parte, come si vedrà, nel calcolo delle rate l’ incertezza statistica sulla sezione d’ urto è trascurabile rispetto a quella sul numero delle particelle che passano la selezione. 4.2 Analisi della sezione d’ urto Il primo passo dell’ analisi degli eventi da generatore è stato lo studio della sezione d’ urto totale di eventi protone-protone. Questo studio preliminare ha avuto una 70 imptrasv2 2000 Entries 1800 1600 10000 Mean 20.43 RMS 7.045 mbarn duplice funzione: in primo luogo ha permesso di verificare che l’ andamento delle grandezze fisiche associate alla generazione di eventi è quello che ci si aspetta; inoltre una corretta determinazione della sezione d’ urto totale è necessaria per stimare correttamente le rate dei processi fisici da analizzare. Gli eventi sono stati inizialmente generati utilizzando pacchetti da 1000 eventi, per un totale di 100000 eventi a Pt minimo scambiato pari a 3, 4, 5, 6, 7, 8, 9, 10, 15 GeV. Successivamente è stato ridotto il numero dei valori di Pt in analisi (3, 5, 8, 15 GeV), aumentando però la dimensione dei pacchetti a 10000 eventi e generando un numero totale di eventi pari a 2000000 per ogni valore di Pt . Nelle figure 4.1 sono mostrate, per un singolo pacchetto di 10000 eventi generati e per un valore di Pt = 15 GeV, le distribuzioni dell’ impulso trasverso scambiato tra i due partoni e l’ andamento della sezione d’ urto calcolata da Pythia in funzione del numero di eventi generati, assumendo, come detto, un incertezza statistica di tipo Poissoniano. La barra di errore è visualizzata dal 100 evento. 3.4 3.2 3 1400 2.8 1200 1000 2.6 800 2.4 600 2.2 400 2 200 0 0 1.8 10 20 30 40 50 60 70 80 90 100 GeV 0 2000 4000 6000 8000 10000 N eventi Figura 4.1: Distribuzione dell’ impulso trasverso scambiato tra i due partoni (a sinistra) e andamento della sezione d’ urto calcolata da Pythia (a destra) per un campione generato di 10000 eventi. SEZIONE D’ URTO: ci si aspetta che la sezione d’ urto totale abbia un andamento decrescente all’ aumentare dell’ impulso trasverso minimo scambiato tra i due partoni, in quanto la frequenza di tali eventi diminuisce all’ aumentare del Pt scambiato. In tabella 4.2 sono riportati i valori della sezione d’ urto, con le relative incertezze statistiche, per i valori di Pt analizzati, mentre nelle figure 4.2 e 4.3 ne è visualizzato l’ andamento, rispettivamente per 105 e per 2 106 eventi. Per poter calcolare la sezione d’ urto totale basandosi sulle informazioni di tutti i pacchetti generati si è utilizzato il teorema del limite centrale: questo ha permesso di calcolare il valor medio della sezione d’ urto come media dei valori ottenuti dai singoli pacchetti e la σ su tale valore come somma in quadratura delle σ dei singoli pacchetti, divisa per N. 4. Generazione e studio di eventi jet σtot σi ∑N i 0 N 71 σ σtot 1 N N ∑ σ2σi (4.2) i 0 dove N è il numero di pacchetti generati: 100, da 1000 eventi ciascuno, per un numero di eventi pari a 105 , 200, da 10000 eventi ognuno, per un numero di eventi pari a 2 106 . Pt minimo scambiato (GeV) 3 4 5 6 7 8 9 10 15 σtot (mb) σtot (mb) 5 (10 ev.) ( 2 106 ev.) 610.2 2.1 610.36 0.43 254.41 0.80 125.95 0.40 126.002 0.089 69.85 0.22 42.08 0.13 26.61 0.14 26.645 0.033 17.964 0.057 12.498 0.040 2.952 0.010 2.9555 0.0021 mbarn Tabella 4.2: Valori delle sezioni d’ urto totali. 700 600 500 400 300 200 100 0 5 10 15 20 25 30 GeV Figura 4.2: Andamento della sezione d’ urto totale del processo p-p in funzione dell’ impulso trasverso minimo scambiato (pacchetti da 1000 eventi). mbarn 72 600 500 400 300 200 100 0 2 4 6 8 10 12 14 16 GeV Figura 4.3: Andamento della sezione d’ urto totale del processo p-p in funzione dell’ impulso trasverso minimo scambiato (pacchetti da 10000 eventi). 4.3 Selezione: considerazioni statistiche La frazione degli eventi utilizzabili ai fini dell’ analisi aumenta all’ aumentare dell’ impulso trasverso scambiato tra i due partoni. Se però si opera una selezione sulle particelle finali, l’ imposizione di un alto Pt minimo può portare a sottostimare la rate dell’ evento selezionato, in quanto parte degli eventi che passerebbero la selezione non viene generata e dunque non viene conteggiata nella rate finale. Occorre dunque fare alcune considerazioni sul valore delle rate ottenibili da Pythia e sul loro valore statistico. La rate di produzione di un evento selezionato è: R L σtot Ngoodevnt Ngenevnt (4.3) dove: L è la luminosità. σtot è la sezione d’ urto totale dell’ evento al Pt scelto. Ngoodevnt è il numero di particelle che passano la selezione. Ngenevnt è il numero di eventi totali generati. Il rapporto Ngoodevnt Ngenevnt è dunque l’ efficienza della selezione effettuata. Il numero di eventi che passano la selezione si può assumere a distribuzione Poissoniana. Ne segue che l’ incertezza statistica relativa a Ngoodevnt è pari a 4. Generazione e studio di eventi jet 73 Ngoodevnt . Il valore della rate è allora condizionato da 2 fattori: l’ incertezza sulla sezione d’ urto totale calcolata da Pythia e l’ incertezza, di tipo Poissoniano, sul numero di eventi che passano la selezione. Sviluppando i calcoli si ottiene: σR R 1 Ngoodevnt Ngoodevnt Ngoodevnt 2 Ngenevnt (4.4) Si vede dunque quanto affermato in precedenza: l’ incertezza dovuta al calcolo della sezione d’ urto è più piccolo rispetto all’ incertezza dovuta al numero di particelle che passano la selezione di un fattore Ngoodevnt Ngenevnt e può dunque essere trascurata a patto che la selezione effettuata selezioni un numero di particelle molto minore del numero di eventi generati. 4.4 Studio delle caratteristiche cinematiche del segnale L’ analisi che segue è stata svolta sui campioni già utilizzati nello studio delle sezioni d’ urto: in un primo momento sono stati analizzati sample da 100000 eventi per valori di Pt minimo compresi tra 3 e 15 GeV; successivamente l’ analisi si è concentrata su un minor numero di valori di Pt , i cui sample sono però costituiti da 2000000 di eventi, per ottenere risultati più rilevanti dal punto di vista statistico. L’ obiettivo è, da una parte, quello di individuare il valore di Pt più adatto per generare eventi da utilizzare poi nei programmi di simulazione di CMS (OSCAR e ORCA), dall’ altra quello di analizzare le caratteristiche proprie del canale in esame, ovvero il decadimento dell’ η in due fotoni. Per non appesantire eccessivamente la trattazione, i grafici esposti si riferiscono al solo sample di 2000000 di eventi generato a Pt 15 GeV; grafici analoghi sono stati però analizzati relativamente ad ogni valore di Pt minimo citato. 4.4.1 Caratteristiche cinematiche dell’ η L’ η è un mesone di massa 547.30 0 12 MeV. La sua ampiezza di decadimento totale è pari a 1.18 0 11 KeV. I principali canali di decadimento neutri sono quello in 2 γ, con una branching ratio pari al 39.4%, e in 3 π0 , con b.r. pari al 32.5 %. I decadimenti carichi più importanti sono quello in π π π0 (22.6 %) e π π γ (4.68 %) [3]. L’ attenzione nel presente lavoro verrà concentrata sul decadimento in 2 fotoni, che permette, una volta che questi siano stati identificati e isolati, di ricostruire la massa invariante della particella. Utilizzando semplici trasformazioni di Lorentz, si vede che esiste un legame tra l’ energia della particella e l’ angolo minimo 74 tra i due fotoni derivanti dal decadimento. Indicati con (x, y, z) e (x , y , z ) rispettivamente il riferimento in cui la particella è a riposo e il riferimento del laboratorio e ipotizzando per semplicità che la particella si muova rispetto al laboratorio lungo l’ asse z e che, nel riferimento in cui la particella è a riposo, il decadimento avvenga nel piano (y, z) (fig. 4.4), si ha: Y’ Y γ1 η θ θ Vη Z’ Z γ2 X’ X Figura 4.4: Schema del decadimento dell’ η. p1 Mc2 Mc Mc 0 sin θ cos θ 2 2 2 (4.5) Mc2 Mc Mc 0 (4.6) sin θ cos θ 2 2 2 Dopo le trasformazioni di Lorentz i quadrivettori relativi ai due fotoni diventano, nel riferimento del laboratorio: p2 γ p1 p2 γ βMc2 Mc Mc cos θ 0 sin θ γ cos θ 2 2 2 Mc2 2 Mc2 2 βMc2 Mc cos θ 0 sin θ γ 2 2 Mc cos θ 2 βMc 2 βMc 2 (4.7) (4.8) L’ angolo tra i due fotoni si ottiene calcolando l’ angolo formato da ognuno di essi con l’ asse z: θγγ θ1 θ2 arctan sin θ γ cos θ β arctan γ sin θ cos θ β (4.9) 4. Generazione e studio di eventi jet 75 In particolare l’ angolo minimo tra i due fotoni nel riferimento del laboratorio corrisponde al caso in cui i due fotoni decadano perpendicolarmente alla direzione di moto dell’ η nel riferimento in cui questa è a riposo, cioè quando si abbia θ π2 (fig. 4.5): RIFERIMENTO DEL LABORATORIO RIFERIMENTO DELLA PARTICELLA y γ1 y’ γ1 θ = π/2 θ min z γ2 z’ γ2 x’ x Figura 4.5: Angolo minimo tra i due fotoni. Si ha allora: θγγ arctan 1 γβ arctan 1 γβ 2 arctan 1 γβ (4.10) Poichè inoltre γβ pη mη e, per piccoli angoli la tangente può essere sostituita dall’ arco relativo, si ottiene: θγγ 2mη pη 63 p GeV (4.11) Nella figura 4.6 è riportato lo scatter plot dell’ energia dell’ η rispetto all’ angolo tra i due fotoni generati nel decadimento, assieme alla curva prevista dalla teoria per l’ angolo minimo al variare dell’ energia. L’ andamento è proprio quello previsto dal calcolo cinematico. Questa proprietà, come si vedrà meglio in seguito, influisce notevolmente sulla capacità di ricostruzione della particella: infatti più l’ η è energetica e più l’ angolo tra i due fotoni risulterà piccolo: ciò comporta una difficoltà sempre maggiore nel ricostruire l’ evento, in quanto c’è la possibilità che i depositi di energia dei due fotoni si sovrappongano. D’ altra parte i fotoni provenienti da un’ η di bassa energia saranno ben separati tra di loro, ma risulteranno di difficile rilevazione rispetto al fondo. Nella figura 4.7 è mostrata la distribuzione degli eventi generati in funzione del numero di η da essi contenuti, relativamente a η in tutto il range angolare GeV 76 Entries 1328713 14 12 10 Mean x 72.42 Mean y 1.752 RMS x 39.26 RMS y 1.592 8 6 4 2 0 0 20 40 60 80 100 120 140 160 180 gradi Figura 4.6: Energia dell’ η in funzione dell’ angolo tra i due fotoni (sinistra) e nel solo barrel (destra). La figura 4.8 mostra invece la distribuzione degli eventi generati in funzione del numero di coppie γγ provenienti dallo stesso η che finiscono all’ interno del barrel. x10 2 x10 2 2500 5000 Entries 2000000 2000 Entries 2000000 Mean 1500 4000 7.712 3000 RMS 2000 500 1000 5 10 15 1.919 RMS 1.522 3.123 1000 0 0 Mean 20 25 Neta 0 0 5 10 15 20 25 Neta Figura 4.7: Eventi in funzione del numero η generate nell’ evento in tutto il range angolare (sinistra) e limitatamente al barrel (destra). 4.4.2 Caratteristiche cinematiche dei fotoni La caratteristica principale del canale in esame è la presenza di due fotoni nello stato finale; le proprietà cinematiche di questi due fotoni verranno utilizzate per ridurre il fondo. Innanzitutto occorre premettere che l’ analisi è stata svolta prendendo in con- 4. Generazione e studio di eventi jet x10 77 2 10000 Entries 2000000 Mean 8000 RMS 0.6644 0.845 6000 4000 2000 0 0 1 2 3 4 5 6 7 8 9 10 Ntwophoto Figura 4.8: Eventi in funzione delle coppie di fotoni dall’ η nel barrel siderazione le sole particelle all’ interno del barrel, per le quali dunque η 1 479. 5000 6000 4000 5000 4000 3000 Entries Mean 2000 1328713 0.0003976 Entries RMS 0.8413 1000 0 3000 Mean -0.0006685 RMS 1000 -1 -0.5 0 0.5 1 pseudorapidita’ 1328713 2000 0 -1 -0.5 0 0.7461 0.5 1 pseudorapidita’ Figura 4.9: Distribuzione della pseudorapidità per i fotoni provenienti dal decadimento dell’ η: più energetico (sinistra) e meno energetico (destra) Un’ importante caratteristica è la distribuzione in energia trasversa dei fotoni provenienti dal decadimento dell’ η. Tali fotoni sono caratterizzati da una distribuzione in Et piuttosto alta, che permette, assieme al più alto angolo tra i fotoni stessi, di distinguerli dai fotoni provenienti dal π0 tramite un’ opportuna selezione. Inoltre le tecniche di ricostruzione dell’ energia depositata nel calorimetro di CMS, come descritto nel capitolo 3, impongono su questa variabile una selezione piuttosto stringente, in quanto, ad esempio, la formazione del supercluster richiede un valore di energia trasversa superiore ai 4 GeV nel seed-cluster. Nella figura 4.10 è riportata la distribuzione in energia trasversa del fotone più e meno energetico proveniente dal decadimento dell’ η in due fotoni nel barrel, mentre nella 78 figura 4.11 è riportata la stessa distribuzione per Et >3 GeV. Si noti come la coda della distribuzione in energia trasversa in entrambi i plot si traduca nella presenza di eventi anche per un alto taglio in Et ; l’ alta rate propria della produzione delle η supplisce alla bassa efficienza del taglio imposto. 20000 40000 18000 16000 Entries 1328713 14000 Mean Entries 1328713 30000 Mean 0.3724 25000 RMS 0.4157 0.9545 12000 RMS 35000 0.9346 10000 20000 8000 15000 6000 10000 4000 5000 2000 0 0 1 2 3 4 5 6 7 8 9 0 0 10 GeV 1 2 3 4 5 6 7 8 9 10 GeV Figura 4.10: Energia trasversa del fotone più energetico (sinistra) e meno energetico (destra) dal decadimento di un’ η in due fotoni nel barrel. Entries 1328713 Entries 1328713 Mean 4.419 Mean 4.106 RMS 1.435 RMS 1.213 50 400 350 40 300 250 30 200 20 150 100 10 50 0 3 4 5 6 7 8 0 9 3 4 5 6 7 GeV 8 9 GeV Figura 4.11: Energia trasversa del fotone più energetico (sinistra) e meno energetico (destra) dal decadimento di un’ η in due fotoni nel barrel per E t 4.5 Analisi delle rate del canale η 3 GeV. γγ Questo paragrafo verterà sul calcolo della rate di produzione di η che decadono in due fotoni: verranno considerati i risultati ottenuti per i sample di 100000 e di 2000000 di eventi, al variare dell’ impulso trasverso minimo scambiato. Nella figura 4.12 è riportato l’ andamento della rate al variare dell’ impulso trasverso minimo scambiato (Pt ). La dimensione dei sample utilizzati è pari a 100000 eventi per ogni valore di Pt tranne per Pt = 15 GeV, dove si è scelto di utilizzare 500000 4. Generazione e studio di eventi jet 79 eventi per confrontare la riduzione dell’ incertezza rispetto agli altri sample. È stato imposto su ognuno dei due fotoni un taglio in energia trasversa Et 3 GeV. Hz 60000 50000 40000 30000 20000 10000 2 4 6 8 10 12 14 16 GeV Figura 4.12: Andamento della rate al variare del Pt minimo fissato. Dalla figura si possono notare diversi elementi. Innanzitutto si vede come la rate stimata, dopo una prima fase in cui ha un andamento costante, diminuisca all’ aumentare del Pt minimo scambiato tra i due partoni. Questo fatto si spiega considerando che, all’ aumentare del Pt minimo, parte degli eventi che contribuirebbero alla rate totale non vengono generati, in quanto provenienti da eventi caratterizzati da un impulso scambiato tra i due partoni minore del Pt minimo impostato. Questo porta a sottostimare la rate totale dell’ evento. D’ altra parte la generazione ad un valore di Pt eccessivamente basso, pur evitando tale sottostima, comporta un numero estremamente ridotto di eventi che passano la selezione. Questo fatto ha come conseguenza diretta l’ aumento della σ: come si vede in figura l’ incertezza statistica aumenta per bassi valori di Pt . In altre parole, considerare eventi con un Pt basso comporterebbe la necessità di generare un sample di eventi enorme per avere un risultato statisticamente valido. Occorre invece scegliere un valore di Pt tale da avere a disposizione un campione di eventi statisticamente rilevante e, contemporaneamente, sapere come viene modificata la rate in conseguenza di tale scelta. All’ aumentare del taglio effettuato sulle energie dei fotoni, inoltre, ci si aspetta che le rate relative a eventi generati con diverso Pt minimo siano sempre più vicine tra di loro, in quanto più i fotoni sono energetici e più vengono generati a valori alti di Pt scambiato. Si noti infine come l’ incertezza diminuisca in maniera consistente per il sample di 500000 eventi: questo rappresenta una riprova di quanto affermato in prece- 80 denza, cioè che l’ incertezza sulla rate è dominata dal termine relativo al numero di eventi che passano la selezione. L’ analisi relativa ai sample da 2000000 di eventi è mostrata in figura 4.13: si noti come l’ incertezza risulta ridotta di un fattore Ntotevnt 1 Ntotevnt 2 1 20 rispetto al caso in cui vengono utilizzati 100000 eventi. Hz 40000 35000 30000 25000 20000 15000 2 4 6 8 10 12 14 16 GeV Figura 4.13: Andamento della rate al variare del Pt fissato (sample da 2M di eventi). Come verifica sulla consistenza dei dati ottenuti da Pythia si è verificato che la rate di produzione di eventi per un impulso scambiato al di sopra dei 15 GeV fosse la stessa per ognuno dei sample analizzati. Il risultato, normalizzato alla rate del sample a Pt 15 GeV è riportato in figura 4.14: il fatto che tutti i punti siano compatibili con l’ unità entro 1 σ fornisce una prova della validità dei dati generati. Le rate ottenute sono state confrontate con quelle di articoli sullo stesso argomento [20]: l’ ordine di grandezza è lo stesso e permette di considerare la possibilità di una calibrazione stand alone, di cui si è parlato nel precedente capitolo. La scelta nell’ analisi a livello di generatore, come pure nell’ analisi operata con ORCA che verrà descritta nel capitolo successivo, è stata quella di generare un sample con Pt > 15 GeV: questa scelta è dettata dalla necessità di avere un numero statisticamente rilevante di eventi dopo la selezione. Si noti che nell’ analisi in ORCA, richiedendo un energia per Et 10 GeV per ogni η, il problema della sottostima della rate non dovrebbe essere rilevante. 4. Generazione e studio di eventi jet 81 2 1.8 1.6 1.4 1.2 1 0.8 0.6 2 4 6 8 10 12 14 16 GeV Figura 4.14: Andamento della rate delle interazioni protone-protone con Pt scambiato maggiore di 15 GeV dei vari sample, normalizzata alla rate del sample a Pt > 15 GeV. 4.6 Isolamento degli eventi e studio del picco di massa L’ incertezza dovuta alla ricostruzione delle energie dei due fotoni, che si traduce in un allargamento del picco di massa invariante, è dovuta essenzialmente a tre fattori: Larghezza naturale dell’ η. Risposta del calorimetro all’ energia depositata dalla particella. Inefficienza dell’ algoritmo di ricostruzione dell’ evento. Il problema della ricostruzione dell’ evento richiede una simulazione completa delle componenti e dell’ elettronica di CMS e verrà affrontato nei capitoli successivi; a livello di simulazione MC è importante vedere anzitutto la fattiblità dello studio in questione, cioè vedere se il numero di eventi presenti rende possibile la ricostruzione di un picco di massa invariante. Trascurando la larghezza naturale, che nel caso dell’ η è irrilevante, la risposta del calorimetro può essere simulata, per quanto riguarda i dati a livello di generatore, introducendo uno smearing gaussiano sulle misure in energia e in angolo. In altre parole si tratta di correggere i valori esatti di energie e angoli forniti dal generatore secondo un termine che simuli la perdita di energia dovuta alle caratteristiche intrinseche del calorimetro di CMS, come la non perfetta calibrazione dei 82 cristalli o il rumore generato dall’ elettronica. La σ sull’ energia e sull’ angolo tra i due fotoni ricostruiti può essere parametrizzata come [9]: σE E 2 7% 150MeV 2 0% E E (4.12) 1mrad (4.13) E dove le somme si intendono in quadratura. Si noti come l’ incertezza sull’ energia sia il risultato della somma di tre termini, rispettivamente il termine stocastico, quello dovuto al rumore e quello costante. L’ abbassamento di quest’ ultimo termine fino ad un valore prossimo allo 0 5% rappresenta l’ obiettivo principale della calibrazione: qui il valore di questo termine è stato fissato al 2% per simulare la situazione all’ inizio della presa dati, quando i cristalli sono stati calibrati con l’ energy flow (paragrafo 3.3). L’ analisi è stata svolta prendendo in considerazione un taglio rispettivamente di 3, 4 e 5 GeV sull’ energia trasversa delle particelle: in questo modo viene eliminato gran parte del fondo di QCD, caratterizzato da un basso valore di Et . In figura 4.15 è mostrata la distanza tra i due fotoni in numero di cristalli per le diverse selezioni effettuate. La distanza in cristalli è definita come max(∆η, ∆φ), cioè il massimo tra il numero di cristalli in η e in φ1 . Come ci si aspetta il valor medio, così come il numero di eventi, diminuisce all’ aumentare del taglio imposto. σθ 1000 300 500 Entries Entries 4772 800 400 Mean 600 RMS 6.005 1.797 1861 Mean 4.609 RMS 1.329 250 Entries 875 Mean 3.809 RMS 1.112 200 300 150 400 200 200 0 0 100 100 2 4 6 8 10 12 14 16 18 20 N cristalli 0 0 50 2 4 6 8 10 12 14 16 18 20 N cristalli 0 0 Figura 4.15: Distanza in cristalli tra i due fotoni per Et γ 2 4 6 8 10 12 14 16 18 20 N cristalli 3 4 5 GeV. Isolamento dal fondo: Il picco di massa invariante dell’ η viene ottenuto facendo il combinatorio di tutte le particelle nello stato finale. Per diminuire il fondo dovuto al combinatorio si è effettuata una selezione sull’ angolo tra le varie particelle, imponendo che sia minore di 15 . La selezione non diminuisce il numero di eventi nel picco dell’ η: questo si può vedere confrontando le figure 4.16, 4.17 e 1 η, in questo caso, si riferisce alla pseudorapidità 4. Generazione e studio di eventi jet 83 4.18, dove sono riportati, per i vari tagli in Et effettuati, il picco di massa invariante prima e dopo il taglio sull’ angolo. La parte in chiaro della distribuzione indica gli eventi che provengono effettivamente dal decadimento di un η in due fotoni. 1200 1200 1000 1000 800 800 600 600 400 400 200 200 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 GeV 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 GeV Figura 4.16: Distribuzione della massa invariante del combinatorio, prima (sinistra) e dopo (destra) del taglio sull’ angolo tra le due particelle finali. Per entrambe le particelle si richiede Et 3 GeV. 400 400 350 350 300 300 250 250 200 200 150 150 100 100 50 50 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 GeV 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 GeV Figura 4.17: Distribuzione della massa invariante del combinatorio, prima (sinistra) e dopo (destra) del taglio sull’ angolo tra le due particelle finali. Per entrambe le particelle si richiede Et 4 GeV. Come ci si aspetta la larghezza della distribuzione di massa invariante delle η diminuisce all’ aumentare del taglio imposto nella selezione: questo è una diretta conseguenza delle caratteristiche della risoluzione in energia. A basse energie, infatti la risoluzione è dominata dal termine statistico e da quello di rumore, che hanno una dipendenza dall’ energia del tipo, rispettivamente, E1 e 1E . Il risultato di questa analisi a livello di generatore, oltre a fornire un’ analisi sulle caratteristiche cinematiche dell’ η, è dunque quello di aver stimato, come si vede in figura 4.12, l’ ordine di grandezza della rate del canale η γγ in alcune 84 140 140 120 120 100 100 80 80 60 60 40 40 20 20 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 GeV 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 GeV Figura 4.18: Distribuzione della massa invariante del combinatorio, prima (sinistra) e dopo (destra) del taglio sull’ angolo tra le due particelle finali. Per entrambe le particelle si richiede Et 5 GeV. migliaia di Hz e di aver mostrato la possibilità di ottenere un picco di massa invariante come punto di partenza per le procedure di calibrazione in CMS, cioè con un termine costante nello smearing pari al 2%. La ricostruzione della massa invariante su eventi completamente simulati, in modo da riprodurre la geometria del rivelatore e l’ elettronica dell’ esperimento, sarà oggetto dei prossimi due capitoli. Capitolo 5 Analisi del canale di decadimento η γγ a CMS L’ analisi del presente capitolo riguarderà la generazione, la simulazione e la ricostruzione di eventi in cui siano presenti particelle η (M = 547.30 0.12 MeV); in particolare l’ attenzione verrà concentrata sul canale η γγ (Br. Ratio = 39 4%). L’ idea è quella di ricostruire la massa invariante dell’ η tramite la ricostruzione dei due fotoni in vista di un utilizzo del picco di massa invariante ricostruito per la calibrazione. A questo proposito si ricorda che, come ricavato nel capitolo 3, l’ incertezza relativa della costante di calibrazione è direttamente legata al picco di massa invariante ricostruito tramite la relazione: σC C 2ση mη Nγ (5.1) dove ση è la σ del picco di massa invariante, mη il valore della massa dell’ η e Nγ il numero medio di eventi nel picco che coinvolge il singolo cristallo. 5.1 Studio di eventi isolati η γγ Prima di analizzare la ricostruzione delle η prodotte a partire da collisioni protoneprotone, riproducendo così l’ evento fisico nella sua completezza, si è pensato di analizzare preliminarmente un campione di η singole appartenenti ad un ampio range di energie. Questo campione di eventi, pur non avendo grande rilevanza dal punto di vista fisico, è servito per testare le capacità ricostruttive dei programmi di simulazione di CMS riguardo la particella in questione e per evidenziare alcuni problemi in fase di ricostruzione, come la conversione dei fotoni e il ridotto angolo di decadimento tra di essi. Il campione analizzato è stato creato nel modo seguente: 85 86 GENERAZIONE : l’ analisi è stata svolta su un campione di 104 η con uno spettro in impulso trasverso piatto tra 3 e 30 GeV; la direzione delle η (pseudorapidità minore di 0.435 in modulo) è stata fissata in modo che appartenessero al primo gruppo di moduli del calorimetro di CMS, al fine di limitare le conversioni in fase di simulazione. Inoltre le η sono state forzate a decadere in 2 fotoni modificando opportunamente le routine del programma utilizzato per la generazione, CMKIN_2_1_0. DIGITIZZAZIONE E SIMULAZIONE : il campione generato con CMKIN è stato trattato con OSCAR (versione 2_4_5) per effettuare la simulazione, cioè per simulare l’ interazione della particella con le varie componenti del detector. La digitizzazione e l’ analisi dei dati sono state effettuate con ORCA versione 7_6_0. 400 350 300 Entries 10000 250 Mean 17.06 RMS 8.079 200 150 100 50 0 0 10 20 30 40 50 60 70 80 90 100 GeV Figura 5.1: Energia delle η. Un’ importante variabile cinematica è rappresentata dall’ angolo tra i due fotoni che, come si è visto nel capitolo 4, è legato all’ energia dell’ η. In figura 5.3 è riportata la distribuzione di tale angolo: circa il 77% delle coppie di fotoni hanno un angolo di decadimento minore di 10 . Le conversioni dei fotoni ed eventuale successiva bremsstrahlung degli elettroni da essi generati comportano, come si vedrà nelle distribuzioni di massa invariante, un netto peggioramento nella ricostruzione dell’ η. In figura 5.4 è mostrata la somma di conversioni e bremsstrahlung per ogni coppia di fotoni, dove i due processi si riferiscono rispettivamente ai fotoni e agli elettroni dello sciame elettromagnetico dovuto al fotone iniziale all’ interno del materiale posto di fronte al calorimetro. Si vede come circa il 50% delle coppie di fotoni giungano non convertite sulla superficie sensibile del calorimetro. 5. Analisi del canale di decadimento η γγ a CMS 140 87 Entries 10000 Mean 3.15 RMS 1.811 40 120 35 Entries 10000 30 100 Mean 0.001061 25 80 RMS 0.2517 20 60 15 40 10 20 5 0 -1.5 -1 -0.5 0 0.5 0 0 1 1.5 pseudorapidita’ 1 2 3 4 5 6 radianti Figura 5.2: Distribuzioni in pseudorapidità (a sinistra) e in φ (a destra) delle η. 2000 1800 1600 Entries 10000 1400 1200 Mean 7.832 RMS 8.394 1000 800 600 400 200 0 0 10 20 30 40 50 60 70 80 90 100 gradi Figura 5.3: Distribuzione dell’ angolo tra i due fotoni. RICOSTRUZIONE L’ utilizzo delle tecniche di ricostruzione standard di CMS (algoritmi Hybrid e Island) deve essere considerato alla luce del particolare tipo di evento da ricostruire. Occorre infatti considerare due fattori: La possibilità, per i due fotoni, di effettuare conversioni. La possibilità, data la vicinanza tra i due fotoni, che essi vengano ricostruiti nello stesso oggetto, rendendo di fatto impossibile la ricostruzione della massa invariante. L’ uso del cluster, sebbene permetta una distinzione dei due fotoni nella maggior parte dei casi, non consente di recuperare l’ energia persa a causa delle conversioni; d’ altra parte l’ utilizzo del supercluster standard comporta spesso la ricostruzione dei due fotoni nello stesso oggetto, per quanto permetta di recuperare, almeno in parte, l’ energia persa per conversione. 88 5000 Entries 10000 4000 Mean 2.071 RMS 3.092 3000 2000 1000 0 0 2 4 6 8 10 12 14 N conversioni Figura 5.4: Numero di conversioni-bremsstrahlung per evento. Si è dunque provato a scrivere un algoritmo di ricostruzione utilizzando i cluster di tipo island come punto di partenza e implementando le operazioni di seguito descritte. DESCRIZIONE DELL’ ALGORITMO L’ algoritmo è stato strutturato in modo da ordinare i cluster presenti nell’ evento in base all’ energia e scegliere il cluster più energetico. A partire dalla posizione ricostruita di tale cluster si cerca il secondo cluster all’ interno di un cono. Infine si considera per entrambi i cluster una finestra ampia in φ e stretta in pseudorapidità: tutti i cluster all’ interno di tale finestra formano un supercluster (cioè un cluster di cluster) con il cluster di partenza, che diventa il seed-cluster. Le impostazioni dell’ algoritmo sono le seguenti: Cono di ricerca del secondo cluster di ampiezza pari a 10 . Energia del secondo cluster maggiore di 1 GeV. Finestra attorno ad ogni cluster selezionato pari a 3 cristalli in pseudorapidità e 20 cristalli in φ. Gli eventuali cluster in comune vengono assegnati al seed-cluster più energetico. RICOSTRUZIONE DELL’ ANGOLO In figura 5.5 è visualizzata la differenza tra angoli ricostruiti e angoli simulati per i fotoni. L’ associazione tra fotoni simulati e ricostruiti è stata fatta tramite matching angolare, richiedendo che la direzione ricostruita sia compresa entro un cono di 0.05 radianti di apertura dalla traccia simulata. Si noti come, per la maggior parte degli eventi, l’ errore sulla 5. Analisi del canale di decadimento η γγ a CMS 89 ricostruzione angolare sia inferiore a 5 millesimi di radiante. Gli eventi ricostruiti sono circa la metà dei fotoni generati (2 104 ): questo risulta chiaro considerando che i fotoni che subiscono conversioni per lo più falliscono il matching angolare. 2500 3000 2500 Entries 2000 Mean -4.72e-05 1500 RMS 13914 2000 Entries 13914 1500 Mean -7.471e-05 0.00684 RMS 1000 0.01128 1000 500 500 0 -0.05 -0.04 -0.03 -0.02 -0.01 0 0.01 0.02 0.03 0.04 0.05 radianti 0 -0.05 -0.04 -0.03 -0.02 -0.01 0 0.01 0.02 0.03 0.04 0.05 radianti Figura 5.5: Differenza tra angoli ricostruiti e angoli simulati per i fotoni provenienti dal decadimento dell’ η: pseudorapidità (a sinistra) e φ (a destra). CORREZIONE DELL’ ENERGIA Negli algoritmi di ricostruzione standard di CMS, vengono effettuate alcune correzioni sull’ energia ricostruita al fine di tenere in considerazione effetti che portano a sottostimare l’ energia. In particolare si effettua una correzione in funzione del numero di cristalli che compongono il cluster. Come si vede dalla figura 5.6, per i cluster island la percentuale di energia ricostruita, per un numero di cristalli sufficientemente elevato, ragginge il 98 %, mentre diminuisce man mano che il numero di cristalli di cui è formato il cluster si riduce. L’ associazione tra cluster ed energie MC avviene tramite matching angolare. Questa imprecisione si ripercuote sull’ algoritmo sviluppato, che si basa sul cluster di tipo island, provocando uno spostamento del picco di massa invariante ricostruito verso valori di energia più bassi. MASSA INVARIANTE Si mostrano infine le distribuzioni di massa invariante ricostruita utilizzando l’ algoritmo esposto. Si noti come, per quanto detto, in precedenza il picco sia sottostimato rispetto alla massa nominale dell’ η (547 MeV). Per evidenziare il deterioramento della ricostruzione dovuto alla presenza di conversioni nel materiale del calorimetro, nella figura 5.8 la distribuzione precedente viene distinta in eventi in cui entrambi i fotoni non abbiano convertito e in eventi in cui c’è stata almeno una conversione. Si vuole ribadire che l’ analisi svolta in questo primo paragrafo ha avuto la sola funzione di testare la risposta del calorimetro al particolare tipo di eventi analizza- 1.2 Erec/Etrue Erec/Etrue 90 1 1 0.8 0.8 0.6 Entries 10874 0.6 Entries 10874 Mean x 0.4 0.4 15.75 Mean 15.8 RMS 6.631 Mean y 0.9403 RMS x 0.2 6.631 0.2 RMS y 0.08411 0 0 5 10 15 20 25 30 0 0 35 40 N cristalli 5 10 15 20 25 30 35 40 N cristalli Figura 5.6: rapporto Erec Etrue in funzione del numero di cristalli (a sinistra) e relativo profile (a destra) per il cluster island. 800 700 600 500 400 Entries 6957 Mean 0.536 RMS 0.1953 300 200 100 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV Figura 5.7: Distribuzione di massa invariante delle η ricostruite. 700 140 600 500 Entries 400 Mean 0.5094 300 RMS 0.05726 120 3845 Entries 100 80 3112 Mean 0.5689 60 RMS 200 100 0 0 0.2815 40 20 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV Figura 5.8: Distribuzione di massa invariante per le η ricostruite in assenza (sinistra) e in presenza (destra) di conversione. 5. Analisi del canale di decadimento η γγ a CMS 91 ti, nei quali l’ η è prodotto da solo. Gli eventi rilevanti dal punto di vista fisico, nei quali l’ η si trova all’ interno di un jet, verranno analizzati nei paragrafi successivi e nel prossimo capitolo, usando gli strumenti standard di ricostruzione di CMS. La ricerca di un algoritmo che identifichi i cluster all’ interno dei supercluster standard sarà comunque ripresa nel capitolo 6. 5.2 Analisi delle η all’ interno dei jet In questo paragrafo il problema della ricostruzione delle η verrà affrontato procedendo ad una simulazione completa degli eventi protone-protone: la particella in questione non verrà quindi prodotta isolata, ma assieme a tutte le particelle previste nello stato finale in eventi di questo tipo. Inoltre, in fase di generazione, verranno imposte alcune condizioni per limitare le dimensioni del campione prodotto, condizioni di cui si dovrà tenere conto nel calcolo delle rate, descritto nel paragrafo successivo. 5.2.1 Modalità di produzione del sample L’ analisi è stata svolta su 4 104 eventi protone-protone. La generazione dell’ evento MC è stata effettuata con CMKIN_2_1_0, richiedendo un’ energia nel centro di massa pari a 14 TeV. La scelta dell’ impulso trasverso minimo scambiato tra i due partoni in fase di generazione, alla luce dei risultati ottenuti nel precedente capitolo, è stata fatta a 15 GeV. Sono state inoltre effettuate alcune richieste sul sample generato, volte a rendere il sample adatto per l’ analisi che si vuole effettuare: Le η all’ interno di ogni evento vengono forzate a decadere in due fotoni (Γη γγ = 39.43 %); In ogni evento deve essere presente almeno un η all’ interno del barrel; Ognuno dei due fotoni provenienti dall’ η nel barrel deve avere un impulso trasverso maggiore di 5 GeV. Successivamente è stata effettuata la simulazione dell’ evento all’ interno del volume di CMS, utilizzando OSCAR_3_2_2, mentre la digitizzazione e l’ analisi è stata fatta con ORCA_8_2_1. Per quest’ ultima fase sono stati utilizzati i computer della farm di CMS-Roma1, mentre la generazione di eventi MC è stata effettuata sui computer del CERN. 92 5.2.2 Proprietà cinematiche degli eventi generati Risulta chiaro che le richieste fatte sugli eventi in fase di generazione comporteranno distribuzioni caratteristiche delle variabili cinematiche delle particelle interessate da tale selezione. Si guardi, ad esempio, la figura 5.9, in cui si mostra la distribuzione dell’ energia dei fotoni più e meno energetici provenienti dal decadimento dell’ η: il classico andamento decrescente mostra una risalita a partire da E = 5 GeV, conseguenza del fatto che si è richiesto la presenza in ogni evento di un η che decada nel barrel in due fotoni aventi impulso trasverso maggiore di 5 GeV. Anche la distribuzione dell’ angolo tra i due fotoni (fig. 5.10) è interpretabile allo stesso modo, mostrando un picco per angoli piccoli, che corrispondono alle alte energie selezionate in fase di generazione. 40000 20000 35000 18000 16000 30000 Entries 102964 25000 Mean 4.112 RMS 5.051 Entries 102964 14000 12000 10000 8000 Mean 6.636 20000 RMS 7.629 15000 6000 10000 4000 5000 2000 0 0 5 10 15 20 25 30 35 40 45 0 0 50 GeV 5 10 15 20 25 30 35 40 45 50 GeV Figura 5.9: Energia dei fotoni più energetici (a sinistra) e meno energetici (a destra) provenienti dal decadimento dell’ η. 3500 3000 Entries 102964 2500 2000 Mean 15.76 1500 RMS 17.45 40 50 1000 500 0 0 10 20 30 60 gradi Figura 5.10: Distribuzione dell’ angolo tra i due fotoni. 5. Analisi del canale di decadimento η γγ a CMS 93 5.2.3 Ricostruzione e selezione Per la ricostruzione dei depositi di energia si è scelto di utilizzare come algoritmo di ricostruzione il supercluster di tipo hybrid, che si è dimostrato estremamente efficiente nella ricostruzione dei fotoni (per i dettagli sull’ algoritmo in questione si rimanda al capitolo 3). L’ utilizzo del supercluster hybrid garantisce una precisa ricostruzione in energia e in angolo dei fotoni; d’ altra parte occorrerà evidenziare quali sono i problemi legati all’ utilizzo di tale algoritmo nel caso specifico, dovuti, in particolare, all’ estrema vicinanza dei due fotoni ad alte energie. 8000 7000 6000 Entries 86795 5000 Mean 0.7682 RMS 0.1831 4000 3000 2000 1000 0 0 0.2 0.4 0.6 0.8 1 1.2 GeV Figura 5.11: Rapporto E9/Esc tra l’ energia della matrice di cristalli 3 3 centrata nel seed del supercluster e l’ energia del supercluster stesso. A questo proposito estremamente significativa è la figura 5.12, dove viene riportato il valore MC dell’ energia dell’ η, in ascisse, a confronto con il valore dell’ energia del supercluster più energetico entro un cono di semiampiezza pari a 4 cristalli (0.07 radianti) dalla direzione dell’ η stessa. Si possono chiaramente individuare due zone: nella prima l’ energia del supercluster più energetico è maggiore della metà dell’ energia dell’ η e minore dell’ energia totale; nella seconda i supercluster individuati hanno all’ incirca la stessa energia dell’ η simulato. È chiaro che i supercluster appartenenti a questo secondo gruppo sono quelli in cui i due fotoni vengono ricostruiti insieme, rendendo così impossibile la ricostruzione della massa invariante utilizzando le informazioni del solo supercluster. I supercluster ricostruiti all’ interno di ogni singolo evento vengono associati l’ uno all’ altro secondo i seguenti criteri selettivi: Rapporto E9/Esc > 0.9 per entrambi i supercluster; Angolo tra i due supercluster minore di 15 ; GeV 94 50 Entries 40000 45 Mean x 21.89 40 Mean y 17.22 35 RMS x 7.994 30 RMS y 9.541 25 20 15 10 5 0 10 15 20 25 30 35 40 45 50 GeV Figura 5.12: Energia del supercluster più energetico all’ interno di un cono di semiam- piezza 4 cristalli centrato nella direzione dell’ η simulata in funzione dell’ energia dell’ η stessa. La prima condizione è finalizzata all’ eliminazione dei supercluster generati dai depositi di più particelle, cosa che determina un allargamento del deposito di energia verso le zone periferiche del SC, con conseguente diminuzione del rapporto suddetto; vengono dunque eliminati anche quei SC in cui cadono entrambi i fotoni provenienti dall’ η. La seconda condizione, invece, elimina quelle coppie di SC che non possono riferirsi a fotoni provenienti dallo stesso η, in quanto, considerata l’ energia minima di formazione del supercluster (4 GeV), la cinematica svantaggerebbe angoli tanto grandi per fotoni così energetici. 5.2.4 Analisi del picco di massa invariante Utilizzando le coppie di SC selezionate nella maniera esposta nel paragrafo precedente, si è proceduto, sommando i quadriimpulsi, al calcolo della massa invariante: Minv E1 E2 2 p 1 p 2 2 (5.2) La selezione effettuata e descritta in precedenza ha proprio lo scopo di individuare, tramite opportuni tagli cinematici, le coppie più probabili di SC generati da fotoni provenienti dallo stesso η. I risultati della ricostruzione sono mostrati nella figura 5.14: sul picco è stato inoltre effettuato un fit gaussiano nell’ intervallo 0.51-0.59 GeV. Tramite il fit gaussiano è possibile operare una scelta degli eventi all’ interno del picco di massa: si è scelto di considerare come effettivamente provenienti dal decadimento dell’ η gli eventi entro 2σ del fit. Nelle figure 5. Analisi del canale di decadimento η γγ a CMS 95 successive (5.15 e 5.16), invece, le η ricostruite mostrate in figura 5.14 vengono distinte in base al tipo di gruppi di moduli in cui finiscono: esistono infatti 4 tipi diversi di moduli, distinguibili in base al valore di pseudorapidità coperto e al numero e all’ inclinazione dei cristalli. Ci si aspetta che, all’ aumentare della pseudorapidità, diminuisca il numero di eventi che finiscono nei relativi cristalli, a causa dell’ aumento del materiale da attraversare (figura 5.17), il quale, aumentando la probabilità di conversioni, limita di fatto la ricostruzione dell’ evento. Tutto ciò si ripercuote sul tempo richiesto per la calibrazione, che sarà maggiore, a parità di numero di eventi per cristallo, per i cristalli di pseudorapidità maggiore. È da notare il fatto che la larghezza del fit diminuisce all’ aumentare della pseudorapidità, pur diminuendo di pari passo il numero di eventi ricostruiti. Questo si può spiegare considerando che le η prodotte a pseudorapidità maggiori sono mediamente più energetiche, come mostrato in figura 5.18: dunque la loro ricostruzione è caratterizzata da una risoluzione maggiore. Si noti inoltre, dal confronto delle due figure 5.13 e 5.14, l’ efficacia del taglio S9/Esc nell’ isolamento degli eventi nel picco rispetto al fondo. I dati forniti dai fit gaussiani per i vari gruppi di moduli verranno poi utilizzati nella stima dei tempi di accumulazione degli eventi necessari per raggiungere una precisione di calibrazione dello 0.5 %. 1800 1600 1400 Entries 33128 1200 1000 800 Mean 0.8473 RMS 0.3918 600 400 200 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV Figura 5.13: Distribuzione di massa invariante dell’ η dal combinatorio dei supercluster prima del taglio S9/Esc 0 9. Se si guarda la figura 5.19, in cui viene confrontata la distribuzione in energia trasversa delle η simulate con quella delle η ricostruite entro 2σ del fit gaussiano del picco di massa ricostruito, si vede come l’ efficienza di ricostruzione cali decisamente all’ aumentare dell’ energia trasversa. Se ne deduce, dunque, l’ inefficienza del supercluster nella ricostruzione di eventi η γγ ad alte energie: il tentativo di scrivere un algoritmo capace di recuperare tali eventi sarà esposto nel capitolo successivo. 96 1200 1000 Entries 7463 Mean 800 0.6416 0.2464 RMS χ2 / ndf 18.43 / 5 Prob 600 0.002458 1136 ± 21.8 Constant 0.5476 ± 0.0003 Mean 400 0.01726 ± 0.00025 Sigma 200 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV Figura 5.14: Distribuzione di massa invariante dell’ η dal combinatorio dei supercluster. 450 250 400 Entries 350 2644 Mean 300 RMS 250 χ2 / ndf 100 0.226 χ 2 / ndf 5.749 / 5 Prob 411.7 ± 12.7 0.3315 Constant 100 0.5479 ± 0.0005 Mean 0.01802 ± 0.00042 Sigma 0.6296 RMS 150 0.5569 Mean 1588 Mean 0.2125 Constant 150 200 3.948 / 5 Prob 200 Entries 0.6268 Sigma 250.9 ± 10.2 0.5476 ± 0.0006 0.01732 ± 0.00053 50 50 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV Figura 5.15: Distribuzione di massa invariante per le η che finiscono nel primo gruppo di moduli (sinistra, η 0 783). 0 435) e nel secondo gruppo di moduli (destra, 0 435 η 5.3 Studio della rate Avendo a disposizione i dati relativi alle sezioni d’ urto e all’ incidenza degli eventi ricostruiti rispetto al numero di eventi totali, è ora possibile dare una stima delle rate degli eventi ricostruiti e dei tempi necessari per accumulare la statistica necessaria per la calibrazione, tempi che verranno distinti a seconda del gruppo di moduli del barrel considerato. In questo calcolo, però, occorre considerare l’ efficienza del livello-1 di trigger relativo agli eventi e/γ isolati: questa efficienza, per il valore di energia di 5 GeV che si è richiesto per i fotoni provenienti dall’ η, è pari al 38.1 % [20]. Si noti come la rate in questione sia legata all’ algoritmo di ricostruzione scelto e dunque passibile di miglioramento. 5. Analisi del canale di decadimento η γγ a CMS 97 220 200 140 Entries 180 Mean 160 0.6178 RMS 140 Prob 100 Constant Mean Sigma Mean 100 χ2 / ndf 815 0.6154 0.2335 RMS 9.827 / 5 120 60 120 0.2132 χ 2 / ndf 80 Entries 1282 9.452 / 5 Prob 0.0803 80 Constant 206.8 ± 9.5 60 0.5482 ± 0.0006 0.01672 ± 0.00058 0.09233 142.3 ± 8.6 Mean 0.5455 ± 0.0007 Sigma 0.0145 ± 0.0006 40 40 20 20 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 0 0 2 GeV 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV Figura 5.16: Distribuzione di massa invariante per le η che finiscono nel terzo gruppo η di moduli (sinistra, 0 783 η 1 479). 1 131) e nel quarto gruppo di moduli (destra, 1 131 La rate degli eventi η R Hz γγ ricostruiti è espressa dalla seguente relazione: σPt σPt L Ngood Ntot L Γη Γη γγ E γγ E N 2σ Ngood N 2σ Ntot (5.3) (5.4) dove: σPt è la sezione d’ urto per interazione protone-protone impulso trasverso minimo scambiato tra i due partoni pari a 15 GeV, il cui valore è stato stimato nel capitolo 4; L è la luminosità a LHC per uno scenario di bassa luminosità (2 1033 cm 2 s 1 ); Ngood è il numero di eventi prodotti in cui è contenuto un η con le caratteristiche richieste (nel caso in esame, con entrambi i fotoni provenienti dal decadimento aventi energia maggiore di 5 GeV e nel barrel); Ntot è il numero di eventi che si è dovuto generare per raggiungere il numero di eventi Ngood richiesto: tale valore è stato ottenuto in fase di generazione da CMKIN; Γη γγ è l’ ampiezza di decadimento relativa dell’ η in due fotoni; infatti, richiedendo, come è stato fatto, che tutte le η decadessero in due fotoni, bisogna poi correggere la rate per tale fattore, pari a circa 0.39; E è l’ efficienza del trigger per elettrone/fotone singolo a E = 5 GeV. 98 All Tracker 1.4 Beam Pipe Pixel Inner Silicon Outer Silicon Common Outside 1.2 X/X0 1 0.8 0.6 0.4 0.2 0 0 0.5 1 1.5 η 2 2.5 Figura 5.17: Spessore del materiale di fronte al calorimetro in unità di lunghezza di radiazione al variare della pseudorapidità. N 2σ è il numero di eventi che rientrano entro 2σ dal valor medio del fit gaussiano: sono questi gli eventi che si possono considerare effettivamente provenienti dal decadimento delle η, e dunque buoni per la calibrazione. Il calcolo della rate, utilizzando i valori esposti, risulta pari a circa 107 Hz. Per dare un’ idea dell’ ordine di grandezza dei tempi necessari ad accumulare una quantità di eventi rilevante, si può stimare il tempo necessario per accumulare 100 fotoni per cristallo nei vari gruppi di moduli. Detto T100 tale tempo, si ha: T100 dove: Ncrys 100 2 R Fmod (5.5) GeV 5. Analisi del canale di decadimento η γγ a CMS 99 Entries 102964 Mean x 0.004785 10.18 Mean y RMS x 0.8506 11.13 RMS y 50 45 40 35 30 25 20 15 10 5 0 -1.5 -1 -0.5 0 0.5 1 1.5 pseudorapidita’ Figura 5.18: Energia dell’ η in funzione della pseudorapidità nel barrel. 5000 700 600 4000 Entries 40268 2000 Mean 17.07 RMS 7.204 Entries 4726 Mean 14.61 RMS 3.299 500 3000 400 300 200 1000 100 0 0 10 20 30 40 50 60 70 80 90 100 GeV 0 0 10 20 30 40 50 60 70 80 90 100 GeV Figura 5.19: Distribuzione dell’ energia trasversa per η simulate (a sinistra) e per η ricostruite (a destra). Ncrys è il numero di cristalli presenti nel gruppo di moduli considerato; R è la rate, calcolata in precedenza; Fmod è la frazione di eventi che finisce nel gruppo di moduli considerato. Il fattore 2, inoltre, è dovuto al fatto che ci sono 2 fotoni per ogni η. Nella tabella 5.1 è riportato, relativamente a ciascun gruppo di moduli, la frazione Fmod di eventi, il numero Ncrys di cristalli presenti nel gruppo di moduli in questione, il numero di fotoni per secondo relativo ad un gruppo di moduli, il valore stimato di T100 e il tempo T0 5% stimato per raggiungere una precisione sui coefficienti di calibrazione dello 0.5 %, per una luminosità pari a 2 10 33 cm 2 s 1 : a tal proposito si è utilizzata la formula 3.9, fissando σcalib allo 0.5 %. 100 gruppo moduli 1 2 3 4 Fmod 41.8 % 25.1 % 20.3 % 12.8 % Ncrys 500 400 400 400 18 18 18 18 Nγ /sec 2 2 2 2 45 27 22 14 T100 T0 5% 5.6 h 7.4 h 9.2 h 14.6 h 9.6 h 11.8 h 13.7 h 16.3 h Tabella 5.1: Tabella riassuntiva per i diversi gruppi di moduli all’ interno del barrel. Capitolo 6 Distinzione di eventi η energia γγ ad alta Si è visto, da quanto esposto nel precedente capitolo, che la ricostruzione della massa invariante dell’ η tramite la ricostruzione dei due fotoni provenienti dal suo decadimento viene limitata dal fatto che, soprattutto ad alte energie, i due fotoni finiscono all’ interno dello stesso supercluster. Sarebbe dunque auspicabile individuare una tecnica per recuperare, almeno in parte, questi eventi: la rate totale di eventi ricostruiti ne risulterebbe aumentata, con conseguente diminuzione dei tempi di calibrazione. 6.1 Struttura della ricostruzione L’ algoritmo sviluppato nel paragrafo 5.1 per eventi di η singole non è immediatamente applicabile ad eventi η + jet, a causa della presenza di altri depositi di energia vicini a quelli dell’ η stesso. Negli eventi jet, per ricostruire gli η per i quali i due fotoni vengono ricostruiti nello stesso supercluster standard, la scelta più semplice è allora quella di guardare i cluster di cui il supercluster è composto. L’ obiettivo è quello di selezionare, tra questi cluster, due candidati per il calcolo della massa invariante. La scelta di questi candidati è avvenuta con le seguenti modalità: Energia dei cluster maggiore di 4 GeV; rapporto tra energia del domino di cristalli 3 3 attorno al seed-crystal ed energia del cluster maggiore di 0.9; Scelta dei due cluster più energetici tra quelli che soddisfano le due precedenti condizioni; 101 102 distanza tra i due cluster maggiore di 2 cristalli. Ci si aspetta che l’ utilizzo del cluster, anzichè del supercluster, determini un aumento degli eventi appartenenti al fondo, in quanto, dato l’ alto numero di cluster presenti, è più probabile che depositi di energia non originati da fotoni vengano scambiati come tali; inoltre ci si aspetta un peggioramento della risoluzione del picco di massa invariante, in quanto, essendo i cluster vicini tra di loro, parte dell’ energia di un deposito può essere ricostruita in un altro cluster. C’è inoltre il problema della correzione dell’ energia: per i supercluster è presente, come già accennato in precedenza, una correzione in energia dipendente dal numero di cristalli che formano il supercluster stesso. Tale correzione non è presente nelle energie dei singoli cluster: questo fa in modo che la somma delle energie dei cluster sia leggermente inferiore dell’ energia del supercluster a cui appartengono. Nella presente analisi si è dunque scelto di riscalare l’ energia dei singoli cluster per il fattore di correzione applicato ai supercluster. D’ altra parte, poichè tale correzione non è ottimizzata per il cluster, la posizione del picco di massa risulterà comunque sottostimata. In figura 6.1 viene riportata la distribuzione di massa invariante ottenuta con il metodo esposto: è stato parametrizzato il segnale con una gaussiana e il fondo con un polinomio del secondo ordine. 600 Entries 10271 Mean 0.6278 RMS 0.2611 58.38 / 56 χ2 / ndf 499.7 ± 14.8 p0 0.5345 ± 0.0006 p1 0.02154 ± 0.00057 p2 -150.4 ± 0.0 p3 987.4 ± 2.5 p4 -901.9 ± 0.0 p5 500 400 300 200 100 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 GeV Figura 6.1: Distribuzione di massa invariante dai cluster appartenenti ai supercluster hybrid. Si vede chiaramente la presenza del picco nei pressi della massa nominale dell’ η; si noti inoltre che il valore del picco viene leggermente inferiore al valore nominale della massa dell’ η. Dunque, pur applicando il fattore di correzione, il picco delle η risulta sottostimato: per poter studiare il picco ricostruito con tutti gli 6. Distinzione di eventi η γγ ad alta energia 103 GeV eventi verrà allora riscalato il picco ricostruito con i cluster per farne coincidere il valor medio con la massa nominale dell’ η. È ora necessario verificare quali sono gli eventi che vengono ricostruiti all’ interno della distribuzione precedente. Si vuole mostrare l’ analogo della figura 5.12 del precedente capitolo, in cui veniva mostrata l’ energia delle η da generatore associata all’ energia del supercluster più energetico entro un cono di semiampiezza 4 cristalli. Partendo dunque dal supercluster in cui vengono individuati i due candidati fotoni che soddisfano le richieste per l’ algoritmo esposte in precedenza, si è proceduto ad associare ad esso, quando possibile, un η simulata, tramite un matching angolare entro un cono di semiampiezza 4 cristalli. Il risultato è mostrato in figura 6.2. 50 Entries 10887 45 Mean x 24.26 35 Mean y 23.33 30 RMS x 8.631 25 RMS y 9.141 40 20 15 10 5 0 10 15 20 25 30 35 40 45 50 GeV Figura 6.2: Energia del supercluster da cui provengono i due cluster usati per la ricostruzione della massa invariante vs energia dell’ η associata al SC tramite matching angolare. Risulta chiaro come, tramite l’ algoritmo scritto, vengano selezionati proprio quei supercluster nei quali, come notato nel capitolo precedente, i due fotoni vengono ricostruiti assieme. Questa tecnica sembra dunque costituire un buon metodo per aumentare la rate degli eventi ricostruibili. Si era visto inoltre nel capitolo 5, mostrando le distribuzioni di energia trasversa per le η generate e per quelle ricostruite, come l’ efficienza della ricostruzione peggiorasse sensibilmente ad alte energie. Si mostra ora la stessa distribuzione per le η ricostruite con i cluster, prendendo i soli valori entro le 2 σ dal valor medio del picco (fig. 6.3). Confrontando le figure 5.19 e 6.3 si vede come parte degli eventi ad alta energia che non venivano ricostruiti utilizzando i supercluster sono recuperati utilizzando questo algoritmo basato sui cluster. 104 400 350 300 Entries 3933 250 Mean 14.9 RMS 4.903 200 150 100 50 0 0 10 20 30 40 50 60 70 80 90 100 GeV Figura 6.3: Distribuzione di energia trasversa per le η ricostruite entro 2σ dal valor medio del fit gaussiano del picco. 6.2 Picco ricostruito e rate totale L’ utilizzo degli eventi recuperati mediante l’ analisi dei cluster permette dunque di aumentare il numero di eventi ricostruiti che finiscono nel picco di massa invariante: occorre però tenere in considerazione l’ eventuale aumento della larghezza della distribuzione, dovuta all’ utilizzo di eventi di questo tipo. Mettendo insieme le η ricostruite con i due metodi, si ottiene la distribuzione mostrata in figura 6.4, dove, come in precedenza, si è utilizzato come fit la somma di una gaussiana e di un polinomio di secondo grado: 1800 1600 Entries 17734 Mean 0.6406 RMS 0.255 2 76.94 / 41 χ / ndf 1584 ± 26.6 p0 0.5469 ± 0.0003 p1 0.01824 ± 0.00025 p2 -169 ± 0.0 p3 1047 ± 4.2 p4 -803.2 ± 0.0 p5 1400 1200 1000 800 600 400 200 0 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 Figura 6.4: Distribuzione di massa invariante dai Supercluster e dai cluster appartenenti ai supercluster hybrid. 6. Distinzione di eventi η gruppo moduli 1 2 3 4 Fmod 43.1 % 25.6 % 20.9 % 10.4 % γγ ad alta energia Ncrys 500 400 400 400 18 18 18 18 105 Nγ /sec 2 2 2 2 66 39 32 16 T100 T0 5% 3.8 h 8.0 h 5.1 h 9.8 h 6.3 h 12.6 h 12.6 h 23.4 h Tabella 6.1: Tabella riassuntiva per i diversi gruppi di moduli all’ interno del barrel. A fronte di un leggero aumento della larghezza della distribuzione rispetto all’ utilizzo dei soli supercluster, come si nota dalla σ del fit gaussiano, si ottiene un numero di eventi entro 2σ pari a circa 7000, cioè più del 40% in più rispetto all’ utilizzo del solo supercluster. Rimane ora da chiarire in che modo la presenza di questi eventi aggiuntivi porti un effettivo vantaggio nella ricostruzione del picco ai fini della calibrazione. Come già scritto in apertura del capitolo 5, la σ che entra nella calibrazione, utilizzando il decadimento η γγ è data da: σcalib 2ση mη Nγ (6.1) Nella precedente si ha una dipendenza dal numero degli eventi al di sotto del picco gaussiano pari all’ inverso della radice. Un aumento degli eventi ricostruiti, dunque, porta, a parità di larghezza del fit, una diminuzione di σ calib , che si traduce a sua volta in una diminuzione dei tempi necessari per calibrare ad una precisione fissata. Di seguito vengono riportati i valori delle rate e dei tempi tipici di accumulazione dei fotoni nei cristalli dei diversi gruppi di moduli utilizzando la tecnica esposta. Tali valori sono da confrontarsi con quelli della tabella 5.1 del capitolo precedente. La rate di eventi ricostruiti, utilizzando la formula 5.4 del capitolo precedente, è da stimarsi in circa 153 Hz, superiore di circa il 43 % rispetto all’ utilizzo dei soli supercluster (rate stimata pari a 107 Hz). La necessità di un numero di fotoni per cristallo maggiore del caso precedente a parità di precisione richiesta è conseguenza dell’ allargamento delle distribuzioni di massa invariante. In base a questi risultati il metodo esposto comporta tempi di calibrazione minori rispetto all’ utilizzo dei soli supercluster nella ricostruzione, almeno per i moduli di tipo 1, 2 e 3. 106 Conclusioni Lo studio della possibilità di utilizzare decadimenti di particelle leggere ai fini della calibrazione nel calorimetro di CMS rappresenta un campo nel quale solo di recente sono stati fatti passi significativi: gli articoli presenti nella letteratura di CMS non sono numerosi. Lo studio esposto nella presente tesi si propone di condurre un’ analisi completa, dalla scelta degli eventi da produrre sino alla loro analisi, passando per lo studio delle sezioni d’ urto e delle rate, la simulazione degli eventi nel calorimetro di CMS, lo studio delle tecniche ricostruttive migliori da utilizzare. Il primo obiettivo è stato quello di verificare se le rate ottenute negli studi a livello di generatore sono tali da giustificare l’ utilizzo del canale analizzato. In particolare la rate stimata sembra permettere di considerare la possibilità di una calibrazione stand-alone in un lasso di tempo dell’ ordine di alcuni giorni. Il secondo obiettivo, sul quale sono stati concentrati la maggior parte degli sforzi, è stato quello di scrivere e ottimizzare un algoritmo che permettesse di ricostruire il picco di massa invariante delle η, sfruttando il suo decadimento in 2 fotoni, con la maggiore efficienza possibile: a questo proposito, dopo aver vagliato diverse soluzioni, si è mostrato come, tramite opportune selezioni, sia possibile recuperare eventi nel picco di massa che, altrimenti, andrebbero persi. In questa fase fondamentale è stato l’ utilizzo dei programmi di simulazione di CMS, in particolare ORCA. Il passo successivo sarà quello di stimare con maggiore precisione il contributo al fondo degli eventi di minimum-bias, che qui non sono stati inclusi, e analizzare più dettagliatamente l’ effetto del trigger sull’ efficienza, aspetto che qui è stato solamente accennato: più in generale, occorrerà confermare la fattibilità di questa calibrazione verificando l’ intera procedura su un campione di eventi completamente processato attraverso i vari livelli di trigger di CMS. 107 108 Bibliografia [1] A. Salam , Elementary Particle Theory (1968); [2] F. Mandl , O. Shaw, Quantum Field Theory, Wiley&Sons Ed. (1993); [3] Particle Data Group, Particle Physics Booklet, AIP (2001) [4] F. Gianotti, Collider Physics:LHC, CERN-open-2000-293; [5] J. Huston, LHC Guide to Parton Distribution Functions and Cross Sections, Atlas Internal Note, ATL-PHYS-99-008; [6] B.W. Lee, C. Quigg, H. Thacker, Phys. Rev. D16, 1519 (1977); [7] Working Group for Higgs Boson Searches, Search for the Standard Model Higgs Boson at LEP, CERN-EP 2001/055 (2001); [8] Collaborazione CMS,The Electromagnetic Calorimeter Project, Technical Design Report, CERN/LHCC 97-33 (1997); [9] Collaborazione CMS, Compact Muon Solenoid Technical Proposal, CERN/LHCC 94-38 (1994); [10] Collaborazione CMS, The Muon Project, Technical Design Report, CERN/LHCC 97-32 (1997); [11] Collaborazione CMS, The Tracker Project, Technical Design Report, CERN/LHCC 98-6 (1998); [12] W. R. Leo, Techniques for Nuclear and Particle Physics Experiments, Springer-Verlag ed. (1987); [13] M. Angelone et al., Neutron flux Measurement at Tapiro fast reactor for APD’s Irradiation fluence evaluation, CMS Note 1998/060 (1998); [14] Collaborazione CMS, The Level-1 Trigger, Technical Design Report, CERN/LHCC 2000-038 (2000); 109 110 [15] Collaborazione CMS, Data CERN/LHCC 2002-26 (2002); Acquisition & High-Level Trigger, [16] E. Meschi et al., Electron Reconstruction in the CMS Electromagnetic Calorimeter, CMS Note 2001/034; [17] G. P. Di Giovanni, Studio della ricostruzione degli elettroni per la calibrazione del calorimetro elettromagnetico di CMS, Università degli studi di Roma “La Sapienza” (2004); [18] P. Meridiani, Studio della calibrazione in situ con eventi fisici del calorimetro elettromagnetico dell’esperimento CMS, Università degli studi di Roma “La Sapienza”, (2001); [19] S.A. Householder, A glossary for numerical analysis, 1958; [20] V. Litvin et al., ECAL barrel calibration at LHC startup with η CMS Note IN 2004/021; γγ decays, [21] F. Santanastasio, Calibrazione di un calorimetro elettromagnetico tramite il flusso totale di energia, Università degli studi di Roma “La Sapienza” (2004); [22] D. Futyan et al., Intercalibration of ECAL crystals in Phi Using Symmetry of Energy Deposition, CMS IN 2002/031; [23] PYTHIA home page:http://www.thep.lu.se/ torbjorn/Pythia.html; [24] GEANT4 home page:http://wwwasd.web.cern.ch/wwwasd/geant4/geant4.html; [25] OSCAR home page: http://cmsdoc.cern.ch/oscar; [26] ORCA home page: http://cmsdoc.cern.ch/orca; [27] T. Sjostrand et al., PYTHIA 6.2 Physics and Manual (2002); [28] CTEQ home page:http://www.phys.psu.edu/ cteq;