università degli studi di brescia - Pavia Fisica Home Page
Transcript
università degli studi di brescia - Pavia Fisica Home Page
UNIVERSITÀ DEGLI STUDI DI BRESCIA FACOLTÀ DI INGEGNERIA CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA MECCANICA MONITORAGGIO DI DIGHE MEDIANTE RAGGI COSMICI Relatore: Dott. Germano Bonomi Correlatore: Dott.ssa Antonietta Donzella Laureando: Alessandro Zubani Matricola: 75645 Anno Accademico 2011-2012 Sommario Sommario Introduzione ........................................................................................................................... I 1. Monitoraggio statico di dighe ........................................................................................ 1 1.1. Classificazione delle dighe ...................................................................................... 1 1.2. Strumenti per la misura di piccoli spostamenti ...................................................... 7 1.2.1. Pendoli ............................................................................................................. 8 1.2.2. Monitoraggio mediante raggi cosmici ........................................................... 10 1.3. 2. I raggi cosmici ............................................................................................................... 16 2.1. Cenni storici .......................................................................................................... 16 2.2. Natura dei raggi cosmici ....................................................................................... 20 2.2.1. Flusso dei raggi cosmici primari..................................................................... 21 2.2.2. Reazioni a catena in atmosfera ..................................................................... 27 2.2.3. Raggi cosmici sulla superficie terrestre ......................................................... 30 2.3. Fenomeni fisici di interazione dei muoni con la materia ...................................... 31 2.3.1. Urti anelastici ................................................................................................. 33 2.3.2. Bremsstrahlung.............................................................................................. 35 2.3.3. Produzione diretta di coppie 2.3.4. Diffusione multipla ........................................................................................ 36 2.4. 3. Caso analizzato...................................................................................................... 11 ........................................................... 35 Applicazioni con raggi cosmici .............................................................................. 38 Strumenti e procedure di simulazione ......................................................................... 42 3.1. Premessa ............................................................................................................... 42 3.2. GEANT4 ed il metodo Monte Carlo ...................................................................... 45 Sommario 4. 3.3. Simulazione della geometria e tracciamento dei cosmici .................................... 50 3.4. Descrizione del generatore di cosmici .................................................................. 62 3.5. ROOT ..................................................................................................................... 69 3.6. Posizionamento dei rivelatori e procedura di calcolo degli scarti ........................ 70 Analisi ........................................................................................................................... 77 4.1. Premessa ............................................................................................................... 77 4.2. Valutazione dell’accettanza del sistema ............................................................... 79 4.2.1. Calcolo approssimato dell’accettanza geometrica ........................................ 80 4.2.2. Calcolo Monte Carlo dell’accettanza ............................................................. 84 4.3. Studio dei contributi della risoluzione del rivelatore e delle interazioni fisiche sulla distribuzione delle variabili statistiche 4.4. 5. e ................................................... 85 Studio della precisione del sistema ...................................................................... 96 4.4.1. Generazione e tracciamento dei cosmici ...................................................... 96 4.4.2. Struttura delle distribuzioni di 4.4.3. Funzione di migliore adattamento alle distribuzioni 4.4.4. Calcolo della precisione di misura del telescopio........................................ 113 e ......................................................... 98 e ..................... 108 4.5. Costruzione della curva di precisione in funzione del tempo............................. 117 4.6. Simulazione di uno spostamento........................................................................ 121 Conclusioni ................................................................................................................. 132 Bibliografia ......................................................................................................................... 135 Ringraziamenti ................................................................................................................... 139 Introduzione Introduzione La realizzazione di una grande struttura civile è un’operazione estremamente complessa, sia per quanto riguarda la fase di progettazione sia per quanto riguarda la fase di messa in opera. Commettere errori anche piccoli in una di queste due fasi può portare a imprevisti di non facile risoluzione tecnica e pratica, nei casi migliori, od a vere e proprie catastrofi. Per evitare situazioni di questo tipo, o quantomeno per individuarle con sufficiente anticipo e per poter intervenire adeguatamente, risulta di fondamentale importanza la tecnica del monitoraggio. Questa permette infatti di individuare, durante le fasi più significative della costruzione e dell’utilizzo, eventuali criticità dovute, oltre che all’errore umano, ad imprevisti di varia natura non scongiurabili neppure dopo un’attenta pianificazione. Inoltre, nel caso servissero interventi correttivi, permetterebbe di accertarne la buona riuscita e la rispondenza alle aspettative. Il monitoraggio riveste infine un ruolo molto importante nelle fasi di collaudo e di esercizio della struttura realizzata [1]. In questo lavoro di tesi verrà presa in considerazione un’innovativa tecnica sperimentale che prevede il monitoraggio statico di grandi strutture civili mediante la rivelazione di raggi cosmici per mezzo di opportuni rivelatori. L’idea di impiegare questo sistema di monitoraggio è partita dalla collaborazione, nata nell’ambito dell’esperimento FINUDA, fra il Professor Aldo Zenoni, fisico, e il Professor Danilo Cambiaghi, ingegnere, entrambi professori ordinari presso l’Università degli Studi di Brescia. Ambedue hanno collaborato alla progettazione e realizzazione dell’apparato FINUDA, finalizzato alla produzione e allo studio di ipernuclei1 presso l’acceleratore DAFNE dei Laboratori Nazionali di Frascati 1 Nel 1953 i fisici Marian Danysz e Jerzy Pniewski scoprirono nelle interazioni dei raggi cosmici un nuovo tipo di materia: l'ipermateria (contenente un quark particolare chiamato strange). L'ipermateria non è presente stabilmente nell'Universo poiché, una volta prodotta, in una frazione di tempo brevissima, dell'ordine di alcuni decimi di miliardesimo di secondo, si ritrasforma nella comune materia nucleare che ci circonda. Per formare un ipernucleo bisogna introdurre in un nucleo ordinario un mesone , che contiene il quark strange. In questo modo, all'interno di un protone o di un neutrone del nucleo, un quark up o down viene sostituito dal quark strange: un neutrone o un protone del nucleo si trasformano in una particella lambda I Introduzione dell’Istituto Nazionale di Fisica Nucleare 2. In questo apparato vi era la necessità di ottenere strette tolleranze nel montaggio dei vari rivelatori, al fine di raggiungere precisioni elevate nella misura delle traiettorie e quindi delle quantità di moto delle particelle generate. L’allineamento è stato realizzato per mezzo dei raggi cosmici e di un algoritmo che, attraverso una serie di iterazioni successive, è stato in grado di ricostruire la mappa dell’intero sistema di rivelazione con una precisione di circa . Si evince la potenzialità di questo sistema dal confronto con la precisione meccanica, di circa , con la quale i rivelatori sono stati posizionati prima della fase di allineamento. Gli aspetti che sono parsi più interessanti [2] al fine di estendere l’applicazione del metodo statistico basato sulla rilevazione dei raggi cosmici nel campo del posizionamento di una stessa struttura, meccanica o civile, al di fuori dell’ambito strettamente legato alla fisica nucleare e delle alte energie sono stati essenzialmente: la possibilità di posizionare i rivelatori solidali alle parti di struttura da monitorare e di lasciarli su di esse anche per tempi lunghi, durante i periodi di esercizio, per avere informazioni continue sulla struttura e su come essa si deforma; la possibilità di ottenere una sorta di radiografia del sistema di rivelatori con cui si effettua la misura, così da ottenere una “fotografia" dell'eventuale deformazione subita dalla struttura; la possibilità di valutare l'allineamento di componenti della medesima struttura che non sono direttamente visibili gli uni dagli altri; la possibilità di ottenere precisioni dell'intero sistema di misura che dipendono, per tempi di osservazione sufficientemente lunghi, solo dalla quantità di statistica disponibile e dalla precisione dei singoli moduli rivelatori. Alla luce di queste considerazioni la tesista Ileana Bodini ha svolto il lavoro “Disegno di strumenti di misura innovativi basati sulla rilevazione di raggi cosmici” sotto la supervisione del Professor Aldo Zenoni, del Professor Danilo Cambiaghi e del Dottor Germano Bonomi. Lo scopo di suddetto lavoro è stato quello di valutare l’utilizzo della (Λ), che fa parte di un gruppo di particelle instabili denominate iperoni, da cui i termini ipermateria e ipernucleo. 2 In tutta Italia esistono 4 laboratori nazionali appartenenti all’Istituto Nazionale di Fisica Nucleare (INFN): i Laboratori Nazionali di Legnaro (LNL), i Laboratori Nazionali del Sud (LNS) a Catania, i Laboratori Nazionali del Gran Sasso (LNGS) e i Laboratori Nazionali di Frascati (LNF). II Introduzione rivelazione dei raggi cosmici per realizzare sistemi innovatovi di misura e monitoraggio del posizionamento di parti in una struttura meccanica. In particolare, l’analisi è stata focalizzata sul monitoraggio statico di una pressa industriale e sull’individuazione, nel piano orizzontale, di eventuali spostamenti reciproci della base e del montante della pressa. A questa tesi ha fatto inoltre seguito la pubblicazione di un articolo sulla rivista internazionale Measurement Science and Technology [3]. Grazie ai buoni risultati ottenuti nel lavoro menzionato, il Professor Cambiaghi ha proposto di applicare questa tecnica di monitoraggio alle grandi strutture civili che presentano uno sviluppo prevalentemente verticale e per le quali è necessario monitorare i possibili mutui spostamenti delle parti rispetto ad un assetto di partenza, come le dighe, i pilastri di sostegno dei viadotti e le torri. In questo lavoro di tesi si è scelto di analizzare la possibilità di applicare il monitoraggio mediante raggi cosmici al caso di una diga in muratura, in ragione del’importanza che queste strutture ricoprono nella produzione di energia elettrica da fonte rinnovabile3 e in ragione della loro diffusione sul territorio nazionale. In particolare, questa innovativa tecnica potrebbe essere impiegata per rilevare eventuali deformazioni dello sbarramento, deformazioni che oggi vengono misurate mediante particolari strumenti detti pendoli. Affinché il sistema sperimentale studiato ne possa rappresentare una valida alternativa, dovrà essere in grado di riconoscere spostamenti delle varie parti della struttura dell’ordine del millimetro su periodi di monitoraggio di circa un mese. Il lavoro di tesi è volto proprio a calcolare le precisioni raggiungibili con il sistema di misura introdotto e risulta così strutturato. Capitolo 1. In questo capitolo viene fornita la classificazione delle dighe di ritenuta, in particolare vengono descritte le varie tipologie di dighe in muratura. Dopo aver introdotto i più comuni strumenti utilizzati per rilevare piccoli spostamenti e deformazioni degli sbarramenti idrici, vengono analizzati più in dettaglio i pendoli dritti e rovesci, strumenti 3 In Italia nel 2010 la produzione lorda di energia elettrica si è attestata intorno ai , dei quali il è da attribuire all’impiego di combustibili fossili quali carbone, petrolio e gas naturale; il restante è da attribuire alle fonti rinnovabili quali idroelettrico, geotermico, eolico, fotovoltaico e biomasse. Tra le rinnovabili la fonte idroelettrica rappresenta la più importante, infatti copre circa il della produzione lorda di energia elettrica [4]. III Introduzione con i quali la tecnica sperimentale studiata in questo lavoro di tesi dovrà confrontarsi. Viene quindi introdotto l’innovativo sistema di misura che sfrutta la rivelazione dei raggi cosmici. Infine viene descritta la struttura di una diga in muratura presente nella provincia di Brescia la quale è presa come riferimento per le simulazioni svolte con il calcolatore. Capitolo 2: In questa sezione viene brevemente ripercorsa la storia che ha condotto la comunità scientifica alla scoperta di una particolare radiazione extraterrestre oggi chiamata radiazione cosmica. Questa è la radiazione che si è pensato rivelare, per mezzo di opportuni dispositivi, per eseguire il monitoraggio statico delle dighe. In questa parte vengono ampiamente descritte l’origine e le caratteristiche dei raggi cosmici, i quali sono classificati in raggi cosmici primari, raggi cosmici delle reazioni a catena e raggi cosmici a livello del mare. Vengono inoltre descritti i fenomeni fisici di interazione tra i muoni (particelle che costituiscono la frazione preponderante della radiazione cosmica che raggiunge il suolo) e la materia per meglio comprendere “il comportamento” tenuto da queste particelle nell’attraversamento della struttura analizzata. Infine vengono forniti alcuni esempi delle applicazioni che negli ultimi 50 anni hanno impiegato la radiazione cosmica. Capitolo 3: In questo capitolo vengono descritte le caratteristiche dei software utilizzati per le simulazioni svolte in questo lavoro di tesi: il programma GEANT4 per simulare il passaggio dei raggi cosmici attraverso la struttura studiata e l’applicativo ROOT per l’analisi statistica dei dati ottenuti dalle simulazioni. Viene inoltre descritta la geometria delle varie parti che costituiscono la configurazione analizzata, in particolare il sistema di misura impiegato per il monitoraggio statico della diga e i tre dispositivi atti a rivelare i raggi cosmici di cui il sistema stesso è composto. Viene infine riportata la procedura analitica inserita nel programma per individuare possibili deformazioni della parte centrale della struttura mediante il calcolo del disallineamento del rivelatore intermedio del sistema di misura rispetto agli altri due. IV Introduzione Capitolo 4: In questa sezione sono riportate le analisi eseguite in questo lavoro di tesi. In particolare viene svolto lo studio dettagliato delle distribuzioni delle variabili statistiche e , le quali rappresentano il disallineamento del rivelatore centrale lungo la direzione perpendicolare e lungo quella parallela rispetto all’asse longitudinale della diga. Vengono inoltre costruite le curve di precisione del sistema di misura in funzione del tempo di raccolta dati del sistema stesso. Infine viene fornita una stima del tempo necessario per individuare possibili deformazione della struttura analizzata. Il lavoro è completato da un capitolo in cui sono esposte le conclusioni ottenute dalle analisi svolte. V 1. 1. 1.1. Monitoraggio statico di dighe Monitoraggio statico di dighe Classificazione delle dighe Una diga di ritenuta è un’opera di sbarramento costruita per ostruire o deviare il corso di un fiume e raccoglierne le acque in un bacino artificiale. Generalmente le dighe vengono costruite per concentrare il salto d'acqua naturale del fiume, in modo da sfruttarlo per generare energia elettrica, alimentare canali e sistemi di irrigazione e di approvvigionamento idrico, oppure per aumentare il livello dell'acqua del fiume per renderlo navigabile o controllarne il livello nei periodi di piena o siccità, o ancora per creare laghi artificiali a scopo ricreativo. Spesso le dighe svolgono contemporaneamente molte di queste funzioni. In relazione alle caratteristiche morfologiche del sito di imposta del corpo diga, allo schema di funzionamento statico, alla geometria dell’opera, alle modalità costruttive e ai materiali impiegati per la loro costruzione, gli sbarramenti si possono classificare in dighe in muratura, dighe in materiali sciolti, sbarramenti di tipo vario e traverse fluviali [5]. La tecnica di monitoraggio che verrà analizzata in questo lavoro di tesi è applicabile alle sole dighe in muratura, ciò nonostante in questo paragrafo verranno descritte brevemente anche le altre tipologie. Le dighe in muratura sono opere di sbarramento murarie in calcestruzzo convenzionale, in cemento armato o elementi lapidei consolidati con legante cementizio. In relazione al comportamento statico della struttura il regolamento italiano vigente4 le divide in dighe a gravità e dighe a volta. Queste ultime possono essere classificate in dighe ad arco, ad arco gravità e a cupola, mentre quelle a gravità possono essere classificate in dighe massicce e alleggerite. Le dighe a gravità massicce dette anche a gravità ordinarie sono strutture ad asse planimetrico rettilineo o a debole curvatura, con sezione trasversale triangolare che si 4 Il Regolamento Italiano Dighe (R.I.D.) [D.P.R. n. 1363 del 01/11/1959 (parte I) e D.M.LL.PP. del 24/03/1982] stabilisce precise norme per la progettazione e la verifica statica di ogni tipologia di diga. 1 1. Monitoraggio statico di dighe mantiene costante su tutto il profilo longitudinale. La sezione risulta piena e divisa in conci5 con giunti verticali permanenti e posti a distanze tali da evitare fessurazioni e ritiri. La superficie esposta all'acqua, detta paramento di monte, è verticale o sub-verticale mentre la superficie esposta all’aria, detta paramento di valle, ha una pendenza media6 generalmente compresa tra e . Questo tipo di diga si oppone alla spinta dell'acqua attraverso il peso proprio, da cui il nome “a gravità”, ed all'attrito/coesione tra la diga e la roccia sottostante. Essendo una struttura massiccia e rigida può essere edificata anche in valli di notevole larghezza, ma richiede in fondazione rocce discretamente resistenti e poco deformabili. Negli ultimi 30 anni le dighe a gravità hanno subìto un grande sviluppo grazie all’impiego del calcestruzzo rullato e compattato7, tecnologia che permette di abbattere i costi e i tempi di realizzazione di queste strutture. Un esempio di questa tipologia è la diga svizzera chiamata Grande Dixence (Figura 1.1): con i suoi di altezza e con uno sviluppo di al coronamento è la diga più alta d’Europa e la terza più alta del mondo. Le dighe a gravità alleggerite, dette anche a contrafforti o a speroni, sono sostanzialmente una variante delle dighe a gravità ordinarie: alla forma tipica dello sbarramento massiccio vengono creati dei vani di alleggerimento. Sono caratterizzate da una struttura muraria trasversale costituita da una successione di elementi indipendenti detti speroni o contrafforti, aventi profilo trasversale triangolare e posti a contatto lungo il paramento di valle (a volte anche su quello di monte) per fornire sostegno alla parete di ritenuta, e opportunamente distanziati tra loro. Sono dette “alleggerite” perché 5 I conci sono blocchi di pietra facenti parte di una struttura muraria e a tal fine lavorati in modo da assumere forme definite e più o meno regolari (secondo le diverse funzioni architettoniche, i conci si chiamano cunei negli archi, tamburi o rocchi nelle colonne, ecc.). Per estensione sono chiamati conci anche i monoliti in cui sono suddivisi i grandi getti di calcestruzzo. 6 La pendenza in un particolare punto (pendenza puntuale) è definita matematicamente come la tangente dell’angolo di inclinazione, espresso in radianti: . La pendenza media è invece definita come il rapporto tra il dislivello e la distanza orizzontale : , o più semplicemente 7 Il calcestruzzo rullato e compattato è un calcestruzzo che durante la costruzione della diga viene trattato come se fosse un materiale sciolto, associando pertanto le proprietà di economicità e di rapidità di posa in opera tipiche di questo materiale alle eccellenti proprietà meccaniche e alla facilità di trattamento di un calcestruzzo. Il metodo universalmente utilizzato consiste sostanzialmente nel rullare e compattare, mediante rulli vibranti, successivi strati di calcestruzzo con slump nullo (lo slump quantifica la capacità del calcestruzzo fresco di essere manipolato e costipato; maggiore è il suo valore, maggiore è la sua lavorabilità), posti in opera con adeguati impianti e macchinari (nastri trasportatori, autocarri, bulldozer, ecc.) [6]. 2 1. Monitoraggio statico di dighe richiedono, rispetto ad una diga a gravità massiccia di pari dimensioni, molto meno calcestruzzo, dal al in meno. Ciò nonostante, queste dighe non sono necessariamente meno costose: il costo della lavorazione di forme in calcestruzzo più complesse e l'impiego dell'acciaio per armare il calcestruzzo generalmente compensano l'economia fatta nei materiali da costruzione. In generale si può affermare [7] che la maggiore complessità di realizzazione ed il leggero aumento di rischio dovuto alla concentrazione delle spinte in fondazione rende ad oggi questo tipo di diga spesso meno conveniente rispetto alle altre tipologie. Tali dighe possono rivelarsi necessarie, tuttavia, nei luoghi in cui il substrato su cui si deve edificare la struttura non è abbastanza consistente. Dei diversi tipi di dighe a contrafforti, le più comuni sono quelle a lastroni e quelle ad archi multipli. Nel primo caso la spinta dell'acqua è sostenuta da una serie di grandi lastre di calcestruzzo armato, che vanno da un contrafforte all'altro. Nelle dighe ad archi multipli, invece, una serie di archi permette di distanziare maggiormente i contrafforti. Un esempio di quest’ultima tipologia è la diga di Daniel Johnson (Figura 1.2) sul fiume Manicouagan, in Canada: è lunga e con i suoi di altezza è una delle dighe più alte del mondo. Figura 1.1 : In questa fotografia si vede lo sbarramento della diga Grande Dixence, situata in testa alla Val d'Hérens nel Canton Vallese della Svizzera. Appartiene alla tipologia delle dighe a gravità massiccia e con i suoi di altezza è la diga più alta d'Europa. 3 1. Monitoraggio statico di dighe Figura 1.2 : In questa fotografia si vede lo sbarramento della diga di Daniel Johnson sul fiume Manicouagan, in Canada. Appartiene alla tipologia delle dighe a gravità alleggerita e con i suoi di altezza è una delle dighe più alte del mondo. Le dighe a volta si oppongono alla spinta dell’acqua attraverso l’effetto “arco” che si ottiene grazie alla particolare forma conferita all'opera muraria, che risulta sensibilmente arcuata nel profilo trasversale. La pressione idrostatica dell’acqua dell’invaso viene scaricata attraverso le sponde d’imposta sui fianchi della valle, ne consegue che questa tipologia di diga può essere edificata solo in valli con ridotta larghezza e con rocce dei versanti compatte. La loro struttura risulta particolarmente leggera grazie all'elevata resistenza garantita dagli archi ed ha sezione piena monolitica o formata da conci bloccati da giunti. Le dighe a volta possono essere a curvatura semplice, lavorando come una serie di archi orizzontali sovrapposti (tipiche per le valli con "forma ad U") o a doppia curvatura, lavorando come una cupola (tipiche per le valli con "forma a V"). Sono realizzate in calcestruzzo generalmente non armato e negli ultimi decenni l’impiego della tecnologia di posa del calcestruzzo rullato e compattato ha restituito la competitività economica a questa soluzione, la quale è altrimenti penalizzata dai crescenti costi della mano d'opera. Una tristemente famosa diga ad volta a doppia curvatura è quella del Vajont (Figura 1.3), alta circa e larga alla base . Recentemente diverse grandi dighe ad volta sono state realizzate in Cina, ad esempio la diga Ertan con un’altezza pari a larghezza alla base di soli contro i e una che avrebbe avuto una equivalente diga a gravità. 4 1. Monitoraggio statico di dighe Figura 1.3 : In questa suggestiva fotografia si vede la diga del Vajont. Fu costruita tra il 1957 e il 1960 nel territorio del comune di Erto e Casso (in provincia di Pordenone) lungo il corso del fiume Vajont. Questa diga è tristemente famosa per il disastro del 9 ottobre 1963, quando una frana del monte Toc precipitò nel bacino, facendo traboccare lo stesso e inondando il paese di Longarone causando quasi 2000 vittime. È importante notare che la diga non crollò e che la sollecitazione di punta alla quale la struttura fu sottoposta durante l’immane tragedia fu circa 7 volte quella massima prevista a progetto. La tragedia fu causata dall'onda provocata dalla frana che, sfiorato il coronamento della diga, lo superò abbattendosi nella valle del Piave, e dall'onda di riflusso che tornò verso il lago. Se la diga avesse ceduto le conseguenze sarebbero state ancora più disastrose, in quanto la quantità di acqua che si sarebbe riversata a valle sarebbe stata tripla (l'onda è stata valutata in 50 milioni di metri cubi, la capienza del lago era di 150 milioni e al momento dell'evento si era quasi al limite). Le dighe in materiali sciolti o a terrapieno sono le strutture più usate per il contenimento delle acque. Vengono costruite utilizzando vari materiali, dall'argilla alle grosse pietre, non richiedono particolari lavorazioni ed è spesso la disponibilità del materiale in loco, o nelle immediate vicinanze, a fare propendere per questo tipo di costruzione. Lo sviluppo delle grandi macchine per il movimento di terra ha ridotto i costi di realizzazione delle dighe a terrapieno, rendendole competitive rispetto a quelle di calcestruzzo. A causa della scarsa stabilità di pendenza della maggior parte dei materiali usati per costruirle, queste strutture devono avere la base da quattro a sette volte più larga dell'altezza. Poiché le infiltrazioni sono inversamente proporzionali alla distanza che l'acqua deve attraversare, le spesse dighe a terrapieno sono adatte ai siti caratterizzati da substrati permeabili. La grande diga di Assuan (Figura 1.4), in Egitto, ad esempio, è larga ed è costruita su 5 1. Monitoraggio statico di dighe fondamenta di sabbia e ghiaietto che arrivano a una profondità di . Le dighe a terrapieno possono essere costruite quasi interamente con materiali impermeabili, come l'argilla, o possono avere un nucleo di materiale impermeabile racchiuso sia verso monte sia verso valle da strati di materiale permeabile, ad esempio un misto di sabbia grossa e ciottoli. Per ridurre le infiltrazioni, il nucleo può estendersi ben al di sotto del livello della fondazione principale della diga. La diga di Tarbela, completata nel 1977 sul fiume Indo in Pakistan, è alta e lunga . Contiene di terra e roccia nella sezione principale, la più vasta quantità di materiale mai impiegata per costruire una diga a terrapieno. Figura 1.4 : In questa fotografia si vede la diga di Assuan, la più grande e moderna delle due dighe sul Nilo che si trovano nei pressi della prima cateratta del fiume, vicino alla città di Assuan, in Egitto. È lunga , larga alla base e sulla sommità, per un'altezza di . La sua costruzione si rese necessaria per regolare le inondazioni del Nilo e poter apportare il limo nei periodi maggiormente propizi per l’agricoltura. Gli sbarramenti di tipo vario rappresentano tutte le strutture di sbarramento diverse da quelle definite precedentemente, sia per caratteristiche costruttive sia per funzionalità e impiego, ma aventi comunque certe particolarità in comune. A questa categoria appartengono le dighe di tipo misto e le dighe di subalveo: le prime sono costituite in 6 1. Monitoraggio statico di dighe parte da strutture murarie e in parte da materiali sciolti; le seconde sono costituite da uno sbarramento affondato nel subalveo fino a raggiungere ed intercettare la falda sotterranea di una valle, in modo da farla emergere e accumularne la risorsa all'interno dell'invaso che si crea a monte. Le traverse fluviali rappresentano opere di sbarramento di un corso d'acqua di modesta entità, in particolare per quanto riguarda l'altezza, che risulta mediamente inferiore ai . Vengono realizzate per creare piccoli accumuli idrici al fine di rendere possibile la derivazione di portate o permettere attingimenti grazie al locale incremento del livello dell’acqua [8]. 1.2. Strumenti per la misura di piccoli spostamenti Il buono stato di un’opera si quantifica generalmente determinando le deformazioni o gli spostamenti cui essa è sottoposta, andando poi a verificare se questi sono compatibili con le capacità strutturali di progetto. Di conseguenza un monitoraggio di questo tipo si basa sulla misura di piccoli spostamenti, anche dell’ordine del millimetro, che necessitano di una strumentazione di alta precisione. Gli strumenti topografici non sono i soli a poter essere impiegati, ma sono da preferire in quanto molto precisi e in grado di garantire una invarianza nel tempo del metodo di misura [1]. È necessario specificare che gli spostamenti possono essere distinti in due categorie fondamentali: gli assoluti e i relativi. Lo spostamento assoluto di un generico punto rappresenta la variazione nel tempo della distanza di rispetto a un punto fisso , il quale garantisce di non subire spostamenti reali dello stesso ordine di grandezza di . prende il nome di caposaldo e in genere non appartiene alla struttura da monitorare. Nel caso di una diga il caposaldo può essere fissato su un pilastrino di cemento ancorato su roccia affiorante, la cui stabilità è stata comprovata nel tempo. Lo spostamento relativo invece quantifica la variazione di posizione nel tempo del punto rispetto a un punto appartenente alla medesima struttura, il quale quindi non può essere considerato fisso. Questa distinzione va tenuta presente quando si elaborano i dati ottenuti, per cercare di interpretarli al meglio. A livello generale, le misure assolute si utilizzano per definire gli spostamenti della struttura, mentre quelle relative per le deformazioni della medesima. 7 1. Monitoraggio statico di dighe In linea di principio, gli stessi strumenti di misura possono essere impiegati per rilevare spostamenti sia assoluti sia relativi, a seconda che i punti presi come riferimento siano fissi o mobili. Per la misura delle variazioni di quota si utilizzano livelli ottici o digitali mentre per gli spostamenti trasversali rispetto ad una direzione di riferimento vengono impiegati collimatori8, fili a piombo, pendoli dritti e rovesci e livelli nadirali. Molto versatile risulta inoltre la stazione totale, che è in grado di assolvere a entrambe le funzioni e riesce a misurare anche le distanze, in genere determinate con il distanziometro. Qualora invece interessasse determinare le deformazioni in particolari punti della struttura si possono utilizzare i deformometri e gli estensimetri9. Oltre agli strumenti topografici classici appena elencati esistono anche metodologie moderne di misura, quali il posizionamento satellitare mediante ricevitori GNSS e il rilievo con il laser scanner. Ai fini dell’introduzione della tecnica di monitoraggio mediante i raggi cosmici per la misura delle deformazioni di una struttura verranno analizzati più nel dettaglio gli strumenti con i quali tale tecnica dovrebbe confrontarsi: i pendoli dritti e i pendoli rovesci. 1.2.1. Pendoli Molti sbarramenti artificiali sono caratterizzati da un notevole sviluppo in altezza, di conseguenza il singolo concio della struttura si presenta come una trave verticale a 8 Il collimatore è uno strumento ottico costituito da un cannocchiale dotato di reticolo di mira. È uno strumento fisso, non è infatti in grado di compiere rotazioni e viene collimato con una mira, alla quale viene impedito qualsiasi tipo di movimento. Sia il cannocchiale sia la mira devono essere installati su capisaldi, che nel caso di una diga possono essere le due estremità opposte. Nel punto da monitorare, posizionato lungo il coronamento dell’opera, è invece presente una mira mobile, installata su di una slitta che consente il movimento in direzione trasversale all’asse di collimazione. La misura si esegue allineando la mira mobile all’asse di collimazione del cannocchiale e leggendo lo spostamento sulla slitta, indicato da una apposita graduazione millimetrica. Con il nonio è possibile raggiungere una precisione del decimo di millimetro. Se il punto da controllare modifica la sua posizione, lo spostamento sarà pari alla differenza delle letture ottenute con la collimazione. 9 Gli estensimetri sono strumenti in grado di misurare le piccole deformazioni di un corpo. In passato erano diffusi strumenti meccanici, ottici e acustici. Oggi sono stati tutti soppiantati dagli estensimetri elettrici a resistenza: sono vantaggiosi dal punto di vista economico e in grado di garantire misure accurate. Sono composti da un filo metallico, generalmente in costantana, che varia la propria resistenza elettrica in base alla sezione. Quest’ultima aumenta o diminuisce in funzione dello sforzo assiale applicato al filo stesso. Gli estensimetri possono essere impiegati per monitorare ad esempio le deformazioni tra due conci adiacenti, in modo da verificare lo stato tensionale dei giunti e delle guaine di tenuta. Dalla legge di Hooke infatti si riesce a risalire al carico agente una volta nota la costante elastica. Diventa quindi intuitivo il calcolo dello stato di sforzo nei punti di interesse. 8 1. Monitoraggio statico di dighe incastro che sotto la spinta idrostatica dell’acqua può subire notevoli sforzi di taglio e manifestare così delle deformazioni flessionali. Un valido strumento per quantificare lo spostamento relativo del coronamento rispetto alla base è il pendolo, il quale si presenta nella configurazione diritta o rovescia (Figura 1.5 [9]). La prima è costituita da un filo a piombo (o eventualmente un’asta rigida) ancorato superiormente alla struttura e munito, all’estremità opposta, di una zavorra. Quest’ultima è a sua volta annegata in un liquido viscoso (in genere olio siliconico) che funge da smorzatore delle oscillazioni. La zavorra ha invece una duplice funzione: mantiene in tensione il filo e allo stesso tempo ne garantisce la perfetta verticalità. Figura 1.5 : Nelle due immagini di sinistra sono rappresentate le possibili configurazioni di un pendolo dritto; nelle due immagini di destra quelle di un pendolo rovescio. In caso di deformazione o rotazione della struttura rispetto alla verticale si verificherebbe uno spostamento orizzontale del cavetto nel tempo, quantificabile mediante la lettura di un’apposita scala graduata. L’acquisizione può essere manuale, nel qual caso si impiegano strumenti ottici fissi o removibili detti coordinometri, oppure automatica mediante l’utilizzo di telecoordinometri. Per evitare deformazioni termiche che potrebbero 9 1. Monitoraggio statico di dighe compromettere la validità della misura si tende a realizzare i fili dei pendoli in invar, una speciale lega ferro-nichel dotato di bassissimo coefficiente di dilatazione termica. L’altra tipologia di pendolo è quella rovescia, analoga alla diritta ma capovolta. Il filo viene infatti ancorato inferiormente mentre all’altro capo è assicurato un galleggiante, posizionato in un serbatoio che contiene il fluido smorzatore. Nelle opere di ritenuta, generalmente, si adottano pendoli diritti accoppiati ai rovesci. In particolare il diritto è fissato in prossimità del coronamento e registra gli spostamenti di quest’ultimo rispetto alle fondamenta del concio; lo strumento rovescio invece viene saldato a una certa profondità nella roccia di fondazione e registra gli spostamenti del concio rispetto al terreno. Lo spostamento assoluto della parte superiore del concio rispetto alla roccia si ottiene pertanto sommando i singoli contributi dei due pendoli [9]. Le precisioni conseguibili con questo tipo di strumentazione sono molto alte, nell’ordine del decimo di millimetro, ed i valori restituiti non sono delle misure puntuali dello spostamento bensì delle medie sull’intera lunghezza del filo, non risentendo così di eventuali fenomeni di deformazione locale. La possibilità inoltre di posizionare più strumenti in serie consente di coprire distanze anche notevoli, come è appunto il caso di dighe, torri o pile di viadotti. Infine, molto importante ai fini del controllo è la qualità delle misure. Per garantire un appropriato isolamento dall’esterno e quindi l’assenza di errori accidentali dovuti al vento e agli agenti atmosferici, i pendoli vengono installati all’interno del corpo della diga in appositi alloggiamenti cilindrici che si estendono per tutta l’altezza della struttura. Questi alloggiamenti sono solitamente previsti durante la costruzione della diga, altrimenti, nel caso in cui la struttura sia già stata realizzata, vengono creati mediante carotaggi verticali del corpo della diga. Per i viadotti o i ponti lo stesso risultato si può raggiungere inserendo il pendolo all’interno di tubazioni protettive. 1.2.2. Monitoraggio mediante raggi cosmici I raggi cosmici, come si vedrà più in dettaglio nel Capitolo 2, sono un tipo di radiazione che investe continuamente la superficie terrestre. Sono costituiti da particelle e radiazioni elettromagnetiche ed hanno un alto potere penetrante che permette loro di attraversare anche notevoli spessori di materia. Oggi la loro origine è ancora dibattuta, tuttavia della 10 1. Monitoraggio statico di dighe radiazione cosmica che giunge al suolo si conoscono bene la composizione, la distribuzione angolare, la distribuzione dell'energia e la frequenza per unità di area. Questo lavoro di tesi si propone di studiare la fattibilità di un sistema di misura, costituito da rivelatori di raggi cosmici, per il monitoraggio statico di strutture civili a sviluppo verticale, in particolare si analizzerà il caso di una diga a gravità massiccia. Questa tecnica di monitoraggio potrebbe rivelarsi un’alternativa all’impiego dei pendoli per la determinazione di eventuali deformazioni dello sbarramento. La bontà di tale tecnica sarà stabilita dalle precisioni che si riusciranno a raggiungere e dal tempo necessario per raggiungerle. La configurazione più semplice di questo sistema di misura è realizzata mediante un telescopio verticale costituito da tre rivelatori solidali al corpo della diga e posizionati all’interno degli alloggiamenti verticali creati per i pendoli dritti e rovesci. I sensori utilizzati sono in grado di rivelare, qualora il raggio cosmico li intercetti, le coordinate del punto di passaggio. Mediante metodi statistici che tengono in considerazione le interazioni della radiazione attraverso la materia è possibile ricostruire la traiettoria dei raggi cosmici che attraversano l’intero telescopio ed individuare possibili disallineamenti della struttura, nel caso questa si deformi. Nel Capitolo 3 verrà introdotto il programma di simulazione utilizzato per svolgere lo studio di fattibilità e verrà descritto nel dettaglio il metodo per ricostruire le traiettorie dei raggi cosmici e per individuare possibili deformazioni della geometria della diga. 1.3. Caso analizzato Nel territorio della provincia di Brescia sono presenti, oltre ai tre laghi principali (Lago di Garda, Lago d’Iseo e Lago d’Idro), numerosi laghi minori e bacini artificiali. Questi hanno permesso un forte sviluppo sia del settore agricolo, grazie alla possibilità di alimentare canali e sistemi di irrigazione, sia della produzione di energia idroelettrica. A tale scopo nei primi decenni del secolo scorso ha preso avvio la realizzazione di numerose opere di ritenuta idrica, la maggior parte delle quali sono dighe in muratura (Tabella 1.1 [10]). In questo paragrafo verrà descritta più in dettaglio la struttura di una tipica diga presente in provincia di Brescia (Figura 1.6). L’opera rappresentata è uno sbarramento in muratura 11 1. Monitoraggio statico di dighe a gravità massiccia che si sviluppa in altezza per qualche decina di metri. La muratura poggia su un substrato compatto di roccia chiamata tonalite ed è costituita da due parti, probabilmente realizzate a distanza di anni. La prima, cioè la più datata, è composta da blocchi lapidei di tonalite aggregati con malta di cemento, mentre la seconda è un rinforzo di calcestruzzo applicato al paramento di monte. Questa seconda parte ha permesso di ricavare all’interno del corpo della diga i cunicoli d’ispezione, l’alloggiamento per i pendoli, i pozzi di accesso e i tubi drenanti per raccogliere l’acqua infiltratasi all’interno della muratura e scaricarla a valle. Il monitoraggio statico delle strutture che non presentano eccessive altezze, come quella rappresentata, viene eseguito mediante pendoli rovesci installati lungo il coronamento e ancorati al substrato roccioso. La struttura muraria si comporta come una trave verticale ad incastro e mediante la disposizione dei pendoli suddetta è possibile rilevare gli spostamenti monte-valle della sommità della diga, cioè i massimi spostamenti che la struttura può presentare. Nome diga Comune Anno di costruzione Dazaré Lago di Lova Lago della Vacca Lago d'Arno Poglia Lago Benedetto Lago d'Avio Pantano d'Avio Vasca di Edolo Venerocolo Ponte Cola Lago d'Idro Lago Salarno Lago Baitone Bagolino Borno Breno Cevo Cevo Edolo Edolo Edolo Edolo Edolo Gargnano Idro Saviore dell'Adamello Sonico 1959 1935 1927 1927 1950 1940 1929 1956 1984 1959 1962 1930 1928 1930 Altezza diga L. 584/9410 19.25 18.00 17.50 36.85 49.40 31.00 37.52 59.00 23.90 26.90 122.00 8.02 38.40 37.90 Tabella 1.1 : Elenco delle principali dighe presenti sul territorio della provincia di Brescia. 10 Secondo la Legge 21-10-1994, N. 584 si definisce altezza di una diga la differenza tra la quota del piano di coronamento e quella del punto più depresso dei paramenti. 12 1. Monitoraggio statico di dighe Figura 1.6 : Sezione maestra di una tipica diga a gravità massiccia presente in provincia di Brescia. 13 1. Monitoraggio statico di dighe Nel grafico di Figura 1.7 sono rappresentati gli spostamenti registrati da un tipico pendolo rovescio in funzione del tempo. Come si può notare, le registrazioni presentano un andamento periodico con periodo di un anno e gli spostamenti sono dell’ordine del millimetro. Interpolando con una funzione lineare viene sottolineato un continuo spostamento del coronamento verso monte, causato probabilmente dall’espansione della muratura, soprattutto della parte in calcestruzzo. Questo fenomeno sembra essere maggiormente accentuato nei mesi centrali dell’anno a causa delle temperature maggiori e del minor livello dell’invaso. Figura 1.7 : Spostamenti relativi del coronamento della diga rispetto al substrato roccioso registrati da un tipico pendolo rovescio. Sull’asse delle ascisse è presente il tempo in anni mentre sull’asse delle ordinate sono presenti gli spostamenti in millimetri: positivi quelli verso valle, negativi quelli verso monte. Per le simulazioni atte a stabilire la bontà della tecnica di monitoraggio mediante raggi cosmici introdotta in questo lavoro di tesi verranno prese come riferimento la struttura e la geometra della diga rappresentata in Figura 1.6. Il telescopio composto dai tre rivelatori di raggi cosmici potrebbe essere installato, in questa particolare diga a gravità, sia all’interno delle cavità verticali che accolgono i pendoli sia all’interno dei pozzi di accesso, i quali presentano uno sviluppo prevalentemente verticale. Non tutte le dighe in muratura presentano questi pozzi, quindi in questo lavoro si farà riferimento alla prima 14 1. Monitoraggio statico di dighe possibilità, cioè al posizionamento dei rivelatori all’interno degli alloggiamenti dei pendoli. Perché l’innovativo sistema di misura studiato in questa tesi possa costituire un’alternativa agli odierni sistemi, esso dovrà essere in grado di riconoscere deformazioni del millimetro su periodi di monitoraggio di circa un mese. Nel Capitolo 4 verranno presentati i risultati ottenuti dall’analisi e le considerazioni del caso. 15 2. 2. 2.1. I raggi cosmici I raggi cosmici Cenni storici Lo studio dei raggi cosmici ha contribuito ad ampliare la nostra conoscenza della struttura elementare della materia ed ha permesso la scoperta di nuove particelle, altrettanto fondamentali quanto gli elettroni, i protoni e i neutroni [11]. Alla base della scoperta di questa forma di radiazione vi fu l’osservazione da parte di Coulomb11, nel 1785, di un fenomeno particolare: per quanto un elettroscopio12 potesse essere perfettamente isolato dal punto di vista elettrico, presentava sempre una piccola scarica residua. Nel 1879 Crookes osservò che la velocità di scarica diminuiva quando la pressione dell’aria contenuta nel bulbo dell’elettroscopio veniva ridotta. Concluse quindi che la ragione della scarica dello strumento fosse la ionizzazione dell’aria ivi contenuta. Per individuare la causa prima del fenomeno di ionizzazione si dovette tuttavia attendere ancora qualche anno. Nel 1896 Bequerel scoprì accidentalmente la radioattività notando che alcuni sali di uranio, dei quali stava investigando la fosforescenza, erano in gradi di impressionare delle lastre fotografiche. Pochi anni dopo i coniugi Marie13 e Pierre Curie osservarono che gli elementi Polonio e Radio presenti in alcuni minerali dell’uranio mutavano in altri elementi 11 Charles-Augustin de Coulomb (Angoulême 1736 – Parigi 1806) fu ufficiale del genio militare francese. Si occupò di dinamica dei fluidi, meccanica applicata alle macchine, matematica, astronomia e soprattutto di elettricità e magnetismo. A lui si deve l’invenzione di vari strumenti scientifici, tra i quali la bilancia a torsione. Grazie a questo strumento effettuò vari studi sull'interazione fra cariche elettriche arrivando alla formulazione della legge oggi nota col suo nome. 12 L’elettroscopio è uno strumento realizzato da Alessandro Volta (Como 1745 – Camnago Volta 1827) intorno al 1780 mediante il quale è possibile rilevare qualitativamente la presenza di cariche elettriche su un corpo. Tipico è l’elettroscopio a foglie: all’interno di un bulbo di materiale isolante sono presenti due lamine o “foglie” metalliche giunte all’estremità superiore. Mediante contatto le cariche presenti sul corpo elettrificato vengono trasferite alle lamine e la repulsione elettrostatica ne causa l’allontanamento degli estremi liberi. 13 Maria Skłodowska, meglio nota come Marie Curie (Varsavia 1867 – Passy 1934) fu una chimica e fisica polacca naturalizzata russa e in seguito francese. Nel 1903 fu insignita del premio Nobel per la fisica, assieme al marito Pierre Curie (Parigi 1859 – Parigi 1906) e ad Antoine Henri Becquerel (Parigi 1852 – Le Croisic 1908) e, nel 1911, del premio Nobel per la chimica per i suoi lavori sul radio (è l'unico scienziato che abbia vinto il premio Nobel in due distinte discipline scientifiche). 16 2. I raggi cosmici emettendo delle particelle, da loro chiamate radiazioni. Presto gli scienziati si accorsero che in presenza di materiale radioattivo la velocità di scarica dell’elettroscopio aumentava, quindi conclusero che la causa della scarica spontanea di tale strumento fosse da imputare alle particelle cariche emesse dai decadimenti radioattivi di particolari elementi. Intorno al 1900 Elster e Geitel migliorarono la tecnica di isolamento dell’elettroscopio in un recipiente chiuso, aumentando così la sensibilità dello strumento (Figura 2.1 [12]) e permettendone l’impiego per misure quantitative della velocità di scarica. Riscontrarono che questa velocità si riduceva notevolmente quando l’elettroscopio veniva schermato con lastre metalliche, attribuendo così tale fenomeno ad agenti ionizzanti provenienti dall’esterno del recipiente in cui era contenuto l’elettroscopio stesso. Figura 2.1 : Nella fotografia è possibile vedere l’elettroscopio di Elster e Geitel: all'interno di una scatola cilindrica di metallo è presente un'asticella alla quale sono vincolate due foglioline di alluminio. La divergenza di queste lamine, quando sono cariche, può essere misurata con una scala unita allo strumento o per mezzo di un cannocchiale micrometrico. L'ipotesi più semplice era che la ionizzazione fosse causata dalla radioattività naturale della Terra, dovuta alla presenza di elementi radioattivi nelle rocce. Esperimenti eseguiti in laghi profondi e in miniere di sale supportarono tale ipotesi. Ulteriori esperimenti vennero eseguiti schermando l’elettroscopio con spessi schermi di piombo, il quale è in 17 2. I raggi cosmici grado di assorbire gran parte delle radiazioni ionizzanti14. Seppur la velocità di scarica diminuiva notevolmente, essa non si annullava. Questo fatto destò l’idea che la ionizzazione dell’aria non fosse dovuta alla sola radioattività terreste e che ci fosse un qualche tipo di radiazione molto più penetrante ancora sconosciuta. In un esperimento eseguito nel 1912, Hess15 ottenne un risultato inaspettato. Per confermare l'origine terrestre di questa radiazione, Hess salì fino alla quota di 5200 m a bordo di un pallone aerostatico con la strumentazione necessaria per misurare il livello di radiazione. Supponendo l'origine terrestre, si aspettava di misurare una diminuzione della radiazione all'aumentare della quota. I risultati mostrarono chiaramente che la ionizzazione, dopo essere passata per un minimo, aumentava considerevolmente con l'altezza. Per spiegare questo incremento era necessario supporre che qualche tipo di raggi penetranti giungesse sulla Terra dall'esterno e fosse in parte assorbito dall'atmosfera, presentandosi pertanto più intenso a maggiori altezze. Hess inoltre escluse il Sole come sorgente diretta di questa radiazione penetrante a causa dell'assenza di variazione tra notte e giorno, e dai risultati di una missione compiuta durante un'eclissi solare. Durante la prima guerra mondiale non vi furono significativi sviluppi nell'indagine sulla radiazione penetrante e negli anni successivi il fulcro della ricerca si spostò negli Stati Uniti. Nel 1926 Millikan16 e Cameron effettuarono misure di assorbimento della radiazione a diverse profondità nei laghi e ad altitudini elevate. Basandosi sui coefficienti di assorbimento e sulla dipendenza della radiazione dall’altitudine, conclusero che la radiazione era formata da raggi 17 di alta energia e che “questi raggi si propagano 14 Le radiazioni ionizzanti sono le radiazioni dotate di sufficiente energia da poter ionizzare gli atomi con i quali vengono a contatto. Si dividono in due categorie: quelle che producono ioni in modo diretto (le particelle cariche , e ) e quelle che ne producono in modo indiretto (neutroni, raggi e raggi ). Mentre le prime hanno basso potere penetrante, le seconde possono penetrare molto nella materia. 15 Victor Franz Hess (Schloss Waldstein 1883 – Mount Vernon 1964) è stato un fisico austriaco naturalizzato statunitense. Per le sue scoperte sui raggi cosmici vinse, insieme a Carl David Anderson (New York 1905 – San Marino 1991), nel 1936 il premio Nobel per la Fisica. 16 Robert Andrews Millikan (Morrison 1868 – Pasadena 1953) fu un fisico sperimentale statunitense, premio nobel per la fisica nel 1923 per i suoi lavori sulla determinazione della carica elettrica dell’elettrone e sull’effetto fotoelettrico. 17 I raggi γ sono onde elettromagnetiche emesse dal decadimento o da processi nucleari e subatomici con lunghezza d’onda inferiore a e frequenza compresa tra e . Sono estremamente penetranti e possono provocare importanti alterazioni ai tessuti viventi. I raggi sono costituiti da fotoni, cioè da quanti di energia che viaggiano alla velocità della luce, e posseggono un’energia , dove è la frequenza dell’onda elettromagnetica e è la costante di Planck, pari a . 18 2. I raggi cosmici attraverso lo spazio in tutte le direzioni in modo uniforme”, dando loro il nome di raggi cosmici [13]. Nel biennio 1927-28 l’olandese Clay misurò la dipendenza dei raggi cosmici dalla latitudine geomagnetica e confutò l’ipotesi che questi fossero costituiti da raggi . Il campo magnetico terrestre, infatti, non modifica la traiettoria delle particelle neutre, come i fotoni, ma devia le particelle cariche, inducendo una disomogeneità nel flusso di tali particelle provenienti dall’esterno a varie latitudini. Clay trovò che la ionizzazione aumentava con la latitudine contestando quindi l’ipotesi di Millikan. Nel 1932 Compton18 risolse la controversia svolgendo un esperimento a livello planetario al quale parteciparono più di sessanta fisici che svolsero misure indipendenti. A seguito dei risultati ottenuti Compton riferì che vi era un effetto di latitudine, che i raggi cosmici erano particelle cariche e che Millikan aveva torto. Ci si chiese quindi se le particelle fossero cariche positivamente o negativamente. La soluzione fu trovata grazie all’idea del fisico italiano Bruno Rossi (Venezia 1905 – Boston 1993) di utilizzare il campo magnetico terrestre: se i raggi cosmici sono prevalentemente particelle di carica positiva, per l’interazione con il campo magnetico terrestre appariranno provenire prevalentemente da Ovest; se sono negative appariranno provenire prevalentemente da Est. Nel 1934 Rossi pubblicò i risultati secondo i quali le particelle erano per la maggior parte cariche positivamente, ma fu anticipato di qualche mese da Alvarez e Compton i quali arrivarono alle medesime conclusioni. Solo più tardi, nel 1941, si poté affermare con certezza che tali particelle di carica positiva erano protoni. Nel corso delle sue misure Rossi osservò un altro fenomeno interessante: durante un test delle apparecchiature registrò scariche quasi simultanee di contatori Geiger molto distanti tra loro e posti su una linea orizzontale. Nel 1937 Pierre Auger rilevò lo stesso fenomeno e indagò in maggior dettaglio. Concluse che ampi sciami di particelle vengono generati da particelle di raggi cosmici primari ad alta energia che interagiscono con i nuclei dell’aria nell’alta atmosfera, dando inizio ad una cascata di interazioni secondarie che alla fine porta a uno sciame di elettroni, fotoni, muoni (vedere Paragrafo 2.2.3) e altre particelle che raggiungono la superficie terrestre. Questi sciami sono la spiegazione 18 Arthur Holly Compton (Wooster 1892 – Berkeley 1962) fu un fisico statunitense, premio Nobel per la fisica nel 1927 per la scoperta dell’effetto che porta il suo nome. L’effetto Compton è un fenomeno di scattering interpretabile come l’urto tra un fotone e un elettrone. 19 2. I raggi cosmici diretta del fenomeno di scarica spontanea degli elettroscopi, da cui tutta l’indagine era partita all’inizio del secolo. Grazie allo studio dei raggi cosmici gli scienziati scoprirono che le sorgenti astrofisiche rendevano disponibili particelle ad altissima energia in grado di attraversare la materia. Si iniziò quindi ad indagare la natura di queste particelle e ad utilizzarle come sonde per studiare la materia, sulla falsariga dell’esperimento di Rutherford19. Lo studio della radiazione cosmica contribuì in maniera significativa alla nascita e allo sviluppo della fisica delle particelle elementari, scienza dei costituenti elementari della materia, e, grazie a questa radiazione, nei decenni successivi vennero fatte molte scoperte fondamentali, tra le più importanti nella storia della fisica delle particelle. 2.2. Natura dei raggi cosmici Oggi è ormai accertato che la radiazione cosmica primaria, ossia quella che dal cosmo incide sugli strati più alti dell’atmosfera, è costituita in gran parte da protoni veloci, aventi energie20 dell’ordine del ; oltre a questi sono presenti elettroni e nuclei di elementi di basso numero atomico (elio, litio, boro e altri). Quando le particelle della radiazione primaria entrano nell’atmosfera terrestre, interagiscono con i nuclei degli atomi che la compongono dando origine a molti fenomeni secondari mediante un processo a cascata. Questo processo è oggi chiamato con il nome “air shower“ e verrà descritto più in dettaglio successivamente. Non tutte le particelle e le radiazioni così formatesi raggiungono la superficie terrestre, alcune infatti decadono o vengono assorbite dall’atmosfera oppure sono soggette ad ulteriori tipi di reazioni. 19 L’esperimento di Rutherford fu un esperimento eseguito da Hans Geiger (Neustadt an der Weinstraße 1882 – Potsdam 1945) e Ernest Marsden (Rishton 1889 – Lowry Hutt 1970) nel 1909, sotto la direzione di Ernest Rutherford (Brightwater 1871 – Cambridge 1937). Per sondare la struttura dell’atomo diressero un fascio di particelle α (nuclei di 4He) ortogonalmente ad un foglio sottile d’oro. Ottennero dei risultati inattesi che portarono alla confutazione del modello atomico di Thomson, detto modello a panettone, e alla concezione del modello atomico di Rutherford o modello planetario dell’atomo. 20 L’unità di misura utilizzata nella fisica delle particelle è l’elettronvolt ( ), il quale è definito come l’energia cinetica acquisita da un elettrone quando è accelerato dalla differenza di potenziale elettrico di nel vuoto ( ). Il gigaelettronvolt ( ) è un multiplo dell’elettronvolt ( ). 20 2. I raggi cosmici La letteratura scientifica distingue oggi i raggi cosmici in: raggi cosmici primari (primary cosmic rays), ovvero il flusso iniziale di particelle esterno all’atmosfera terrestre; raggi cosmici delle reazioni a catena (air shower cosmic rays), ovvero il flusso intermedio nell’atmosfera; raggi cosmici a livello del mare (sea-level cosmic rays), ovvero il flusso finale di particelle che raggiunge la superficie terrestre. 2.2.1. Flusso dei raggi cosmici primari La radiazione cosmica incidente sugli strati più esterni dell’atmosfera terrestre è composta principalmente da protoni ( ) e da nuclei di elio ( ). La restante percentuale è rappresentata da nuclei più pesanti (Tabella 2.1 [14]), elettroni, neutrini, raggi di alta energia e una piccolissima frazione di antimateria (positroni e antiprotoni). Tecnicamente i raggi cosmici primari si distinguono in raggi cosmici primari propriamente detti e in raggi cosmici secondari. I primi provengono dalle sorgenti astrofisiche e sono composti da particelle che si possono considerare stabili, ovvero aventi un tempo di decadimento21 dell'ordine di anni o maggiore; tutte le altre particelle instabili emesse decadono prima di raggiungere la Terra. I raggi cosmici secondari sono invece le particelle generate dall'interazione tra i primari e il mezzo interstellare. Gli elettroni, i protoni così come elio, carbonio, ossigeno, ferro e altri nuclei sintetizzati mediante la fusione nucleare stellare sono raggi cosmici primari; nuclei come litio, berillio e boro, i quali non sono prodotti finali abbondanti nella sintesi nucleare, sono raggi cosmici secondari. Antiprotoni 21 In base alle leggi della meccanica quantistica il decadimento spontaneo di un particolare nucleo instabile è un processo puramente casuale, quindi non è possibile prevedere l’istante in cui avverrà. Dato un campione numeroso di un particolare isotopo, è tuttavia possibile notare che questo fenomeno rispetta una precisa legge statistica: il numero di decadimenti che ci si aspetta avvenga in un intervallo di tempo è proporzionale al numero di atomi presenti. Noto il numero di atomi all’istante iniziale e la costante di decadimento , il numero di atomi presenti al tempo è dato dall’equazione: . Bisogna notare che questa è una legge approssimata, in primo luogo perché rappresenta una funzione continua, mentre l'evento fisico reale assume valori discreti, poi poiché descrive un processo casuale, solo statisticamente vero. Comunque, poiché solitamente è estremamente grande, la funzione fornisce un'ottima approssimazione. Oltre alla costante di decadimento il decadimento radioattivo è caratterizzato da un'altra costante chiamata vita media. Ogni atomo “vive” per un tempo preciso prima di decadere e la vita media rappresenta la media aritmetica dei tempi di vita (o tempi di decadimento) di tutti gli atomi della stessa specie. La vita media si indica con ed è pari al reciproco della costante di decadimento [7]. 21 2. I raggi cosmici e positroni sono in gran parte secondari e la determinazione della frazione di queste particelle che può essere primaria è una questione ancora aperta. Elemento Elemento 1 H 485 13 - 14 Al - Si 0.19 2 He 26 15 - 16 P-S 0.03 3-5 Li - Be 0.40 17 - 18 Cl - Ar 0.01 6-8 C-O 2.20 19 - 20 K - Ca 0.02 9 - 10 F - Ne 0.30 21 - 25 Sc - Mn 0.05 11 - 12 Na - Mg 0.22 26 - 28 Fe - Ni 0.12 Tabella 2.1 : Frazione di nuclei incidenti primari. rappresenta la quantità relativa di nuclei nei raggi cosmici a 22, normalizzata con l’ossigeno ( ). Il flusso di ossigeno all’energia cinetica di è di . Confrontando le abbondanze relative dei nuclei presenti nei raggi cosmici con quelle presenti nel Sistema Solare si notano importanti somiglianze. Dal grafico mostrato in Figura 2.2 [15] si nota un andamento irregolare, comune ad entrambi i campioni, che evidenzia un effetto pari-dispari: nuclei con e/o pari sono più legati e quindi più abbondanti in natura essendo maggiormente stabili, in questo modo infatti si riduce l’effetto di repulsione tra cariche dello stesso segno presenti nel nucleo. I nuclei più leggeri, Idrogeno (H) e Elio (He), pur rappresentando la quasi totalità della radiazione cosmica ( ), sono meno abbondanti in quest’ultima rispetto al Sistema Solare: questo può essere dovuto al fatto che i meccanismi di fissione, che portano alla produzione di atomi più leggeri, sono meno frequenti nei raggi cosmici. Gli elementi come Litio (Li), Berillio (Be), Boro (B), Scandio (Sc), Vanadio (V), Cromo (Cr) e Manganese (Mn) sono invece di vari ordini di grandezza più abbondanti nei raggi cosmici rispetto alla materia del Sistema Solare. Questi dati possono essere spiegati con il processo detto di “spallazione” per il quale i nuclei più pesanti dei raggi cosmici come Carbonio (C), Ossigeno (O), Magnesio (Mg), Silicio (Si) e Ferro (Fe), prodotti nella fase finale del 22 Per nucleone si intende una particella subatomica componente del nucleo atomico, cioè un protone o un neutrone. Il numero totale di nucleoni di un nucleo di dice numero di massa e si indica tradizionalmente con . In un nucleo con protoni e neutroni si ha , dove è il numero atomico ed è il numero neutronico. 22 2. I raggi cosmici processo di nucleosintesi stellare, attraverso gli spazi galattici e intergalattici, reagiscono con le particelle del mezzo interstellare frammentandosi e producendo gli elementi leggeri, i quali invece sono del tutto assenti tra i prodotti finali delle reazioni nucleari all’interno delle stelle. Figura 2.2 : Abbondanza relativa degli elementi nei raggi cosmici (linea continua), confrontata con l’abbondanza relativa degli elementi nel Sistema Solare (linea tratteggiata). In ascissa è riportato il numero atomico , mentre in ordinata sono riportate, in scala logaritmica, le abbondanze relative. Queste sono normalizzate con quelle del silicio, posta al . Mentre sulla composizione dei raggi cosmici oggi sappiamo molto, la loro genesi, e soprattutto i fenomeni fisici che sono la fonte della loro energia, sono ancora argomento di dibattito. Tuttavia, negli ultimi decenni l’avvento della cosiddetta fisica astroparticellare, settore interdisciplinare tra astrofisica, cosmologia e fisica delle 23 2. I raggi cosmici particelle elementari, sembra aver dato risposta ad alcuni interrogativi riguardo la loro origine. I raggi cosmici che arrivano sulla Terra hanno un ampio spettro di energia (Figura 2.3 [16]) e più questa è elevata più essi sono rari: la maggior parte hanno energie comprese tra e viaggiano al dell’ordine di , che corrispondono rispettivamente alle energie di protoni che e al della velocità della luce; è possibile tuttavia rilevare energie . È stato calcolato, considerando la traiettoria nel campo magnetico della Terra, che affinché un raggio cosmico primario raggiunga la superficie terrestre è necessario che la sua energia sia almeno di (magnetic cut-off energy). Figura 2.3 : Spettro energetico (numero di particelle incidenti per unità di energia, per unità di tempo, per unità di superficie e per unità di angolo solido) dei raggi cosmici primari. La distribuzione di energia è abbastanza ben descritta da una legge di potenza del tipo: è detto indice spettrale e rappresenta la pendenza del grafico dei dati in unità logaritmiche. Il primo punto di variazione della pendenza a è detto ginocchio (knee) e il secondo a è detto caviglia (ankle) [15]. 24 2. I raggi cosmici Per ciò che riguarda le sorgenti di raggi cosmici primari, quelli con energie inferiori a hanno origine solare e, come si può notare dal grafico in Figura 2.3, rappresentano la maggior parte di questa radiazione. I raggi cosmici dotati di energie superiori a hanno invece origine extrasolare e, seppur rappresentano una piccola parte, sono i più “interessanti”. Le ipotesi che godono di maggior credito classificano [17] le sorgenti a seconda del contenuto energetico delle particelle emesse: . La radiazione cosmica di più bassa energia proviene dalla superficie del Sole e costituisce quello che è comunemente denominato vento solare 23. Il Sole ha cicli di attività variabili, di durate comprese tra 9 e 12 anni. Nei periodi di quiete, nel vento solare che colpisce la Terra la presenza di particelle cariche è minima: esse non raggiungono il livello del mare a causa della loro scarsa energia. Nei periodi di intensa attività solare, in corrispondenza dei quali sono più frequenti le eruzioni solari, il numero di particelle cariche presenti nel vento solare aumenta di un fattore ; una densità molto maggiore rispetto a quella dei raggi cosmici di origine extrasolare. Nonostante ciò, l’intensità totale dei raggi cosmici che raggiungono il suolo riesce solo a raddoppiare, poiché contemporaneamente si crea un fenomeno di distorsione della magnetosfera che tende a schermare maggiormente la Terra dai raggi. L’effetto delle particelle solari a livello del mare è quindi poco rilevante e tra notte e giorno vi è una differenza solo dell’ . L’aspetto più importante dei cicli solari consiste nel fatto che lungo le direzioni in cui il vento solare colpisce la magnetosfera, il campo magnetico terrestre subisce una vasta distorsione che scherma maggiormente la Terra dai raggi cosmici con energie inferiori a . L’intensa attività solare comporta quindi, lungo la direzione del vento solare, un decremento del flusso dei raggi cosmici che arrivano sulla superficie terrestre, come si nota in Figura 2.4 [2]. 23 Il vento solare è un flusso di particelle e radiazioni elettromagnetiche, in prevalenza costituito da protoni ed elettroni. Viene generato dall’espansione continua nello spazio interplanetario della corona solare e viaggia in tutto il Sistema Solare causando perturbazioni magnetiche. 25 2. I raggi cosmici Figura 2.4 : Esiste un significativo comportamento inverso tra l’attività solare e l’intensità del flusso di raggi cosmici con energie al di sotto di . La linea continua, con scala sulle ordinate di sinistra, rappresenta il flusso di 24 adroni , in particolare neutroni, rivelato in una particolare località sulla superficie terrestre (Colorado, USA); la linea tratteggiata, con scala sulle ordinate di destra, indica l’andamento dell’attività delle macchie solari. . Le particelle cariche dei raggi cosmici sono deviate dai campi magnetici che incontrano, in particolare da quello terrestre, risulta quindi molto difficile ricostruirne la traiettoria e risalire alla loro sorgente. Per questo scopo divengono molto importanti i cosmici neutri, come i raggi e i neutrini, i quali non sono influenzati dai campi magnetici. Inoltre, data la loro elevata energia, interagiscono poco con la materia e il mezzo interstellare, quindi permettono di individuare e analizzare le sorgenti che li emettono anche se queste sono situate molto lontane dalla Terra. Recenti osservazioni sembrano verificare un modello secondo il quale l’onda d’urto che segue la formazione di una supernova riesca ad accelerare i raggi cosmici fino ad energie dell’ordine di . . Alcuni modelli fanno provenire i raggi cosmici di queste energie da nuclei galattici attivi. Al centro delle galassie buchi neri 25 in rotazione ingoiano la materia circostante e durante l’accrescimento, lungo l’asse di rotazione del buco nero, si producono dei getti di materia diretti al di fuori della galassia. Questi getti di materia di alta energia, osservabili tramite la radioastronomia, sarebbero 24 Un adrone è una particella subatomica soggetta alla forza nucleare forte. Un buco nero è un corpo dotato di un’attrazione gravitazionale talmente elevata che nulla può allontanarsi dalla superficie. Questo si verifica quando la velocità di fuga (cioè la minima velocità necessaria per fuggire dalla sua attrazione gravitazionale) è superiore alla velocità della luce. Le stelle più grandi possono evolvere spontaneamente in buchi neri dopo che il loro combustibile nucleare è finito. La maggior parte delle galassie note sembra avere un buco nero supermassiccio (da milioni a miliardi di masse solari) nel suo centro. Una volta formatosi, date le condizioni di forte gravità, questo corpo tende ad accrescersi inghiottendo la materia circostante e generando violente collisioni [13]. 25 26 2. I raggi cosmici le sorgenti dei raggi cosmici. Altre spiegazioni teoriche chiamano in causa gli intensi campi magnetici delle pulsar, tuttavia i meccanismi che provocano l’accelerazione delle particelle non sono ancora del tutto chiariti. . L’origine dei raggi cosmici con energie intorno o superiori a si presenta come un enigma ancora maggiore. Certamente essi richiedono sorgenti straordinarie, ma il problema è ancora più complicato dall’esistenza di un limite teorico all’energia dei raggi cosmici26. Un’ipotesi avanzata è che essi possano essere accelerati dai campi magnetici di quasar relativamente vicini a noi, contenenti buchi neri dotati di grande massa (almeno 100 milioni di masse solari) e in rotazione. Altri modelli suggeriti chiamano in gioco lo scontro tra galassie o il decadimento di particelle durante il Big Bang. 2.2.2. Reazioni a catena in atmosfera Gli air shower, osservati per la prima volta da Bruno Rossi e Pierre Auger nel 1937, sono sciami di particelle e radiazioni elettromagnetiche (Figura 2.5 [7]) che vengono prodotte quando i raggi cosmici primari di alta energia entrano nell’atmosfera terreste. I prodotti di queste interazioni sono detti raggi cosmici secondari e possono a loro volta interagire o decadere, determinando in questo modo la moltiplicazione del numero di particelle all’interno di uno sciame. Un esempio delle reazioni fondamentali che avvengono durante il passaggio dei raggi cosmici attraverso l’atmosfera è riportato nello schema in Figura 2.6 [7]: un singolo protone ( ), o un nucleo, entrando nell’atmosfera collide con i nuclei degli elementi che la compongono27, originando una serie di particelle secondarie tra le quali i pioni ( ), meno frequentemente i mesoni (kaoni) e, ancor più raramente, altri adroni. Gli adroni prodotti nelle prime collisioni generalmente hanno abbastanza energia per produrne altri, quindi si genera una cascata di adroni (hadronic shower): il numero di particelle 26 I fisici Kenneth Greisen, Georgi Zatsepin e Vadem Kuzmin hanno dimostrato che i raggi cosmici, interagendo con la radiazione cosmica di fondo del Big Bang, perdono energia. Inoltre, assumendo che la radiazione di fondo sia costituita da protoni, hanno stabilito che se tali protoni provengono da distanze cosmologiche, non possono superare una certa soglia di energia (GZK cut-off). 27 L’atmosfera terrestre può essere considerata come una miscela di gas avente la seguente composizione chimica media al suolo (le percentuali indicate sono in volume): di azoto, di ossigeno e di argon. Il restante è costituito da biossido di carbonio, neon, elio, metano, idrogeno e tracce di altri gas. 27 2. I raggi cosmici inizialmente cresce, raggiunge un massimo e, quando l’energia non è più sufficiente per generare nuove particelle, decresce. A causa dell’instabilità di queste particelle e delle loro interazioni, non tutte raggiungono il suolo, quindi a livello del mare il flusso di cosmici è minore rispetto a quello in quota. I pioni possono essere carichi positivamente ( di ), negativamente ( ) oppure essere neutri ( ). I pioni carichi hanno una vita media e decadono principalmente in un muone ( ) e in un neutrino o antineutrino muonico, anche se esiste una piccola probabilità che decadano in un elettrone o positrone e un antineutrino o neutrino elettronico [18]: I pioni neutri hanno una vita media di e decadono in raggi mediante la reazione elettromagnetica: I muoni possono essere positivi o negativi ed hanno una vita media molto più grande28 rispetto a quella delle altre particelle generate nelle reazioni a catena; questo giustifica il fatto che i muoni siano predominanti nello spettro rivelato sulla superficie terrestre. Durante il loro passaggio in atmosfera perdono energia e possono decadere in un elettrone o positrone e in una coppia neutrino-antineutrino: I fotoni, o raggi , danno origine ad una cascata elettromagnetica (electromagnetic shower) che si sovrappone geometricamente a quella adronica e interagiscono con i nuclei dell’atmosfera producendo coppie di elettrone-positrone: 28 La vita media a riposo di un muone è circa [19]. Con le leggi della cinematica classica, se pur viaggiasse alla velocità della luce (nel vuoto è ), riuscirebbe a percorrere solo , spazio non sufficiente affinché il muone venga rivelato al livello del mare. Poiché la velocità media di un muone cosmico è bisogna abbandonare la cinematica classica e considerare l’effetto relativistico della dilatazione dei tempi secondo la trasformazione di Lorentz in cui è il tempo relativistico (di decadimento del muone, in questo caso) e è il tempo proprio di decadimento, cioè il tempo di decadimento a riposo. Si ottiene , cioè una vita media 40 volte maggiore. In questo tempo il muone riesce a percorrere, in media, ed è possibile rivelarlo al suolo. 28 2. I raggi cosmici A loro volta, gli elettroni e i positroni possono produrre un fotone: Figura 2.5 : In questa immagine della NASA si vedono chiaramente gli sciami di particelle e radiazioni elettromagnetiche che vengono create quando i raggi cosmici primari entrano nella nostra atmosfera. Figura 2.6 : La particella primaria (generalmente un protone) urta con i nuclei degli elementi presenti nell'alta atmosfera, soprattutto ossigeno e azoto. Da questa collisione vengono generate numerose particelle e radiazioni elettromagnetiche che possono decadere o interagire a loro volta con la materia. In questo schema sono rappresentate le principali reazioni che intervengono. 29 2. I raggi cosmici 2.2.3. Raggi cosmici sulla superficie terrestre La frazione preponderante della radiazione cosmica che raggiunge la superficie terrestre è costituita da muoni, sebbene siano presenti piccole percentuali di protoni, neutrini e una componente costituita da elettroni, positroni e fotoni. I muoni rivelati al suolo hanno un’energia media di , benché il loro spettro, continuo, sia molto più ampio. Posseggono una massa a riposo di , circa 207 volte quella dell’elettrone29, e dal momento che le loro interazioni sono simili a quelle dell’elettrone sono anche chiamati “elettroni pesanti”. La maggior parte dei muoni è prodotta nell'atmosfera all’altezza di raggiungere il suolo, perde circa e, prima di causando la ionizzazione dell’aria. La loro energia e la loro distribuzione angolare sono il risultato di una convoluzione dello spettro di generazione, delle perdite di energia in atmosfera e dei decadimenti [14]. Ad esempio, la lunghezza di decadimento dei muoni di energia pari a sarebbe di per effetto della dissipazione di energia in atmosfera, tale lunghezza si riduce a , ma, . Lo spettro dei muoni sulla superficie terrestre è continuo in energia ed angolo di arrivo e varia con continuità in funzione dell’altitudine, della posizione geografica e del livello di attività solare. I raggi cosmici sono caratterizzati da una certa distribuzione di quantità di moto (prodotto tra la massa e la velocità) e di angolo di arrivo rispetto alla verticale e le due grandezze sono correlate. Lo spettro dei muoni è descritto dalle seguenti caratteristiche [20]: la distribuzione della quantità di moto è quasi piatta al di sotto di l’andamento di per impulsi superiori a ed ha (per approfondimento vedere Figura 2.7 [21]); i raggi cosmici arrivano da tutte le direzioni (sono isotropi), ma il flusso è maggiore allo zenit ed ha una distribuzione angolare che varia approssimativamente come , dove è l’angolo rispetto alla verticale; l’integrale dell’intensità di muoni verticali con quantità di moto superiore a , al livello del mare, è . Il flusso medio di muoni al suolo su superfici orizzontali è di circa 29 Massa dell’elettrone: [14]. Il nostro corpo è quindi . 30 2. I raggi cosmici colpito ogni minuto da circa 600 muoni, mentre una nostra mano una volta al secondo (regola della spanna). Figura 2.7 : Spettro dei muoni al livello del mare per due differenti angoli rispetto alla verticale: nel grafico di sinistra e in quello di destra. Per angoli ampi si riscontrano muoni con energia media più elevata; in questo caso, infatti, i muoni di bassa energia decadono prima di raggiungere la superficie. 2.3. Fenomeni fisici di interazione dei muoni con la materia I muoni che attraversano la materia interagiscono con gli atomi di cui essa è costituita. I fenomeni fisici che dominano queste interazioni sono principalmente di natura elettromagnetica e comportano la perdita di energia della particella e la deviazione dalla sua direzione originaria. Per particelle pesanti30, quali sono i muoni, i processi che maggiormente influiscono sulla loro perdita di energia sono quelli dovuti agli urti anelastici con gli elettroni degli atomi di cui è costituita la materia attraversata. Durante queste collisioni l’energia ceduta dalle 30 Sono particelle pesanti quelle la cui massa è molto maggiore rispetto a quella dell’elettrone. 31 2. I raggi cosmici particelle agli atomi ne causa l’eccitazione31 o la ionizzazione32. Nel primo caso si parla di collisioni “molli” (soft) e l’atomo interessato torna allo stato fondamentale restituendo in parte l’energia assorbita durante l’urto mediante emissione di fotoni. Nel secondo caso si parla invece di collisioni “energetiche” (hard): si crea un catione e un elettrone libero che, se dotato di sufficiente energia, può indurre reazioni secondarie. In questo particolare caso l’elettrone è anche detto raggio . Generalmente, la quantità di energia persa dalla particella ad ogni urto è una piccola frazione della sua energia cinetica, ma, normalmente, nella materia il numero di collisioni per unità di lunghezza è talmente alto che si possono rilevare perdite di energia anche in spessori molto piccoli [2]. Altri fenomeni che dissipano energia durante il passaggio della particella attraverso la materia sono l’irraggiamento e la produzione di coppie elettrone-positrone. Questi diventano tanto più importanti tanto più aumenta l’energia iniziale della particella incidente; alle basse energie dominano invece gli effetti degli urti anelastici. Il principale processo che, invece, provoca la deviazione dei muoni dalla loro traiettoria originale è la diffusione elastica (scattering) delle particelle contro i nuclei degli atomi che costituiscono la materia attraversata; poiché tale fenomeno avviene molte volte anche in un piccolo spessore, viene chiamato diffusione multipla (Multiple Coulomb Scattering, MCS) . Ad ogni urto, il muone devia di un angolo molto piccolo ed è in conseguenza del numero elevato di urti che si ottiene una deviazione significativa della traiettoria della particella rispetto alla direzione originale. Nei successivi paragrafi vengono descritti in maggior dettaglio i fenomeni fisici di interazione tra i muoni e la materia attraversata. 31 Nella meccanica quantistica si definisce eccitazione la transizione di un sistema ad uno stato quantico di maggiore energia (stato eccitato), il quale è generalmente instabile. Nel processo di eccitazione atomica, attraverso l’apporto di energia, in particolare con assorbimento di fotoni di adeguata frequenza o per effetto di collisioni tra le particelle, si assiste al passaggio di un elettrone di valenza dal suo stato energetico fondamentale ad un livello energetico maggiore [7]. 32 La ionizzazione consiste nella generazione di uno o più ioni a seguito dell’addizione o rimozione di elettroni da un’entità molecolare neutra (cioè atomi o molecole), che può essere causata da collisioni tra particelle o da assorbimento di radiazioni. Gli atomi o le molecole che hanno un numero di elettroni minore del numero atomico, rimangono carichi positivamente e prendono il nome di "cationi"; quelli che hanno un numero di elettroni maggiore del numero atomico, rimangono carichi negativamente e prendono il nome di "anioni” [7]. 32 2. I raggi cosmici 2.3.1. Urti anelastici L’effetto dominante delle collisioni inelastiche tra un muone e gli atomi della materia attraversata è la ionizzazione del mezzo stesso, a seguito della quale si producono ioni positivi ed elettroni liberi; importanza minore riveste invece il fenomeno dell’eccitazione atomica e della successiva diseccitazione mediante l’emissione di fotoni. La perdita di energia per particelle cariche pesanti che deriva da questi fenomeni è descritta con sufficiente accuratezza dalla formula di Bethe-Bloch [14], la quale ha validità per : in cui e = raggio e massa dell’elettrone; = numero di Avogadro ); = velocità della luce; = densità del materiale; e = numero atonico e peso atomico del materiale; = carica della particella incidente in unità di ; = velocità della particella incidente; = rapporto = per la particella incidente; ; = correzione per l’effetto della densità33; = correzione per l’effetto “guscio” (correzione di shell)34; 33 L'effetto della densità deriva dal fatto che il campo elettrico dei muoni incidenti tende a polarizzare gli elettroni degli atomi del mezzo che stanno attraversando. A causa della polarizzazione, gli elettroni degli atomi più “lontani" dalla traiettoria delle particelle cariche incidenti risultano schermati rispetto al campo elettrico totale, quindi l'energia persa dal muone in seguito a collisioni con questi elettroni contribuirà alla perdita totale di energia del muone stesso meno di quanto previsto dalla formula di Bethe-Bloch. Questo effetto diventa più importante se l'energia della particella incidente aumenta e dipende dalla densità del materiale che le particelle cariche stanno attraversando, perché la polarizzazione indotta é maggiore più il materiale è denso. 34 La correzione di shell tiene conto degli effetti che si innescano quando la velocità della particella incidente è comparabile, o minore, rispetto alla velocità orbitale degli elettroni degli atomi del mezzo che i muoni stanno attraversando. A tali energie, l'ipotesi che gli elettroni degli atomi del mezzo siano stazionari rispetto 33 2. I raggi cosmici = energia massima trasferita in una singola collisione; = potenziale medio di ionizzazione, ottenibile da formule semiempiriche in dipendenza da . L’impulso dove e l’energia sono legati, invece, dalla relazione relativistica: è la massa a riposo della particella considerata, misurata in ,e è la sua energia, ossia quella che la particella possiede per il fatto di avere una massa; l’impulso si misura in . Figura 2.8 : Se espressa in termini di , = = massa a riposo del muone), la perdita di energia per unità di lunghezza (e di densità, dato che , dove è lo spessore del materiale attraversato e la sua densità) non dipende dalla massa della particella ma solo dalla velocità, quindi da . La forma caratteristica della perdita di energia per ionizzazione presenta una discesa proporzionale a per bassi , raggiunge un minimo, quindi risale quando le particelle diventano relativistiche. Il minimo raggiunto dalla distribuzione della perdita di energia è detto minimo di ionizzazione e può essere considerato circa lo stesso per particelle pesanti con la stessa carica, mostrando quasi una totale indipendenza dalla massa. Nel caso dei muoni dei raggi cosmici, la maggior parte possiede energie dell’ordine del , quindi quando attraversano un mezzo hanno perdite di energia vicine al minimo, per questo sono dette particelle al minimo di ionizzazione o mip's (minimum ionizing particles) [2]. alle particelle incidenti non è più valida e la formula di Bethe-Bloch non sarebbe più utilizzabile se non venisse considerata la correzione di shell, appunto, dove . 34 2. I raggi cosmici La Figura 2.8 [14] mostra l’energia persa dai muoni per effetto della ionizzazione: curve differenti, quindi quantità di energia persa diverse, corrispondono a mezzi attraversati differenti. 2.3.2. Bremsstrahlung Per bremsstrahlung35 si intende la radiazione elettromagnetica a spettro continuo emessa dal muone quando passa attraverso il campo elettrico di un nucleo, che ne devia bruscamente la traiettoria e ne determina la perdita di energia. Passando in vicinanza di un nucleo, il muone può subire una brusca accelerazione e, per questo motivo, irraggiare energia elettromagnetica sottoforma di fotoni. Questi, dopo essere stati prodotti per bremsstrahlung, possono generare elettroni e positroni per produzione di coppie, o trasferire la loro energia a elettroni per diffusione Compton36 e per effetto fotoelettrico37. Sopra una certa energia, detta critica, predominano le perdite per bremsstrahlung, al di sotto, quelle per ionizzazione; per i muoni, la bremsstrahlung domina sugli altri processi di interazione anche per energie non troppo elevate, ma sufficienti affinché possa avvenire la produzione di raggi energetici ( durante la ionizzazione del mezzo attraversato. Per muoni molto ) il processo di bremsstrahlung contribuisce a circa il della loro perdita media di energia [20]. 2.3.3. Produzione diretta di coppie La produzione diretta di coppie è un importante processo di interazione dei muoni con il mezzo che stanno attraversando. L'energia persa per produzione di coppie positroneelettrone cresce linearmente all'aumentare dell'energia del muone incidente e, 35 Irraggiamento per frenamento, dal tedesco bremsen, frenare, e strahlung, radiazione. I fotoni, incidendo sulla materia, possono compiere sugli elettroni di valenza dell'atomo un urto assimilabile all'urto elastico fra particelle puntiformi: un evento di urto fra particelle viene detto evento di diffusione, o di scattering della particella incidente. L'effetto Compton si spiega osservando che, se un fotone incidente colpisce un elettrone di valenza, il quale può essere considerato stazionario grazie alla piccola energia di legame con l'atomo a cui appartiene, il fotone viene deviato con un angolo rispetto alla direzione iniziale e cede all'elettrone una parte della sua energia; in questo modo l'elettrone che ha subito l'urto ha sufficiente energia per essere emesso dall'atomo con un angolo rispetto alla direzione di incidenza del fotone. 37 Un materiale, colpito da radiazione elettromagnetica di opportuna frequenza, emette elettroni. 36 35 2. quando essa è dell'ordine dei I raggi cosmici , questo processo fisico contribuisce a più della metà della perdita totale di energia. La Figura 2.9 [14] mostra il contributo della bremsstrahlung e della produzione diretta di coppie alla perdita complessiva di energia per irraggiamento, nel caso di un muone che attraversa del ferro. Figura 2.9 : Contributo della bremsstrahlung e della produzione diretta di coppie energia per irraggiamento di un muone che attraversa del ferro. alla perdita totale di 2.3.4. Diffusione multipla La diffusione multipla il fenomeno statistico per cui gli urti elastici fra una particella carica, nel nostro caso un muone, ed i nuclei della materia attraversata causano la deviazione della traiettoria della particella stessa (Figura 2.10). La maggior parte di queste interazioni è dovuta alle forze di Coulomb (attrazione o repulsione elettrostatica) che si generano tra i nuclei del mezzo attraversato e il muone, ragione per cui questo fenomeno è anche chiamato multiple Coulomb scattering. La diffusione è definita multipla se tra particella e nuclei avvengono più di 20 urti. In tal caso, il problema può essere studiato in maniera statistica e la distribuzione dell’angolo di deflessione ( ) dalla traiettoria originale di un muone che attraversa un materiale è ben descritta dalla teoria della diffusione di Molière. Ignorando la piccola probabilità di avere un unico angolo di 36 2. deviazione largo e considerando, invece, angoli di deviazione I raggi cosmici per ogni singolo urto, una buona approssimazione degli effetti della diffusione multipla è costituita da una gaussiana; tale curva riproduce la distribuzione dell'angolo di deflessione media nulla ed una deviazione standard dove , e , con una ottenibile dall'espressione: sono rispettivamente la quantità di moto, la velocità e la carica della particella incidente e è il rapporto tra lo spazio percorso dalla particella nel materiale e la lunghezza di radiazione38 del materiale stesso. La misura dell'angolo di deflessione della traiettoria del muone è funzione del numero atomico ( ) del materiale, poiché da esso dipende fortemente , infatti: in cui è evidente che la lunghezza di radiazione è funzione, oltre che di , anche della massa atomica ( ) del materiale e della sua densità ( ); è il numero di Avogadro. Figura 2.10 : Schematizzazione della traiettoria seguita da una particella che, soggetta alla diffusione multipla, interagisce ripetutamente con gli atomi della materia attraversata. In ogni urto la particella viene deviata di un piccolo angolo; considerando tuttavia la serie di interazioni possiamo associare all’attraversamento della materia un certo angolo finale . 38 La lunghezza di radiazione ( ) è una grandezza caratteristica del materiale e rappresenta la distanza percorsa al suo interno da un elettrone o da un fotone da , in modo che l'energia della particella stessa venga ridotta di un fattore rispetto al suo valore iniziale. 37 2. 2.4. I raggi cosmici Applicazioni con raggi cosmici La fisica dei raggi cosmici, essendo più economica della fisica agli acceleratori, è più dispersa e interessa anche piccole nazioni. Attualmente sono operativi circa un centinaio di esperimenti su queste radiazioni: alcuni esperimenti sono collocati in gallerie nelle montagne, per schermare i rivelatori dai raggi cosmici meno penetranti e registrare solo le particelle con maggiori energie (i muoni, e a maggior ragione, i neutrini, che a energie ordinarie hanno scarsa probabilità di interagire con la materia anche passando attraverso il diametro della Terra). Grandi laboratori in cui si svolgono queste ricerche si trovano per esempio in Italia (i Laboratori Nazionali del Gran Sasso dell’Istituto Nazionale di Fisica Nucleare), in Francia, in Spagna, negli Stati Uniti, nell’America Latina, in Canada e in Giappone, dove la fisica delle particelle elementari è stata eccellente negli ultimi anni dominando in particolare il panorama mondiale della fisica dei neutrini. Molti esperimenti sono posti negli osservatori di astrofisica; molti in regioni desertiche. Un esempio importante è rappresentato dall’Osservatorio Pierre Auger in Argentina, nella pampa vicino a Malargue (Figura 2.11 [22]). In ambiti diversi da quelli della fisica delle alte energie i cosmici sono stati, e verranno, utilizzati per eseguire delle “radiografie", misurando l'attenuazione del flusso di cosmici quando questi attraversano oggetti di grandi dimensioni, o molto densi oppure con elevato numero atomico. La prima applicazione dei raggi cosmici per ispezionare grandi volumi è del 1955 quando E. P. George [23] tentò di misurare lo spessore della roccia sovrastante un tunnel sotterraneo. Un utilizzo molto più originale fu ideato dal premio Nobel per la fisica L. W. Alvarez [24], quando nel 1970 “radiografò” la piramide di Chefren, per scoprire se in essa vi fossero camere interne nascoste, concludendo che non ve ne erano. In tempi più recenti, Nagamine [25] (nel 1995) e Tanaka [26] (nel 2003), insieme ad altri, hanno utilizzato la medesima tecnica per studiare la struttura interna di un vulcano al fine di prevedere eventuali eruzioni. Tutte queste applicazioni si basano sul’effetto dell’assorbimento dei muoni da parte della materia: valutando il numero di raggi cosmici incidenti e il numero di quelli uscenti e conoscendo le caratteristiche del materiale attraversato è possibile risalire al suo spessore. 38 2. I raggi cosmici Figura 2.11 : L’Osservatorio Pierre Auger in Argentina, con i suoi 1600 “bidoni” e i quattro rivelatori a fluorescenza 2 periferici, campiona una superficie di oltre 3000 km . È entrato in funzione nel 2004 e sta fornendo informazioni importanti sui raggi cosmici, in particolare indicando che la direzione dei raggi cosmici di energia estremamente alta sarebbe correlata ai nuclei delle galassie al di fuori della Via Lattea. Sembrerebbe quindi provato che l’origine dei raggi cosmici di altissima energia è legato ai collassi gravitazionali in prossimità dei buchi neri supermassicci [12]. Nel 2003 un gruppo di ricercatori del laboratorio americano di Los Alamos [27] ha studiato come sia possibile ottenere tomografie39 anche di oggetti di dimensioni ridotte, purché di elevato numero atomico, sfruttando l'effetto dominante della diffusione multipla. Seguendo questa idea lo stesso gruppo [28, 29, 30] nel 2003 ha proposto di utilizzare i cosmici per la rivelazione di materiale ad elevato numero atomico, in particolare materiali fissili, quale l'uranio e il plutonio, o il piombo, utilizzato per schermare materiale radioattivo. Un prototipo delle dimensioni di qualche decina di centimetri è stato costruito e fatto funzionare, così dimostrando la fattibilità di questo sistema di analisi. Il 39 Per tomografia si intende la tecnica spettroscopica mirata alla rappresentazione tridimensionale del volume sotto esame o di campioni a strati. Ad oggi ha assunto molta importanza nel campo medico, in quanto esistono ormai diversi tipi di tomografia: la Tomografia Assiale Computerizzata (TAC), la Tomografia a Emissione di Positroni (PET) e la Tomografia a Emissione di Fotone Singolo (SPECT). Negli ultimi anni si intravede tuttavia la possibilità di nuovi scenari per applicazioni industriali. 39 2. I raggi cosmici problema principale che si frappone tra il modello in scala e un prototipo di dimensioni reali è presentato dalla complessità del processo di elaborazione delle informazioni e dei dati. In quest’ottica una collaborazione italiana tra l’Istituto Nazionale di Fisica Nucleare (INFN), l’Università di Padova, l’Università di Brescia e l’Università di Genova, riprendendo gli studi americani, ha realizzato il primo e unico prototipo di tomografo di dimensioni reali (volume di ispezione di circa ), presso i Laboratori Nazionali di Legnaro dell’INFN. Tale apparato ha finora fornito risposte incoraggianti, essendo in grado di visualizzare tridimensionalmente alcuni semplici oggetti posti all’interno del volume da analizzare, distinguendo inoltre i materiali a basso e ad alto (es. alluminio), a medio (es. ferro) (es. piombo e tungsteno) [31]. Versioni commerciali di questo sistema potrebbero essere impiegate, come auspicato dai governi occidentali dopo gli attentati terroristici dell’11 settembre 2001, per scansionare container inviati presso i porti e impedire l’ingresso di materiale radioattivo o nucleare. Medesimi controlli potrebbero essere effettuati sui camion all’ingresso delle fonderie per la rivelazione di materiale schermante delle sorgenti radioattive. Ad oggi infatti non esistono portali di rivelazione in grado di scongiurare questo pericolo, l’immissione nel forno fusorio di tali sostanze crea infatti notevoli pericoli per la salute dei lavoratori e ingenti danni economici. Un triste esempio è l’incidente verificatosi nel 1997 presso lo stabilimento Alfa Acciai di Brescia, dove sono state mandate in fusione sorgenti di Cesio 137 e Cobalto 6040 di alta attività [32]. L’evento ha causato la compromissione di un’intera linea di fusione, la contaminazione delle polveri di abbattimento fumi e del prodotto finito, nonché, cosa più importante, l’esposizione a rischio radiologico dei lavoratori. Analoghi incidenti hanno coinvolto AFV Acciaierie Beltrame SpA di Vicenza nel 40 Il cesio è l'elemento chimico di numero atomico 55 e il suo simbolo è Cs. Il del cesio naturale è rappresentato dall’isotopo cesio 133 ed è l’unico isotopo stabile, tra i 39 di cui è caratterizzato. Tra questi il 137 Cs è prodotto dalla detonazione di armi nucleari e dal processo di fissione nei reattori delle centrali nucleari: purtroppo una notevole quantità fu rilasciata in atmosfera nell'esplosione di Chernobyl del 1986. Il cesio 137 ha un tempo di dimezzamento piuttosto lungo, circa 30 anni, e decade in bario 137 tramite radiazioni di energie pari a . Il cobalto è l'elemento chimico di numero atomico 27 e il suo simbolo è Co. Il del cobalto presente in natura è l’isotopo cobalto 59 ed è stabile. Il cobalto ed i suoi sali trovano impiego in numerosi settori ed applicazioni: leghe metalliche, magneti, elettrodi per batterie d'auto, polveri per il rivestimento di porcellane e smalti, ecc. Il 60Co, invece, è un suo isotopo radioattivo artificiale ed è impiegato ad esempio nel trattamento di molti tipi di tumori, come sorgente di raggi . Ha un tempo di dimezzamento di circa 5 anni e decade nel nichel 60, in seguito a decadimento . 40 2. I raggi cosmici 2004, Acciaierie Venete di Sarezzo nel 2007 e l’acciaieria Somet di Bergamo nel 2011. Sensibile a questo problema, l’Unione Europea nel 2010 ha finanziato il progetto MuSteel (Muons scanner to detect radioactive sources hidden in scrap metal containers) [33], con l'obiettivo di validare l'utilizzo della tomografia muonica per l'applicazione sopra descritta. Tale progetto si concluderà nel 2012 ed è stato affidato ad una collaborazione composta dall’Università di Brescia, dall’Università di Padova, dall'Istituto Nazionale di Fisica Nucleare, dall'AFV Acciaierie Beltrame SpA, dalla Tecnogamma (azienda specializzata in tecnologie laser) e dalla SRB Costruzioni srl (azienda specializzata nella realizzazione di carpenteria meccanica). 41 3. 3. 3.1. Strumenti e procedure di simulazione Strumenti e procedure di simulazione Premessa Come anticipato nel Capitolo 1, lo scopo di questo lavoro di tesi è valutare l'utilizzo della rivelazione dei raggi cosmici per realizzare un sistema innovativo di monitoraggio di grandi strutture civili a sviluppo verticale per le quali è necessario valutare i possibili mutui spostamenti delle parti rispetto ad un assetto di partenza. Le principali strutture alle quali tale tecnica potrebbe essere applicata sono i pilastri di sostegno dei viadotti, le torri e le dighe. In particolare, in questa tesi si è focalizzata l'attenzione sulle dighe in muratura a gravità massiccia. In questo capitolo verranno descritti i software di generazione e di analisi dei dati e le procedure utilizzati nello studio. Il lavoro ha avuto inizio con la definizione della geometria della diga e di quella dei tre rivelatori di particelle utilizzati per la misura del passaggio dei raggi cosmici; tali rivelatori sono posizionati solidalmente alla muratura della quale si vuole monitorare lo stato ed individuare possibili deformazioni. La descrizione della geometria, assieme alle informazioni relative ai materiali costituenti i diversi volumi geometrici, è stata inserita all'interno di un programma di simulazione scritto in linguaggio C++ e basato sull'applicativo di simulazione di apparati sperimentali GEANT4 il quale utilizza l’interfaccia VMC [34]. Questo applicativo consente di simulare il passaggio di particelle elementari nella materia e quindi attraverso strutture con geometrie complesse e costituite da diversi materiali. Programmi di questo tipo sono utilizzati per la simulazione e lo studio delle prestazioni degli apparati sperimentali molto complessi che vengono utilizzati nella fisica delle alte energie. Nel caso specifico, questo programma ha permesso di studiare agevolmente il passaggio di muoni attraverso la struttura della diga. 42 3. Strumenti e procedure di simulazione Al fine di ottenere risultati il più possibile significativi è stato indispensabile introdurre nel codice un generatore di raggi cosmici (muoni) che simulasse le distribuzioni di quantità di moto e di angolo di arrivo rispetto alla verticale, così come sono state misurate alla superficie terrestre. Nel codice è stata inoltre inserita una procedura per la valutazione del disallineamento dei rivelatori, quindi della deformazione della parete della diga, basata sulla misura del percorso del muone a partire dalla lettura dei tre rivelatori. In questo lavoro si è supposto che a deformarsi sia la sola zona centrale della diga, quindi che a spostarsi sia il solo rivelatore centrale. Strutture civili di grandi dimensioni come quella studiata presentano naturalmente stati di deformazione più complessi, ma per valutare l’applicabilità del sistema di monitoraggio mediante raggi cosmici a queste strutture si è scelto di analizzare inizialmente un caso semplice come lo spostamento del solo rivelatore centrale. In un secondo momento, se tale tecnica dovesse risultare competitiva con quella oggi impiegata, si potrà estendere l’analisi a situazioni più complesse. In breve, la procedura per la valutazione del disallineamento è la seguente: noti i tre punti sui tre rivelatori nei quali è stato misurato il passaggio del cosmico, si definisce la retta passante per due di essi (il superiore e l'inferiore) e si misura quanto il terzo (quello sul rivelatore intermedio) disti dal punto di intersezione tra la retta e il piano di rivelazione del rivelatore intermedio. In maniera analoga si sarebbe potuto misurare il disallineamento del rivelatore superiore (deformazione del coronamento della diga) andando a tracciare la retta passante per l’intermedio e l’inferiore oppure misurare il disallineamento del rivelatore inferiore (deformazione della base della diga) andando a tracciare la retta passante per il superiore e l’intermedio. Quando procede nel vuoto un muone di alta energia segue una traiettoria perfettamente rettilinea; in presenza di materia la sua traiettoria è deviata dalle interazioni con essa, in particolare dalla diffusione multipla (Paragrafo 2.3.4). Gli scarti41 e (vedere Figura 3.14) fra il punto misurato sul rivelatore intermedio e l'intersezione fra la retta ed il piano di rivelazione del rivelatore intermedio, per il singolo cosmico, dipendono da questi effetti fisici di deviazione, dalla precisione dei rivelatori utilizzati nella misura della posizione 41 La rivelazione avviene nel piano orizzontale verso l’alto. , mentre l’asse è perpendicolare a tale piano ed è rivolto 43 3. Strumenti e procedure di simulazione (risoluzione spaziale) ed anche dall'eventuale reciproco disallineamento dei rivelatori, quindi dalla deformazione della struttura. La misura di un singolo cosmico, essendo affetta da fenomeni stocastici di deviazione, che diventano dominanti se gli spessori di materiale attraversato sono grandi, non può fornire un’informazione diretta e precisa. Tuttavia, poiché gli effetti fisici di deviazione della traiettoria del cosmico sono simmetrici in quanto sono statistici, provvedendo a misurare non solamente un singolo cosmico, ma un numero sufficientemente elevato di cosmici, al fine di ottenere delle distribuzioni statistiche degli scarti e , gli effetti stocastici che affliggono la misura possono essere ridotti e trattati con i metodi dell'inferenza statistica e diviene possibile estrarre dalla misura le informazioni sugli effetti di natura sistematica, come il disallineamento dei rivelatori, con un certo grado di precisione e livello di confidenza. In particolare si avrà che la media della distribuzione degli scarti lungo le coordinate e e così ottenuti conterrà l'informazione circa il disallineamento del rivelatore intermedio rispetto ai due più esterni mentre l'errore su tale media sarà legato alla precisione con la quale tale misura è stata effettuata. La precisione della misura sarà quindi direttamente connessa con la numerosità dei campioni raccolti e, di conseguenza, con il tempo necessario per la misura. Bisogna a questo punto precisare due aspetti del problema. La prima considerazione importante riguarda il fatto che questo tipo di misura è sensibile, per definizione, ai soli spostamenti relativi dei rivelatori, senza possibilità di distinguere se un rivelatore si è spostato rispetto ad un riferimento assoluto esterno, come ad esempio la roccia di fondazione. Inoltre, la misura dello spostamento andrà sempre effettuata come misura di confronto fra la condizione attuale del sistema ed una condizione misurata precedentemente che ne costituisce il riferimento. Per questo motivo il sistema analizzato è applicabile al monitoraggio di deformazioni, piuttosto che a misure di posizionamento assoluto. La seconda considerazione riguarda il fatto che il sistema di misura studiato, basato solamente su tre rivelatori, costituisce il sistema minimale necessario. È possibile infatti pensare a sistemi più complessi, basati su un numero maggiore di rivelatori, che costituisca un vero e proprio telescopio nel quale i raggi cosmici possano attraversare 44 3. Strumenti e procedure di simulazione tutti i rivelatori o un loro sottoinsieme. In questo caso, naturalmente, le procedure di analisi dei dati dovrebbero essere più complesse e prevedere il calcolo degli scarti tramite adattamento di rette spaziali ad insiemi di punti misurati e la stima degli spostamenti relativi dei rivelatori tramite procedure di minimizzazione più sofisticate [2]. Il caso in esame che è, come detto, il più semplice, ha il pregio di poter essere trattato con grande facilità formale, pur contenendo tutti gli elementi fisici che caratterizzano anche le configurazioni più complesse. 3.2. GEANT4 ed il metodo Monte Carlo GEANT4 (utilizzato in questo studio attraverso l’interfaccia VMC) è un applicativo gratuito, scritto in C++, che utilizza tecniche avanzate per la progettazione di programmi orientati agli oggetti ed è composto di accessori che consentono un'accurata simulazione del passaggio di particelle attraverso la materia [2]. Nella costruzione di GEANT4 sono stati previsti tutti gli aspetti utili alla definizione di tutto ciò che può essere necessario alla simulazione [34], in particolare GEANT4 offre l'opportunità di definire e di controllare: la geometria del sistema, i materiali impiegati, le particelle elementari tracciate, la generazione di eventi primari, il tracciamento del percorso delle particelle attraverso materia e campi elettromagnetici, i processi fisici che governano le interazioni delle particelle, la risposta dei componenti sensibili di rivelazione, la generazione di dati per ciascun evento, la registrazione e conservazione degli eventi e delle loro tracce, la visualizzazione dei rivelatori e della traiettoria delle particelle e l'immagazzinamento e l'analisi dei risultati delle simulazioni a diversi livelli di dettaglio e precisione. Il cuore di GEANT4 è una ricca collezione di modelli fisici per riprodurre le interazioni delle particelle con la materia in un intervallo di energia molto vasto, durante il passaggio attraverso un assetto sperimentale, in modo da simulare il comportamento delle particelle e la risposta dei rivelatori. GEANT4 incorpora gran parte di tutto ciò che si conosce circa le interazioni delle particelle ed è stato originariamente progettato per esperimenti di fisica delle alte energie. Oggi è utilizzato anche per applicazioni in altre aree scientifiche, quali la medicina, la biologia, la radioprotezione e l'astronautica. 45 3. Strumenti e procedure di simulazione GEANT4 è progettato e sviluppato grazie ad una collaborazione internazionale della quale anche il CERN42 fa parte e si basa sull'esperienza accumulata nel campo delle simulazioni Monte Carlo, dei rivelatori e dei processi fisici di interazione di tutti i tipi di particelle attraverso la materia. Con il termine di metodo Monte Carlo, oppure metodo MC, vengono in genere denominate tutte quelle tecniche che fanno uso di variabili aleatorie per la risoluzione di problemi matematici. Il metodo Monte Carlo diventa l'unica alternativa disponibile in tutte le situazioni in cui è troppo difficile, se non impossibile, utilizzare i tradizionali procedimenti numerici o analitici. L'applicazione di questo metodo non è ristretta ai soli problemi di natura statistica, ma include tutti quei casi in cui sia possibile trovare un collegamento tra il problema in esame ed il comportamento di un certo sistema aleatorio, ad esempio la diffusione di particelle nei materiali, il valore di un integrale indefinito, il calcolo del numero ottimale di addetti ad un impianto. Le basi teoriche di questo metodo sono conosciute da molto tempo ed il primo esempio dell'impiego di numeri casuali per la risoluzione di integrali indefiniti si trova nel libro “Essai d'aritmétique morale”, scritto nel 1777 da Georges-Luis Leclerc, conte di Buffon. La prima applicazione sistematica del metodo Monte Carlo è però avvenuta solo nella prima metà degli anni ’40 a Los Alamos, ad opera dell'equipe di scienziati guidata da Enrico Fermi43, che sviluppò la prima reazione nucleare auto-alimentata (Chicago Pile- 42 L’Organizzazione Europea per la Ricerca Nucleare, comunemente conosciuta con l’acronimo CERN, è il più grande laboratorio al mondo di fisica delle particelle. Si trova al confine tra Svizzera e Francia alla periferia ovest della città di Ginevra nel comune di Meyrin. La convenzione che istituì il CERN fu firmata il 29 settembre 1954 da dodici stati membri, oggi ne fanno parte venti più alcuni osservatori, compresi stati extraeuropei. Lo scopo principale del CERN è quello di fornire ai ricercatori gli strumenti necessari per la ricerca in fisica delle alte energie. Questi sono principalmente gli acceleratori di particelle, che portano nuclei atomici e particelle subnucleari ad energie molto elevate, e i rivelatori che permettono di osservare i prodotti delle collisioni tra fasci di queste particelle. Ad energie sufficientemente elevate, i prodotti di queste reazioni possono essere radicalmente differenti dai costituenti originali dei fasci, e a più riprese sono state prodotte e scoperte in questa maniera particelle fino a quel momento ignote. 43 Enrico Fermi (Roma 1901 – Chicago 1954) è stato un fisico italiano tra i più noti al mondo principalmente per i suoi studi e contributi teorici e sperimentali nell’ambito della meccanica quantistica e più in generale nella fisica nucleare. La sua attività si è manifestata in molti campi della fisica e tra i suoi maggiori contributi si possono citare la sua teoria del decadimento , la statistica quantistica di Fermi-Dirac e i risultati concernenti le interazioni nucleari. Nel 1938 ricevette il Premio Nobel per la fisica, per la sua identificazione di nuovi elementi della radioattività e la scoperta delle reazioni nucleari mediante neutroni lenti. 46 3. Strumenti e procedure di simulazione 144). In particolare venivano studiate le reazioni del nucleo dell'atomo colpito da una particella veloce: in questa situazione il nucleo si frantuma in molte particelle, che vanno a colpire i nuclei di altri atomi vicini che a loro volta, in qualche caso, si frantumano con una reazione a catena. Il problema che il gruppo di fisici voleva risolvere consisteva nel chiedersi se tale processo sarebbe durato fino a coinvolgere l'intero universo o si sarebbe arrestato dopo un certo numero di reazioni. Quest'ultima possibilità fu quanto emerse dalle simulazioni. Sempre degli anni ‘40 è la nascita del termine “Monte Carlo”, che fa riferimento alla città del principato di Monaco, famosa per il suo casinò, e più precisamente alla roulette, uno dei mezzi meccanici più semplici per generare delle variabili aleatorie. La paternità del nome va in particolare attribuita ai matematici J. Von Neumann e S. Ulam, membri del gruppo di lavoro di Los Alamos, che lo adottarono come nome in codice delle loro ricerche segrete. Dopo gli anni ‘50, con l'utilizzo dei calcolatori, questo metodo è diventato uno strumento indispensabile per la ricerca scientifica, non solo perché i calcolatori permettono la rapida esecuzione dei lunghi calcoli che sono spesso necessari per ottenere un risultato significativo, ma anche per la facilità con cui possono generare numeri casuali. I dati raccolti attraverso le simulazioni, trattati con opportuni metodi statistici, forniscono stime che diventano tanto più attendibili quanto maggiore è il numero di prove fatte. La generazione di numeri casuali riveste notevole importanza: l'unico modo in cui si può ottenere una sequenza di numeri casuali che, per definizione, non è prevedibile quindi neppure riproducibile, è quello di usare un processo stocastico quale l'estrazione di numeri per mezzo di una roulette, il decadimento radioattivo di nuclei instabili o il rumore termico di un'apparecchiatura elettronica. Tali sequenze possono poi essere raccolte in tabelle che hanno però lo svantaggio di occupare, nella memoria del calcolatore utilizzato, una grande area destinata unicamente a contenere una sequenza abbastanza lunga da permettere anche l'analisi di sistemi molto complessi. L'impiego, invece, di un 44 Chicago Pile-1 (CP-1) è stato il primo reattore artificiale a fissione nucleare al mondo. Fu costruito come parte del Progetto Manhattan dal laboratorio metallurgico dell'Università di Chicago sotto le tribune dello stadio del campus della medesima università. Il reattore era composto da una pila di uranio e blocchi di grafite, i quali furono assemblati sotto la supervisione del fisico italiano Enrico Fermi, in collaborazione con Leó Szilárd, lo scopritore della reazione a catena. La prima dimostrazione si ebbe il 2 dicembre 1942, data nella quale prese avvio l’era dell’energia nucleare. 47 3. Strumenti e procedure di simulazione fenomeno fisico per generare direttamente i numeri casuali di volta in volta necessari per una simulazione non pone alcun problema in linea di principio, quando si è sicuri del buon funzionamento degli strumenti impiegati. Tale metodo è però stato scartato perché nella pratica è impossibile realizzare e collegare al calcolatore dei sistemi che siano abbastanza rapidi da non rallentare la velocità di esecuzione dei programmi, oltre a dover verificare la “qualità” dei numeri casuali, per evitare che impreviste anomalie delle apparecchiature impiegate alterino le caratteristiche delle sequenze prodotte. Per eliminare tutte queste difficoltà si fanno generare i numeri casuali direttamente al calcolatore, attraverso appositi algoritmi matematici. Il calcolatore genera, così, valori di variabili che possono essere considerate aleatorie, con densità uniforme nell’intervallo [0,1]: le sequenze ricavate vengono dette “pseudocasuali” in quanto, al contrario di quelle “veramente casuali”, esse sono assolutamente prevedibili e possono essere riprodotte in modo identico quante volte si vuole. I numeri psuedocasuali hanno comunque le stesse proprietà dei numeri casuali cioè, se sottoposti a verifica, risultano indistinguibili da essi. Gli algoritmi che generano numeri pseudocasuali vanno inizializzati con uno o più numeri interi detti semi (seeds): se i semi non vengono cambiati ad ogni nuova prova del programma, i risultati, pur casuali, saranno sempre gli stessi; con gli stessi semi si genererà sempre lo stesso campione [35]. Nel caso di simulazioni condotte su rivelatori, sequenze di numeri pseudocasuali sono utilizzate ad esempio per generare e seguire delle particelle, variando statisticamente, da un evento all'altro, alcuni parametri (il vertice e la direzione di emissione della particella, l'energia della stessa, le fluttuazioni statistiche nella perdita di energia, l'angolo per lo scattering multiplo, ecc.), in modo da riprodurre il più fedelmente possibile una situazione reale. Una delle applicazioni più interessanti del metodo MC è la determinazione di distribuzioni statistiche comunque complicate. In generale, lo studio delle distribuzioni di variabili aleatorie, funzioni di altre variabili aleatorie, richiede tecniche matematiche molto laboriose, tanto che la soluzione analitica risulta molto complessa o addirittura non calcolabile. Il metodo Monte Carlo ha rivoluzionato questo ramo della statistica applicata, in quanto consente di ottenere, con procedure “elementari”, la soluzione richiesta, anche se nella 48 3. Strumenti e procedure di simulazione forma approssimata di istogrammi e non nella forma analitica corretta. Dall'istogramma simulato si possono poi estrarre i parametri che servono, come media, varianza, area delle code, con errore statistico trascurabile rispetto al problema che si sta trattando. Si può anche eseguire il best fit (cioè la migliore interpolazione) dell'istogramma utilizzando funzioni empiriche come esponenziali, polinomiali, somme di gaussiane, ottenendo così una forma analitica, indipendente dal passo dell'istogramma, che interpola la soluzione vera con il grado di accuratezza desiderato. GEANT4 è un applicativo che, sfruttando il metodo Monte Carlo e la generazione pseudocasuale a partire da distribuzioni predefinite, come la gaussiana, la poissoniana o la distribuzione uniforme, è in grado di restituire e rendere utilizzabili tutte le informazioni che possono servire all'utente, per ciascun evento generato, al fine di studiare un determinato sistema fisico, di cui sono noti i materiali di cui è costituito e la sua geometria. GEANT4 raccoglie i risultati in appositi archivi di informazioni strutturate e li rende disponibili per la successiva analisi; le informazioni, infatti, possono essere rappresentate attraverso degli istogrammi, che, come detto, sono le soluzioni, approssimate, del problema esaminato col Monte Carlo e costituiscono il punto di partenza per una successiva indagine statistica. Nel caso in esame, attraverso GEANT4 e con generazioni pseudocasuali, sono stati generati i raggi cosmici che provengono da diverse direzioni e punti dello spazio, con quantità di moto distribuita in accordo con dati sperimentali ed anch'essa attribuita in modo pseudocasuale. Avendo imposto nel codice quali fossero le informazioni da salvare nell'archivio, dalla lettura di quest'ultimo sono stati costruiti istogrammi relativi alla quantità di moto posseduta da ciascun cosmico generato, all'energia persa da ciascun cosmico durante l'attraversamento dei rivelatori, ma soprattutto istogrammi in cui è rappresentata la distribuzione delle variabili statistiche Carlo, per ciascun evento simulato. e e , calcolate grazie al Monte sono, per il singolo cosmico, come anticipato nel Paragrafo 3.1, gli scarti fra il punto misurato sul rivelatore intermedio e l'intersezione fra la retta che congiunge i punti in cui il cosmico intercetta i rivelatori superiore ed inferiore ed il piano di rivelazione del rivelatore intermedio. 49 3. 3.3. Strumenti e procedure di simulazione Simulazione della geometria e tracciamento dei cosmici Come precedentemente riportato, GEANT4 consente di simulare il passaggio di particelle attraverso la materia, ed in particolare attraverso strutture, la cui geometria ed i materiali di cui sono costituite possono essere definite dall'utente. Una geometria simulata, in GEANT4, è costituita da un certo numero di volumi con differenti forme geometriche, contenuti gli uni negli altri oppure intersecati per generare forme geometriche più complesse. Il più grande di questi volumi è chiamato World Volume (Volume Mondo) e contiene tutti gli altri volumi che servono per descrivere la geometria del sistema in esame. Ciascun volume è creato descrivendo la sua forma, le sue caratteristiche fisiche e posizionandolo all'interno del volume che lo contiene. Per descrivere la forma geometrica di un volume, GEANT4 utilizza il concetto di solid volume (volume solido). Quest'ultimo è un solido che ha forma geometrica ben definita e dei valori specifici per ognuna delle dimensioni che lo caratterizzano. Per esempio un cilindro sarà definito da due parametri, il suo raggio e l'altezza, un parallelepipedo rettangolo sarà caratterizzato da tre parametri che sono le lunghezze dei tre lati. Un volume solido possiede delle proprietà fisiche: densità, lunghezza di radiazione, struttura atomica del materiale costituente, ecc. Queste proprietà vengono definite nel codice di simulazione tramite il concetto di logical volume (volume logico), che unisce la geometria del solido alle sue caratteristiche fisiche. L'ultimo passo per la completa definizione dei volumi è il loro posizionamento nello spazio simulato. Per fare ciò è necessario creare un physical volume (volume fisico), che dispone una copia del volume logico in una posizione definita all'interno del volume più grande che lo contiene. Secondo la notazione di GEANT4, un volume che contiene completamente altri volumi è “madre” per essi, che sono detti “figli”; ogni volume generato possiede un proprio SdR (Sistema di Riferimento) con origine coincidente col centro del volume stesso. Il SdR del volume madre è detto MRS (Mother Reference System) ed è rispetto ad esso che i “figli” sono posizionati all'interno della “madre”; in particolare, la trasformazione di un punto dal MRS ( rotazione ) al SdR dei figli ( ), a qualsiasi livello, è ottenuta utilizzando una matrice di ed un vettore di traslazione attraverso la relazione: 50 3. Strumenti e procedure di simulazione La descrizione di una struttura complessa in GEANT4 si può quindi ottenere con sistemi ad albero di volumi, accostati gli uni agli altri o intersecanti sullo stesso livello gerarchico, oppure contenuti completamente gli uni negli altri a diversi livelli. Esiste inoltre la possibilità di frazionare i volumi in modo regolare per generarne delle parti individuali, oppure di produrne molteplici copie in diverse posizioni spaziali. Questa descrizione risulta estremamente flessibile, facile da implementare, e consente la rappresentazione di strutture di estrema complessità, costituite da migliaia di volumi di cui possono essere composti i grandi apparati sperimentali della fisica delle alte energie. Le componenti di sono le proiezioni, sugli assi del MRS, del vettore che congiunge l'origine del MRS stesso con quella del SdR del volume figlio; le componenti di sono le coordinate angolari sferiche di ciascuno degli assi del SdR figlio rispetto al proprio MRS. Nel caso in esame, la geometria è stata disegnata partendo dalla definizione del Volume Mondo mediante un parallelepipedo rettangolo di aria di dimensioni rispettivamente lungo gli assi , e . Il suo sistema di riferimento MARS (MAster Reference System) ha origine coincidente con il centro del parallelepipedo stesso, gli assi e sono ortogonali fra loro e appartengono al piano orizzontale, mentre l'asse , perpendicolare a tale piano, è rivolto verso l'alto ed individua la direzione verticale. Al di fuori del Volume Mondo le particelle non vengono tracciate e vengono completamente arrestate sul suo bordo. La geometria delle varie parti che compongono la configurazione analizzata (Figura 3.1 e Figura 3.2) è stata ottenuta come somma o differenza di volumi. In Tabella 3.1 sono riportate le principali caratteristiche dei volumi definiti all’interno del codice, in particolare le dimensioni, il rapporto di dipendenza tra volumi ed il posizionamento di ciascun volume figlio rispetto al proprio volume madre. All’interno del Volume Mondo sono stati definiti tre volumi principali: il bacino di acqua, il suolo e la diga in calcestruzzo. Al fine dell’analisi riveste poca importanza la presenza dei primi due in quanto i rivelatori sono interamente contenuti nella diga e a sufficienti distanze dal bacino e dal suolo da non poter essere influenzati, tuttavia la presenza di questi due volumi facilita la visualizzazione dell’intera geometria. 51 3. Strumenti e procedure di simulazione 52 3. Strumenti e procedure di simulazione 53 3. Strumenti e procedure di simulazione Figura 3.2 : Disegno quotato della configurazione geometrica analizzata. In particolare sono stati messi in evidenza nei tre dettagli i rivelatori che compongono il telescopio di misura. La diga è stata semplicisticamente rappresentata come un prisma retto a base trapezoidale che si sviluppa lungo l’asse per una lunghezza di . Il trapezio di base è rettangolo, in quanto il paramento di monte è verticale, ha un’altezza di anche quella della diga, e le basi di e , la quale è , rispettivamente la larghezza della muratura alla base e al coronamento. Sebbene il metodo di misura basato sui raggi cosmici funzioni anche quando i rivelatori non si vedono direttamente l’uno rispetto all’altro45, è utile, al fine di ottenere misure 45 I raggi cosmici sono adatti per essere utilizzati in campagne di misura nelle quali i rivelatori non sono facilmente visibili gli uni rispetto agli altri. Questo perché i muoni, frazione più abbondante dei cosmici che raggiungono la superficie terrestre, sono le più penetranti fra le diverse particelle elementari, dato che non risentono dell’interazione forte nucleare, ma solo delle interazioni elettromagnetica e debole; per questo possono penetrare notevoli spessori di materiale. 54 3. Strumenti e procedure di simulazione precise in un tempo il più breve possibile, che il materiale interposto tra loro sia il minimo possibile. In strutture di piccole dimensioni si potrebbe ammettere spessori di materia interposti dell’ordine delle centinaia di millimetri [2, 3], tuttavia in una struttura come quella analizzata gli spessori da attraversare sarebbero più grandi di due ordini di grandezza. Inserire i tre rivelatori in altrettante cavità orizzontali create appositamente e a diverse altezze nella diga non rappresenterebbe una configurazione realizzabile in quanto si otterrebbe un eccessivo allargamento della distribuzione degli scarti e dovuto allo scattering multiplo dei raggi cosmici all’interno del calcestruzzo, inoltre quest’ultimo bloccherebbe la parte di radiazione meno energetica riducendo quindi il numero di cosmici a disposizione. Si è perciò pensato di sfruttare le cavità verticali ricavate all’interno della struttura muraria nelle quali vengono alloggiati i pendoli dritti e rovesci, infatti, se la tecnica studiata dovesse risultare fattibile ed affidabile, potrebbe rappresentare una valida alternativa all’utilizzo dei pendoli nella rilevazione delle deformazioni. Queste cavità che si sviluppano lungo l’intera altezza della muratura hanno forma cilindrica e solitamente un diametro dell’ordine di studio prenderemo come riferimento il valore più restrittivo, cioè . In questo . A partire dalla sommità e per l’intera altezza è stato quindi creato all’interno del volume della diga un volume cilindrico di aria con il diametro di . È stato necessario imporre un diametro leggermente maggiore per poter simulare spostamenti dell’ordine del millimetro del rivelatore intermedio, nel caso in cui venga analizzato il comportamento del sistema di misura quando la diga è deformata. I tre rivelatori di raggi cosmici sono infatti creati all’interno del volume cilindrico di aria, quindi il cilindro deve avere dimensioni tali da contenerli in qualsiasi configurazione essi si trovino. Questo è un semplice seppure efficace escamotage per evitare di dover rappresentare la diga e il cilindro di aria con dei volume deformati. Durante l’analisi si è reso necessario definire all’interno del volume della diga un volume sensibile di calcestruzzo a forma di tubo con diametro interno di esterno di , diametro e lunghezza pari alla distanza tra il rivelatore superiore e quello inferiore. Questo tubo è stato posizionato in modo da rivestire la parete interna della diga che contiene il telescopio di misura. L’aver reso sensibile questo volume ha permesso di individuare i raggi cosmici che riescono ad attraversare tutti e tre i rivelatori a seguito di 55 3. Strumenti e procedure di simulazione fenomeni di scattering con la parete della diga. Come vedremo più in dettaglio nel Capitolo 4, questi particolari cosmici non sono graditi in quanto vanno ad inficiare le misure del telescopio di rivelatori, quindi si dovranno individuare dei parametri per riconoscerli e per escluderli dall’analisi. I rivelatori sono stati simulati costruendo un disco con spessore di e diametro di . Come si può intuire, quest’ultima dimensione è imposta dal dover installare gli stessi all’interno degli alloggiamenti dei pendoli e rappresenta un limite intrinseco della soluzione scelta per il posizionamento dei sensori. Si potrebbe pensare di poter installare rivelatori di dimensioni maggiori, in dighe a gravità massiccia, all’esterno della muratura, lungo il paramento di monte o quello di valle. In entrambi i casi vi sarebbero problemi pratici di non facile risoluzione. Nel primo caso l’intero sistema di misura, o una buona parte, si troverebbe sommerso e quindi si dovrebbe garantire il perfetto isolamento dall’acqua della circuiteria elettrica ed elettronica; inoltre tra i rivelatori si troverebbe interposta acqua e non più aria, quindi una sostanza in grado di ostacolare e deviare maggiormente il passaggio dei cosmici. Nel secondo caso, invece, la pendenza del paramento di valle renderebbe necessario vincolare i rivelatori, soprattutto il superiore e l’intermedio, a strutture a sbalzo di notevoli dimensioni per poter averli sulla medesima verticale, quindi sarebbe difficilmente garantito il corretto posizionamento degli stessi a causa degli agenti atmosferici come neve e vento. Per la rivelazione dei raggi cosmici è stato scelto un particolare tipo di rivelatore a gas che utilizza due fogli GEM (Gas Electron Multiplayer – Moltiplicatore a gas di elettroni). La configurazione base di un rivelatore a gas prevede due elettrodi (l’anodo e il catodo) mantenuti ad una certa differenza di potenziale ed un gas facilmente ionizzabile posto tra essi. Questi dispositivi sono stati tra i primi ad essere utilizzati per la rivelazione di particelle negli esperimenti di fisica delle alte energie. Principalmente sfruttano l’amplificazione della ionizzazione46 prodotta dal passaggio di una radiazione o di una 46 Quando una particella penetra nel rivelatore si formano delle coppie ione-elettrone; in modo diretto se si tratta di una particella carica, in modo indiretto, attraverso reazione secondarie, se la particella incidente è neutra. Il numero medio di coppie risulta proporzionale all’energia depositata nel dispositivo e sotto l’azione del campo elettrico gli elettroni vengono accelerati verso l’anodo mentre gli ioni verso il catodo. Se la differenza di potenziale imposta tra questi due elettrodi è sufficiente, gli elettroni liberatisi (elettroni primari) acquistano abbastanza energia cinetica da ionizzare gli atomi del gas. Si generano quindi nuovi elettroni liberi (elettroni secondari) il cui effetto è un’ulteriore ionizzazione delle molecole del gas e così via, producendo di conseguenza una moltiplicazione a valanga di ioni e elettroni. Il numero di coppie ione- 56 3. Strumenti e procedure di simulazione particella nel gas per ottenere un segnale che viene poi analizzato dall’elettronica di lettura [36]. In anni recenti è stata sviluppata la tecnologia GEM, grazie alla quale si sono ottenuti rivelatori a gas con guadagni di amplificazione e risoluzioni spaziali maggiori. Un GEM (Figura 3.3 [37]) consiste in un sottile foglio di Kapton®47 di spessore di rivestito su entrambe le facce con lamine di rame sottili di fori ad alta densità ( , che presenta una matrice ). Questi fori costituiscono la parte attiva del GEM, infatti, con una differenza di potenziale imposta alle due lamine di rame, agiscono come canali di moltiplicazione elettronica [38]. Figura 3.3 : Immagine di un GEM ottenuta con il microscopio elettronico. Si noti la scala in basso a sinistra di . 48 Ciascun foro è caratterizzato da una struttura biconica, realizzata con tecnologia fotolitografica a doppia maschera . Il diametro maggiore del tronco di cono, che misura , è sulla superficie esterna del GEM, mentre il diametro minore, di 55 , appartiene al piano intermedio del moltiplicatore a gas di elettroni. La distanza tra i fori è di . elettrone che deriva dalla moltiplicazione a valanga è direttamente proporzionale al numero di elettroni prodotti durante la ionizzazione primaria. La corrente in uscita risulta amplificata di un fattore che dipende dalla differenza di potenziale imposta fra anodo e catodo e che può essere anche molto elevato, dell'ordine di . 47 Il Kapton® (marchio registrato DuPont) è un film poli-immidico con eccellenti proprietà fisiche, chimiche ed elettriche lungo un ampio intervallo di temperature (da -269 °C a +400 °C). 48 Il substrato viene ricoperto con una resina fotosensibile ed esposto a luce UV attraverso una maschera positiva che riproduce i fori del foglio del GEM. Dopo l'esposizione, la parte di resina fotosensibile impressionata viene rimossa con una soluzione alcalina. Il rame ed il Kapton® rimasti scoperti vengono rimossi con un bagno in un acido. 57 3. Strumenti e procedure di simulazione È possibile realizzare rivelatori ad uno, due o tre fogli GEM. I rivelatori inseriti nelle simulazioni condotte in questa tesi sono a due fogli GEM. In Figura 3.4 è possibile vedere schematicamente la struttura interna di uno di questi rivelatori mentre in Figura 3.5 è stata riportata la sua geometria simulata così come viene rappresentata dall’interfaccia grafica di GEANT4. Come è stato detto, ogni rivelatore è stato simulato mediante un disco di spessore e diametro . Al suo interno sono stati creati dei volumi, anch’essi a forma di disco, che ne rappresentano le varie parti: i fogli GEM, le camere contenenti il gas e le strutture di sostegno. Questi volumi hanno un diametro di , minore rispetto a quello del rivelatore, infatti la parte più esterna dello stesso ha unicamente una funzioni di contenimento. D’ora in avanti si farà riferimento al rivelatore come ad un disco di di diametro, in quanto questa è la dimensione della parte attiva del dispositivo, cioè la parte sensibile al passaggi dei raggi cosmici. Nelle simulazioni eseguite si è imposta per la generazione dei raggi cosmici una superficie circolare con diametro di e posta sulla faccia superiore del rivelatore superiore. GEANT4 permette quindi il tracciamento dei cosmici, a partire da quando questi intercettano il rivelatore superiore, con quantità di moto ed angolo di incidenza rispetto alla verticale estratti dalle rispettive distribuzioni. Il tracciamento prosegue quando il cosmico generato si trova ad attraversare spessori di diverso materiale. GEANT4, infatti, tiene conto sia degli effetti fisici di perdita di energia con fluttuazione, dovuta principalmente alle collisioni con gli elettroni del mezzo, sia della diffusione multipla, che provoca deviazioni della traiettoria e costituisce, come già detto, uno dei fenomeni più rilevanti al fine di valutare la precisione con cui si può misurare un eventuale deformazione della struttura. L'effetto della diffusione multipla, come descritto nel Paragrafo 2.3.4, è proporzionale alla carica del nucleo del materiale attraversato, tramite la lunghezza di radiazione, ed è inversamente proporzionale alla quantità di moto del muone. Il tracciamento dei cosmici tiene conto anche delle altre cause responsabili di deviazioni di traiettoria, quali fenomeni di interazione elettromagnetica e dell'eventuale decadimento del muone, essendo questo una particella instabile. 58 3. Strumenti e procedure di simulazione Figura 3.4 : Rappresentazione schematica di un rivelatore a due GEM. All’interno del rivelatore sono presenti tre campi elettrici: tra il catodo ed il GEM 1 il campo elettrico è detto di deriva, tra i due GEM è detto di trasferimento e tra il GEM 2 e il PCB (il Printed Circuit Board è un circuito stampato che funge da elettrodo di raccolta del segnale) è detto di induzione. Grazie a questi campi gli elettroni delle ionizzazioni vengono accelerati e si hanno successive moltiplicazioni a valanga. Figura 3.5 : Geometria simulata della struttura dei rivelatori di raggi cosmici così come viene rappresentata dall’interfaccia grafica di GEANT4. 59 3. Strumenti e procedure di simulazione Come si vedrà più in dettaglio nel Capitolo 4, i cosmici che attraversano tutti e tre i rivelatori del telescopio di misura costituiscono una piccola porzione, circa lo , del totale di particelle generate, che provengono da ogni direzione dell'emisfero che ha per base la superficie di generazione definita sul rivelatore superiore. Tale direzione, così come la quantità di moto dei cosmici, sono variabili casuali appartenenti a particolari distribuzioni. Anche i processi fisici subiti da ciascuna particella quando attraversa un certo materiale sono di tipo stocastico, legati quindi a determinate leggi statistiche, e non deterministiche. Per poter riprodurre tutti questi fenomeni, GEANT4 utilizza, all'interno della procedura di simulazione, secondo il metodo Monte Carlo, un generatore di numeri pseudocasuali, che consente di estrarre casualmente, secondo le distribuzioni note, le occorrenze delle diverse variabili statistiche coinvolte. In questo modo l'applicativo è in grado di tracciare le particelle all'interno del Volume Mondo (Figura 3.6). Il tracciamento procede per passi successivi, opportunamente calcolati dal programma, per tenere conto dell'attraversamento delle superfici di confine fra volumi e delle diverse interazioni fisiche che avvengono all'interno dei vari materiali. Quando il volume attraversato è definito sensibile, il programma registra, in apposite locazioni, le coordinate del punto di attraversamento (hit). Nella geometria analizzata sono stati definiti sensibili la camera di trasferimento dei rivelatori e il tubo di calcestruzzo che contiene il telescopio di misura. Nel caso della camera di trasferimento, le coordinate del punto di attraversamento, alle quali può essere applicata un’opportuna fluttuazione in modo da simulare l'effetto della precisione spaziale propria del rivelatore, saranno considerate come la misura del punto di passaggio del cosmico nel rivelatore stesso. I rivelatori simulati sono in grado di rendere disponibili tutte e tre le coordinate spaziali del punto in cui la particella è entrata nel volume. Nel caso studiato, per rendere la simulazione più verosimile al comportamento dei rivelatori reali, i rivelatori inseriti nel codice misurano le coordinate e nel piano orizzontale, mentre la coordinata è fissata convenzionalmente sul piano mediano di ciascun rivelatore. Ciò non comporta effetti rilevanti sui risultati, considerato il fatto che la direzione dei cosmici che attraversano i tre rivelatori è molto prossima alla verticale. 60 3. Strumenti e procedure di simulazione 61 3. 3.4. Strumenti e procedure di simulazione Descrizione del generatore di cosmici Nel Paragrafo 2.2.3, oltre ad aver specificato che la maggior parte dei raggi cosmici che arrivano alla superficie terrestre è composta da muoni sia di carica positiva ( negativa ( ) sia ), si è precisato che i raggi cosmici sono caratterizzati da una certa distribuzione di quantità di moto e di angolo di arrivo rispetto alla verticale, inoltre si è sottolineato che le due grandezze sono fra loro correlate. In particolare si è visto che: la distribuzione della quantità di moto è quasi piatta al di sotto di l’andamento di per impulsi superiori a ed ha (Figura 2.7 [21]); i raggi cosmici arrivano da tutte le direzioni (sono isotropi), ma il flusso è maggiore allo zenit ed ha una distribuzione angolare che varia approssimativamente come , dove è l’angolo rispetto alla verticale; l’integrale dell’intensità di muoni verticali con quantità di moto superiore a , al livello del mare, è . Nel caso di superfici orizzontali, l’intensità di muoni al suolo è di circa [14]. Il generatore di cosmici che è stato inserito nel codice di simulazione riproduce con sufficiente approssimazione tali caratteristiche. Per quanto riguarda il rapporto , peraltro irrilevante ai fini del presente studio, e per la funzione di distribuzione della quantità di moto, il generatore utilizza i dati sperimentali contenuti nella pubblicazione del lavoro relativo allo sviluppo del rivelatore ADAMO49 [39], che coprono l'intervallo di quantità di moto compreso fra 0.2 rapporto e , e dai quali si ricava il in funzione della quantità di moto del cosmico, la cui curva sperimentale è rappresentata nel grafico di destra della Figura 3.7 [39]. In Tabella 3.2 [39] sono riportati i valori sperimentali di quantità di moto (fino al valore di ) inseriti nel codice di simulazione e che rappresentano la distribuzione dai cui attingere con la generazione casuale. Nel grafico di sinistra della Figura 3.7, il quale rappresenta lo spettro dei cosmici che raggiungono la superficie terrestre, è mostrata la distribuzione di tali valori. 49 ADAMO è uno spettrometro magnetico che è stato sviluppato al fine di garantire una misura precisa dello spettro, rilevato al suolo, delle principali particelle cariche presenti nelle air showers (muoni, protoni ed elettroni) e generate dall’interazione dei raggi cosmici primari con l’atmosfera terrestre. ADAMO è stato presentato per la prima volta alla ventottesima Conferenza Internazionale sui Raggi Cosmici (ICRC International Cosmic Ray Conference), tenuta a Tsukuba in Giappone nel 2003. 62 3. Strumenti e procedure di simulazione Figura 3.7 : Nel grafico di sinistra è presente la distribuzione dei dati sperimentali, ottenuti dalle campagne di misura condotte con il rivelatore ADAMO, che rappresenta lo spettro di muoni carichi ( , ) al livello del mare. Il flusso, in ordinata, è moltiplicato per dove è la quantità di moto. Nel grafico di destra è rappresentata la curva dei valori ottenuti dalle medesime campagne di misura del rapporto in funzione della quantità di moto dei muoni. Intervallo di Quantità di quantità di moto moto media Flusso misurato [GeV/c] [GeV/c] 0.2 - 0.3 0.3 - 0.4 0.40 - 0.55 0.55 - 0.70 0.25 0.35 0.47 0.62 (1.2±0.1) x 10 (1.70±0.08) x 10 (2.03±0.06) x 10 (2.12±0.06) x 10 (1.7±0.09) x 10 (1.52±0.07) x 10 (1.79±0.05) x 10 (1.86±0.05) x 10 0.70 - 0.85 0.85 - 1.0 1.0 - 1.2 1.2 - 1.4 1.4 - 1.6 1.6 - 2.1 2.1 - 2.94 2.94 - 4.12 4.12 - 5.5 5.5 - 7.0 0.78 0.92 1.1 1.3 1.5 1.84 2.49 3.49 4.78 6.21 (2.04±0.05) x 10 (1.92±0.05) x 10 (1.77±0.04) x 10 (1.55±0.1) x 10 13.9±0.3 7.0±0.9 4.8±0.1 2.94±0.06 1.78±0.04 (1.76±0.05) x 10 (1.64±0.04) x 10 (1.48±0.03) x 10 (1.28±0.03) x 10 11.40±0.26 9.2±0.19 5.7±0.7 3.86±0.08 2.31±0.05 1.37±0.03 7.0 - 10.0 10.0 - 15.5 15.5 - 23.0 23.0 - 31.1 31.1 - 43.6 43.6 - 61.1 61.1 - 85.6 85.6 - 120.0 8.37 12.42 18.85 26.68 36.69 51.47 72.08 100.96 (10.2±0.2) x 10-1 (4.14±0.09) x 10-1 (1.54±0.04) x 10-1 (6.4±0.2) x 10-2 (2.8±0.1) x 10-2 (10.2±0.5) x 10-3 (4.2±0.3) x 10-3 (1.5±0.1) x 10-3 (7.8±0.2) x 10-1 (3.20±0.07) x 10-1 (1.16±0.03) x 10-1 (4.5±0.2) x 10-2 (2.03±0.08) x 10-2 (7.7±0.4) x 10-3 (3.2±0.2) x 10-3 (1.1±0.1) x 10-3 Tabella 3.2 : Flusso a livello del mare di muoni sia positivi sia negativi, misurato sperimentalmente. Sono stati riportati i valori fino a , in quanto i muoni con quantità di moto maggiore rappresentano una piccola parte. 63 3. Strumenti e procedure di simulazione Per quanto riguarda invece la distribuzione angolare rispetto alla verticale, il generatore riproduce l'angolo di arrivo fino ad un angolo massimo di rispetto alla verticale, oltre il quale il numero dei cosmici si riduce notevolmente. I cosmici con angoli superiori a non sarebbero comunque utili alla tecnica di monitoraggio in quanto non riuscirebbero a intercettare tutti e tre i rivelatori. Il piano di generazione, parallelo al piano , è stato scelto coincidente con la superficie superiore del rivelatore superiore; su tale piano è stato individuato in modo casuale un punto all'interno di una superficie circolare di diametro le coordinate e , assumendo che avessero distribuzioni uniformi tra loro indipendenti. A ciascun punto generato sono stati associati un angolo azimutale , nel piano orizzontale , ed un angolo di zenit , rispetto all'asse verticale , necessari per il calcolo dei coseni direttori che definiscono la direzione iniziale di ciascun cosmico. Il punto di generazione, l'angolo azimutale e l'angolo rispetto alla verticale sono mostrati in Figura 3.8 [2]. L'angolo azimutale è distribuito con probabilità uniforme fra di cosmici è stato generato in modo casuale, tra e e . Nel generatore secondo la distribuzione uniforme: Facendo riferimento alla Figura 3.9 [2], è possibile calcolare l'angolo solido dall'area infinitesima a partire , definita dagli angoli azimutale e di zenit: da cui deriva la definizione di angolo solido, infinitesimo, : La distribuzione angolare di incidenza rispetto alla verticale, per energie dei cosmici , che è il valore medio della distribuzione di quantità di moto dei cosmici stessi, e per angoli di zenit dove , può essere espressa nel seguente modo [14]: è la proiezione, sul piano , dell'angolo solido definito nell’Eq.3.4. 64 3. Strumenti e procedure di simulazione Figura 3.8 : Visualizzazione delle coordinate generate per determinare il punto generico da cui far partire il muone e l’angolo della sua direzione rispetto alla verticale. è l’angolo azimutale, mentre è l’angolo di zenit. Figura 3.9 : La figura mostra l’area infinitesima definita dall’angolo azimutale , nel piano , e da quelli di zenit , rispetto alla verticale, quando il cosmico viene generato da una distanza dal piano di rivelazione. 65 3. Strumenti e procedure di simulazione Dall'Eq. 3.5 e dall'Eq. 3.2 si può facilmente ricavare che l'angolo di zenit , per raggi cosmici incidenti su un piano orizzontale a livello del mare, è distribuito nel seguente modo: Nel generatore, l'angolo di zenit viene generato secondo tale distribuzione. Estrapolando l'Eq. 3.6 per angoli , si deduce che la percentuale dei cosmici che giungono al suolo con angolo rispetto alla verticale maggiore di nella generazione, è circa lo , e che quindi vengono trascurati del totale, cioè un numero estremamente piccolo che non introduce errori rilevanti nella valutazione dei tempi di presa dati. Infatti, integrando l'Eq. 3.6 fra due angoli qualsiasi Ponendo , da cui Il numero totale l'Eq. 3.6 tra e Il coseno di e , si ottiene: , si può scrivere: di cosmici che arrivano al livello del mare si ottiene integrando e , a cui corrispondono, come limiti di integrazione nella 3.7, , da cui: è , quindi il numero di cosmici che giungono al suolo e che vengono trascurati dalla generazione, perché aventi angolo di arrivo rispetto alla verticale maggiore di è il seguente: da cui si può ricavare la percentuale di cosmici che giungono al suolo, ma che vengono trascurati dalla generazione: 66 3. Strumenti e procedure di simulazione Nel generatore di cosmici, dopo avere generato il punto di moto e degli angoli e , il valore della quantità secondo le distribuzioni sopra definite, vengono calcolati i coseni direttori della direzione del cosmico rispetto agli assi , e che vengono trasferiti, assieme al valore dell'impulso, al programma di simulazione Monte Carlo per il successivo tracciamento. Attraverso il generatore di cosmici inserito nel codice sono stati generati un milione di eventi e gli istogrammi e le distribuzioni ottenuti sono raccolte nelle figure dalla 3.10 alla 3.13. In particolare, l'istogramma di Figura 3.10 è l'analogo della curva sperimentale ricavata dalle misure del rivelatore ADAMO. In Figura 3.11 è mostrato l'istogramma dell'angolo azimutale: un qualsiasi angolo in un intervallo di ampiezza , giacente nel piano , risulta equiprobabile . In Figura 3.12 è rappresentato l'istogramma dell'angolo con cui i cosmici sono generati rispetto alla verticale; infine, da Figura 3.13 è evidente che il generatore simulato rispetta la legge espressa dall'Eq. 3.5, secondo cui il flusso di cosmici attraverso la proiezione dell'angolo solido nel piano orizzontale direttamente proporzionale a , dove è l'angolo rispetto alla verticale. Dopo la loro generazione, le informazioni possono essere salvate in un formato di secondo livello: tutte i parametri utili e necessari allo studio oggetto della presente tesi sono stati quindi salvati in un file utilizzando un particolare programma di analisi dei dati chiamato ROOT, descritto in dettaglio nel prossimo paragrafo. Figura 3.10 : L’istogramma in scala bilogaritmica della quantità di moto generata è stato realizzato estrapolando in modo casuale un milione di valori da una distribuzione ottenuta interpolando i dati sperimentali di [39], nell’intervallo compreso tra e . 67 3. Strumenti e procedure di simulazione Figura 3.11 : L’angolo azimutale è distribuito in modo uniforme, cioè ad ogni muone generato in un qualsiasi punto del piano di generazione può essere associato, con equiprobabilità, un qualsiasi angolo compreso in un intervallo di ampiezza ( ). Figura 3.12 : Istogramma dell'angolo di zenit inserito nel generatore di cosmici. Nel sistema simulato la direzione delle positive è verso l’alto, tuttavia si sono considerati gli angoli positivi rispetto alla direzione negativa dell’asse . 68 3. Strumenti e procedure di simulazione Figura 3.13 : La distribuzione angolare di incidenza mostrata è valida se e l’energia media dei muoni ; in tal caso è valida l’Eq. 3.5. In questo grafico si nota che la parte iniziale della curva (corrispondente ad angoli compresi nell’intervallo ) è nulla, infatti per angoli i muoni non vengono tracciati. 3.5. ROOT ROOT è un framework per l’analisi di dati, cioè è un potente pacchetto software orientato ad oggetti, che sostanzialmente offre un ambiente di lavoro nel quale muoversi per studiare dati raccolti [40]. E’ stato sviluppato dal CERN per sostituire i precedenti pacchetti (tra i quali PAW - Physics Analysis Workstation - e CERNLIB); il progetto fu avviato autonomamente da René Brun nel 1994 e tuttora vede impegnati moltissimi studiosi di tutto il mondo. ROOT è scritto in C++, e rilasciato sotto licenza LGPL. I pacchetti forniti da ROOT includono funzionalità, tra le quali: visualizzazione, analisi di distribuzioni e funzioni tramite istogrammi e grafici; fitting e minimizzazione di funzioni; strumenti statistici per l'analisi dei dati; algebra matriciale; supporto di quadrivettori, utilizzati nella fisica delle alte energie; supporto di funzioni matematiche standard; analisi dei dati multivariata, per esempio usando reti neurali; manipolazione di immagini, usata per esempio per analizzare figure astronomiche; accesso ai dati distribuiti (nel contesto di Grid); calcolo distribuito, per analizzare dati in parallelo; 69 3. Strumenti e procedure di simulazione persistenza e serializzazione degli oggetti, i quali possono far fronte ai cambiamenti nelle definizioni delle classi dei dati persistenti; accesso ai database; visualizzazione 3D; creazione di file in vari formati grafici, come PostScript, JPEG, SVG; interfacciamento con i linguaggi Python e Ruby in entrambe le direzioni; interfacciamento con generatori Monte Carlo. Una caratteristica chiave di ROOT è il contenitore di dati chiamato tree (albero), con le sue sottostrutture branches (rami) e leaves (foglie). Questa struttura può essere vista come una finestra scorrevole di accesso ai dati grezzi, come quando sono memorizzati in un file. Questa tecnica evita problemi di allocazione della memoria concernenti la creazione di oggetti, e permette all'albero di comportarsi come un contenitore "leggero", mentre si maneggia il buffer in maniera trasparente. Studiando quindi le diverse foglie (cioè le variabili) di un determinato albero (contenitore di variabili) si riesce a giungere alle più svariate informazioni. La comodità sorprendente del software è quella di poter correlare in infiniti modi le diverse variabili per poter ottenere la visualizzazione dei dati che interessano al momento. Altra particolarità rivelatasi fondamentale nello studio è la possibilità di definizione dei cosiddetti “tagli”: in un singolo grafico è possibile infatti discriminare un numero finito di eventi, aventi una particolare caratteristica definita nel taglio. Negli istogrammi riportati nel Capitolo 4, sono stati definiti dei tagli per poter analizzare, ad esempio, soltanto i muoni aventi un determinato numero di hit, o i muoni che attraversano il telescopio di misura senza aver interagito con la struttura della diga, piuttosto che per poter studiare separatamente i muoni a basse energie rispetto a quelli ad alte energie. 3.6. Posizionamento dei rivelatori e procedura di calcolo degli scarti In questo paragrafo viene descritta la procedura adottata per provvedere al controllo ed alla misura del possibile disallineamento dei rivelatori, quindi della deformazione della diga nella quale tali sensori sono installati. Come già detto in premessa, questa procedura 70 3. Strumenti e procedure di simulazione è la più semplice ed è applicabile nel caso siano disponibili tre rivelatori. Nel caso siano disponibili quattro o più rivelatori attraversati degli stessi cosmici, la procedura matematica sarà più complessa, necessiterà di procedure di adattamento e minimizzazione e, nel caso, di processi ricorsivi, ma potrà consentire migliori prestazioni in termini di precisione e tempo di misura. Essa sarà comunque basata essenzialmente sugli stessi principi e fenomeni che caratterizzano la configurazione più semplice. Nella realtà i tre rivelatori dovrebbero essere posizionati solidalmente alla struttura muraria e contenuti nella cavità cilindrica che alloggia i pendoli dritti e rovesci. Come detto in precedenza, per studiare il comportamento del sistema di misura nel caso di deformazione della diga si dovrebbe rappresentare la stessa come un volume deformato, complicando quindi la definizione della geometria. Per evitare questo, si è pensato di simulare la condizione deformata della struttura spostando semplicemente i rivelatori e mantenendo sempre la medesima geometria della diga. Nel codice di calcolo quindi i rivelatori non sono vincolati alla muratura e possono essere spostati cambiando il vettore che ne definisce la posizione rispetto al loro volume madre, cioè rispetto il tubo di aria che li contiene. Nel caso analizzato, i tre rivelatori hanno le medesime dimensioni: sono dei dischi con spessore di e diametro della superficie attiva di . Quest’ultimo valore è in accordo con le dimensioni degli alloggiamenti dei pendoli, infatti queste cavità vengono solitamente realizzate con un diametro di . In Tabella 3.1 sono riportate le posizioni dei rivelatori rispetto al loro MRS (Mother Reference System, Paragrafo 3.3); in particolare i rivelatori inferiore, intermedio e superiore sono posti rispettivamente alle quote di , e si sviluppa per un’altezza di rispetto al centro della diga, quindi il telescopio di misura . E' necessario aggiungere alcune considerazioni relative alla precisione necessaria all'atto del primo posizionamento del sistema di rivelatori sulla struttura civile interessata. È importante infatti sottolineare che tale posizionamento può essere eseguito con precisioni meccaniche del tutto ordinarie e senza bisogno di particolari accorgimenti per garantire elevatissime precisioni relative. Inoltre, non è determinante, ai fini delle misure di disallineamento, che i sistemi di riferimento dei vari rivelatori siano considerati esattamente allineati in quanto le misure sono sempre di confronto fra una condizione 71 3. Strumenti e procedure di simulazione iniziale di riferimento misurata ed una condizione successiva da controllare. In questo processo di confronto, gli eventuali errori sistematici, causati da un disallineamento iniziale fra i rivelatori, possono essere largamente compensati. Inoltre è anche possibile prevedere una campagna di misure di calibrazione volta a determinare le posizioni reciproche iniziali dei rivelatori. In questa fase preliminare, possono essere valutate possibili traslazioni e rotazioni relative, mediante una raccolta sufficiente di cosmici. Tale situazione iniziale può essere inserita nel codice di analisi dati ed essere tenuta in considerazione durante le campagne di monitoraggio successive, dove una “deviazione”' rispetto alla situazione iniziale indicherà una deformazione della struttura in osservazione. In particolare, eventuali traslazioni relative possono essere esattamente compensate, senza l'utilizzo di particolari accorgimenti, dato che sono leggibili come spostamento della media della distribuzione dalla posizione presunta. Rotazioni reciproche dei rivelatori genererebbero invece un allargamento delle distribuzioni, tuttavia questo fenomeno sarebbe molto contenuto poiché un posizionamento ordinario può garantire precisioni sufficientemente elevate e gli errori di origine statistica, nelle distribuzioni, si sommano quadraticamente. In ogni caso è possibile, se considerato necessario, misurare e correggere, nella procedura di analisi, una eventuale rotazione iniziale fra i rivelatori, suddividendo il piano di rivelazione in sottoaree ed effettuando una raccolta dati iniziale estesa quanto basti per poter ottenere statistica sufficiente per ciascun gruppo di cosmici, raccolto nelle diverse sottoaree dei rivelatori; la campagna di calibrazione, per correggere eventuali rotazioni, risulta quindi più lunga rispetto a quella necessaria per considerare solo le traslazioni, perché vi deve essere statistica sufficiente in ogni sottoarea. Confrontando fra loro i risultati relativi ai diversi gruppi di cosmici, i disallineamenti di traslazione e rotazione possono essere misurati e corretti. Dato che, come visto, eventuali traslazioni e rotazioni reciproche dei rivelatori del telescopio di misura possono essere misurate durante una campagna di calibrazione ed essere compensate grazie al codice di analisi dati, nel seguito di questo paragrafo verrà presentata la procedura di analisi, nell'ipotesi di un allineamento iniziale dei rivelatori perfettamente noto. Per simulare un possibile errore nell’istallazione del telescopio, al 72 3. Strumenti e procedure di simulazione rivelatore intermedio è stato imposto uno spostamento di lungo l’asse (vedere Tabella 3.1). Nel caso in cui la campagna di calibrazione dovesse riconoscere un disallineamento iniziale, come quello imposto, questo sarà tenuto in considerazione nella successiva fase di monitoraggio della struttura. Il programma di simulazione genera i cosmici secondo il generatore descritto nel Paragrafo 3.4 e simula, considerando i fenomeni fisici di interazione tra particelle e materia descritti nel Paragrafo 2.3, il passaggio dei raggi cosmici attraverso la struttura ed il rilascio di energia nei rivelatori. I rivelatori misurano, con una determinata risoluzione spaziale, propria di ogni tipo di rivelatore, un punto 50 corrispondente al passaggio di un muone. Nel seguito viene descritta la procedura adottata per valutare lo spostamento relativo del rivelatore intermedio rispetto ai rivelatori superiore ed inferiore, quindi per determinare eventuali deformazioni della diga a metà della sua altezza. Come precedentemente detto, con un procedimento analogo si può determinare la deformazione della diga al coronamento o alla base. La procedura di seguito descritta è basata sull'elaborazione statistica dei dati relativi ad un insieme di cosmici, il cui passaggio è stato registrato in tutti e tre i rivelatori. E' opportuno, a questo punto, precisare come si possa essere sicuri che, durante una fase di presa dati con cosmici reali, i tre segnali registrati dai tre rivelatori corrispondano allo stesso raggio cosmico. La prima considerazione da fare è che, nella registrazione dei segnali provenienti dai rivelatori, bisogna tenere conto della coincidenza temporale che deve caratterizzare segnali provenienti dallo stesso cosmico. Un muone di alta energia è sicuramente relativistico (vedere nota [27] del Paragrafo 2.2), quindi impiega circa per percorrere un metro. Una stretta coincidenza temporale dovrà essere imposta ai segnali, per associarli al passaggio di uno stesso cosmico. Secondariamente bisogna ricordare che il ritmo di arrivo dei cosmici alla superficie terrestre è molto basso, , quindi la probabilità che due cosmici incidano sullo stesso rivelatore nello stretto intervallo temporale di coincidenza è molto piccola. Eventi ove questa eventualità si realizzasse saranno rari e si potranno tranquillamente scartare. 50 La coordinata attribuita al punto di passaggio misurato dal rivelatore corrisponde esattamente e convenzionalmente al piano mediano del rivelatore stesso. 73 3. Siano punti , , e Strumenti e procedure di simulazione e le coordinate , e dei di passaggio del medesimo cosmico attraverso i tre rivelatori di Figura 3.14, misurati rispettivamente dai rivelatori superiore, intermedio ed inferiore, con risoluzione spaziale tipica dei rivelatori utilizzati (qui scelta pari a le coordinate del punto con cui la retta passante per i due punti ), e siano e interseca il rivelatore intermedio. Figura 3.14 : e sono, rispettivamente, la distanza lungo l'asse e lungo l'asse tra il punto di passaggio del cosmico nel rivelatore intermedio e il punto di intersezione tra quest'ultimo e la traiettoria ipotizzata rettilinea del muone fra i rivelatori superiore ed inferiore. La differenza fra la posizione del punto e del punto sul piano mediano del rivelatore intermedio è dovuta a: (i) disallineamento fra i rivelatori (effetto sistematico); (ii) diffusione multipla del cosmico nell'attraversamento della materia ed effetti di deviazione dovuti ad irraggiamento elettromagnetico del cosmico (effetti stocastici simmetrici). La misura del disallineamento, che è un effetto sistematico, può essere ottenuta dallo studio della distribuzione delle variabili statistiche e , e dalla valutazione dei parametri delle distribuzioni e dei loro errori, per il 74 3. Strumenti e procedure di simulazione campione raccolto, se sufficientemente numeroso. Le coordinate , , e risultano fissate convenzionalmente sui piani mediani dei singoli rivelatori. L'errore sistematico che ne deriva è comunque molto ridotto essendo la dimensione verticale dei rivelatori molto piccola rispetto a quelle caratteristiche della struttura analizzata ed essendo la direzione dei cosmici utili per l'analisi molto vicina alla verticale. Per calcolare le variabili e passante per i due punti passante per il punto Dove viene definita l'equazione della retta nello spazio [2], e . La forma parametrica del fascio proprio di rette, è la seguente: sono i coseni direttori. Imponendo il passaggio per il punto si ottiene: da cui: Applicando il metodo di riduzione, sommando quadraticamente membro a membro si ricava , infatti: dato che . A questo punto si possono calcolare i tre coseni direttori: 75 3. La coordinata Strumenti e procedure di simulazione nel rivelatore intermedio è nota, pertanto, sostituendola nella seconda equazione della 3.8, si ricava il parametro corrente della retta nell'intercetta del rivelatore intermedio: che permette di calcolare, grazie alle altre due equazioni della 3.8, in cui si inseriscono anche i coseni direttori della 3.12, le coordinate e in cui la retta intercetta il piano di rivelazione del rivelatore intermedio: Sottraendo statistiche e e a e , rispettivamente, si ricava la misura delle variabili : Nel Capitolo 4 si studierà la forma delle distribuzioni delle variabili statistiche così ottenute e si valuterà la possibilità di ottenere stime dei loro parametri sulla base di campioni. 76 4. 4. 4.1. Analisi Analisi Premessa A causa della limitata intensità dei raggi cosmici che raggiungono la superficie terrestre (vedere Paragrafo 2.2.3), il tempo di misura, il quale si vedrà è strettamente correlato alla precisione ottenibile, è uno dei parametri più importanti da tenere in considerazione. È stato ritenuto quindi opportuno provvedere, in primo luogo, ad una valutazione analitica dell’accettanza geometrica del sistema, definita come il rapporto tra il numero di cosmici che nell’unità di tempo entrano nell’angolo solido coperto dal telescopio di misura ed il numero di cosmici che, nell’unità di tempo, intercettano il rivelatore superiore. Successivamente, per tenere in considerazione non solo la geometria del sistema di misura, ma anche altri fattori quali le interazioni fisiche tra i cosmici e la materia, i mezzi dei quali la struttura analizzata è composta e le distribuzioni dell’energia e della quantità di moto dei cosmici, è stata eseguita una simulazione Monte Carlo. In corrispondenza del rivelatore superiore è stato generato e tracciato un campione di 1 milione di muoni, che corrisponde, dato il flusso dei cosmici alla superficie terrestre, ad un periodo di ore di presa dati. La simulazione ha restituito un’accettanza poco dissimile da quella calcolata analiticamente. Questo sta ad indicare che la geometria del sistema di misura ha un effetto preponderante sull’accettanza del telescopio rispetto agli altri fattori considerati nella simulazione. Dopo queste prime valutazioni si è passati all’analisi delle distribuzioni delle variabili statistiche e , le quali, come già getto nel capitolo precedente, rappresentano il disallineamento del rivelatore intermedio del telescopio di misura rispetto ai rivelatori superiore e inferiore. Preliminarmente sono stati studiati i contributi che i fenomeni fisici di interazione tra cosmici e materia e la risoluzione dei rivelatori hanno sulla distribuzione degli scarti e . A tal fine si sono eseguite 9 simulazione imponendo per ciascuna la generazione di un campione di cosmici, ognuno dei quali con energia di e direzione verticale. Da queste è emerso che l’allargamento delle distribuzioni campionarie 77 4. Analisi degli scarti sono dovute principalmente al fenomeno di diffusione multipla, mentre poco influenti risultano le precisioni con i quali i rivelatori misurano il punto di passaggio del cosmico. Allo scopo di valutare la forma e i parametri statistici delle distribuzioni delle variabili e è stato generato un campione di circa 300 milioni di cosmici corrispondente a circa un anno di presa dati. Per simulare un possibile errore nell’installazione del telescopio, al rivelatore centrale è stato imposto uno spostamento di lungo la direzione (vedere Tabella 3.1). Questo fatto non influirà in alcun modo sulla fase di monitoraggio, infatti il disallineamento dovrà essere letto come misura di confronto rispetto ad una configurazione di riferimento. Quest’ultima è ottenuta mediante la calibrazione del telescopio di rivelatori che restituisce, dopo un adeguato periodo di presa dati, una misura del reale disallineamento del rivelatore intermedio. A seguito di questa simulazione sono state analizzate le forme delle distribuzioni degli scarti e e degli angoli di zenit ottenute. Le distribuzioni degli angoli di zenit non sono apparse del tutto regolari come atteso e la comprensione delle ragioni di questo fatto ha consentito di ottenere migliori informazioni riguardo al disallineamento dei rivelatori e di trovare un criterio per selezionare i cosmici maggiormente “affidabili”. I cosmici così individuati sono stati utilizzati per ottenere la migliore forma funzionale per la distribuzione di probabilità che rappresenta la popolazione delle variabili e . Dalla fisica dei processi coinvolti, essenzialmente la diffusione multipla, si attende che tale distribuzione sia approssimativamente una gaussiana, quando l'energia del cosmico è fissata. Poiché i cosmici possiedono un ampio spettro di energia, la distribuzione risultante delle variabili statistiche e avrà una forma più complessa, approssimabile, come si vedrà, con una sommatoria di gaussiane. Ottenuta la migliore funzione di adattamento, che rappresenta la distribuzione degli scarti e dell’intera popolazione, ne è stato cercato il migliore adattamento (best fit) a campioni di diversa numerosità, quindi corrispondenti a periodi di misura diversi e più brevi, estratti dall'intera popolazione, lasciando il valore medio della forma funzionale ed un fattore di scala come parametri liberi di variare per consentire l'adattamento della funzione stessa alla distribuzione rappresentativa di ciascun campione. Lo studio dei parametri statistici delle funzioni adattate, utilizzando la procedura di best fit su campioni 78 4. Analisi di cosmici di una determinata numerosità, ha consentito di valutare la precisione con la quale è possibile stimare gli eventuali disallineamenti dei rivelatori in condizioni reali. Estraendo campioni di numerosità differente, ciascuno corrispondente ad un diverso tempo di osservazione, è stato inoltre costruito un grafico della precisione ottenibile in funzione del tempo, per poter prevedere, dopo un certo arco temporale e nelle condizioni geometriche in esame, quale sia il minimo disallineamento rivelabile. Questo costituisce uno dei risultati principali di questo lavoro. Come verifica conclusiva sono state eseguite due simulazioni nelle quali il posizionamento del rivelatore intermedio è stato variato, simulando così due possibili deformazioni della struttura. Questo con lo scopo di verificare che le previsioni ottenute precedentemente circa la sensibilità del sistema alla misura dei disallineamenti in funzione del tempo siano effettivamente riprodotte in questi “esperimenti” simulati. 4.2. Valutazione dell’accettanza del sistema Come indicato nel capitolo precedente, la stima del disallineamento dei rivelatori, e quindi la stima della deformazione della struttura in esame, può essere ottenuta tramite l’analisi statistica delle distribuzioni delle variabili e . L'incertezza con la quale i parametri di queste popolazioni possono essere ottenuti a partire da parametri campionari dipende dalla numerosità dei campioni, quindi dalla statistica raccolta di cosmici che attraversano i tre rivelatori. Fattori limitanti la numerosità dei campioni raccoglibili sono: (i) l'accettanza del telescopio di rivelatori, definita come il rapporto fra il numero di cosmici che attraversano i tre rivelatori (cosmici utili) ed il numero totale di cosmici che attraversano il rivelatore superiore; (ii) la bassa intensità dei cosmici che colpiscono il rivelatore superiore; (iii) il tempo disponibile per la misura. Il fattore che maggiormente limita l'accettanza è l'angolo solido complessivo coperto dal telescopio di rivelatori, tenuto conto dell'ampia distribuzione angolare dei cosmici rispetto alla direzione verticale. Per questo motivo risulta utile, preliminarmente, eseguire una valutazione dell'angolo solido coperto dal telescopio di rivelatori nella situazione in esame ed effettuare una 79 4. Analisi stima del numero di cosmici che si possono raccogliere nell'unità di tempo in funzione delle dimensioni geometriche del telescopio stesso. Il valore corretto dell'accettanza potrà tuttavia essere calcolato con precisione solo tramite un calcolo Monte Carlo che terrà conto esattamente della geometria e delle interazioni dei cosmici con la materia della struttura. 4.2.1. Calcolo approssimato dell’accettanza geometrica L'accettanza geometrica del telescopio di rivelatori è definita come: dove è il numero di cosmici che intercettano il rivelatore superiore nell'unità di tempo, mentre è il numero di cosmici che, nell'unità di tempo, entrano nell’angolo solido coperto dal telescopio di misura. A rigore, l'accettanza del telescopio si ottiene come integrale doppio di superficie, convoluto con la distribuzione angolare dei cosmici rispetto alla verticale. Figura 4.1 : L'accettanza del telescopio di misura va valutata considerando i due rivelatori più esterni, cioè quello superiore e quello inferiore. Nel caso considerato, i rivelatori simulati hanno la stessa forma e le stesse dimensioni, così l'area del rivelatore superiore e l'area del rivelatore inferiore risultano identiche. Con si è indicata la distanza fra il rivelatore superiore ed inferiore e , e sono porzioni infinitesime, rispettivamente, dell'area , dell'area e dell'angolo solido sul piano . 80 4. Analisi Facendo riferimento alla notazione in Figura 4.1, si possono dare le seguenti definizioni: dove è il numero di cosmici e rivelazione del rivelatore superiore ( dove è una porzione infinitesima della superficie di ) o del rivelatore inferiore ( è ancora il numero di cosmici e proiezione dell’angolo solido ); , definito nel Paragrafo 3.4, rappresenta la dell’Eq. 3.4 sul piano . Il numero di cosmici che attraversano il rivelatore superiore nell'unità di tempo è dato da: La frequenza dei cosmici che intercettano con ogni direzione è la seguente: La frequenza dei cosmici che intercettano un’area ed entrano nell'angolo solido è data da: La frequenza dei cosmici che intercettano ed entrano nell'angolo solido è la seguente: Sostituendo l’Eq. 4.5 nell’Eq. 4.7 si ricava: I cosmici utili sono quelli che passano sia per sia per , per stimarne il numero è quindi necessario calcolare un integrale doppio: Il termine 81 4. Analisi rappresenta una misura di cosmici al secondo, per unità di superficie, per unità di angolo solido: e dipende dall'angolo di arrivo dei cosmici rispetto alla verticale, ma può essere approssimato ad un valore costante, nel caso in cui si abbiano valori di prossimi alla verticale. Il numero di cosmici risulta, con questa approssimazione: L’Eq. 3.4 definisce l’angolo solido come: quindi, nell’Eq. 4.10, all’angolo dove può essere sostituito è la distanza fra i rivelatori superiore e inferiore, come mostrato in Figura 4.1. In questo modo l’Eq. 4.10 diventa: In cui rappresenta l’angolo solido dal centro di su ed è l’area del rivelatore superiore. Per fornire un valore numerico, sebbene approssimato, dell'accettanza del sistema è necessario valutare la costante Essa può essere intesa, passando dalle variazioni infinitesime a quelle finite, come: con cui si calcolano i cosmici che passano su una superficie unitaria e con angolo all'interno di entro intorno alla verticale, ovvero la frazione della distribuzione che sta . Quest’ultimo può essere approssimato nel seguente modo: 82 4. Analisi Nel paragrafo 3.4 si è ricordato come il flusso di cosmici alla superficie terrestre, nell'unità di tempo e di angolo solido, sia pari a Calcolando il valore dell’angolo solido secondo l’approssimazione nella 4.13 utilizzando i valori di e è possibile calcolare riportati in Figura 4.2 e ricordando che : Figura 4.2 : Configurazione nella quale è possibile calcolare l’Eq. 4.13. In un periodo di ore, che corrisponde all'intervallo temporale necessario affinché circa un milione di raggi cosmici attraversino il rivelatore superiore, il numero di particelle utili alla rivelazione è di 4.1, di . Da ciò risulta un’accettanza, calcolata secondo l’Eq. . Dall’analisi svolta si può desumere come, nella configurazione ipotizzata, il tempo di misura risulti essere il fattore maggiormente limitante. 83 4. Analisi 4.2.2. Calcolo Monte Carlo dell’accettanza In questo paragrafo si procede ad una valutazione dell'accettanza del telescopio di rivelatori per mezzo di un calcolo Monte Carlo. Questo consente, non solo di provvedere all'integrazione numerica dell'Eq. 4.9 con una valutazione rigorosa delle geometrie coinvolte, ma anche di tenere in considerazione i diversi effetti fisici, diffusione multipla, frenamento, distribuzioni di quantità di moto ed angolo di zenit dei cosmici, i cui contributi all'accettanza sono difficilmente valutabili con un metodo analitico. Per valutare la reale accettanza del telescopio di misura è stato generato un campione di un milione di cosmici, in particolare la simulazione Monte Carlo utilizzata ha le seguenti caratteristiche: i vertici di generazione dei cosmici sono stati distribuiti uniformemente sulla superficie di generazione posta sulla faccia superiore del rivelatore superiore; sono state considerate le distribuzioni dell’energia e della quantità di moto dei cosmici fornite dai dati sperimentali di [39] (vedere Paragrafo 3.4); sono stati considerati gli effetti fisici quali la diffusione multipla, la produzione di raggi , la Bremsstrahlung, la produzione di coppie , i decadimenti e la perdita di energia51; i rivelatori e la struttura della diga sono stati riempiti dei mezzi di cui sono realmente costituiti; è stata introdotta la risoluzione spaziale dei rivelatori ( ), ovvero ciascuna misura dei rivelatori fornita dal Monte Carlo è stata considerata affetta da un errore intrinseco gaussiano; è stato imposto che la coordinata coincidesse con la di ogni punto di passaggio dei cosmici rivelato di posizionamento del rispettivo rivelatore rispetto al MARS. Dalla simulazione si è ottenuto che, del milione di raggi cosmici generati sulla superficie del rivelatore superiore, 66 hanno intercettato tutti e tre i rivelatori del telescopio di misura. Dall’Eq. 4.1 risulta quindi un’accettanza pari a , molto simile a quella calcolata analiticamente nel Paragrafo 4.2.1. 51 La perdita di energia è un fenomeno fisico essenziale per la procedura Monte Carlo, infatti il programma di simulazione registra il passaggio di una particella all’interno di un volume sensibile solamente se questa vi deposita dell’energia nell’attraversarlo. 84 4. Analisi La compatibilità tra la formula analitica e la simulazione indica che, per il calcolo dell’accettanza totale, gli effetti fisici sono trascurabili rispetto all’accettanza geometrica del telescopio di misura. 4.3. Studio dei contributi della risoluzione del rivelatore e delle interazioni fisiche sulla distribuzione delle variabili statistiche e In questo paragrafo vengono valutati gli effetti, dapprima separatamente e poi sinergicamente, che la risoluzione spaziale dei rivelatori e le interazioni fisiche tra raggi cosmici e materia hanno sulla distribuzione delle variabili statistiche e . A questo scopo sono state eseguite 9 simulazioni in ognuna delle quali è stato generato un campione di cosmici aventi energia pari a (il valore medio secondo [39]) e direzione verticale. Per rendere questi campioni maggiormente omogenei tra loro, le simulazioni sono state inizializzate con lo stesso seme (vedere Paragrafo 3.2). Inoltre, per maggior chiarezza, i rivelatori sono stati allineati sulla verticale in modo da avere le distribuzioni degli scarti centrate intorno allo zero. Di seguito sono descritte le simulazioni eseguite e sono riportati gli istogrammi delle relative distribuzioni delle variabili statistiche e . In Tabella 4.1 sono inoltre riportati, per ogni simulazione, il numero di cosmici che attraversano tutti e tre i rivelatori e le deviazioni standard campionarie dei campioni ottenuti dagli scarti in cui e e , calcolate secondo la formula: è ancora la numerosità del campione, sono gli elementi del campione ed è la media campionaria definita come La maggior parte di detti calcoli e la produzione degli istogrammi e dei grafici presentati è stata eseguita tramite ROOT (vedere Paragrafo 3.5). Come tutti i programmi di 85 4. Analisi istogrammazione, ROOT calcola i parametri campionari non direttamente dai singoli dati, ma dagli istogrammi realizzati utilizzando i dati. Se si ha l'accortezza di utilizzare campioni sufficientemente numerosi e di dimensionare opportunamente i canali degli istogrammi, la differenza dei parametri campionari calcolati dai dati o dagli istogrammi è trascurabile. Simulazione 1. (Condizione iniziale) Nella condizione iniziale, che costituisce una condizione di riferimento: l’incertezza con la quale i rivelatori misurano le coordinare di impatto dei cosmici è stata considerata nulla, affinché le informazioni dei rivelatori non siano affette da alcun errore; per rendere trascurabili gli effetti fisici che intervengono quando i cosmici attraversano la materia, il volume sensibile del rivelatore è stato riempito di aria 52 mentre i restanti volumi sono stati riempiti di vuoto53. Figura 4.3 : Trascurando la risoluzione spaziale dei rivelatori e i processi fisici che governano il passaggio dei raggi cosmici attraverso la materia i residui e risultano praticamente nulli. 52 Si è reso necessario riempire il volume sensibile del rivelatore (la camera di trasferimento) con aria in quanto il Monte Carlo permette di avere un hit in un determinato volume solo se in questo vi è una deposizione di energia. Ciò è possibile solo se il raggio cosmico attraversa della materia. 53 Nel codice di simulazione il vuoto è definito come un materiale avente massa molare , numero atomico e densità . 86 4. Analisi In questo caso, la quasi totalità dei cosmici generati ha attraversato tutti e tre i rivelatori e le distribuzioni dei residui e sono risultate molto strette intorno allo zero, come mostrato in Figura 4.354. Non si è ottenuta un’accettanza unitaria e i residui non sono risultati sempre nulli solamente a causa della presenza dell’aria nel volume sensibile dei rivelatori. I risultati ottenuti in questa simulazione ci assicurano comunque che il procedimento di calcolo degli scarti non contiene errori sistematici. Simulazione 2. In questa simulazione sono stati mantenuti gli stessi materiali definiti nella simulazione precedente, ma è stata introdotta una risoluzione spaziale finita dei rivelatori, che viene simulata aggiungendo una fluttuazione gaussiana di deviazione standard (l'errore) pari a alle coordinate di intercetta del cosmico con ognuno dei rivelatori. Questa introduzione non ha comportato alcuna riduzione significativa dell'accettanza, ma ha determinato un allargamento delle distribuzione campionarie di in Figura 4.4. Le distribuzioni ottenute per i campioni di e e , come si vede sono delle gaussiane di media compatibile con la condizione di riferimento e di deviazioni standard e , leggibili in Figura 4.4. Questo appare ragionevole se si considera che, nella condizione simulata di cosmici perfettamente verticali, gli scarti vengono ottenuti sviluppando le formule della 3.15: analogamente: in cui e sono rispettivamente la distanza fra il rivelatore superiore e l’intermedio e la distanza fra il rivelatore superiore e l’inferiore. Perciò la 54 È doveroso notare che il programma GEANT4 adotta il centimetro come unità di misura di base per le lunghezze, quindi i valori delle medie e delle RMS presenti in tutti gli istogrammi riportati in questo lavoro di tesi sono espressi in centimetri. 87 4. Analisi deviazione standard delle distribuzione degli scarti calcolati con le equazioni 4.17 e 4.18 è la seguente: in cui le coordinate , e sono i valori di del punto in cui ciascun cosmico interseca il piano di rivelazione dei rivelatori superiore, intermedio ed inferiore, rispettivamente. Figura 4.4 : L’introduzione per i rivelatori di una risoluzione spaziale di ha generato una distribuzione degli scarti e secondo una gaussiana di deviazione standard rispettivamente di e di . Sapendo che stimare la deviazione standard , della distribuzione degli scarti è possibile (lo stesso vale per ) mediante la legge di propagazione dell'errore di una grandezza derivata55 : 55 La varianza per una generica funzione nel seguente modo: dove , dipendente da è la varianza della distribuzione di ciascuna variabile casuale variabili casuali , è definita . 88 4. Analisi Si noti che il valore stimato con questa formula è compatibile con quelli ottenuti dagli istogrammi di Figura 4.3. Simulazioni 3 e 4. Diversamente dalla precedente, in queste due simulazioni le risoluzioni finite dei rivelatori, che vengono simulate aggiungendo una fluttuazione gaussiana di deviazione standard (l'errore) alle coordinate di intercetta del cosmico con ognuno dei rivelatori, vengono prese pari rispettivamente a e (cioè ). Questa modifica non ha comportato alcuna riduzione dell'accettanza, ma ha determinato ulteriori allargamenti delle distribuzione campionarie di 4.5 e 4.6. Le distribuzioni ottenute per i campioni di e e , come si vede nelle figure sono ancora delle gaussiane di media compatibile con la condizione di riferimento e di deviazioni standard e per la risoluzione di per la risoluzione di e e . Figura 4.5 : L’introduzione per i rivelatori di una risoluzione spaziale di ha generato una distribuzione degli scarti e secondo una gaussiana di deviazione standard rispettivamente di e di . Con la formula definita precedentemente è possibile stimare le deviazioni standard delle rispettive distribuzioni degli scarti (lo stesso vale per ): 89 4. Analisi Si noti che il valori stimati con queste formule sono ancora compatibili con quelli ottenuti dagli istogrammi delle figure 4.4 e 4.5. Figura 4.6 : L’introduzione per i rivelatori di una risoluzione spaziale di ( ) ha generato una distribuzione degli scarti e secondo una gaussiana di deviazione standard rispettivamente di e di Simulazione 5. In questa simulazione tutti i volumi definiti nella configurazione analizzata sono stati riempiti di aria, mentre è stata considerata nulla l’incertezza con la quale i rivelatori misurano le coordinare di impatto dei cosmici. Introdurre aria in tutti i volumi equivale ad attivare tutti i processi fisici che intervengono quando i cosmici attraversano l’atmosfera. Confrontando questa simulazione con quella di riferimento si ha una leggera diminuzione dell’accettanza causata dal frenamento e dalla diffusione multipla in aria. Al contrario, si hanno importanti effetti per quanto riguarda le distribuzioni campionarie degli scarti e , come rappresentato in Figura 4.7: le distribuzioni si sono visibilmente allargate ed hanno assunto la forma gaussiana con media compatibile con la condizione di riferimento e deviazioni standard e . La forma della curva è a buon ragione gaussiana, infatti, secondo la legge della diffusione multipla (vedere Paragrafo 90 4. 2.3.4), per valori fissati di quantità di moto (in questo caso Analisi ), le deviazioni delle particelle hanno forma approssimativamente gaussiana con deviazione standard inversamente proporzionale alla quantità di moto della particella stessa. Si noti inoltre che le distribuzioni degli scarti continuano a rimanere simmetriche, ciò è dovuto alla natura stocastica del fenomeno fisico di diffusione multipla. Confrontando questi valori con quelli ottenuti dalla simulazione 3 si nota infine che gli effetti sulle distribuzioni degli scarti rivelatore di e relativi da una risoluzione spaziale del sono confrontabili con gli effetti che si ottengono riempiendo tutti i volumi di aria. Figura 4.7 : Riempire tutti i volumi con aria ha provocato un notevole allargamento delle distribuzioni campionarie degli scarti e . Questo allargamento risulta confrontabile con quello ottenuto dalla simulazione 3. Simulazione 6. In questa simulazione sono stati introdotti i materiali di cui struttura e rivelatori sono realmente costituiti, mentre è stata considerata ancora nulla l’incertezza con la quale i rivelatori misurano le coordinare di impatto dei cosmici. Inserire gli effettivi materiali equivale ad attivare tutti i processi fisici che intervengono quando i cosmici attraversano la struttura reale. La sostanziale differenza rispetto alla simulazione precedente è rappresentata dai materiali di cui sono fatti i rivelatori, infatti nell’attraversamento del telescopio di misura non vi sono interposti altri mezzi solidi. Inoltre, le interazioni dei 91 4. Analisi cosmici con la parete in calcestruzzo della diga sono trascurabili in quanto i cosmici sono stati generati con direzione verticale. Per quanto riguarda l'accettanza del sistema, si nota che l'introduzione dei materiali ne determina una buona diminuzione. Ciò si può spiegare considerando che la diffusione multipla, soprattutto all’interno dei materiali dei quali i rivelatori sono costituiti, può spostare il muone dalla sua traiettoria originale al punto tale che esso non intercetti almeno uno dei due rivelatori intermedio o inferiore. Seppure gli spessori dei rivelatori siano modesti ( ), l’effetto della diffusione è notevolmente amplificato dall’avere elevate distanze tra i rivelatori del telescopio, infatti piccole variazioni angolari della traiettoria si traducono in apprezzabili spostamenti se le distanze percorse sono grandi. L'effetto sulle distribuzioni campionarie degli scarti e è, rispetto al caso precedente, ancora più marcato come rappresentato in Figura 4.8: a causa della diffusione multipla e delle notevoli distanza tra i rivelatori le distribuzioni si sono notevolmente allargate. Hanno comunque mantenuto, per i motivi già menzionati, forma gaussiana e simmetrica. Figura 4.8 : Riempire tutti i volumi con i materiali di cui sono costituiti ha provocato un ulteriore allargamento delle distribuzioni campionarie degli scarti e . Questo allargamento risulta doppio rispetto a quello dalla simulazione 4, nella quale la risoluzione spaziale dei rivelatori è stata presa pari a . Le deviazioni standard riportate nella Figura 4.8 risultano essere e . Confrontando queste con quelle ottenute nella simulazione 4 si osserva 92 4. che l'allargamento delle distribuzioni di e Analisi determinato dalla diffusione multipla risulta doppio rispetto a quello ottenuto imponendo una risoluzione spaziale del rivelatore di . Se lo stesso confronto viene fatto con la simulazione 2, nella quale la risoluzione spaziale è presa pari a , l'allargamento delle distribuzioni di e determinato dalla diffusione multipla risulta essere 20 volte superiore. Simulazione 7. In questa simulazione sono stati introdotti i materiali di cui struttura e rivelatori sono realmente costituiti, inoltre si è imposta una risoluzione spaziale dei rivelatori pari a . Le deviazioni standard riportate nella Figura 4.9 risultano essere . Confrontando le distribuzioni campionarie degli scarti e e ottenute in questo caso (Figura 4.9) con quelle ottenute nel caso precedente non si notano sostanziali differenze, a prova del fatto che il contributo dato dalla risoluzione del rivelatore di è trascurabile rispetto a quello dovuto alle interazioni tra i cosmici e la materia. Figura 4.9 : Distribuzione delle variabili statistiche e ottenute imponendo una risoluzione spaziale dei rivelatori di e introducendo i materiali di cui struttura e rivelatori sono realmente costituiti. Non si notano sostanziali differenze rispetto ai grafici ottenuti nella simulazione 6. 93 4. Analisi Simulazioni 8 e 9. Diversamente dalla precedente, in queste due simulazioni le risoluzioni finite dei rivelatori sono state prese pari rispettivamente a e . Questa modifica non ha comportato alcuna riduzione dell'accettanza del telescopio di misura e ha determinato allargamenti delle distribuzione campionarie di e interessanti. Le deviazioni standard riportate nelle Figura 4.10 risultano essere e e , mentre quelle riportate nella Figura 4.11 . In particolare si nota che tra le simulazioni 6 e 8 non vi sono variazioni apprezzabili delle deviazioni standard delle distribuzioni dei e , quindi anche in questo caso l’influenza dei processi fisici è ben maggiore rispetto a quella dovuta alla risoluzione del rivelatore di . L’influenza della risoluzione inizia ad avere una certa importanza solo con il valore di , infatti si passa dalla deviazione standard simulazione 6 alla deviazione standard della della simulazione 9. Figura 4.10 : Distribuzione delle variabili statistiche e ottenute imponendo una risoluzione spaziale dei rivelatori di e introducendo i materiali di cui struttura e rivelatori sono realmente costituiti. 94 4. Analisi Figura 4.11 : Distribuzione delle variabili statistiche e ottenute imponendo una risoluzione spaziale dei rivelatori di e introducendo i materiali di cui struttura e rivelatori sono realmente costituiti. Simulazione 1 2 3 4 5 6 7 8 9 eventi 19890 19875 19875 19875 19724 19373 19363 19363 19363 25 125 614 1227 642 2167 2136 2217 2448 26 126 618 1234 656 2139 2130 2218 2453 Tabella 4.1 : Per ciascuna simulazione sono stati generati cosmici e sono stati costruiti gli istogrammi delle variabili statistiche e , che hanno restituito in particolare le seguenti informazioni: (numero di cosmici che attraversano tutti e tre i rivelatori del telescopio di misura), (deviazione standard della distribuzione di )e (deviazione standard della distribuzione di ). Per le analisi svolte in questo lavoro di tesi si è scelto di utilizzare, per i rivelatori, risoluzioni di , in quanto queste sono le risoluzioni spaziali raggiungibili con i rivelatori dotati di tecnologia GEM (vedere Paragrafo 3.3) che sono stati inseriti nel codice di calcolo. Dalle simulazioni 8 e 9 appare tuttavia evidente che l’impiego di rivelatori con risoluzioni inferiori ( od anche ), e quindi meno costosi, non 95 4. Analisi apporterebbe sostanziali differenze, in quanto si è dimostrato che l’effetto della diffusione multipla è dominante rispetto alla precisione dei rivelatori. 4.4. Studio della precisione del sistema In questo paragrafo viene studiata, nelle condizioni geometriche del caso in esame, la precisione di misura ottenibile con il telescopio di rivelatori, in funzione della statistica raccolta, quindi del tempo di osservazione. Nelle valutazioni eseguite in questa sezione, le caratteristiche strutturali del sistema, le dimensioni, la risoluzione dei rivelatori ed i parametri fisici sono fissati ai valori di riferimento riportati nella simulazione del Paragrafo 4.2.2. La prima informazione necessaria per affrontare lo studio riguarda la forma e la struttura delle popolazioni delle variabili statistiche forma delle distribuzioni di e e nel caso in esame. La conoscenza della risulta necessaria, come si può vedere nel Paragrafo 4.4.3, per poter eseguire il migliore adattamento (best fit) di tale funzione, con opportuni parametri liberi, alle distribuzioni campionarie di e , ottenute da una misura effettuata in un tempo finito. Il best fit alla distribuzione campionaria consente la determinazione dei parametri liberi di detta funzione e dei loro intervalli di confidenza; ad esempio permette di calcolare il valore medio della funzione, che risulta uno stimatore corretto ed efficiente del corrispondente parametro della popolazione. 4.4.1. Generazione e tracciamento dei cosmici Prima di affrontare lo studio della struttura delle distribuzioni delle variabili statistiche e è necessario descrivere il metodo utilizzato per la generazione e il tracciamento dei cosmici a partire dalla superficie di generazione posta sulla faccia superiore del rivelatore superiore. Nel Paragrafo 4.2 si è visto che l’accettanza del telescopio di misura, definita come il rapporto tra il numero di cosmici che attraversano i tre rivelatori (cosmici utili) ed il numero totale di cosmici che attraversano il rivelatore superiore, è molto piccola. Per avere un campione di cosmici utili statisticamente significativo si deve generare quindi un numero enormemente maggiore di cosmici passanti per il rivelatore superiore. 96 4. Analisi Questo per il calcolatore rappresenta un limite notevole, infatti, simulazioni eccessivamente grandi vanno ad occupare la macchina per diverse ore e a saturarne la memoria. Per avere un termine di paragone basti pensare che il tracciamento di un milione di cosmici, che per la geometria dei rivelatori impiegati equivarrebbe a circa 27 ore di presa dati su una struttura reale, ha occupato la macchina per circa 40 ore e ha generato un file delle dimensioni di circa 73 GB. Figura 4.12 : In questa figura sono stati rappresentati le tracce di tre cosmici, i tre rivelatori che costituiscono il telescopio di misura e la superficie posta sul piano intermedio del rivelatore inferiore utilizzata dall’algoritmo di tracciamento. In particolare, in rosso si vede la traccia di un cosmico “utile”, in blu la traccia di un cosmico tracciato ma non “utile” e in verde la traccia di un cosmico che non viene tracciato. Per risolvere questo problema è stato inserito un sistema di puntamento all’interno dell’algoritmo di generazione. Con questa modifica sono stati comunque generati i cosmici secondo la distribuzioni di energia e angolo di zenit di [39], ma sono stati “tracciati”56 i soli cosmici la cui proiezione della direzione di generazione cade, sul piano medio del rivelatore inferiore, all’interno di una superficie circolare di raggio doppio rispetto a quello del rivelatore (Figura 4.12). In questo modo vengono tracciati solamente 56 La generazione consiste nell’attribuire ad ogni cosmico le coordinate del punto di generazione e le tre componenti della quantità di moto. Questo processo per il calcolatore è praticamente istantaneo. Il tracciamento invece prevede la simulazione delle interazioni tra i cosmici e la materia attraversata e il salvataggio in memoria di ogni informazione relativa alla traiettoria e alle interazioni avvenute. Questo processo è quindi quello che impegna maggiormente le capacità computazionali del calcolatore. 97 4. Analisi i cosmici con angoli di zenit prossimi alla verticale, includendo quindi tutti quelli utili all’analisi. È stata scelta una superficie con raggio doppio rispetto a quello del rivelatore inferiore per tracciare anche quei cosmici che per direzione di generazione non dovrebbero attraversare tutti e tre i rivelatori, ma che per effetto della diffusione multipla potrebbero essere riportati all’interno dell’angolo solido coperto dal telescopio di misura. D’ora in avanti si parlerà sempre di cosmici tracciati e non più di cosmici generati, ricordando tuttavia che per passare dai primi ai secondi basterà moltiplicare per un fattore pari a . Questo è un valore empirico ed è stato calcolato come la media del rapporto tra cosmici generati e cosmici tracciati di 5 simulazioni eseguite imponendo il tracciamento di cosmici. 4.4.2. Struttura delle distribuzioni di e La forma delle distribuzioni delle variabili statistiche e dipende dai processi fisici coinvolti nella deviazione dei cosmici, dal loro spettro di quantità di moto, dalla risoluzione spaziale dei rivelatori e dalla struttura degli spessori interposti. Come già sottolineato in precedenza, il processo fisico di diffusione multipla, che è il principale responsabile della deviazione dei cosmici, per un valore fissato di quantità di moto dà origine ad una distribuzione gaussiana dell'angolo di deviazione. Poiché i cosmici sono caratterizzati da uno spettro esteso di quantità di moto, la forma delle distribuzioni risultanti è più complessa di una semplice gaussiana. Essa risulta una distribuzione simmetrica se la struttura attraversata è sufficientemente simmetrica rispetto all'asse passante per il centro dei rivelatori, con un picco centrale corrispondente ai cosmici più energetici; infatti le particelle con quantità di moto più elevate subiscono deviazioni di traiettoria inferiori rispetto a quelle con quantità di moto inferiore. Questa struttura è caratterizzata da code lunghe, corrispondenti ai cosmici di energia minore. Le distribuzioni delle popolazioni in oggetto potrebbero sperimentalmente essere ottenute se si potessero raccogliere infiniti dati con un apparato corrispondente a quello oggetto dello studio. Ciò è ovviamente impossibile, per ragioni di ordine pratico, ma una valutazione della forma delle popolazioni delle variabile statistiche e può essere ottenuta con il metodo Monte Carlo, utilizzando delle produzioni di dati sufficientemente ampie. Per questo motivo è stato effettuato il tracciamento di cosmici passanti 98 4. Analisi dal rivelatore superiore. A questo tracciamento è corrisposta, nel caso specifico, la generazione di milioni di cosmici, pari a un tempo di misura approssimativamente di 343 giorni, e il tracciamento di cosmici utili (cosmici che intercettano tutti e tre i rivelatori del telescopio di misura). Per simulare un possibile errore nell’installazione del telescopio, al rivelatore centrale è stato imposto uno spostamento di lungo la direzione (vedere Tabella 3.1). Questo fatto non influirà in alcun modo sulla fase di monitoraggio, infatti il disallineamento dovrà essere letto come misura di confronto rispetto alla configurazione iniziale, cioè rispetto a quella che si ottiene dalla calibrazione dello strumento. Le distribuzioni degli scarti e ottenute dal tracciamento di cosmici passanti per il rivelatore superiore sono mostrate in Figura 4.13. Ad un’analisi visiva entrambe le distribuzioni appaiono simmetriche, come ci si dovrebbe aspettare, infatti il fenomeno fisico di diffusione multipla è simmetrico rispetto alla direzione di volo del cosmico e la geometria del sistema presenta una marcata simmetria assiale. Figura 4.13 : Distribuzioni delle variabili statistiche e a seguito del tracciamento di hanno intercettato tutti e tre i rivelatori che compongono il telescopio di misura. Le medie campionarie e risultano inoltre compatibili con la configurazione di riferimento, nonostante il segno della media mente lo spostamento imposto sia positivo ( cosmici. Di questi, risulti negativo lungo la direzione ). È necessario 99 4. sottolineare, infatti, che per come sono state costruite le variabili statistiche (vedere paragrafo 3.6), uno spostamento sul piano Analisi e del rivelatore intermedio si traduce nello spostamento in direzione opposta della media delle distribuzioni degli scarti e . Infine, le deviazioni standard campionarie e sono molto alte, a prova del fatto che la diffusione multipla ha una notevole influenza sulla traiettoria dei cosmici, soprattutto se questi posseggono basse energie. Per verificare ciò, in Figura 4.14 sono state rappresentate tre differenti distribuzioni della quantità di moto: con la linea rossa è stata rappresentata la distribuzione di quantità di moto dei cosmici tracciati, con la linea blu quella dei cosmici utili e con la linea rossa quella dei cosmici utili che generano scarti e . Come si può notare dalla figura, il numero di cosmici che generano scarti superiori a dei cosmici utili, e nessuno di questi ha un energia superiore a è di , . Prima di procedere con l’analisi è doveroso definire alcuni parametri per rendere meno laboriosa la spiegazione dei grafici che sono riportati di seguito. In particolare, per ogni cosmico tracciato si è definito l’angolo come l’angolo di zenit di generazione, mentre per i soli cosmici utili si sono definiti i seguenti angoli (Figura 4.15): - : angolo di zenit della retta passante per i punti dello spazio che definiscono gli hit nei rivelatori superiore e inferiore; - : angolo di zenit della retta passante per i punti dello spazio che definiscono gli hit nei rivelatori superiore e intermedio; - : angolo di zenit della retta passante per i punti dello spazio che definiscono gli hit nei rivelatori intermedio e inferiore; : angolo di zenit della retta di regressione ottenuta applicando il metodo dei minimi quadrati57 ai punti dello spazio che definiscono i tre hit nei rivelatori; questo è l’angolo di zenit ricostruito per mezzo del telescopio di misura. 57 Il metodo dei minimi quadrati, anche noto come OLS (Ordinary Least Squares), è una tecnica di ottimizzazione che permette di trovare una funzione, detta curva di regressione, che si avvicini il più possibile ad un insieme di dati (tipicamente punti nel piano o nello spazio). In particolare la funzione trovata deve essere quella che minimizza la somma dei quadrati delle distanze tra i dati osservati e quelli della curva che rappresenta la funzione stessa. Nel caso studiato la curva di regressione è una retta. 100 4. Analisi Figura 4.14 : In questi grafici sono state rappresentate, in quello di sinistra con scala bilogaritmica mentre in quello di destra in scala logaritmica, tre diverse distribuzioni della quantità di moto. In particolare, in nero si è rappresentata la distribuzione di quantità di moto dei raggi cosmici tracciati, in blu quella dei raggi cosmici utili e in rosso quella dei raggi cosmici utili che generano degli scarti e . Figura 4.15 : In questa figura sono state rappresentate le proiezioni sul piano (questo è il motivo del pedice ) degli angoli di zenit , , , , . La traccia del cosmico (linea rossa) è stata disegnata come una spezzata per simulare i possibili effetti che la diffusione multipla ha sulla particella quando questa attraversa i rivelatori. In verde è stata inoltre rappresentata la retta di regressione ottenuta dal metodo dei minimi quadrati applicato ai punti che definiscono i tre hit. 101 4. Analisi Per avere un’ulteriore verifica della simmetria del processo di diffusione multipla si sono riportati i grafici di Figura 4.16. Nel grafico di sinistra sono state rappresentate tre differenti distribuzioni dell’angolo di zenit: con la linea nera è indicata la distribuzione dell’angolo , con la linea blu la distribuzione dell’angolo con la linea rossa la distribuzione dell’angolo per i soli cosmici utili e . Come è possibile vedere dalla linea nera, il sistema di puntamento (vedere Paragrafo 4.4.1) ha permesso di generare cosmici aventi angolo di zenit non superiori a , mentre il solo algoritmo di generazione avrebbe restituito una distribuzione come quella riportata in Figura 3.12. Osservando inoltre le linee rossa e blu si nota un fatto inatteso: vi è una parte non indifferente di cosmici utili il cui angolo di generazione dell’angolo ricostruito risulta sistematicamente maggiore . È possibile vedere questo anche dalla marcata asimmetria che presenta la distribuzione della differenza rappresentata nel grafico di destra della medesima figura. Ci saremmo invece aspettati di trovare, per quanto riguarda quest’ultimo grafico, una distribuzione maggiormente simmetrica, a sostegno del fatto che il fenomeno fisico di diffusione multipla è simmetrico rispetto alla direzione di volo del cosmico. Figura 4.16 : Nel grafico di sinistra sono state rappresentate tre diverse distribuzioni dell’angolo di zenit: in nero si è indicata la distribuzione degli angoli di zenit di generazione ( ) del campione di 100 000 cosmici tracciati, in blu la distribuzione degli angoli di zenit di generazione dei soli cosmici utili e in rosso la distribuzione degli angoli di zenit ricostruiti dal sistema di misura per i soli cosmici utili ( ). Nel grafico di destra è rappresentata la differenza, per i soli cosmici utili, tra l’angolo di zenit ricostruito dal sistema di misura e l’angolo di generazione ( ). 102 4. Analisi Queste considerazioni hanno portato ad ipotizzare che alcuni dei cosmici che per direzione di generazione non dovrebbero attraversare tutti e tre i rivelatori, a seguito di interazioni con la diga vengano deviati in modo tale da farli rientrare nell'angolo solido coperto dai rivelatori intermedio ed inferiore. Per convalidare tale ipotesi è stato creato all’interno della diga un volume sensibile di calcestruzzo a forma di tubo con diametro interno di , diametro esterno di e lunghezza pari alla distanza tra i rivelatori superiore e inferiore (vedere Tabella 3.1 e Figura 3.1). Questo tubo è stato posizionato in modo da rivestire la parete interna della diga che contiene il telescopio di misura. L’aver reso sensibile questo volume ha permesso di individuare i raggi cosmici che riescono ad attraversare tutti e tre i rivelatori a seguito di fenomeni di scattering con la parete della diga. Dalla simulazione è emerso che dei cosmici utili, hanno attraversato il telescopio di misura a seguito di interazioni di diffusione con il calcestruzzo della struttura. Per semplicità d’ora in avanti verranno chiamati cosmici “buoni” e cosmici “infiltrati” quei cosmici utili che rispettivamente non interagiscono e interagiscono con la diga. Quindi, dei 7808 ( ) sono risultati cosmici infiltrati mentre i restanti ( utili, ) sono quelli buoni. Per verificare che proprio i cosmici infiltrati siano i responsabili dell’asimmetria del grafico di destra della Figura 4.16, nel grafico di destra della Figura 4.17 è stata rappresentata la medesima distribuzione della differenza , ma relativa ai soli cosmici buoni. Come è possibile vedere, la distribuzione ha perso gran parte del carattere asimmetrico. L’asimmetria residua presente nella coda sinistra dell’istogramma indica che ci sono dei cosmici buoni con angoli di generazione ricostruiti maggiori rispetto agli angoli . Questo fatto può essere spiegato pensando agli effetti della diffusione multipla: l’angolo di zenit ottenuto a seguito di questo fenomeno può essere espresso qualitativamente come: dove è l’angolo di deviazione. Se si ottiene aumentano le probabilità che il cosmico possa uscire dall’angolo solido del telescopio di misura, viceversa, se aumentano le probabilità che il cosmico non vi esca. Per questo motivo saranno più 103 4. numerosi i cosmici utili con angoli maggiori rispetto angoli ricostruiti Analisi dal sistema di misura. Da ciò deriva l’asimmetria residua dell’istogramma presente nel grafico di destra della Figura 4.16. Nel grafico di sinistra della Figura 4.17 sono state invece rappresentate le distribuzioni degli angoli : in nero quella relativa ai cosmici utili e in rosso quella dei cosmici infiltrati. Si nota che la quasi totalità dei cosmici utili con angoli di generazione superiori a attraversa l’intero telescopio di misura solamente a seguito di interazioni con la diga. Il valore non è casuale, infatti rappresenta il massimo angolo di zenit che un cosmico utile può assumere in mancanza del fenomeno della diffusione multipla 58. Per sottolineare l’effetto deleterio della diffusione dei cosmici utili all’interno del calcestruzzo della diga, sono state confrontate in Figura 4.18 le distribuzioni degli scarti e di tutti i cosmici utili (linea nera) con le relative distribuzioni dei cosmici infiltrati (linea rossa). Come si nota, le code delle popolazioni sono interamente rappresentate da cosmici infiltrati. Da ciò deriva la necessità di individuare un criterio per escludere dall’analisi questa parte di cosmici non gradita. Tale criterio non potrà naturalmente utilizzare l’angolo di generazione del cosmico perché nella realtà il nostro sistema di misura non lo rileva, inoltre non potrà neppure utilizzare l’informazione sull’hit nella parete della diga perché nella realtà sarebbe impensabile rivestire l’intera cavità con dei rivelatori appositi. Queste informazioni potranno essere tuttavia usate nel Monte Carlo per controllare la bontà del criterio scelto. Come criterio generale si è pensato di escludere quei raggi cosmici che pur intercettando i tre rivelatori del telescopio di misura presentano una traccia poco assimilabile ad una retta. Per fare questo si è agito sugli angoli di zenit e sono stati provati due differenti tagli: 59 58 In assenza di fenomeni di diffusione, l’angolo di zenit massimo è quello posseduto da un cosmico che viene generato sul bordo del rivelatore superiore e intercetta il rivelatore inferiore in un punto diametralmente opposto. La distanza orizzontale e quella verticale risulterebbero essere rispettivamente di e , da ciò si ricava: 59 Il simbolo rappresenta l’operatore logico AND. 104 4. per tre differenti valori del parametro ( , e Analisi ). Figura 4.17 : Nel grafico di sinistra sono state rappresentate le distribuzioni dell’angolo di zenit di generazione relative ai cosmici utili (linea blu) e ai cosmici infiltrati (linea rossa). Nel grafico di destra è rappresentata la differenza, per i soli cosmici buoni, tra l’angolo di zenit ricostruito dal sistema di misura e l’angolo di generazione. Figura 4.18 : Distribuzioni delle variabili statistiche e relative ai cosmici utili (linea nera) e ai cosmici infiltrati (linea rossa). Per maggior chiarezza, il grafico è stato rappresentato fino a 500 eventi, comunque le curve nere sono le medesime rappresenta in Figura 4.13. In Tabella 4.2 sono riassunti i risultati ottenuti. In particolare per le popolazioni dei cosmici utili, dei cosmici buoni e dei cosmici infiltrati sono stati calcolati il numero di quelli che vengono eliminati dal taglio (cosmici “tagliati”) e il numero di quelli che non vengono 105 4. Analisi eliminati dal taglio e quindi vengono inclusi nell’analisi successiva (cosmici “utilizzati”). Il taglio ideale dovrebbe riuscire ad includere tutti i cosmici buoni ed escludere tutti quelli infiltrati; nella realtà una parte dei primi saranno eliminati e una parte dei secondi non lo saranno. Osservando la tabella si nota che per un fissato valore di , il taglio restrittivo del taglio è meno ; inoltre, per un fissato taglio, all’aumentare del valore di aumentano sia il numero dei cosmici buoni inclusi sia quello dei cosmici infiltrati inclusi. Si capisce quindi che l’ottimo si trova in una condizione di compromesso: bisogna scegliere un taglio che elimini tanti più cosmici infiltrati possibile, senza che riduca eccessivamente il numero di cosmici utili lasciati passare. Per le analisi successive si è scelto di applicare il taglio con il parametro cosmici utili, ne vengono lasciati passare . Sotto queste condizioni, dei (cosmici utilizzati). In Figura 4.19 sono rappresentate le distribuzioni degli scarti e (linea nera) e le relative distribuzioni dei cosmici tagliati dal taglio dei cosmici utili (linea rossa). Confrontando questa figura con la 4.18 si nota una certa somiglianza, in ragione dell’efficacia del taglio scelto. Figura 4.19 : Distribuzioni delle variabili statistiche e relative ai cosmici utili (linea nera) e ai cosmici esclusi dal taglio con (linea rossa). Per maggior chiarezza, il grafico è stato rappresentato fino a 500 eventi. Si noti la somiglianza tra le distribuzioni dei cosmici “tagliati” e le distribuzioni dei cosmici infiltrati di Figura 4.18. 106 4. Analisi 107 4. In Figura 4.20 sono riportate infine le distribuzioni delle variabili statistiche relative al nuovo campione di Analisi e cosmici utilizzati. Confrontando queste distribuzioni con quelle di Figura 4.13 si nota che le deviazioni standard campionarie si sono molto ridotte e le medie campionarie, non risentendo più delle eccesive code delle distribuzioni, si sono avvicinate alla condizione imposta. Figura 4.20 : Distribuzioni delle variabili statistiche e relative ai cosmici utili che sono stati inclusi dal taglio, cioè relative ai cosmici utili che il taglio non ha eliminato e che quindi sono disponibili per la successiva analisi (cosmici “utilizzati”). 4.4.3. Funzione di migliore adattamento alle distribuzioni e Per quanto riguarda la forma funzionale da utilizzare per riprodurre le distribuzioni delle popolazioni di e del nuovo campione di adottata l'ipotesi che essa corrisponda ad una somma di cosmici (cosmici utilizzati), si è gaussiane con uguale media, diversa deviazione standard e peso relativo da determinare. Nonostante la complessità del fenomeno che dà origine alla forma degli istogrammi di e , l'ipotesi appare ragionevole in quanto, per un valore fissato della quantità di moto dei cosmici incidenti, la diffusione multipla genera una distribuzione degli scarti e di tipo gaussiano la cui deviazione standard è inversamente proporzionale alla quantità di moto [2]. Il flusso di cosmici che investono il telescopio di rivelatori è caratterizzato da una distribuzione larga 108 4. Analisi di quantità di moto che dà quindi origine, per ogni intervallo di quantità di moto, a distribuzioni gaussiane con deviazioni standard diverse, minori per le quantità di moto più elevate e maggiori per le più basse. Una somma di gaussiane con uguale media, diverse deviazioni standard e diversi pesi relativi è quindi sembrata una buona ipotesi da adottare. Il processo di miglior adattamento della forma funzionale scelta agli istogrammi delle variabili statistiche e , che è di seguito descritto, ha portato a valutare il numero di gaussiane necessarie per il miglior adattamento, i valori delle deviazioni standard di ogni gaussiana ed il peso relativo delle stesse nonché a verificare la bontà dell'adattamento stesso ai dati. Le tecniche di analisi statistica utilizzate sono il metodo dei minimi quadrati e il test di adattamento del . Le tecniche matematiche per eseguire queste elaborazioni sono già contenute nel pacchetto di istogrammazione e calcolo statistico di ROOT. La procedura seguita nel calcolo è descritta nel seguito. 1. Si è costruita una funzione , descritta dall'Eq. 4.20, come la somma di un certo numero di gaussiane aventi media comune standard e pesi e diverse deviazioni . dove è il peso di ciascuna gaussiana, è la deviazione standard di ciascuna gaussiana, è il valore della media della distribuzione, imposto uguale per tutte le gaussiane. 2. Si sono definite diverse possibilità riguardo al numero di gaussiane da adottare per i calcoli successivi di miglior adattamento. 3. L'adattamento è stato effettuato, in accordo con il metodo dei minimi quadrati, minimizzano la funzione dove , definita nel seguente modo [35]: corrisponde al numero di eventi caduti nell'i-esimo canale, totale di eventi presenti nel campione, è il numero è la densità di probabilità ipotizzata, calcolata nel punto centrale di ciascun canale e rappresenta il vettore dei 109 4. Analisi parametri del best fit, da trovare minimizzando l'espressione 4.22. La maggior parte dei canali considerati dell'istogramma ha un numero di conteggi superiore a cinque, quindi il metodo può essere applicato. La minimizzazione fornisce i valori migliori per i parametri, con una stima dei loro errori, nonché un valore della variabile statistica utile per effettuare un test statistico sulla bontà dell'adattamento stesso. 4. Il test statistico utilizzato per verificare la qualità dell'adattamento della funzione all'istogramma è il test di . In particolare, senza calcolare livelli di confidenza, si è verificato che il valore del gradi di libertà, ridotto, vale a dire il valore di diviso il numero di , fornito direttamente da ROOT, fosse vicino ad uno. Il numero dei gradi di libertà corrisponde al numero dei canali utilizzati per l'adattamento meno il numero dei parametri liberi della funzione. Tale test si basa sul fatto che, se il campione esaminato è effettivamente estratto da una popolazione con distribuzione equivalente a quella ottenuta con l'adattamento, la media della distribuzione di è uguale a , cioè al numero di gradi di libertà. Ci si aspetta quindi, se l'interpolazione è ragionevole, di ottenere . Il numero dei gradi di libertà tiene conto del fatto che alcuni parametri della distribuzione sono determinati in base ai dati stessi [35]. 5. Il numero di gaussiane da utilizzare per costruire la funzione è stato definito empiricamente60 in base ad una serie di prove successive con diverso numero di gaussiane e di verifiche del valore corrispondente del ottenuto dall'adattamento. Come si vedrà in seguito per entrambe le distribuzioni degli scarti e si sono rese necessarie 4 gaussiane. 6. Tramite la procedura di miglior adattamento, sono stati determinati tutti i valori delle deviazioni standard i loro pesi delle gaussiane che compongono la funzione , nonché , che sono stati normalizzati a dare somma unitaria. Si è quindi definita una funzione 60 Una valutazione più quantitativa del numero di gaussiane effettivamente necessario per realizzare un buon adattamento ai dati potrebbe essere fatta sia mediante il controllo del grafico dei residui standardizzati per le diverse funzioni sia mediante il test F di Snedecor [35]. 110 4. Analisi in cui è il peso di ciascuna gaussiana, con somma dei pesi normalizzata all'unità. Ognuno dei valori rappresenta il contributo della singola gaussiana nella funzione complessiva. Il valore di contiene, in realtà, anche il fattore di normalizzazione della singola gaussiana. Ciò non ha, tuttavia, nessun effetto sui risultati; è la deviazione standard di ciascuna gaussiana come determinata dal procedimento di migliore adattamento; è il valor medio comune a tutte le gaussiane utilizzate. Negli adattamenti successivi della funzione alle distribuzioni campionarie questo parametro sarà lasciato libero di variare assieme al fattore di scala è il fattore di scala attraverso il quale la funzione ; può adattarsi alla numerosità dei campioni ottenuti dai dati Monte Carlo. Nel seguito vengono riportati alcuni risultati ottenuti con la procedura sopra descritta. In Figura 4.21, sono illustrati i risultati del miglior adattamento della funzione istogrammi delle popolazioni e agli . Si noti visivamente, in questa scala, la buona qualità dell'adattamento, che è confermata dai valori di Nella figura è anche riportato il valore della media ridotto molto vicini all’unità. (il parametro ) comune a tutte le gaussiane che compongono la funzione. Si noti che la media della funzione di miglior adattamento è compatibile con la condizione di riferimento entro l'errore stimato dalla procedura di minimizzazione sia per la distribuzione di sia per , infatti: Questo risultato è atteso in quanto la popolazione è stata generata nel Monte Carlo con media delle pari a e media delle pari a . I valori delle medie dei dati, ricavati dagli istogrammi, accompagnanti dal loro errore, calcolato mediante l’Eq. 4.26, sono riportati di seguito: 111 4. Analisi Si noti infine che il valore della media della funzione è più vicina alla condizione imposta rispetto alla semplice media dei dati calcolata sull'istogramma. Inoltre essa risente meno delle possibili asimmetrie dell'istogramma stesso. Questo è il vantaggio principale che deriva dal fatto di utilizzare, come stimatore della media della popolazione, il valore della media della funzione di migliore adattamento alla distribuzione campionaria piuttosto che la semplice media campionaria [2]. Figura 4.21 : Le due figure rappresentano gli istogrammi di e con sovraimposte le funzioni di miglior adattamento. Sono inoltre riportati i valori del ridotto e dei parametri e stimati attraverso la procedura di fit, accompagnati dall'errore stimato dalla procedura di minimizzazione. In particolare il parametro è la media comune a tutte le gaussiane, , , e sono i pesi delle quattro gaussiane e , , e sono le relative deviazioni standard . Dalla semplice osservazione delle figure emerge che la funzione di best fit approssima bene la forma della distribuzione degli scarti. Anche i valori di ridotto sono molto buoni, in particolare per la distribuzione dei mentre per la distribuzione dei . I valori ottenuti dalla procedura di adattamento per i pesi normalizzati e le deviazioni standard sono riportati, con i loro errori, in Tabella 4.3. Per ottenere il miglior adattamento sia alla distribuzione di sia a quella di sono state necessarie quattro gaussiane. Infatti, con un numero superiore di gaussiane, quelle eccedenti le quattro sono risultate inutili, dato che i loro parametri si sono stabilizzati sui valori delle quattro già considerate, ovvero si sono ottenute più gaussiane uguali. 112 4. Analisi Determinata la forma funzionale di miglior adattamento per la distribuzione delle variabili statistiche e , si è deciso di utilizzare quest’ultima per l’analisi successiva, la quale è volta a ricavare le precisioni di misura del telescopio in funzione del tempo. Nel Paragrafo 4.5 si vedrà come la scelta della forma funzionale delle variabili non avrebbe portato a differenze apprezzabili nei risultati. parametri 0.343±0.034 450±82 0.392±0.031 1703±153 0.203±0.018 4898±257 0.063±0.004 13524±280 Tabella 4.3 : In tabella, 0.490±0.028 632±46 0.319±0.020 2343±214 0.138±0.021 5982±654 0.054±0.008 13993±530 rappresenta il peso normalizzato di ciascuna gaussiana e ne è la deviazione standard. 4.4.4. Calcolo della precisione di misura del telescopio In questo paragrafo verrà presentato lo studio di come la precisione ottenibile dal telescopio vari in funzione del tempo di misura, ovvero del numero di cosmici, passanti per il telescopio e rivelati. Per simulare periodi di campagna di misura diversi, la popolazione complessiva di cosmici tracciati è stata suddivisa in diversi sottocampioni di diversa numerosità, come elencato in Tabella 4.4. È importante qui sottolineare la differenza tra i cosmici tracciati, ovvero generati e che hanno superato il filtro di puntamento (vedere Paragrafo 4.4.1), e quelli utilizzati, ovvero quelli che hanno attraversato tutto il telescopio e che vengono usati per il calcolo delle variabili e . Sebbene nel seguito useremo il numero di cosmici tracciati per distinguere i vari sottoinsiemi, va ricordato che le fluttuazioni statistiche sono associate al numero di cosmici utilizzati (in media, il rapporto tra cosmici utilizzati e cosmici tracciati risulta di 0.21). È importante ricordare che la precisione raggiungibile dal telescopio di misura è definita come l'errore statistico che si può commettere nell'individuazione di un disallineamento 113 4. Analisi reciproco dei rivelatori e che, come tale, dipende dal metodo statistico utilizzato nella trattazione dei dati. In altre parole, quando si indicherà una precisione di misura, si farà sempre riferimento al metodo statistico considerato. Il metodo scelto per questa analisi utilizza la procedura di best fit precedentemente descritta. In alternativa si sarebbero potute utilizzare le medie campionarie e le deviazioni standard delle distribuzioni dei campioni. Si è fatta questa scelta in quanto la dettagliata analisi statistica svolta in [2] ha mostrato come la precisione ottenibile con il sistema di misura impiegato sia meglio stimata dalla procedura di best fit, rispetto a quella ottenuta dalle medie campionarie e le deviazioni standard delle distribuzioni dei campioni. Il motivo statistico di tale risultato risiede nel fatto che mediante l'utilizzo di una funzione di miglior adattamento viene impiegata anche l'informazione relativa alla forma della popolazione dalla quale deriva il campione e non solo quella relativa agli stimatori statistici quali media e deviazione standard. Inoltre, il valore del parametro della funzione è meno sensibile alle eventuali asimmetrie della distribuzione, rispetto ai parametri campionari, e sfrutta meglio l'informazione contenuta nelle code della distribuzione. [campioni] cosmici tracciati cosmici utilizzati tempo di osservazione [giorni] 100 80 50 40 32 25 20 16 10 8 5 4 2 1 1000 1250 2000 2500 3125 4000 5000 6250 10000 12500 20000 25000 50000 100000 216±1 270±2 433±3 541±3 676±4 865±5 1082±6 1352±9 2163±9 2704±16 4327±9 5408±15 10817±2 21633 3.4 4.3 6.9 8.6 10.7 13.7 17.1 21.4 34.3 42.8 68.5 85.6 171.3 342.5 Tabella 4.4 : Numero, popolosità e relativo tempo di osservazione dei sottocampioni nei quali è stato suddiviso il campione di cosmici al fine di costruire la curva di precisione del telescopio di misura. 114 4. Mediante la procedura di best fit le distribuzioni delle variabili statistiche Analisi e di ciascun sottocampione -esimo di un dato insieme sono state approssimate con la forma funzionale di miglior adattamento, definita nell’Eq. 4.23, in cui il peso relativo e la deviazione standard di ciascuna gaussiana sono state fissate ai parametri minimizzati sull’intera popolazione, riportati nella colonna dei lasciati liberi sono stati la media in Tabella 4.3, mentre i parametri della funzione ed il suo peso . Per ciascun sottocampione si sono considerati i valori del numero di cosmici utilizzati che attraversano tutti e tre i rivelatori del telescopio di misura, della media della funzione e l'errore sulla media stimato dall'algoritmo di minimizzazione. La precisione di misura del telescopio viene calcolata come la media degli errori di ogni singolo sottocampione, i quali valori vengono forniti direttamente dall'algoritmo di minimizzazione della procedura di best fit. L’equazione risulta essere: dove è il numero di sottocampioni con medesima numerosità. Dalla distribuzione degli standard , oltre alla media , si sono anche calcolati la deviazione di tale distribuzione ed il relativo errore sulla media , secondo le rispettive formule: in cui è la deviazione standard della distribuzione dell'intera popolazione ed ancora è il numero di sottocampioni con medesima numerosità. I dati raccolti ed i risultati ottenuti sia per la distribuzione dei sia per quella dei sono mostrati in Tabella 4.5. Si noti in particolare, per i sottocampioni di medesima numerosità, la compatibilità secondo la legge61 tra le precisioni di misura lungo l’asse 61 Legge : se è una variabile gaussiana di media e deviazione standard , la probabilità di ottenere un valore compreso in un intervallo centrato sulla media e di ampiezza è circa del , mentre se 115 4. Analisi e quelle lungo l’asse . Questo fatto non è inatteso, infatti, la struttura nella quale i rivelatori sono alloggiati e il telescopio di misura presentano una marcata simmetria assiale. Quindi, lungo qualsiasi direzione del piano il rivelatore intermedio si sposti per effetto della deformazione della struttura, la precisione di misura non deve esserne influenzata. tempo di osservazione [campioni] [giorni] 100 80 50 40 32 25 20 16 10 8 5 4 2 1 3.4 4.3 6.9 8.6 10.7 13.7 17.1 21.4 34.3 42.8 68.5 85.6 171.3 342.5 216±7 188±5 151±4 133±2 118±2 107±2 95±2 84±2 67±1 60±1 47±1 42±0.4 29±0.3 21 68.88 43.45 28.10 13.85 11.11 11.22 8.90 6.21 4.22 4.02 2.02 0.88 0.36 0 204±5 185±4 146±2 132±2 119±2 102±5 85±7 83±1 66±1 59±1 46±1 41±1 29±0.5 20 52 32 17 14 10 24 30 4 5 3 2 2 1 0 Tabella 4.5 : Tabulazione ed analisi dei dati, relativi alle distribuzione e , nel caso in cui vengano estratti sottocampioni dalla popolazione, con procedura di best fit. Legenda: = numero di sottocampioni estratti; = precisione di misura del telescopio; = deviazione standard della distribuzione degli errori sulla media, stimati dall’algoritmo di minimizzazione; = errore sulla media che definisce la precisione di misura del telescopio. È possibile inoltre eseguire una verifica statistica dei dati riportati nella suddetta tabella andando a studiare l’andamento della precisione in funzione del tempo. Poiché l’errore sula media dipende da numerosità , il rapporto tra l’errore sulla media di un campione con ed uno di numerosità deve essere Questo è stato verificato in Tabella 4.6. l’intervallo è di essa è circa del con una probabilità di 3 casi su 1000. ; inoltre il valore può cadere fuori da un intervallo di solo 116 4. 50000-100000 25000-50000 12500-25000 10000-20000 6250-12500 5000-10000 3125-6250 2500-5000 2000-4000 1250-2500 1000-2000 29/21 42/29 60/42 67/47 84/60 95/67 118/84 133/95 151/107 188/133 216/151 Tabella 4.6 : Tabella dei rapporti tra la precisione rivelatore superiore pari rispettivamente ad e a 4.5. 1.43 1.43 1.43 1.43 1.41 1.41 1.40 1.40 1.40 1.42 1.44 29/25 41/29 59/41 66/46 83/59 85/66 119/83 132/85 146/102 185/132 204/146 Analisi 1.14 1.43 1.43 1.44 1.41 1.29 1.43 1.55 1.43 1.40 1.40 di insiemi di sottocampioni con numero di cosmici passanti per il . Costruzione della curva di precisione in funzione del tempo Si è detto che ad un certo numero di cosmici passanti attraverso il rivelatore superiore corrisponde un certo intervallo temporale, in particolare, se i rivelatori sono orizzontali il flusso di cosmici che arrivano alla superficie terrestre è di simulati hanno una superficie di rivelazione di [14]. I rivelatori , perciò, in un minuto, attraverso il rivelatore superiore, passano circa 616 particelle. Nel paragrafo precedente sono stati estratti sottocampioni corrispondenti a determinate numerosità di cosmici, passanti attraverso il rivelatore superiore, ognuna delle quali corrisponde ad un determinato intervallo temporale. È quindi possibile costruire la curva di precisione in funzione del tempo per un periodo di presa dati di circa un anno, tempo necessario affinché milioni di cosmici (vedere Paragrafo 4.4.2) attraversino il rivelatore superiore. Si è proceduto nel seguente modo: utilizzando i valori medi dell'errore sulla media riportati in Tabella 4.5 si sono costruiti i grafici in Figura 4.22, con in ascissa il tempo ed in ordinata la precisione media. 117 4. Analisi Figura 4.22 : Grafici delle precisioni medie, lungo e lungo , del telescopio di misura in funzione del tempo. In particolare, le ordinate dei punti indicati in nero sono i valori riportati in Tabella 4.5, mentre le linee rosse sono quelle ottenute dalla procedura di best fit. Sui dati dei grafici si è applicata una procedura di best fit, utilizzando una forma funzionale del tipo: in cui è il tempo e è il parametro libero con cui la funzione può adattarsi ai dati. La forma della funzione è nota, si è infatti verificato nel paragrafo precedente, con i valori riportati in Tabella 4.6, che la precisione di misura segue la legge , cioè , dove è il tempo, essendo . In questo modo si sono trovati i parametri : ottenendo rispettivamente le funzioni: che rappresentano le curve della precisione del telescopio di misura in funzione del tempo espresso in giorni. Bisogna notare che le costanti , pur non essendo 118 4. Analisi uguali, differiscono solo del 3%. Utilizzando quindi solo una di queste per calcolare la precisione lungo l’altro asse non verrebbero introdotti errori significativi nella valutazione. Le simulazioni e i calcoli svolti nel Paragrafo 4.4.4 e in questo sono stati ripetuti anche utilizzando per la forma funzionale di miglior adattamento i parametri relativi alla distribuzione delle variabili (Tabella 4.3), e non quelli relativi alle variabili . In Figura 4.23 si sono rappresentate le curve di precisione analoghe a quelle presenti in Figura 4.22; dal loro confronto non si notano sostanziali differenze. Questo sta ad indicare la compatibilità tra le distribuzioni delle variabili e , infatti il sistema e la configurazione studiati presentano una simmetria assiale. Figura 4.23 : Grafici delle precisioni medie del telescopio di misura in funzione del tempo. Questi sono analoghi a quelli presentati in Figura 4.21, ma la forma funzionale utilizzata per il calcolo delle precisioni è quella relativa alla procedura di best fit applicata non alla distribuzione delle variabili , ma a quella delle variabili . 119 4. Analisi Figura 4.24 : Grafico delle precisioni medie del telescopio di misura in funzione del tempo per rivelatori con risoluzione spaziale di . Figura 4.25 : Grafico delle precisioni medie del telescopio di misura in funzione del tempo per rivelatori con risoluzione spaziale di . Le stesse procedure e gli stessi calcoli sono stati infine svolti anche per rivelatori caratterizzati da risoluzioni spaziali di e . Nelle figure 4.24 e 4.25 sono rappresentati i grafici delle relative curve di precisione. Inoltre, per avere un confronto più immediato, in Tabella 4.7 sono stati riportati i valori delle precisioni, lungo l’asse , relative a rivelatori con risoluzioni spaziali di , e . Nel primo caso le precisioni di misura del telescopio risultano minori, ma non tanto da non poter prendere in considerazione, anche in ragione degli elevati costi che caratterizzano i dispositivi più precisi, l’idea di installare rivelatori con risoluzioni spaziali inferiori. Diversamente dalle valutazioni riportare nel Paragrafo 4.3, si è trovato che la risoluzione dei rivelatori è un fattore importante da considerare se si vogliono ottenere sistemi di misura con determinate precisioni. Confrontando infatti le precisioni ottenute con rivelatori con risoluzione spaziale di con quelle ottenute con rivelatori con 120 4. risoluzione di Analisi si notano significative differenze. Differenze che nel Paragrafo 4.3 non sono state messe in evidenza in quanto i cosmici erano stati generati tutti con energia di e direzione verticale. tempo di osservazione [campioni] [giorni] 100 80 50 40 32 25 20 16 10 8 5 4 2 1 3.4 4.3 6.9 8.6 10.7 13.7 17.1 21.4 34.3 42.8 68.5 85.6 171.3 342.5 216 188 151 133 118 107 95 84 67 60 47 42 29 21 228 211 183 158 142 132 114 105 83 75 59 53 37 26 225 228 173 158 147 130 116 105 83 76 62 54 39 28 Tabella 4.7 : Precisioni medie del telescopio di misura ottenibili con rivelatori con risoluzioni spaziali di e . 4.6. , Simulazione di uno spostamento Nel Paragrafo 3.6 si è detto che il telescopio di rivelatori è in grado di misurare eventuali deformazioni della struttura alla quale è vincolato poiché tali deformazioni si traducono in errori sistematici di traslazione della media da un valore iniziale, preso come riferimento, a quello letto dopo un certo intervallo temporale. Con questo metodo, quindi, non si è in grado di effettuare misure assolute di posizione ed è necessario conoscere la posizione iniziale (di riferimento) del rivelatore intermedio rispetto agli altri due, che rappresenta lo zero del sistema di misura. Nel Paragrafo precedente si è studiata la precisione del telescopio in funzione del tempo, trovando le funzioni 4.29, attraverso le quali è possibile determinare l'incertezza da 121 4. Analisi attribuire ad ogni singola misura del sistema in seguito ad un determinato tempo di raccolta dati. Lo zero del sistema di misura può essere noto a priori, nel limite delle precisioni meccaniche con cui i rivelatori sono stati posizionati, oppure può essere determinato sperimentalmente attraverso una campagna di misura che abbia come scopo la calibrazione del telescopio di rivelatori, ovvero la determinazione della posizione di riferimento. La precisione con cui questa può essere determinata, dipende, in questo caso, dalla durata della campagna di raccolta dati e può essere facilmente calcolata utilizzando la funzione della Eq. 4.27, la quale è stata ottenuta da simulazioni Monte Carlo. Per la struttura in esame si è ipotizzato di svolgere una campagna di misura di calibrazione di circa un mese, precisamente 34.3 giorni, utilizzando come riferimento il valore risultante della media della funzione di best fit scarti ottenute e , e come precisione delle equazioni Rispettivamente per 4.29 , adattata alla distribuzione degli quella calcolata come media delle precisioni sostituendovi un tempo giorni. e per , si sono ricavati i seguenti valori di riferimento: Questa rappresenta la configurazione di riferimento rispetto alla quale devono essere valutati i possibili spostamenti del rivelatore intermedio, quindi della deformazione della struttura, durante la successiva fase di monitoraggio. Per confermare che una traslazione dei rivelatori rispetto ad una posizione iniziale induce errori sistematici tradotti in uno spostamento del valore medio della distribuzione degli scarti e (quindi anche della media della funzione di best fit adattata a tali distribuzioni), ma non influisce sulla precisione di misura, si è innanzitutto controllato che imponendo traslazioni “macroscopiche” del rivelatore intermedio, non mutasse la precisione del telescopio di rivelatori. Per fare ciò è stato generato un campione di cosmici tracciati ed è stato imposto, rispetto alla configurazione di riferimento, uno spostamento del rivelatore centrale di lungo la direzione e di lungo la direzione . Seguendo lo stesso procedimento descritto nel Paragrafo 4.4.4 sono state calcolate le precisioni del telescopio in funzione del tempo di misura e i relativi punti 122 4. Analisi sono stati sovrapposti alle curve di precisione le cui equazioni sono presenti nella 4.29. In Figura 4.26 si può notare che tali curve approssimano adeguatamente bene i puniti rappresentati, quindi, anche dopo lo spostamento del rivelatore, le precisioni del sistema di misura non cambiano e la curva funzionale di best fit è adeguata. Anche dall'osservazione di Figura 4.27, dove sono rappresentate le distribuzioni di e relative alla suddetta simulazione, si nota che l'ampiezza degli istogrammi non cambia in modo significativo rispetto alla configurazione di riferimento (Figura 4.20); l'unica differenza consiste nello spostamento della media della distribuzione in direzione opposta rispetto a quella in cui è stata imposta la traslazione del rivelatore (per come sono state costruite le variabile statistiche e nella Eq. 3.15). Figura 4.26 : In figura sono mostrati i grafici a punti delle precisioni in funzione del tempo nel caso di rivelatore intermedio spostato a cui sono sovrapposte le funzioni della 4.29, rappresentanti la precisione del telescopio di misura in funzione del tempo. In questo modo si verifica che lo spostamento di un rivelatore rispetto agli altri non comporta, come conseguenza, una variazione della precisione ottenibile in funzione del tempo di osservazione, ma solo uno spostamento delle medie delle distribuzioni e . 123 4. Analisi Figura 4.27 : In figura sono mostrati gli istogrammi di e dopo la generazione di cosmici tracciati, nel caso in cui al rivelatore intermedio vengano imposti spostamenti lungo e rispettivamente di e rispetto alla configurazione di riferimento. Per ottenere una valutazione di quanto tempo sia necessario attendere per avere la certezza di un dato spostamento rispetto alla configurazione di riferimento (quella ottenuta dalla fase di calibrazione) sono state considerate le distribuzioni delle medie ottenute applicando la procedura di minimizzazione ai diversi sottocampioni presi da popolazioni di cosmici tracciati. Il numero e la popolosità dei vari sottocampioni sono gli stessi riportati in Tabella 4.4. In particolare si sono considerate due differenti simulazioni andando a generare cosmici tracciati ed imponendo per ognuna un differente spostamento del rivelatore centrale, quindi differenti deformazioni della struttura. Rispetto alla configurazione di riferimento, nella quale il rivelatore intermedio ha coordinate imposte nelle “configurazioni deformate” le coordinate sono state prese pari a: Lo spostamento è il medesimo utilizzato poco sopra per verificare che la precisione del telescopio di misura fosse indipendente dal disallineamento dei rivelatori. Come già detto questa traslazione è macroscopica ed in condizioni di normale esercizio della struttura deformazioni di questa entità si ottengono in periodi di diversi mesi. 124 4. Nella configurazione e 62 lo spostamento imposto di Analisi lungo entrambe le direzioni può rappresentare invece una più realistica deformazione delle diga, sempre in condizioni di buon esercizio della stessa. Possiamo affermare che un determinato spostamento è rilevabile dopo un certo periodo di tempo , se ogni valore delle medie all’esterno di un intervallo di ampiezza relativa al medesimo periodo 63 cade e simmetrico rispetto alle condizioni di riferimento. In particolare, questi intervalli sono centrati attorno alle coordinate e (paria a ed hanno una semiampiezza di ). Figura 4.28 : In questa figura sono rappresentati gli istogrammi relativi alle medie dei 100 sottocampioni che compongono la popolazione di cosmici tracciati nel caso in cui al rivelatore centrale siano imposte le coordinate (configurazione ). La campitura rossa rappresenta l’intervallo di ampiezza centrato attorno alla configurazione di riferimento e . Il fatto che nessun elemento cada all’interno di questo intervallo sta ad indicare che una presa dati di è sufficiente per rilevare con sicurezza spostamenti dell’ordine di . Nella Figura 4.28 è rappresentato l’istogramma delle medie adattamento della curva di best fit ottenute dal miglior ai 100 sottocampioni che costituiscono l’intera 62 Si noti che rispetto alla configurazione di riferimento, al rivelatore centrale, nel caso B, è stato imposto uno spostamento di: , quindi di sia lungo la direzione sia lungo quella . 63 È stato preso un intervallo di questa ampiezza in ragione della Legge (vedere nota 60). 125 4. popolazione nella configurazione Analisi . Ogni sottocampione è composto quindi da 1000 cosmici tracciati (circa 216 cosmici utilizzati) e rappresenta un periodo di misura di circa 3.4 giorni. Come è possibile vedere dalla figura, tutte le medie dell’intervallo di ampiezza cadono all’esterno rappresentato dalla campitura rossa, quindi è possibile affermare che spostamenti di dell’ordine di sono rilevabili in periodi pari o minori di 3.4 giorni. Andando invece ad analizzare la configurazione si nota che per tempi di misura di 3.4 giorni (Figura 4.29) non è possibile affermare che gli spostamenti di rivelatore intermedio lungo le direzioni delle medie e sono rilevabili con certezza. Buona parte ottenute dal miglior adattamento delle distribuzioni infatti all’interno dell’intervallo imposti al e cadono . In Figura 4.30 sono rappresentati gli istogrammi relativi a tempi di misura di circa 7 giorni. Confrontando questa figura con la precedente si nota che le distribuzioni delle medie si stringono e tendono ad uscire dall’intervallo . Alcuni elementi dell’istogramma vi cadono comunque all’interno, quindi neppure 7 giorni sono sufficienti per rilevare con certezza spostamenti di rappresentati gli istogrammi delle medie . Nelle figure 4.31 e 4.32 sono stati infine relativi a periodi di misura rispettivamente di circa 2 settimane e 2 mesi. Nel primo caso è possibile affermare con certezza che solamente lo spostamento lungo la direzione è stato riconosciuto mentre nel secondo caso sono vengono rilevati entrambi. Il fatto che non vi sia una simmetria tra spostamenti lungo e spostamenti lungo particolare, nel caso in allo spostamento di medie . Nel caso in è spiegabile guardando la configurazione di riferimento. In la calibrazione ha “allontanato” l’intervallo rispetto imposto, facendo quindi cadere al di fuori dell’intervallo le invece la calibrazione ha “avvicinato” l’intervallo quindi si è reso necessario un periodo più lungo per avere tutte le medie al di fuori dell’intervallo. Ciò è causato dall’errore nella valutazione della posizione iniziale a seguito della campagna di calibrazione e al fatto che i fenomeni analizzati sono statistici. 126 4. Analisi Figura 4.29 : In questa figura sono rappresentati gli istogrammi relativi alle medie dei 100 sottocampioni che compongono la popolazione di cosmici tracciati nel caso in cui al rivelatore centrale siano imposte le coordinate (configurazione ). In questo caso molti elementi dell’istogramma cadono nel’intervallo di ampiezza , quindi una presa dati di non è sufficiente per rilevare spostamenti di . Figura 4.30 : In questa figura sono rappresentati gli istogrammi relativi alle medie dei 50 sottocampioni che compongono la popolazione di cosmici tracciati nel caso in cui al rivelatore centrale siano imposte le coordinate (configurazione ). Rispetto alla Figura 4.29 le distribuzioni delle medie si sono strette, tuttavia alcuni elementi dell’istogramma cadono ancora all’interno dell’intervallo. Quindi una presa dati di non è sufficiente per rilevare spostamenti di . 127 4. Analisi Figura 4.31 : In questa figura sono rappresentati gli istogrammi relativi alle medie dei 25 sottocampioni che compongono la popolazione di cosmici nella configurazione . In questo caso tutte le medie relative alle cadono all’esterno dell’intervallo, quindi è possibile affermare con certezza di poter rilevare lo spostamento di imposto lungo dopo una presa dati di . Non è possibile tuttavia affermare la stessa cosa anche per lo spostamento lungo . Figura 4.32 : In questa figura sono rappresentati gli istogrammi relativi alle medie dei 25 sottocampioni che compongono la popolazione di cosmici nella configurazione . In questo caso tutte le medie , sia relative alle sia relative alle , cadono al di fuori dell’intervallo . È quindi possibile affermare con certezza che dopo una presa dati di è possibile rilevare lo spostamento imposto. Le valutazioni fin qui eseguite tengono conto di tutti gli intervalli con medesima numerosità che compongono l’intera popolazione di cosmici tracciati. In una 128 4. Analisi reale campagna di misura su una diga si rende invece disponibile solamente il primo intervallo di ogni gruppo di medesima numerosità. Per controllare dopo quanto tempo sia possibile misurare un determinato spostamento si è quindi proceduto nel seguente modo: 1. Si è tenuta in considerazione la campagna di misura di calibrazione di circa un mese già descritta in questo paragrafo. Riportiamo per semplicità i valori di riferimento e le precisioni ottenuti: 2. Si sono imposte una traslazione in direzione ed una in direzione (configurazione ): pertanto si è modificato il vettore di posizione del rivelatore intermedio, secondo la definizione che ne è stata data nel Paragrafo 3.3, da a . 3. Si sono generati campioni in cui il numero di cosmici passanti per il rivelatore superiore corrisponde, per ciascun campione, ad un determinato tempo di misura, riferito allo stesso istante iniziale. Un campione con una certa numerosità contiene quindi anche tutta la statistica di quelli con numerosità inferiore. In questo modo si è simulata una campagna di misura reale, durante la quale, a ciascun campione viene adattata la forma funzionale media ( ). La precisione , di cui viene annotata la , attribuita alla singola misura, è ricavata sostituendo nelle equazioni 4.29 il tempo di misura . Si dispone quindi di intervalli ( ) per ogni tempo di misura considerato, ricavati su campioni che, se non è intervenuto nessuno spostamento, appartengono alla stessa popolazione. Per verificare la compatibilità fra il valore di riferimento ed il valore della media del campione, si costruisce la variabile statistica ([35], par. 6.12, pagg. 204-209) che ha valore atteso nullo, nell'ipotesi che i due valori ed provengano dalla stessa popolazione: 129 4. Analisi Tale variabile può essere standardizzata nel seguente modo: a vanno applicati livelli di probabilità gaussiani (distribuzione di riferimento gaussiana), perché il numero di cosmici di cui è costituito ciascun campione è maggiore di 30. La verifica avviene per mezzo del test a due code, scegliendo arbitrariamente il livello del test al ([35], par. 6.11, pagg. 202-204). Se l'evento ha un livello di significatività minore del esso si trova nelle code della densità di riferimento, perciò si giudica più probabile la falsità dell'ipotesi. I dati raccolti durante la simulazione della campagna di misura e i valori della variabile standardizzata sono riportati in Tabella 4.8. Trovato il valore di , in apposite tabelle (tabella F.1. [35], pag. 470) si legge il corrispondente valore della densità gaussiana calcolare il livello di significatività , attraverso il quale si può , ovvero la probabilità di sbagliare rigettando l'ipotesi di compatibilità fra due misure. Per la nostra verifica si considerano incompatibili quelle misure il cui livello di significatività risulta inferiore al . tempo cosmici [giorni] tracciati 0.86 1.71 3.43 4.28 5.11 6.85 8.56 10.70 250 500 1000 1250 1492 2000 2500 3125 -545 -1648 -226 -226 -509 -482 -590 -609 426 301 213 190 174 151 135 120 1.32 1.74 3.98 4.40 3.24 3.84 3.49 3.67 -256 -664 -453 -508 -506 -500 -524 -515 412 291 206 184 169 146 130 116 0.28 1.75 1.45 1.88 2.03 2.25 2.63 2.80 Tabella 4.8 : In tabella sono riassunti i valori della media e della deviazione standard delle funzioni di best fit nel caso in cui si sono imposti uno spostamento di in direzione e di lungo . Legenda: = media di adattata alla distribuzione dei ; = errore su ; = valore standardizzato della variabile statistica ( ); = media di adattata alla distribuzione dei ; = errore su ; = valore standardizzato della variabile statistica ( ); = valore di riferimento per la media della funzione adattata alla distribuzione dei ; = valore di riferimento per la media della funzione adattata alla distribuzione dei . 130 4. Analisi Conoscendo a priori il livello di significatività al di sotto del quale consideriamo incompatibili due misure, è possibile calcolare il valore relativo della densità gaussiana: Con le tabelle sopra menzionate è inoltre possibile trovare In alternativa alla procedura di calcolo del livello di significatività, è possibile confrontare i valori di ottenuti per ogni periodo di misura con il valore limite . Nel caso in cui si assumono incompatibili le due misure quindi si rileva una deformazione della struttura. Confrontando i valori dei parametri e che la traslazione di del rivelatore centrale risulta rilevata dopo 3.4 lungo con il valore limite giorni, mentre per registrare lo spostamento di lungo si nota si sono dovuti attendere 5 giorni. Il fatto che non si siano trovati due “periodi di attesa” uguali è unicamente riconducibile al carattere statistico delle popolazioni di cosmici utilizzata. 131 5. 5. Conclusioni Conclusioni Con questo lavoro di tesi ci si è proposti di avviare uno studio circa la possibilità di utilizzare la rivelazione dei raggi cosmici per realizzare un sistema innovativo per il monitoraggio statico di grandi strutture civili che presentano sviluppo prevalentemente verticale. In particolare si è analizzato il caso di una diga a gravità massiccia prendendo come riferimento la struttura e la geometria di uno sbarramento presente nel territori della provincia di Brescia. Il metodo di analisi proposto in questo lavoro è di tipo statistico e lo studio è stato effettuato utilizzando GEANT4, un applicativo gratuito, basato sul metodo Monte Carlo, in grado di gestire ogni possibile interazione dei cosmici con la materia attraversata. È stato necessario sviluppare un codice da inserire nell'applicativo al fine di simulare: la struttura della diga, definendone la geometria ed il materiale di cui è costituita; [Paragrafo 3.3] il sistema di rivelazione, il più elementare possibile, rappresentato da un telescopio verticale costituito da tre rivelatori di raggi cosmici, definendo per ciascuno di essi la geometria, il materiale e la risoluzione spaziale; [Paragrafo 3.3] il generatore di cosmici, dei quali (almeno di quelli che arrivano alla superficie terrestre) si conoscono bene la composizione, la distribuzione angolare, lo spettro energetico e la frequenza, per unità di area, con cui arrivano alla superficie terrestre; [Paragrafo 3.4] un algoritmo che ricostruisca la retta passante per i punti in cui il cosmico attraversa i rivelatori superiore ed inferiore e definisca gli scarti differenza, rispettivamente nelle direzioni e come la e , fra il punto rivelato dal rivelatore intermedio ed il punto in cui quest'ultimo è attraversato dalla retta ricostruita. [Paragrafo 3.6] È stato quindi possibile utilizzare il simulatore Monte Carlo per generare popolazioni molto numerose di cosmici, a cui far attraversare la struttura in esame ed il telescopio di 132 5. Conclusioni rivelatori, con lo scopo di misurare l'eventuale disallineamento del rivelatore intermedio rispetto agli altri due, superiore ed inferiore. A seguito di analisi preliminari si è ottenuto che, a causa delle distribuzioni angolare e di quantità di moto che caratterizzano i cosmici che raggiungono la superficie terrestre, il fattore maggiormente limitante l’accettanza del sistema di misura, come ci si poteva aspettare da semplici considerazioni geometriche, è l’angolo solido coperto dal telescopio di rivelatori. L’accettanza è definita come il rapporto tra il numero di cosmici che attraversano l’intero telescopio di misura e il numero di cosmici che nello stesso intervallo di tempo passano per il rivelatore superiore. Solamente i primi possono essere utilizzati dal telescopio per la misura di eventuali disallineamenti e il loro basso numero limita la precisione raggiungibile dal sistema in un determinato tempo. [Paragrafo 4.2] In un secondo momento sono stati valutati i contributi apportati alla forma delle distribuzioni delle variabili statistiche e da parte della risoluzione spaziale dei rivelatori e da parte dalle interazioni fisiche tra cosmici e materia attraversata. Entrambi questi fattori generano un allargamento delle distribuzioni degli scarti, tuttavia l’effetto delle interazione fisiche, soprattutto della diffusione multipla, è ben più importante rispetto all’effetto della risoluzione dei rivelatori. Per questo motivo è possibile utilizzare rivelatori con risoluzioni non troppo elevate senza ridurre apprezzabilmente la precisione dell’intero sistema di misura. [Paragrafo 4.3] Dopo queste valutazioni iniziali è stata simulata la generazione di un campione di circa 300 milioni di cosmici a partire dalla superficie del rivelatore superiore. Il passaggio di questi attraverso la struttura ed il telescopio di rivelatori ha restituito la distribuzione degli scarti e . Tale distribuzione, la sua forma e la sua larghezza dipendono dalle interazioni tra i cosmici e gli atomi del materiale attraversato, in particolare dalla diffusione multipla, dalla ionizzazione e produzione di raggi dalla produzione diretta di coppie ( , dalla bremsstrahlung e ), dal tipo di materiale attraversato, in particolare dalla sua densità e dal suo numero atomico e dall'entità degli spessori attraversati. Si è individuato durante lo studio delle distribuzioni delle variabili e e degli angoli di zenit che la diffusione multipla dei raggi cosmici all’interno del calcestruzzo permette ad alcuni cosmici, che per angoli di generazione dovrebbero uscire dal telescopio di misura, 133 5. Conclusioni di deviare la loro traiettoria e rientrare nell’angolo solido del telescopio. A causa di questo effetto le distribuzioni degli scarti e vengono “sporcate”, quindi si è reso necessario trovare un criterio per includere nell’analisi solo i cosmici che presentano una traiettoria che poco si discosta dalla linearità. [Paragrafo 4.4.2] Le medie campionarie delle distribuzioni di e così ottenute contengono un’informazione più affidabile circa l'eventuale disallineamento del rivelatore intermedio, inoltre l'errore su tale media è legato alla precisione con la quale è possibile effettuare la misura. Si è quindi determinata la forma della distribuzione degli scarti e attraverso una procedura di miglior adattamento, approssimando la distribuzione ad una somma di gaussiane aventi media comune e diverse deviazioni standard. In particolare le gaussiane più larghe corrispondono a cosmici con valori di quantità di moto minori e viceversa. Si è costruita la curva della precisione del telescopio di misura in funzione del tempo e si è mostrato che la precisione segue, in accordo con la statistica, la legge in cui è una costante che dipende dalle caratteristiche del telescopio di misura e della struttura su cui esso è installato mentre è il tempo di misura. [Paragrafo 4.5] La logica dello strumento consiste nel misurare posizioni relative, per questo motivo risulta necessaria una campagna preventiva di misura, attraverso la quale fissare il valore di riferimento rispetto al quale valutare eventuali spostamenti successivi. Sono state quindi eseguite delle simulazioni nelle quali il posizionamento del rivelatore intermedio è stato variato, simulando così un possibile deformazione della diga. In questo modo si è verificato che le previsioni ottenute precedentemente circa la sensibilità del sistema alla misura dei disallineamenti in funzione del tempo fossero effettivamente riprodotte in questo “esperimento” simulato. In particolare, si è confermato che più lo spostamento del rivelatore è piccolo, maggiore è il tempo necessario per rilevarlo con sicurezza. Assumendo una campagna di calibrazione di un mese si è verificato infine che il sistema è in grado di individuare con sicurezza uno spostamento del rivelatore intermedio, quindi una deformazione della diga, di in periodo di misura di circa tre giorni. [Paragrafo 4.6] 134 Bibliografia [1] Riccardo Monaci. Caratterizzazione e monitoraggio sperimentale di dighe a gravità. Tesi di Laurea presso il Politecnico di Milano. Facoltà di Ingegneria (A.A. 2010/11). [2] Ileana Bodini. Disegno di strumenti innovativi basati sulla rivelazione di raggi cosmici. Tesi di Laurea presso l’Università degli Studi di Brescia. Facoltà di Ingegneria (A.A. 2004/05). [3] I. Bodini, G. Bonomi, D. Cambiaghi, A. Magalini, A. Zenoni. Cosmic ray detection based measurement systems: a preliminary study. Measurement Science and Technology, 4 October 2007. [4] Terna. http://www.terna.it/ [5] Ingam – Ingegneria Ambiente Montagna. http://www.ingam.com/ [6] Maurizio Tanzini. Impianti idoelettrici: progettazione e costruzione. Dario Flaccovio Editore, 2008. [7] http://it.wikipedia.org/wiki. [8] Prof. Ing. Ignazio Mantica. Dispense di costruzioni idrauliche. Università degli Studi di Ancona, Istituto di Idraulica. [9] Advanced Geotechnical Instrumentation Systems and Consulting s.r.l. Scheda tecnica di pendoli e tecoordinometri. [10] Portale dei servizi di pubblica utilità della Regione Lombardia. http://www.ors.regione.lombardia.it/cm/home.jhtml [11] Samuel Tolansky. Introduzione alla fisica atomica. Universale scientifica Boringhieri, 1966. [12] Progetto Gubermator. Istituto Calasanzio, Empoli. http://www.monci.it/homogubernator/0_Sommario.htm [13] Alessandro De Angelis. L’enigma dei raggi cosmici. Springer, 2012. 135 [14] Physics Letters B, Volume 667. Review of Particle Physics, July 2008. Elsevier. [15] Cristina Papaleo. Caratterizzazione dei raggi cosmici rivelati dall’esperimento Argo-YBJ in funzione della quota di interazione del primario. Tesi di Laurea presso l’Università degli Studi di Roma. Facoltà di Scienze Matematiche Fisiche e Naturali (A.A. 2008/09). [16] Francesco Maragliulo. Studio del flusso dei Raggi Cosmici di altissima energia. Tesi di Laurea presso l’Università degli Studi di Salerno. Facoltà di Scienze MM.FF.NN. (A.A. 2006/07). [17] Maria Giuseppina Liber. I raggi cosmici, un percorso didattico per vedere l’invisibile. Editore Provincia Autonoma di Trento, 2007. [18] Alessandro Bettini. Introduction to Elementary Particle Physics. Cambridge University Press, 2008. [19] Robert Resnick, David Halliday, Kenneth S. Krane. Fisica 1. Edizione italiana a cura di Lanfranco Cicala. Casa Editrice Ambrosiana, 2003. [20] Francesco Pellegrino. Studio dimensionale di rivelatori per tomografia muonica. Tesi di Laurea presso l’Università degli Studi di Brescia. Facoltà di Ingegneria (A.A. 2008/09). [21] Vadim A. Naumov. Atmospheric muons and neutrinos. Proceedings of 2nd Workshop on Methodical Aspects of Underwater/Underiece Neutrino Telescopes. Hamburg, 2001. [22] Kavli Institute for Cosmological Physics at the University of Chicago. [23] E. P. Georgen. Cosmic rays measure overburden of tunnel, pag. 455. Commonwealth Engineer (1955). [24] L. W. Alvarez e altri. Search for hidden chambers in the pyramids using cosmic rays. Science 167 (1970), pag. 832. [25] K. Nagamine, M. Iwasaki, K. Shimomura, K. Ishida. Method of probing innerstructure of geophysical substance with the horizontal cosmic-ray muons and possible application to volcanic eruption prediction. Nuclear Instruments and Methods in Physics Research A 356 (1995), pagg. 585-595. 136 [26] H. Tanaka ed altri. Development of a two-fold segmented detection system for near horizontally cosmic-ray muons to probe the internal structure of a volcano. Nuclear Instruments and Methods in Physics Research A 507 (2003), pagg. 657-669. [27] Konstantine N. Borozdin ed altri. Radiographic imaging with cosmic-ray muons. Nature, Volume 422 (20 Marzo 2003). [28] Larry Joe Schultz. Cosmic ray muon radiography. Tesi di Dottorato, Portland State University, 2003. [29] Larry Joe Schultz ed altri. Image reconstruction and material Z discrimination via cosmic ray muon radiography. Nuclear Instruments and Methods in Physics Research A 519 (2004), pagg. 687-694. [30] Larry Joe Schultz ed altri. Cosmic ray muon radigraphy for contraband detection. http://www.lanl.gov/orgs/p/pdfs/muon2.pdf [31] G. Bonomi, A. Zenoni, S. Pesente, S. Vanini, M. Benettoni, G. Zumerle, P. Calvini, P. Checchia, E. Conti, F. Gonnella, G. Nebbia, S. Squarcia, G. Viesti. First results on material identification and imaging with a large-volume muon tomography prototype. Nuclear Instrument and Methods in Physics Research A 604 (2009). [32] G. Bonomi, A. Donzella, A. Zenoni. Tomografia muonica: i raggi cosmici e le acciaierie. 2° Convegno Dipartimento Ingegneria Meccanica e Industriale, 18 Maggio 2011. [33] G. Bonomi, L. Dassa, A. Donzella, V. Villa. Progettazione della struttura di un portale per tomografia muonica di rottami di ferro. 2° Congresso Nazionale del Coordinamento della Meccanica Italiana. Ancona, 25-26 giugno 2012. [34] http://root.cern.ch/drupal/content/geant4-vmc [35] A. Rotondi, P. Pedroni, A. Pievatolo. Probabilità Statistica e Simulazione. SpringerVerlag Italia, Milano 2005. [36] Barbara Sergi. Ottimizzazione di un rivelatore a Tripla-GEM per l’Esperimento LHCb. Tesi di Laurea presso l’Università degli Studi di Cagliari. Facoltà di Scienze Matematiche, Fisiche e Naturali (A.A. 2003/04). [37] Silvia Franchino. Principi di funzionamento ed alcune applicazioni dei rivelatori GEM. Seminario di Silvia Franchino. Pavia, 28 giugno 2006. 137 [38] M. C. Altunbas, K. Dehmelt, S. Kappler, B. Ketzer, L. Ropelewski, F. Sauli, F. Simon. Aging measurements with the Gas Electron Multiplier (GEM). Nuclear Instrument and Methods in Physics Research A 515 (2003), pagg. 249-254. [39] L. Bonecchi, M. Bongi, D. Fedele, M. Grandi, S. ricciarini, E. Vannuccini. Development of the ADAMO detector: test with cosmic rays at different zenith angles. 29th International Cosmic Ray Conference Pune (2005). [40] ROOT User’s Guide 5.26 December 2009 (2009). http://root.cern.ch/download/doc/Users_Guide_5_26.pdf 138 Ringraziamenti Giunto al termine di questo lavoro di tesi desidero ringraziare innanzitutto il Dottor Germano Bonomi e la Dottoressa Antonietta Donzella, rispettivamente relatore e correlatore di questa tesi, per la grande disponibilità e cortesia dimostratemi e per tutto l’aiuto fornito durante la stesura. Un sentito grazie va inoltre all’Ingegner Massimo Da Lio per la disponibilità e l’interesse mostrato per questa lavoro e per le preziose informazioni con le quali ho potuto arricchirlo. Ringrazio inoltre il Professor Danilo Cambiaghi per aver dato l’input a quello che poi è diventato il progetto della mia tesi e per il suo costante interesse. Ringrazio i miei famigliari per avermi sostenuto in questo importante percorso e per avermi sopportato anche nei periodi più stressanti. In particolare, un caloroso grazie a mia mamma che con i suoi quotidiani sacrifici mi ha permesso di raggiungere questo traguardo. Un grazie di cuore anche ad Alice, mia ragazza e confidente, per i sorrisi, gli incoraggiamenti e gli indimenticabili momenti trascorsi insieme. E come potrei dimenticarmi dei “compagni di banco” con i quali ho condiviso questi anni di vita universitaria. Un grazie a Samu, il Palini, Habio, Freddi, Frankie e l’Andrew, Laura e Beppe. Ringrazio infine mio fratello Christian, i vecchi amici Gabry, Fulvio e il Baru ed i nuovi amici Paolo, Ambra, Gaio, Francy, Roby Z. e Roby C. con i quali ho trascorso belle avventure e divertenti serate.