università degli studi di brescia - Pavia Fisica Home Page

Transcript

università degli studi di brescia - Pavia Fisica Home Page
UNIVERSITÀ DEGLI STUDI DI BRESCIA
FACOLTÀ DI INGEGNERIA
CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA MECCANICA
MONITORAGGIO DI DIGHE MEDIANTE RAGGI COSMICI
Relatore:
Dott. Germano Bonomi
Correlatore:
Dott.ssa Antonietta Donzella
Laureando:
Alessandro Zubani
Matricola: 75645
Anno Accademico 2011-2012
Sommario
Sommario
Introduzione ........................................................................................................................... I
1.
Monitoraggio statico di dighe ........................................................................................ 1
1.1.
Classificazione delle dighe ...................................................................................... 1
1.2.
Strumenti per la misura di piccoli spostamenti ...................................................... 7
1.2.1.
Pendoli ............................................................................................................. 8
1.2.2.
Monitoraggio mediante raggi cosmici ........................................................... 10
1.3.
2.
I raggi cosmici ............................................................................................................... 16
2.1.
Cenni storici .......................................................................................................... 16
2.2.
Natura dei raggi cosmici ....................................................................................... 20
2.2.1.
Flusso dei raggi cosmici primari..................................................................... 21
2.2.2.
Reazioni a catena in atmosfera ..................................................................... 27
2.2.3.
Raggi cosmici sulla superficie terrestre ......................................................... 30
2.3.
Fenomeni fisici di interazione dei muoni con la materia ...................................... 31
2.3.1.
Urti anelastici ................................................................................................. 33
2.3.2.
Bremsstrahlung.............................................................................................. 35
2.3.3.
Produzione diretta di coppie
2.3.4.
Diffusione multipla ........................................................................................ 36
2.4.
3.
Caso analizzato...................................................................................................... 11
........................................................... 35
Applicazioni con raggi cosmici .............................................................................. 38
Strumenti e procedure di simulazione ......................................................................... 42
3.1.
Premessa ............................................................................................................... 42
3.2.
GEANT4 ed il metodo Monte Carlo ...................................................................... 45
Sommario
4.
3.3.
Simulazione della geometria e tracciamento dei cosmici .................................... 50
3.4.
Descrizione del generatore di cosmici .................................................................. 62
3.5.
ROOT ..................................................................................................................... 69
3.6.
Posizionamento dei rivelatori e procedura di calcolo degli scarti ........................ 70
Analisi ........................................................................................................................... 77
4.1.
Premessa ............................................................................................................... 77
4.2.
Valutazione dell’accettanza del sistema ............................................................... 79
4.2.1.
Calcolo approssimato dell’accettanza geometrica ........................................ 80
4.2.2.
Calcolo Monte Carlo dell’accettanza ............................................................. 84
4.3.
Studio dei contributi della risoluzione del rivelatore e delle interazioni fisiche
sulla distribuzione delle variabili statistiche
4.4.
5.
e
................................................... 85
Studio della precisione del sistema ...................................................................... 96
4.4.1.
Generazione e tracciamento dei cosmici ...................................................... 96
4.4.2.
Struttura delle distribuzioni di
4.4.3.
Funzione di migliore adattamento alle distribuzioni
4.4.4.
Calcolo della precisione di misura del telescopio........................................ 113
e
......................................................... 98
e
..................... 108
4.5.
Costruzione della curva di precisione in funzione del tempo............................. 117
4.6.
Simulazione di uno spostamento........................................................................ 121
Conclusioni ................................................................................................................. 132
Bibliografia ......................................................................................................................... 135
Ringraziamenti ................................................................................................................... 139
Introduzione
Introduzione
La realizzazione di una grande struttura civile è un’operazione estremamente complessa,
sia per quanto riguarda la fase di progettazione sia per quanto riguarda la fase di messa in
opera. Commettere errori anche piccoli in una di queste due fasi può portare a imprevisti
di non facile risoluzione tecnica e pratica, nei casi migliori, od a vere e proprie catastrofi.
Per evitare situazioni di questo tipo, o quantomeno per individuarle con sufficiente
anticipo e per poter intervenire adeguatamente, risulta di fondamentale importanza la
tecnica del monitoraggio.
Questa permette infatti di individuare, durante le fasi più significative della costruzione e
dell’utilizzo, eventuali criticità dovute, oltre che all’errore umano, ad imprevisti di varia
natura non scongiurabili neppure dopo un’attenta pianificazione. Inoltre, nel caso
servissero interventi correttivi, permetterebbe di accertarne la buona riuscita e la
rispondenza alle aspettative. Il monitoraggio riveste infine un ruolo molto importante
nelle fasi di collaudo e di esercizio della struttura realizzata [1].
In questo lavoro di tesi verrà presa in considerazione un’innovativa tecnica sperimentale
che prevede il monitoraggio statico di grandi strutture civili mediante la rivelazione di
raggi cosmici per mezzo di opportuni rivelatori. L’idea di impiegare questo sistema di
monitoraggio è partita dalla collaborazione, nata nell’ambito dell’esperimento FINUDA,
fra il Professor Aldo Zenoni, fisico, e il Professor Danilo Cambiaghi, ingegnere, entrambi
professori ordinari presso l’Università degli Studi di Brescia. Ambedue hanno collaborato
alla progettazione e realizzazione dell’apparato FINUDA, finalizzato alla produzione e allo
studio di ipernuclei1 presso l’acceleratore DAFNE dei Laboratori Nazionali di Frascati
1
Nel 1953 i fisici Marian Danysz e Jerzy Pniewski scoprirono nelle interazioni dei raggi cosmici un nuovo tipo
di materia: l'ipermateria (contenente un quark particolare chiamato strange). L'ipermateria non è presente
stabilmente nell'Universo poiché, una volta prodotta, in una frazione di tempo brevissima, dell'ordine di
alcuni decimi di miliardesimo di secondo, si ritrasforma nella comune materia nucleare che ci circonda. Per
formare un ipernucleo bisogna introdurre in un nucleo ordinario un mesone , che contiene il quark
strange. In questo modo, all'interno di un protone o di un neutrone del nucleo, un quark up o down viene
sostituito dal quark strange: un neutrone o un protone del nucleo si trasformano in una particella lambda
I
Introduzione
dell’Istituto Nazionale di Fisica Nucleare 2. In questo apparato vi era la necessità di
ottenere strette tolleranze nel montaggio dei vari rivelatori, al fine di raggiungere
precisioni elevate nella misura delle traiettorie e quindi delle quantità di moto delle
particelle generate. L’allineamento è stato realizzato per mezzo dei raggi cosmici e di un
algoritmo che, attraverso una serie di iterazioni successive, è stato in grado di ricostruire
la mappa dell’intero sistema di rivelazione con una precisione di circa
. Si evince la
potenzialità di questo sistema dal confronto con la precisione meccanica, di circa
,
con la quale i rivelatori sono stati posizionati prima della fase di allineamento.
Gli aspetti che sono parsi più interessanti [2] al fine di estendere l’applicazione del
metodo statistico basato sulla rilevazione dei raggi cosmici nel campo del posizionamento
di una stessa struttura, meccanica o civile, al di fuori dell’ambito strettamente legato alla
fisica nucleare e delle alte energie sono stati essenzialmente:

la possibilità di posizionare i rivelatori solidali alle parti di struttura da monitorare
e di lasciarli su di esse anche per tempi lunghi, durante i periodi di esercizio, per
avere informazioni continue sulla struttura e su come essa si deforma;

la possibilità di ottenere una sorta di radiografia del sistema di rivelatori con cui si
effettua la misura, così da ottenere una “fotografia" dell'eventuale deformazione
subita dalla struttura;

la possibilità di valutare l'allineamento di componenti della medesima struttura
che non sono direttamente visibili gli uni dagli altri;

la possibilità di ottenere precisioni dell'intero sistema di misura che dipendono,
per tempi di osservazione sufficientemente lunghi, solo dalla quantità di statistica
disponibile e dalla precisione dei singoli moduli rivelatori.
Alla luce di queste considerazioni la tesista Ileana Bodini ha svolto il lavoro “Disegno di
strumenti di misura innovativi basati sulla rilevazione di raggi cosmici” sotto la
supervisione del Professor Aldo Zenoni, del Professor Danilo Cambiaghi e del Dottor
Germano Bonomi. Lo scopo di suddetto lavoro è stato quello di valutare l’utilizzo della
(Λ), che fa parte di un gruppo di particelle instabili denominate iperoni, da cui i termini ipermateria e
ipernucleo.
2
In tutta Italia esistono 4 laboratori nazionali appartenenti all’Istituto Nazionale di Fisica Nucleare (INFN): i
Laboratori Nazionali di Legnaro (LNL), i Laboratori Nazionali del Sud (LNS) a Catania, i Laboratori Nazionali
del Gran Sasso (LNGS) e i Laboratori Nazionali di Frascati (LNF).
II
Introduzione
rivelazione dei raggi cosmici per realizzare sistemi innovatovi di misura e monitoraggio del
posizionamento di parti in una struttura meccanica. In particolare, l’analisi è stata
focalizzata sul monitoraggio statico di una pressa industriale e sull’individuazione, nel
piano orizzontale, di eventuali spostamenti reciproci della base e del montante della
pressa. A questa tesi ha fatto inoltre seguito la pubblicazione di un articolo sulla rivista
internazionale Measurement Science and Technology [3].
Grazie ai buoni risultati ottenuti nel lavoro menzionato, il Professor Cambiaghi ha
proposto di applicare questa tecnica di monitoraggio alle grandi strutture civili che
presentano uno sviluppo prevalentemente verticale e per le quali è necessario
monitorare i possibili mutui spostamenti delle parti rispetto ad un assetto di partenza,
come le dighe, i pilastri di sostegno dei viadotti e le torri.
In questo lavoro di tesi si è scelto di analizzare la possibilità di applicare il monitoraggio
mediante raggi cosmici al caso di una diga in muratura, in ragione del’importanza che
queste strutture ricoprono nella produzione di energia elettrica da fonte rinnovabile3 e in
ragione della loro diffusione sul territorio nazionale. In particolare, questa innovativa
tecnica potrebbe essere impiegata per rilevare eventuali deformazioni dello sbarramento,
deformazioni che oggi vengono misurate mediante particolari strumenti detti pendoli.
Affinché il sistema sperimentale studiato ne possa rappresentare una valida alternativa,
dovrà essere in grado di riconoscere spostamenti delle varie parti della struttura
dell’ordine del millimetro su periodi di monitoraggio di circa un mese. Il lavoro di tesi è
volto proprio a calcolare le precisioni raggiungibili con il sistema di misura introdotto e
risulta così strutturato.
Capitolo 1.
In questo capitolo viene fornita la classificazione delle dighe di ritenuta, in particolare
vengono descritte le varie tipologie di dighe in muratura. Dopo aver introdotto i più
comuni strumenti utilizzati per rilevare piccoli spostamenti e deformazioni degli
sbarramenti idrici, vengono analizzati più in dettaglio i pendoli dritti e rovesci, strumenti
3
In Italia nel 2010 la produzione lorda di energia elettrica si è attestata intorno ai
, dei quali il
è da attribuire all’impiego di combustibili fossili quali carbone, petrolio e gas naturale; il restante
è da attribuire alle fonti rinnovabili quali idroelettrico, geotermico, eolico, fotovoltaico e biomasse.
Tra le rinnovabili la fonte idroelettrica rappresenta la più importante, infatti copre circa il
della
produzione lorda di energia elettrica [4].
III
Introduzione
con i quali la tecnica sperimentale studiata in questo lavoro di tesi dovrà confrontarsi.
Viene quindi introdotto l’innovativo sistema di misura che sfrutta la rivelazione dei raggi
cosmici. Infine viene descritta la struttura di una diga in muratura presente nella provincia
di Brescia la quale è presa come riferimento per le simulazioni svolte con il calcolatore.
Capitolo 2:
In questa sezione viene brevemente ripercorsa la storia che ha condotto la comunità
scientifica alla scoperta di una particolare radiazione extraterrestre oggi chiamata
radiazione cosmica. Questa è la radiazione che si è pensato rivelare, per mezzo di
opportuni dispositivi, per eseguire il monitoraggio statico delle dighe. In questa parte
vengono ampiamente descritte l’origine e le caratteristiche dei raggi cosmici, i quali sono
classificati in raggi cosmici primari, raggi cosmici delle reazioni a catena e raggi cosmici a
livello del mare. Vengono inoltre descritti i fenomeni fisici di interazione tra i muoni
(particelle che costituiscono la frazione preponderante della radiazione cosmica che
raggiunge il suolo) e la materia per meglio comprendere “il comportamento” tenuto da
queste particelle nell’attraversamento della struttura analizzata. Infine vengono forniti
alcuni esempi delle applicazioni che negli ultimi 50 anni hanno impiegato la radiazione
cosmica.
Capitolo 3:
In questo capitolo vengono descritte le caratteristiche dei software utilizzati per le
simulazioni svolte in questo lavoro di tesi: il programma GEANT4 per simulare il passaggio
dei raggi cosmici attraverso la struttura studiata e l’applicativo ROOT per l’analisi
statistica dei dati ottenuti dalle simulazioni. Viene inoltre descritta la geometria delle
varie parti che costituiscono la configurazione analizzata, in particolare il sistema di
misura impiegato per il monitoraggio statico della diga e i tre dispositivi atti a rivelare i
raggi cosmici di cui il sistema stesso è composto. Viene infine riportata la procedura
analitica inserita nel programma per individuare possibili deformazioni della parte
centrale della struttura mediante il calcolo del disallineamento del rivelatore intermedio
del sistema di misura rispetto agli altri due.
IV
Introduzione
Capitolo 4:
In questa sezione sono riportate le analisi eseguite in questo lavoro di tesi. In particolare
viene svolto lo studio dettagliato delle distribuzioni delle variabili statistiche
e
, le
quali rappresentano il disallineamento del rivelatore centrale lungo la direzione
perpendicolare e lungo quella parallela rispetto all’asse longitudinale della diga. Vengono
inoltre costruite le curve di precisione del sistema di misura in funzione del tempo di
raccolta dati del sistema stesso. Infine viene fornita una stima del tempo necessario per
individuare possibili deformazione della struttura analizzata.
Il lavoro è completato da un capitolo in cui sono esposte le conclusioni ottenute dalle
analisi svolte.
V
1.
1.
1.1.
Monitoraggio statico di dighe
Monitoraggio statico di dighe
Classificazione delle dighe
Una diga di ritenuta è un’opera di sbarramento costruita per ostruire o deviare il corso di
un fiume e raccoglierne le acque in un bacino artificiale. Generalmente le dighe vengono
costruite per concentrare il salto d'acqua naturale del fiume, in modo da sfruttarlo per
generare energia elettrica, alimentare canali e sistemi di irrigazione e di
approvvigionamento idrico, oppure per aumentare il livello dell'acqua del fiume per
renderlo navigabile o controllarne il livello nei periodi di piena o siccità, o ancora per
creare laghi artificiali a scopo ricreativo. Spesso le dighe svolgono contemporaneamente
molte di queste funzioni.
In relazione alle caratteristiche morfologiche del sito di imposta del corpo diga, allo
schema di funzionamento statico, alla geometria dell’opera, alle modalità costruttive e ai
materiali impiegati per la loro costruzione, gli sbarramenti si possono classificare in dighe
in muratura, dighe in materiali sciolti, sbarramenti di tipo vario e traverse fluviali [5]. La
tecnica di monitoraggio che verrà analizzata in questo lavoro di tesi è applicabile alle sole
dighe in muratura, ciò nonostante in questo paragrafo verranno descritte brevemente
anche le altre tipologie.
Le dighe in muratura sono opere di sbarramento murarie in calcestruzzo convenzionale,
in cemento armato o elementi lapidei consolidati con legante cementizio. In relazione al
comportamento statico della struttura il regolamento italiano vigente4 le divide in dighe a
gravità e dighe a volta. Queste ultime possono essere classificate in dighe ad arco, ad arco
gravità e a cupola, mentre quelle a gravità possono essere classificate in dighe massicce e
alleggerite.
Le dighe a gravità massicce dette anche a gravità ordinarie sono strutture ad asse
planimetrico rettilineo o a debole curvatura, con sezione trasversale triangolare che si
4
Il Regolamento Italiano Dighe (R.I.D.) [D.P.R. n. 1363 del 01/11/1959 (parte I) e D.M.LL.PP. del 24/03/1982]
stabilisce precise norme per la progettazione e la verifica statica di ogni tipologia di diga.
1
1.
Monitoraggio statico di dighe
mantiene costante su tutto il profilo longitudinale. La sezione risulta piena e divisa in
conci5 con giunti verticali permanenti e posti a distanze tali da evitare fessurazioni e ritiri.
La superficie esposta all'acqua, detta paramento di monte, è verticale o sub-verticale
mentre la superficie esposta all’aria, detta paramento di valle, ha una pendenza media6
generalmente compresa tra
e
. Questo tipo di diga si oppone alla spinta
dell'acqua attraverso il peso proprio, da cui il nome “a gravità”, ed all'attrito/coesione tra
la diga e la roccia sottostante. Essendo una struttura massiccia e rigida può essere
edificata anche in valli di notevole larghezza, ma richiede in fondazione rocce
discretamente resistenti e poco deformabili. Negli ultimi 30 anni le dighe a gravità hanno
subìto un grande sviluppo grazie all’impiego del calcestruzzo rullato e compattato7,
tecnologia che permette di abbattere i costi e i tempi di realizzazione di queste strutture.
Un esempio di questa tipologia è la diga svizzera chiamata Grande Dixence (Figura 1.1):
con i suoi
di altezza e con uno sviluppo di
al coronamento è la diga più alta
d’Europa e la terza più alta del mondo.
Le dighe a gravità alleggerite, dette anche a contrafforti o a speroni, sono
sostanzialmente una variante delle dighe a gravità ordinarie: alla forma tipica dello
sbarramento massiccio vengono creati dei vani di alleggerimento. Sono caratterizzate da
una struttura muraria trasversale costituita da una successione di elementi indipendenti
detti speroni o contrafforti, aventi profilo trasversale triangolare e posti a contatto lungo
il paramento di valle (a volte anche su quello di monte) per fornire sostegno alla parete di
ritenuta, e opportunamente distanziati tra loro. Sono dette “alleggerite” perché
5
I conci sono blocchi di pietra facenti parte di una struttura muraria e a tal fine lavorati in modo da
assumere forme definite e più o meno regolari (secondo le diverse funzioni architettoniche, i conci si
chiamano cunei negli archi, tamburi o rocchi nelle colonne, ecc.). Per estensione sono chiamati conci anche
i monoliti in cui sono suddivisi i grandi getti di calcestruzzo.
6
La pendenza
in un particolare punto (pendenza puntuale) è definita matematicamente come la
tangente dell’angolo di inclinazione, espresso in radianti:
. La pendenza media
è invece
definita come il rapporto tra il dislivello
e la distanza orizzontale :
, o più semplicemente
7
Il calcestruzzo rullato e compattato è un calcestruzzo che durante la costruzione della diga viene trattato
come se fosse un materiale sciolto, associando pertanto le proprietà di economicità e di rapidità di posa in
opera tipiche di questo materiale alle eccellenti proprietà meccaniche e alla facilità di trattamento di un
calcestruzzo. Il metodo universalmente utilizzato consiste sostanzialmente nel rullare e compattare,
mediante rulli vibranti, successivi strati di calcestruzzo con slump nullo (lo slump quantifica la capacità del
calcestruzzo fresco di essere manipolato e costipato; maggiore è il suo valore, maggiore è la sua
lavorabilità), posti in opera con adeguati impianti e macchinari (nastri trasportatori, autocarri, bulldozer,
ecc.) [6].
2
1.
Monitoraggio statico di dighe
richiedono, rispetto ad una diga a gravità massiccia di pari dimensioni, molto meno
calcestruzzo, dal
al
in meno. Ciò nonostante, queste dighe non sono
necessariamente meno costose: il costo della lavorazione di forme in calcestruzzo più
complesse e l'impiego dell'acciaio per armare il calcestruzzo generalmente compensano
l'economia fatta nei materiali da costruzione. In generale si può affermare [7] che la
maggiore complessità di realizzazione ed il leggero aumento di rischio dovuto alla
concentrazione delle spinte in fondazione rende ad oggi questo tipo di diga spesso meno
conveniente rispetto alle altre tipologie. Tali dighe possono rivelarsi necessarie, tuttavia,
nei luoghi in cui il substrato su cui si deve edificare la struttura non è abbastanza
consistente. Dei diversi tipi di dighe a contrafforti, le più comuni sono quelle a lastroni e
quelle ad archi multipli. Nel primo caso la spinta dell'acqua è sostenuta da una serie di
grandi lastre di calcestruzzo armato, che vanno da un contrafforte all'altro. Nelle dighe ad
archi multipli, invece, una serie di archi permette di distanziare maggiormente i
contrafforti. Un esempio di quest’ultima tipologia è la diga di Daniel Johnson (Figura 1.2)
sul fiume Manicouagan, in Canada: è lunga
e con i suoi
di altezza è una
delle dighe più alte del mondo.
Figura 1.1 : In questa fotografia si vede lo sbarramento della diga Grande Dixence, situata in testa alla Val d'Hérens
nel Canton Vallese della Svizzera. Appartiene alla tipologia delle dighe a gravità massiccia e con i suoi
di
altezza è la diga più alta d'Europa.
3
1.
Monitoraggio statico di dighe
Figura 1.2 : In questa fotografia si vede lo sbarramento della diga di Daniel Johnson sul fiume Manicouagan, in
Canada. Appartiene alla tipologia delle dighe a gravità alleggerita e con i suoi
di altezza è una delle dighe più
alte del mondo.
Le dighe a volta si oppongono alla spinta dell’acqua attraverso l’effetto “arco” che si
ottiene grazie alla particolare forma conferita all'opera muraria, che risulta sensibilmente
arcuata nel profilo trasversale. La pressione idrostatica dell’acqua dell’invaso viene
scaricata attraverso le sponde d’imposta sui fianchi della valle, ne consegue che questa
tipologia di diga può essere edificata solo in valli con ridotta larghezza e con rocce dei
versanti compatte. La loro struttura risulta particolarmente leggera grazie all'elevata
resistenza garantita dagli archi ed ha sezione piena monolitica o formata da conci bloccati
da giunti. Le dighe a volta possono essere a curvatura semplice, lavorando come una serie
di archi orizzontali sovrapposti (tipiche per le valli con "forma ad U") o a doppia curvatura,
lavorando come una cupola (tipiche per le valli con "forma a V"). Sono realizzate in
calcestruzzo generalmente non armato e negli ultimi decenni l’impiego della tecnologia di
posa del calcestruzzo rullato e compattato ha restituito la competitività economica a
questa soluzione, la quale è altrimenti penalizzata dai crescenti costi della mano d'opera.
Una tristemente famosa diga ad volta a doppia curvatura è quella del Vajont (Figura 1.3),
alta circa
e larga alla base
. Recentemente diverse grandi dighe ad volta sono
state realizzate in Cina, ad esempio la diga Ertan con un’altezza pari a
larghezza alla base di soli
contro i
e una
che avrebbe avuto una equivalente diga a
gravità.
4
1.
Monitoraggio statico di dighe
Figura 1.3 : In questa suggestiva fotografia si vede la diga del Vajont. Fu costruita tra il 1957 e il 1960 nel territorio del
comune di Erto e Casso (in provincia di Pordenone) lungo il corso del fiume Vajont. Questa diga è tristemente famosa
per il disastro del 9 ottobre 1963, quando una frana del monte Toc precipitò nel bacino, facendo traboccare lo stesso
e inondando il paese di Longarone causando quasi 2000 vittime. È importante notare che la diga non crollò e che la
sollecitazione di punta alla quale la struttura fu sottoposta durante l’immane tragedia fu circa 7 volte quella massima
prevista a progetto. La tragedia fu causata dall'onda provocata dalla frana che, sfiorato il coronamento della diga, lo
superò abbattendosi nella valle del Piave, e dall'onda di riflusso che tornò verso il lago. Se la diga avesse ceduto le
conseguenze sarebbero state ancora più disastrose, in quanto la quantità di acqua che si sarebbe riversata a valle
sarebbe stata tripla (l'onda è stata valutata in 50 milioni di metri cubi, la capienza del lago era di 150 milioni e al
momento dell'evento si era quasi al limite).
Le dighe in materiali sciolti o a terrapieno sono le strutture più usate per il contenimento
delle acque. Vengono costruite utilizzando vari materiali, dall'argilla alle grosse pietre,
non richiedono particolari lavorazioni ed è spesso la disponibilità del materiale in loco, o
nelle immediate vicinanze, a fare propendere per questo tipo di costruzione. Lo sviluppo
delle grandi macchine per il movimento di terra ha ridotto i costi di realizzazione delle
dighe a terrapieno, rendendole competitive rispetto a quelle di calcestruzzo. A causa della
scarsa stabilità di pendenza della maggior parte dei materiali usati per costruirle, queste
strutture devono avere la base da quattro a sette volte più larga dell'altezza. Poiché le
infiltrazioni sono inversamente proporzionali alla distanza che l'acqua deve attraversare,
le spesse dighe a terrapieno sono adatte ai siti caratterizzati da substrati permeabili. La
grande diga di Assuan (Figura 1.4), in Egitto, ad esempio, è larga
ed è costruita su
5
1.
Monitoraggio statico di dighe
fondamenta di sabbia e ghiaietto che arrivano a una profondità di
. Le dighe a
terrapieno possono essere costruite quasi interamente con materiali impermeabili, come
l'argilla, o possono avere un nucleo di materiale impermeabile racchiuso sia verso monte
sia verso valle da strati di materiale permeabile, ad esempio un misto di sabbia grossa e
ciottoli. Per ridurre le infiltrazioni, il nucleo può estendersi ben al di sotto del livello della
fondazione principale della diga. La diga di Tarbela, completata nel 1977 sul fiume Indo in
Pakistan, è alta
e lunga
. Contiene
di terra e roccia nella
sezione principale, la più vasta quantità di materiale mai impiegata per costruire una diga
a terrapieno.
Figura 1.4 : In questa fotografia si vede la diga di Assuan, la più grande e moderna delle due dighe sul Nilo che si
trovano nei pressi della prima cateratta del fiume, vicino alla città di Assuan, in Egitto. È lunga
, larga
alla base e
sulla sommità, per un'altezza di
. La sua costruzione si rese necessaria per regolare le
inondazioni del Nilo e poter apportare il limo nei periodi maggiormente propizi per l’agricoltura.
Gli sbarramenti di tipo vario rappresentano tutte le strutture di sbarramento diverse da
quelle definite precedentemente, sia per caratteristiche costruttive sia per funzionalità e
impiego, ma aventi comunque certe particolarità in comune. A questa categoria
appartengono le dighe di tipo misto e le dighe di subalveo: le prime sono costituite in
6
1.
Monitoraggio statico di dighe
parte da strutture murarie e in parte da materiali sciolti; le seconde sono costituite da
uno sbarramento affondato nel subalveo fino a raggiungere ed intercettare la falda
sotterranea di una valle, in modo da farla emergere e accumularne la risorsa all'interno
dell'invaso che si crea a monte.
Le traverse fluviali rappresentano opere di sbarramento di un corso d'acqua di modesta
entità, in particolare per quanto riguarda l'altezza, che risulta mediamente inferiore ai
. Vengono realizzate per creare piccoli accumuli idrici al fine di rendere possibile la
derivazione di portate o permettere attingimenti grazie al locale incremento del livello
dell’acqua [8].
1.2.
Strumenti per la misura di piccoli spostamenti
Il buono stato di un’opera si quantifica generalmente determinando le deformazioni o gli
spostamenti cui essa è sottoposta, andando poi a verificare se questi sono compatibili con
le capacità strutturali di progetto. Di conseguenza un monitoraggio di questo tipo si basa
sulla misura di piccoli spostamenti, anche dell’ordine del millimetro, che necessitano di
una strumentazione di alta precisione. Gli strumenti topografici non sono i soli a poter
essere impiegati, ma sono da preferire in quanto molto precisi e in grado di garantire una
invarianza nel tempo del metodo di misura [1].
È necessario specificare che gli spostamenti possono essere distinti in due categorie
fondamentali: gli assoluti e i relativi. Lo spostamento assoluto di un generico punto
rappresenta la variazione nel tempo della distanza di
rispetto a un punto fisso
, il
quale garantisce di non subire spostamenti reali dello stesso ordine di grandezza di .
prende il nome di caposaldo e in genere non appartiene alla struttura da monitorare. Nel
caso di una diga il caposaldo può essere fissato su un pilastrino di cemento ancorato su
roccia affiorante, la cui stabilità è stata comprovata nel tempo. Lo spostamento relativo
invece quantifica la variazione di posizione nel tempo del punto
rispetto a un punto
appartenente alla medesima struttura, il quale quindi non può essere considerato fisso.
Questa distinzione va tenuta presente quando si elaborano i dati ottenuti, per cercare di
interpretarli al meglio. A livello generale, le misure assolute si utilizzano per definire gli
spostamenti della struttura, mentre quelle relative per le deformazioni della medesima.
7
1.
Monitoraggio statico di dighe
In linea di principio, gli stessi strumenti di misura possono essere impiegati per rilevare
spostamenti sia assoluti sia relativi, a seconda che i punti presi come riferimento siano
fissi o mobili. Per la misura delle variazioni di quota si utilizzano livelli ottici o digitali
mentre per gli spostamenti trasversali rispetto ad una direzione di riferimento vengono
impiegati collimatori8, fili a piombo, pendoli dritti e rovesci e livelli nadirali. Molto
versatile risulta inoltre la stazione totale, che è in grado di assolvere a entrambe le
funzioni e riesce a misurare anche le distanze, in genere determinate con il
distanziometro. Qualora invece interessasse determinare le deformazioni in particolari
punti della struttura si possono utilizzare i deformometri e gli estensimetri9.
Oltre agli strumenti topografici classici appena elencati esistono anche metodologie
moderne di misura, quali il posizionamento satellitare mediante ricevitori GNSS e il rilievo
con il laser scanner.
Ai fini dell’introduzione della tecnica di monitoraggio mediante i raggi cosmici per la
misura delle deformazioni di una struttura verranno analizzati più nel dettaglio gli
strumenti con i quali tale tecnica dovrebbe confrontarsi: i pendoli dritti e i pendoli
rovesci.
1.2.1. Pendoli
Molti sbarramenti artificiali sono caratterizzati da un notevole sviluppo in altezza, di
conseguenza il singolo concio della struttura si presenta come una trave verticale a
8
Il collimatore è uno strumento ottico costituito da un cannocchiale dotato di reticolo di mira. È uno
strumento fisso, non è infatti in grado di compiere rotazioni e viene collimato con una mira, alla quale viene
impedito qualsiasi tipo di movimento. Sia il cannocchiale sia la mira devono essere installati su capisaldi, che
nel caso di una diga possono essere le due estremità opposte. Nel punto da monitorare, posizionato lungo il
coronamento dell’opera, è invece presente una mira mobile, installata su di una slitta che consente il
movimento in direzione trasversale all’asse di collimazione. La misura si esegue allineando la mira mobile
all’asse di collimazione del cannocchiale e leggendo lo spostamento sulla slitta, indicato da una apposita
graduazione millimetrica. Con il nonio è possibile raggiungere una precisione del decimo di millimetro. Se il
punto da controllare modifica la sua posizione, lo spostamento sarà pari alla differenza delle letture
ottenute con la collimazione.
9
Gli estensimetri sono strumenti in grado di misurare le piccole deformazioni di un corpo. In passato erano
diffusi strumenti meccanici, ottici e acustici. Oggi sono stati tutti soppiantati dagli estensimetri elettrici a
resistenza: sono vantaggiosi dal punto di vista economico e in grado di garantire misure accurate. Sono
composti da un filo metallico, generalmente in costantana, che varia la propria resistenza elettrica in base
alla sezione. Quest’ultima aumenta o diminuisce in funzione dello sforzo assiale applicato al filo stesso. Gli
estensimetri possono essere impiegati per monitorare ad esempio le deformazioni tra due conci adiacenti,
in modo da verificare lo stato tensionale dei giunti e delle guaine di tenuta. Dalla legge di Hooke infatti si
riesce a risalire al carico agente una volta nota la costante elastica. Diventa quindi intuitivo il calcolo dello
stato di sforzo nei punti di interesse.
8
1.
Monitoraggio statico di dighe
incastro che sotto la spinta idrostatica dell’acqua può subire notevoli sforzi di taglio e
manifestare così delle deformazioni flessionali. Un valido strumento per quantificare lo
spostamento relativo del coronamento rispetto alla base è il pendolo, il quale si presenta
nella configurazione diritta o rovescia (Figura 1.5 [9]).
La prima è costituita da un filo a piombo (o eventualmente un’asta rigida) ancorato
superiormente alla struttura e munito, all’estremità opposta, di una zavorra. Quest’ultima
è a sua volta annegata in un liquido viscoso (in genere olio siliconico) che funge da
smorzatore delle oscillazioni. La zavorra ha invece una duplice funzione: mantiene in
tensione il filo e allo stesso tempo ne garantisce la perfetta verticalità.
Figura 1.5 : Nelle due immagini di sinistra sono rappresentate le possibili configurazioni di un pendolo dritto; nelle
due immagini di destra quelle di un pendolo rovescio.
In caso di deformazione o rotazione della struttura rispetto alla verticale si verificherebbe
uno spostamento orizzontale del cavetto nel tempo, quantificabile mediante la lettura di
un’apposita scala graduata. L’acquisizione può essere manuale, nel qual caso si impiegano
strumenti ottici fissi o removibili detti coordinometri, oppure automatica mediante
l’utilizzo di telecoordinometri. Per evitare deformazioni termiche che potrebbero
9
1.
Monitoraggio statico di dighe
compromettere la validità della misura si tende a realizzare i fili dei pendoli in invar, una
speciale lega ferro-nichel dotato di bassissimo coefficiente di dilatazione termica.
L’altra tipologia di pendolo è quella rovescia, analoga alla diritta ma capovolta. Il filo viene
infatti ancorato inferiormente mentre all’altro capo è assicurato un galleggiante,
posizionato in un serbatoio che contiene il fluido smorzatore.
Nelle opere di ritenuta, generalmente, si adottano pendoli diritti accoppiati ai rovesci. In
particolare il diritto è fissato in prossimità del coronamento e registra gli spostamenti di
quest’ultimo rispetto alle fondamenta del concio; lo strumento rovescio invece viene
saldato a una certa profondità nella roccia di fondazione e registra gli spostamenti del
concio rispetto al terreno. Lo spostamento assoluto della parte superiore del concio
rispetto alla roccia si ottiene pertanto sommando i singoli contributi dei due pendoli [9].
Le precisioni conseguibili con questo tipo di strumentazione sono molto alte, nell’ordine
del decimo di millimetro, ed i valori restituiti non sono delle misure puntuali dello
spostamento bensì delle medie sull’intera lunghezza del filo, non risentendo così di
eventuali fenomeni di deformazione locale. La possibilità inoltre di posizionare più
strumenti in serie consente di coprire distanze anche notevoli, come è appunto il caso di
dighe, torri o pile di viadotti.
Infine, molto importante ai fini del controllo è la qualità delle misure. Per garantire un
appropriato isolamento dall’esterno e quindi l’assenza di errori accidentali dovuti al vento
e agli agenti atmosferici, i pendoli vengono installati all’interno del corpo della diga in
appositi alloggiamenti cilindrici che si estendono per tutta l’altezza della struttura. Questi
alloggiamenti sono solitamente previsti durante la costruzione della diga, altrimenti, nel
caso in cui la struttura sia già stata realizzata, vengono creati mediante carotaggi verticali
del corpo della diga. Per i viadotti o i ponti lo stesso risultato si può raggiungere inserendo
il pendolo all’interno di tubazioni protettive.
1.2.2. Monitoraggio mediante raggi cosmici
I raggi cosmici, come si vedrà più in dettaglio nel Capitolo 2, sono un tipo di radiazione
che investe continuamente la superficie terrestre. Sono costituiti da particelle e radiazioni
elettromagnetiche ed hanno un alto potere penetrante che permette loro di attraversare
anche notevoli spessori di materia. Oggi la loro origine è ancora dibattuta, tuttavia della
10
1.
Monitoraggio statico di dighe
radiazione cosmica che giunge al suolo si conoscono bene la composizione, la
distribuzione angolare, la distribuzione dell'energia e la frequenza per unità di area.
Questo lavoro di tesi si propone di studiare la fattibilità di un sistema di misura, costituito
da rivelatori di raggi cosmici, per il monitoraggio statico di strutture civili a sviluppo
verticale, in particolare si analizzerà il caso di una diga a gravità massiccia. Questa tecnica
di monitoraggio potrebbe rivelarsi un’alternativa all’impiego dei pendoli per la
determinazione di eventuali deformazioni dello sbarramento. La bontà di tale tecnica sarà
stabilita dalle precisioni che si riusciranno a raggiungere e dal tempo necessario per
raggiungerle.
La configurazione più semplice di questo sistema di misura è realizzata mediante un
telescopio verticale costituito da tre rivelatori solidali al corpo della diga e posizionati
all’interno degli alloggiamenti verticali creati per i pendoli dritti e rovesci. I sensori
utilizzati sono in grado di rivelare, qualora il raggio cosmico li intercetti, le coordinate del
punto di passaggio. Mediante metodi statistici che tengono in considerazione le
interazioni della radiazione attraverso la materia è possibile ricostruire la traiettoria dei
raggi cosmici che attraversano l’intero telescopio ed individuare possibili disallineamenti
della struttura, nel caso questa si deformi. Nel Capitolo 3 verrà introdotto il programma di
simulazione utilizzato per svolgere lo studio di fattibilità e verrà descritto nel dettaglio il
metodo per ricostruire le traiettorie dei raggi cosmici e per individuare possibili
deformazioni della geometria della diga.
1.3.
Caso analizzato
Nel territorio della provincia di Brescia sono presenti, oltre ai tre laghi principali (Lago di
Garda, Lago d’Iseo e Lago d’Idro), numerosi laghi minori e bacini artificiali. Questi hanno
permesso un forte sviluppo sia del settore agricolo, grazie alla possibilità di alimentare
canali e sistemi di irrigazione, sia della produzione di energia idroelettrica. A tale scopo
nei primi decenni del secolo scorso ha preso avvio la realizzazione di numerose opere di
ritenuta idrica, la maggior parte delle quali sono dighe in muratura (Tabella 1.1 [10]).
In questo paragrafo verrà descritta più in dettaglio la struttura di una tipica diga presente
in provincia di Brescia (Figura 1.6). L’opera rappresentata è uno sbarramento in muratura
11
1.
Monitoraggio statico di dighe
a gravità massiccia che si sviluppa in altezza per qualche decina di metri. La muratura
poggia su un substrato compatto di roccia chiamata tonalite ed è costituita da due parti,
probabilmente realizzate a distanza di anni. La prima, cioè la più datata, è composta da
blocchi lapidei di tonalite aggregati con malta di cemento, mentre la seconda è un
rinforzo di calcestruzzo applicato al paramento di monte. Questa seconda parte ha
permesso di ricavare all’interno del corpo della diga i cunicoli d’ispezione, l’alloggiamento
per i pendoli, i pozzi di accesso e i tubi drenanti per raccogliere l’acqua infiltratasi
all’interno della muratura e scaricarla a valle.
Il monitoraggio statico delle strutture che non presentano eccessive altezze, come quella
rappresentata, viene eseguito mediante pendoli rovesci installati lungo il coronamento e
ancorati al substrato roccioso. La struttura muraria si comporta come una trave verticale
ad incastro e mediante la disposizione dei pendoli suddetta è possibile rilevare gli
spostamenti monte-valle della sommità della diga, cioè i massimi spostamenti che la
struttura può presentare.
Nome diga
Comune
Anno di
costruzione
Dazaré
Lago di Lova
Lago della Vacca
Lago d'Arno
Poglia
Lago Benedetto
Lago d'Avio
Pantano d'Avio
Vasca di Edolo
Venerocolo
Ponte Cola
Lago d'Idro
Lago Salarno
Lago Baitone
Bagolino
Borno
Breno
Cevo
Cevo
Edolo
Edolo
Edolo
Edolo
Edolo
Gargnano
Idro
Saviore dell'Adamello
Sonico
1959
1935
1927
1927
1950
1940
1929
1956
1984
1959
1962
1930
1928
1930
Altezza diga
L. 584/9410
19.25
18.00
17.50
36.85
49.40
31.00
37.52
59.00
23.90
26.90
122.00
8.02
38.40
37.90
Tabella 1.1 : Elenco delle principali dighe presenti sul territorio della provincia di Brescia.
10
Secondo la Legge 21-10-1994, N. 584 si definisce altezza di una diga la differenza tra la quota del piano di
coronamento e quella del punto più depresso dei paramenti.
12
1.
Monitoraggio statico di dighe
Figura 1.6 : Sezione maestra di una tipica diga a gravità massiccia presente in provincia di Brescia.
13
1.
Monitoraggio statico di dighe
Nel grafico di Figura 1.7 sono rappresentati gli spostamenti registrati da un tipico pendolo
rovescio in funzione del tempo. Come si può notare, le registrazioni presentano un
andamento periodico con periodo di un anno e gli spostamenti sono dell’ordine del
millimetro. Interpolando con una funzione lineare viene sottolineato un continuo
spostamento del coronamento verso monte, causato probabilmente dall’espansione della
muratura, soprattutto della parte in calcestruzzo. Questo fenomeno sembra essere
maggiormente accentuato nei mesi centrali dell’anno a causa delle temperature maggiori
e del minor livello dell’invaso.
Figura 1.7 : Spostamenti relativi del coronamento della diga rispetto al substrato roccioso registrati da un tipico
pendolo rovescio. Sull’asse delle ascisse è presente il tempo in anni mentre sull’asse delle ordinate sono presenti gli
spostamenti in millimetri: positivi quelli verso valle, negativi quelli verso monte.
Per le simulazioni atte a stabilire la bontà della tecnica di monitoraggio mediante raggi
cosmici introdotta in questo lavoro di tesi verranno prese come riferimento la struttura e
la geometra della diga rappresentata in Figura 1.6. Il telescopio composto dai tre
rivelatori di raggi cosmici potrebbe essere installato, in questa particolare diga a gravità,
sia all’interno delle cavità verticali che accolgono i pendoli sia all’interno dei pozzi di
accesso, i quali presentano uno sviluppo prevalentemente verticale. Non tutte le dighe in
muratura presentano questi pozzi, quindi in questo lavoro si farà riferimento alla prima
14
1.
Monitoraggio statico di dighe
possibilità, cioè al posizionamento dei rivelatori all’interno degli alloggiamenti dei
pendoli. Perché l’innovativo sistema di misura studiato in questa tesi possa costituire
un’alternativa agli odierni sistemi, esso dovrà essere in grado di riconoscere deformazioni
del millimetro su periodi di monitoraggio di circa un mese. Nel Capitolo 4 verranno
presentati i risultati ottenuti dall’analisi e le considerazioni del caso.
15
2.
2.
2.1.
I raggi cosmici
I raggi cosmici
Cenni storici
Lo studio dei raggi cosmici ha contribuito ad ampliare la nostra conoscenza della struttura
elementare della materia ed ha permesso la scoperta di nuove particelle, altrettanto
fondamentali quanto gli elettroni, i protoni e i neutroni [11].
Alla base della scoperta di questa forma di radiazione vi fu l’osservazione da parte di
Coulomb11, nel 1785, di un fenomeno particolare: per quanto un elettroscopio12 potesse
essere perfettamente isolato dal punto di vista elettrico, presentava sempre una piccola
scarica residua. Nel 1879 Crookes osservò che la velocità di scarica diminuiva quando la
pressione dell’aria contenuta nel bulbo dell’elettroscopio veniva ridotta. Concluse quindi
che la ragione della scarica dello strumento fosse la ionizzazione dell’aria ivi contenuta.
Per individuare la causa prima del fenomeno di ionizzazione si dovette tuttavia attendere
ancora qualche anno.
Nel 1896 Bequerel scoprì accidentalmente la radioattività notando che alcuni sali di
uranio, dei quali stava investigando la fosforescenza, erano in gradi di impressionare delle
lastre fotografiche. Pochi anni dopo i coniugi Marie13 e Pierre Curie osservarono che gli
elementi Polonio e Radio presenti in alcuni minerali dell’uranio mutavano in altri elementi
11
Charles-Augustin de Coulomb (Angoulême 1736 – Parigi 1806) fu ufficiale del genio militare francese. Si
occupò di dinamica dei fluidi, meccanica applicata alle macchine, matematica, astronomia e soprattutto di
elettricità e magnetismo. A lui si deve l’invenzione di vari strumenti scientifici, tra i quali la bilancia a
torsione. Grazie a questo strumento effettuò vari studi sull'interazione fra cariche elettriche arrivando alla
formulazione della legge oggi nota col suo nome.
12
L’elettroscopio è uno strumento realizzato da Alessandro Volta (Como 1745 – Camnago Volta 1827)
intorno al 1780 mediante il quale è possibile rilevare qualitativamente la presenza di cariche elettriche su
un corpo. Tipico è l’elettroscopio a foglie: all’interno di un bulbo di materiale isolante sono presenti due
lamine o “foglie” metalliche giunte all’estremità superiore. Mediante contatto le cariche presenti sul corpo
elettrificato vengono trasferite alle lamine e la repulsione elettrostatica ne causa l’allontanamento degli
estremi liberi.
13
Maria Skłodowska, meglio nota come Marie Curie (Varsavia 1867 – Passy 1934) fu una chimica e fisica
polacca naturalizzata russa e in seguito francese. Nel 1903 fu insignita del premio Nobel per la fisica,
assieme al marito Pierre Curie (Parigi 1859 – Parigi 1906) e ad Antoine Henri Becquerel (Parigi 1852 – Le
Croisic 1908) e, nel 1911, del premio Nobel per la chimica per i suoi lavori sul radio (è l'unico scienziato che
abbia vinto il premio Nobel in due distinte discipline scientifiche).
16
2.
I raggi cosmici
emettendo delle particelle, da loro chiamate radiazioni. Presto gli scienziati si accorsero
che in presenza di materiale radioattivo la velocità di scarica dell’elettroscopio
aumentava, quindi conclusero che la causa della scarica spontanea di tale strumento
fosse da imputare alle particelle cariche emesse dai decadimenti radioattivi di particolari
elementi.
Intorno al 1900 Elster e Geitel migliorarono la tecnica di isolamento dell’elettroscopio in
un recipiente chiuso, aumentando così la sensibilità dello strumento (Figura 2.1 [12]) e
permettendone l’impiego per misure quantitative della velocità di scarica. Riscontrarono
che questa velocità si riduceva notevolmente quando l’elettroscopio veniva schermato
con lastre metalliche, attribuendo così tale fenomeno ad agenti ionizzanti provenienti
dall’esterno del recipiente in cui era contenuto l’elettroscopio stesso.
Figura 2.1 : Nella fotografia è possibile vedere l’elettroscopio di Elster e Geitel: all'interno di una scatola cilindrica di
metallo è presente un'asticella alla quale sono vincolate due foglioline di alluminio. La divergenza di queste lamine,
quando sono cariche, può essere misurata con una scala unita allo strumento o per mezzo di un cannocchiale
micrometrico.
L'ipotesi più semplice era che la ionizzazione fosse causata dalla radioattività naturale
della Terra, dovuta alla presenza di elementi radioattivi nelle rocce. Esperimenti eseguiti
in laghi profondi e in miniere di sale supportarono tale ipotesi. Ulteriori esperimenti
vennero eseguiti schermando l’elettroscopio con spessi schermi di piombo, il quale è in
17
2.
I raggi cosmici
grado di assorbire gran parte delle radiazioni ionizzanti14. Seppur la velocità di scarica
diminuiva notevolmente, essa non si annullava. Questo fatto destò l’idea che la
ionizzazione dell’aria non fosse dovuta alla sola radioattività terreste e che ci fosse un
qualche tipo di radiazione molto più penetrante ancora sconosciuta.
In un esperimento eseguito nel 1912, Hess15 ottenne un risultato inaspettato. Per
confermare l'origine terrestre di questa radiazione, Hess salì fino alla quota di 5200 m a
bordo di un pallone aerostatico con la strumentazione necessaria per misurare il livello di
radiazione. Supponendo l'origine terrestre, si aspettava di misurare una diminuzione della
radiazione all'aumentare della quota. I risultati mostrarono chiaramente che la
ionizzazione, dopo essere passata per un minimo, aumentava considerevolmente con
l'altezza. Per spiegare questo incremento era necessario supporre che qualche tipo di
raggi penetranti giungesse sulla Terra dall'esterno e fosse in parte assorbito
dall'atmosfera, presentandosi pertanto più intenso a maggiori altezze. Hess inoltre
escluse il Sole come sorgente diretta di questa radiazione penetrante a causa dell'assenza
di variazione tra notte e giorno, e dai risultati di una missione compiuta durante un'eclissi
solare.
Durante la prima guerra mondiale non vi furono significativi sviluppi nell'indagine sulla
radiazione penetrante e negli anni successivi il fulcro della ricerca si spostò negli Stati
Uniti. Nel 1926 Millikan16 e Cameron effettuarono misure di assorbimento della
radiazione a diverse profondità nei laghi e ad altitudini elevate. Basandosi sui coefficienti
di assorbimento e sulla dipendenza della radiazione dall’altitudine, conclusero che la
radiazione era formata da raggi
17
di alta energia e che “questi raggi si propagano
14
Le radiazioni ionizzanti sono le radiazioni dotate di sufficiente energia da poter ionizzare gli atomi con i
quali vengono a contatto. Si dividono in due categorie: quelle che producono ioni in modo diretto (le
particelle cariche ,
e
) e quelle che ne producono in modo indiretto (neutroni, raggi e raggi ).
Mentre le prime hanno basso potere penetrante, le seconde possono penetrare molto nella materia.
15
Victor Franz Hess (Schloss Waldstein 1883 – Mount Vernon 1964) è stato un fisico austriaco naturalizzato
statunitense. Per le sue scoperte sui raggi cosmici vinse, insieme a Carl David Anderson (New York 1905 –
San Marino 1991), nel 1936 il premio Nobel per la Fisica.
16
Robert Andrews Millikan (Morrison 1868 – Pasadena 1953) fu un fisico sperimentale statunitense, premio
nobel per la fisica nel 1923 per i suoi lavori sulla determinazione della carica elettrica dell’elettrone e
sull’effetto fotoelettrico.
17
I raggi γ sono onde elettromagnetiche emesse dal decadimento o da processi nucleari e subatomici con
lunghezza d’onda inferiore a
e frequenza compresa tra
e
. Sono estremamente
penetranti e possono provocare importanti alterazioni ai tessuti viventi. I raggi sono costituiti da fotoni,
cioè da quanti di energia che viaggiano alla velocità della luce, e posseggono un’energia
, dove è
la frequenza dell’onda elettromagnetica e è la costante di Planck, pari a
.
18
2.
I raggi cosmici
attraverso lo spazio in tutte le direzioni in modo uniforme”, dando loro il nome di raggi
cosmici [13]. Nel biennio 1927-28 l’olandese Clay misurò la dipendenza dei raggi cosmici
dalla latitudine geomagnetica e confutò l’ipotesi che questi fossero costituiti da raggi . Il
campo magnetico terrestre, infatti, non modifica la traiettoria delle particelle neutre,
come i fotoni, ma devia le particelle cariche, inducendo una disomogeneità nel flusso di
tali particelle provenienti dall’esterno a varie latitudini. Clay trovò che la ionizzazione
aumentava con la latitudine contestando quindi l’ipotesi di Millikan. Nel 1932 Compton18
risolse la controversia svolgendo un esperimento a livello planetario al quale
parteciparono più di sessanta fisici che svolsero misure indipendenti. A seguito dei
risultati ottenuti Compton riferì che vi era un effetto di latitudine, che i raggi cosmici
erano particelle cariche e che Millikan aveva torto.
Ci si chiese quindi se le particelle fossero cariche positivamente o negativamente. La
soluzione fu trovata grazie all’idea del fisico italiano Bruno Rossi (Venezia 1905 – Boston
1993) di utilizzare il campo magnetico terrestre: se i raggi cosmici sono prevalentemente
particelle di carica positiva, per l’interazione con il campo magnetico terrestre
appariranno provenire prevalentemente da Ovest; se sono negative appariranno
provenire prevalentemente da Est. Nel 1934 Rossi pubblicò i risultati secondo i quali le
particelle erano per la maggior parte cariche positivamente, ma fu anticipato di qualche
mese da Alvarez e Compton i quali arrivarono alle medesime conclusioni. Solo più tardi,
nel 1941, si poté affermare con certezza che tali particelle di carica positiva erano protoni.
Nel corso delle sue misure Rossi osservò un altro fenomeno interessante: durante un test
delle apparecchiature registrò scariche quasi simultanee di contatori Geiger molto
distanti tra loro e posti su una linea orizzontale. Nel 1937 Pierre Auger rilevò lo stesso
fenomeno e indagò in maggior dettaglio. Concluse che ampi sciami di particelle vengono
generati da particelle di raggi cosmici primari ad alta energia che interagiscono con i
nuclei dell’aria nell’alta atmosfera, dando inizio ad una cascata di interazioni secondarie
che alla fine porta a uno sciame di elettroni, fotoni, muoni (vedere Paragrafo 2.2.3) e altre
particelle che raggiungono la superficie terrestre. Questi sciami sono la spiegazione
18
Arthur Holly Compton (Wooster 1892 – Berkeley 1962) fu un fisico statunitense, premio Nobel per la
fisica nel 1927 per la scoperta dell’effetto che porta il suo nome. L’effetto Compton è un fenomeno di
scattering interpretabile come l’urto tra un fotone e un elettrone.
19
2.
I raggi cosmici
diretta del fenomeno di scarica spontanea degli elettroscopi, da cui tutta l’indagine era
partita all’inizio del secolo.
Grazie allo studio dei raggi cosmici gli scienziati scoprirono che le sorgenti astrofisiche
rendevano disponibili particelle ad altissima energia in grado di attraversare la materia. Si
iniziò quindi ad indagare la natura di queste particelle e ad utilizzarle come sonde per
studiare la materia, sulla falsariga dell’esperimento di Rutherford19. Lo studio della
radiazione cosmica contribuì in maniera significativa alla nascita e allo sviluppo della fisica
delle particelle elementari, scienza dei costituenti elementari della materia, e, grazie a
questa radiazione, nei decenni successivi vennero fatte molte scoperte fondamentali, tra
le più importanti nella storia della fisica delle particelle.
2.2.
Natura dei raggi cosmici
Oggi è ormai accertato che la radiazione cosmica primaria, ossia quella che dal cosmo
incide sugli strati più alti dell’atmosfera, è costituita in gran parte da protoni veloci, aventi
energie20 dell’ordine del
; oltre a questi sono presenti elettroni e nuclei di elementi di
basso numero atomico (elio, litio, boro e altri). Quando le particelle della radiazione
primaria entrano nell’atmosfera terrestre, interagiscono con i nuclei degli atomi che la
compongono dando origine a molti fenomeni secondari mediante un processo a cascata.
Questo processo è oggi chiamato con il nome “air shower“ e verrà descritto più in
dettaglio successivamente. Non tutte le particelle e le radiazioni così formatesi
raggiungono la superficie terrestre, alcune infatti decadono o vengono assorbite
dall’atmosfera oppure sono soggette ad ulteriori tipi di reazioni.
19
L’esperimento di Rutherford fu un esperimento eseguito da Hans Geiger (Neustadt an der Weinstraße
1882 – Potsdam 1945) e Ernest Marsden (Rishton 1889 – Lowry Hutt 1970) nel 1909, sotto la direzione di
Ernest Rutherford (Brightwater 1871 – Cambridge 1937). Per sondare la struttura dell’atomo diressero un
fascio di particelle α (nuclei di 4He) ortogonalmente ad un foglio sottile d’oro. Ottennero dei risultati inattesi
che portarono alla confutazione del modello atomico di Thomson, detto modello a panettone, e alla
concezione del modello atomico di Rutherford o modello planetario dell’atomo.
20
L’unità di misura utilizzata nella fisica delle particelle è l’elettronvolt ( ), il quale è definito come
l’energia cinetica acquisita da un elettrone quando è accelerato dalla differenza di potenziale elettrico di
nel vuoto (
). Il gigaelettronvolt (
) è un multiplo dell’elettronvolt
(
).
20
2.
I raggi cosmici
La letteratura scientifica distingue oggi i raggi cosmici in:

raggi cosmici primari (primary cosmic rays), ovvero il flusso iniziale di particelle
esterno all’atmosfera terrestre;

raggi cosmici delle reazioni a catena (air shower cosmic rays), ovvero il flusso
intermedio nell’atmosfera;

raggi cosmici a livello del mare (sea-level cosmic rays), ovvero il flusso finale di
particelle che raggiunge la superficie terrestre.
2.2.1. Flusso dei raggi cosmici primari
La radiazione cosmica incidente sugli strati più esterni dell’atmosfera terrestre è
composta principalmente da protoni (
) e da nuclei di elio (
). La restante
percentuale è rappresentata da nuclei più pesanti (Tabella 2.1 [14]), elettroni, neutrini,
raggi
di alta energia e una piccolissima frazione di antimateria (positroni e antiprotoni).
Tecnicamente i raggi cosmici primari si distinguono in raggi cosmici primari propriamente
detti e in raggi cosmici secondari. I primi provengono dalle sorgenti astrofisiche e sono
composti da particelle che si possono considerare stabili, ovvero aventi un tempo di
decadimento21 dell'ordine di
anni o maggiore; tutte le altre particelle instabili emesse
decadono prima di raggiungere la Terra. I raggi cosmici secondari sono invece le particelle
generate dall'interazione tra i primari e il mezzo interstellare. Gli elettroni, i protoni così
come elio, carbonio, ossigeno, ferro e altri nuclei sintetizzati mediante la fusione nucleare
stellare sono raggi cosmici primari; nuclei come litio, berillio e boro, i quali non sono
prodotti finali abbondanti nella sintesi nucleare, sono raggi cosmici secondari. Antiprotoni
21
In base alle leggi della meccanica quantistica il decadimento spontaneo di un particolare nucleo instabile
è un processo puramente casuale, quindi non è possibile prevedere l’istante in cui avverrà. Dato un
campione numeroso di un particolare isotopo, è tuttavia possibile notare che questo fenomeno rispetta una
precisa legge statistica: il numero di decadimenti che ci si aspetta avvenga in un intervallo di tempo è
proporzionale al numero di atomi presenti. Noto il numero di atomi all’istante iniziale
e la costante di
decadimento , il numero di atomi presenti al tempo è dato dall’equazione:
. Bisogna
notare che questa è una legge approssimata, in primo luogo perché rappresenta una funzione continua,
mentre l'evento fisico reale assume valori discreti, poi poiché descrive un processo casuale, solo
statisticamente vero. Comunque, poiché solitamente
è estremamente grande, la funzione fornisce
un'ottima approssimazione. Oltre alla costante di decadimento il decadimento radioattivo è caratterizzato
da un'altra costante chiamata vita media. Ogni atomo “vive” per un tempo preciso prima di decadere e la
vita media rappresenta la media aritmetica dei tempi di vita (o tempi di decadimento) di tutti gli atomi della
stessa specie. La vita media si indica con ed è pari al reciproco della costante di decadimento [7].
21
2.
I raggi cosmici
e positroni sono in gran parte secondari e la determinazione della frazione di queste
particelle che può essere primaria è una questione ancora aperta.
Elemento
Elemento
1
H
485
13 - 14
Al - Si
0.19
2
He
26
15 - 16
P-S
0.03
3-5
Li - Be
0.40
17 - 18
Cl - Ar
0.01
6-8
C-O
2.20
19 - 20
K - Ca
0.02
9 - 10
F - Ne
0.30
21 - 25
Sc - Mn
0.05
11 - 12
Na - Mg
0.22
26 - 28
Fe - Ni
0.12
Tabella 2.1 : Frazione di nuclei incidenti primari. rappresenta la quantità relativa di nuclei nei raggi cosmici a
22, normalizzata con l’ossigeno (
). Il flusso di ossigeno all’energia cinetica di
è di
.
Confrontando le abbondanze relative dei nuclei presenti nei raggi cosmici con quelle
presenti nel Sistema Solare si notano importanti somiglianze. Dal grafico mostrato in
Figura 2.2 [15] si nota un andamento irregolare, comune ad entrambi i campioni, che
evidenzia un effetto pari-dispari: nuclei con
e/o
pari sono più legati e quindi più
abbondanti in natura essendo maggiormente stabili, in questo modo infatti si riduce
l’effetto di repulsione tra cariche dello stesso segno presenti nel nucleo. I nuclei più
leggeri, Idrogeno (H) e Elio (He), pur rappresentando la quasi totalità della radiazione
cosmica (
), sono meno abbondanti in quest’ultima rispetto al Sistema Solare:
questo può essere dovuto al fatto che i meccanismi di fissione, che portano alla
produzione di atomi più leggeri, sono meno frequenti nei raggi cosmici. Gli elementi come
Litio (Li), Berillio (Be), Boro (B), Scandio (Sc), Vanadio (V), Cromo (Cr) e Manganese (Mn)
sono invece di vari ordini di grandezza più abbondanti nei raggi cosmici rispetto alla
materia del Sistema Solare. Questi dati possono essere spiegati con il processo detto di
“spallazione” per il quale i nuclei più pesanti dei raggi cosmici come Carbonio (C),
Ossigeno (O), Magnesio (Mg), Silicio (Si) e Ferro (Fe), prodotti nella fase finale del
22
Per nucleone si intende una particella subatomica componente del nucleo atomico, cioè un protone o un
neutrone. Il numero totale di nucleoni di un nucleo di dice numero di massa e si indica tradizionalmente con
. In un nucleo con protoni e neutroni si ha
, dove è il numero atomico ed è il numero
neutronico.
22
2.
I raggi cosmici
processo di nucleosintesi stellare, attraverso gli spazi galattici e intergalattici, reagiscono
con le particelle del mezzo interstellare frammentandosi e producendo gli elementi
leggeri, i quali invece sono del tutto assenti tra i prodotti finali delle reazioni nucleari
all’interno delle stelle.
Figura 2.2 : Abbondanza relativa degli elementi nei raggi cosmici (linea continua), confrontata con l’abbondanza
relativa degli elementi nel Sistema Solare (linea tratteggiata). In ascissa è riportato il numero atomico , mentre in
ordinata sono riportate, in scala logaritmica, le abbondanze relative. Queste sono normalizzate con quelle del silicio,
posta al
.
Mentre sulla composizione dei raggi cosmici oggi sappiamo molto, la loro genesi, e
soprattutto i fenomeni fisici che sono la fonte della loro energia, sono ancora argomento
di
dibattito. Tuttavia, negli ultimi decenni
l’avvento della
cosiddetta
fisica
astroparticellare, settore interdisciplinare tra astrofisica, cosmologia e fisica delle
23
2.
I raggi cosmici
particelle elementari, sembra aver dato risposta ad alcuni interrogativi riguardo la loro
origine.
I raggi cosmici che arrivano sulla Terra hanno un ampio spettro di energia (Figura 2.3 [16])
e più questa è elevata più essi sono rari: la maggior parte hanno energie comprese tra
e
viaggiano al
dell’ordine di
, che corrispondono rispettivamente alle energie di protoni che
e al
della velocità della luce; è possibile tuttavia rilevare energie
. È stato calcolato, considerando la traiettoria nel campo magnetico
della Terra, che affinché un raggio cosmico primario raggiunga la superficie terrestre è
necessario che la sua energia sia almeno di
(magnetic cut-off energy).
Figura 2.3 : Spettro energetico (numero di particelle incidenti per unità di energia, per unità di tempo, per unità di
superficie e per unità di angolo solido) dei raggi cosmici primari. La distribuzione di energia è abbastanza ben
descritta da una legge di potenza del tipo:
è detto indice spettrale e rappresenta la pendenza del grafico dei dati in unità logaritmiche. Il primo punto di
variazione della pendenza a
è detto ginocchio (knee) e il secondo a
è detto caviglia
(ankle) [15].
24
2.
I raggi cosmici
Per ciò che riguarda le sorgenti di raggi cosmici primari, quelli con energie inferiori a
hanno origine solare e, come si può notare dal grafico in Figura 2.3,
rappresentano la maggior parte di questa radiazione. I raggi cosmici dotati di energie
superiori a
hanno invece origine extrasolare e, seppur rappresentano una piccola
parte, sono i più “interessanti”. Le ipotesi che godono di maggior credito classificano [17]
le sorgenti a seconda del contenuto energetico delle particelle emesse:

. La radiazione cosmica di più bassa energia proviene dalla superficie
del Sole e costituisce quello che è comunemente denominato vento solare 23. Il
Sole ha cicli di attività variabili, di durate comprese tra 9 e 12 anni. Nei periodi di
quiete, nel vento solare che colpisce la Terra la presenza di particelle cariche è
minima: esse non raggiungono il livello del mare a causa della loro scarsa energia.
Nei periodi di intensa attività solare, in corrispondenza dei quali sono più frequenti
le eruzioni solari, il numero di particelle cariche presenti nel vento solare aumenta
di un fattore
; una densità molto maggiore rispetto a quella dei raggi cosmici di
origine extrasolare. Nonostante ciò, l’intensità totale dei raggi cosmici che
raggiungono il suolo riesce solo a raddoppiare, poiché contemporaneamente si
crea un fenomeno di distorsione della magnetosfera che tende a schermare
maggiormente la Terra dai raggi. L’effetto delle particelle solari a livello del mare è
quindi poco rilevante e tra notte e giorno vi è una differenza solo dell’
.
L’aspetto più importante dei cicli solari consiste nel fatto che lungo le direzioni in
cui il vento solare colpisce la magnetosfera, il campo magnetico terrestre subisce
una vasta distorsione che scherma maggiormente la Terra dai raggi cosmici con
energie inferiori a
. L’intensa attività solare comporta quindi, lungo la
direzione del vento solare, un decremento del flusso dei raggi cosmici che arrivano
sulla superficie terrestre, come si nota in Figura 2.4 [2].
23
Il vento solare è un flusso di particelle e radiazioni elettromagnetiche, in prevalenza costituito da protoni
ed elettroni. Viene generato dall’espansione continua nello spazio interplanetario della corona solare e
viaggia in tutto il Sistema Solare causando perturbazioni magnetiche.
25
2.
I raggi cosmici
Figura 2.4 : Esiste un significativo comportamento inverso tra l’attività solare e l’intensità del flusso di raggi cosmici
con energie al di sotto di
. La linea continua, con scala sulle ordinate di sinistra, rappresenta il flusso di
24
adroni , in particolare neutroni, rivelato in una particolare località sulla superficie terrestre (Colorado, USA); la linea
tratteggiata, con scala sulle ordinate di destra, indica l’andamento dell’attività delle macchie solari.

. Le particelle cariche dei raggi cosmici sono deviate dai campi
magnetici che incontrano, in particolare da quello terrestre, risulta quindi molto
difficile ricostruirne la traiettoria e risalire alla loro sorgente. Per questo scopo
divengono molto importanti i cosmici neutri, come i raggi
e i neutrini, i quali non
sono influenzati dai campi magnetici. Inoltre, data la loro elevata energia,
interagiscono poco con la materia e il mezzo interstellare, quindi permettono di
individuare e analizzare le sorgenti che li emettono anche se queste sono situate
molto lontane dalla Terra. Recenti osservazioni sembrano verificare un modello
secondo il quale l’onda d’urto che segue la formazione di una supernova riesca ad
accelerare i raggi cosmici fino ad energie dell’ordine di

.
. Alcuni modelli fanno provenire i raggi cosmici di queste energie
da nuclei galattici attivi. Al centro delle galassie buchi neri 25 in rotazione ingoiano
la materia circostante e durante l’accrescimento, lungo l’asse di rotazione del
buco nero, si producono dei getti di materia diretti al di fuori della galassia. Questi
getti di materia di alta energia, osservabili tramite la radioastronomia, sarebbero
24
Un adrone è una particella subatomica soggetta alla forza nucleare forte.
Un buco nero è un corpo dotato di un’attrazione gravitazionale talmente elevata che nulla può
allontanarsi dalla superficie. Questo si verifica quando la velocità di fuga (cioè la minima velocità necessaria
per fuggire dalla sua attrazione gravitazionale) è superiore alla velocità della luce. Le stelle più grandi
possono evolvere spontaneamente in buchi neri dopo che il loro combustibile nucleare è finito. La maggior
parte delle galassie note sembra avere un buco nero supermassiccio (da milioni a miliardi di masse solari)
nel suo centro. Una volta formatosi, date le condizioni di forte gravità, questo corpo tende ad accrescersi
inghiottendo la materia circostante e generando violente collisioni [13].
25
26
2.
I raggi cosmici
le sorgenti dei raggi cosmici. Altre spiegazioni teoriche chiamano in causa gli
intensi campi magnetici delle pulsar, tuttavia i meccanismi che provocano
l’accelerazione delle particelle non sono ancora del tutto chiariti.

. L’origine dei raggi cosmici con energie intorno o superiori a
si
presenta come un enigma ancora maggiore. Certamente essi richiedono sorgenti
straordinarie, ma il problema è ancora più complicato dall’esistenza di un limite
teorico all’energia dei raggi cosmici26. Un’ipotesi avanzata è che essi possano
essere accelerati dai campi magnetici di quasar relativamente vicini a noi,
contenenti buchi neri dotati di grande massa (almeno 100 milioni di masse solari)
e in rotazione. Altri modelli suggeriti chiamano in gioco lo scontro tra galassie o il
decadimento di particelle durante il Big Bang.
2.2.2. Reazioni a catena in atmosfera
Gli air shower, osservati per la prima volta da Bruno Rossi e Pierre Auger nel 1937, sono
sciami di particelle e radiazioni elettromagnetiche (Figura 2.5 [7]) che vengono prodotte
quando i raggi cosmici primari di alta energia entrano nell’atmosfera terreste. I prodotti di
queste interazioni sono detti raggi cosmici secondari e possono a loro volta interagire o
decadere, determinando in questo modo la moltiplicazione del numero di particelle
all’interno di uno sciame.
Un esempio delle reazioni fondamentali che avvengono durante il passaggio dei raggi
cosmici attraverso l’atmosfera è riportato nello schema in Figura 2.6 [7]: un singolo
protone ( ), o un nucleo, entrando nell’atmosfera collide con i nuclei degli elementi che la
compongono27, originando una serie di particelle secondarie tra le quali i pioni ( ), meno
frequentemente i mesoni
(kaoni) e, ancor più raramente, altri adroni. Gli adroni
prodotti nelle prime collisioni generalmente hanno abbastanza energia per produrne altri,
quindi si genera una cascata di adroni (hadronic shower): il numero di particelle
26
I fisici Kenneth Greisen, Georgi Zatsepin e Vadem Kuzmin hanno dimostrato che i raggi cosmici,
interagendo con la radiazione cosmica di fondo del Big Bang, perdono energia. Inoltre, assumendo che la
radiazione di fondo sia costituita da protoni, hanno stabilito che se tali protoni provengono da distanze
cosmologiche, non possono superare una certa soglia di energia (GZK cut-off).
27
L’atmosfera terrestre può essere considerata come una miscela di gas avente la seguente composizione
chimica media al suolo (le percentuali indicate sono in volume):
di azoto,
di ossigeno e
di argon. Il restante
è costituito da biossido di carbonio, neon, elio, metano, idrogeno e
tracce di altri gas.
27
2.
I raggi cosmici
inizialmente cresce, raggiunge un massimo e, quando l’energia non è più sufficiente per
generare nuove particelle, decresce. A causa dell’instabilità di queste particelle e delle
loro interazioni, non tutte raggiungono il suolo, quindi a livello del mare il flusso di
cosmici è minore rispetto a quello in quota. I pioni possono essere carichi positivamente
(
di
), negativamente (
) oppure essere neutri (
). I pioni carichi hanno una vita media
e decadono principalmente in un muone ( ) e in un neutrino o antineutrino
muonico, anche se esiste una piccola probabilità che decadano in un elettrone o
positrone e un antineutrino o neutrino elettronico [18]:
I pioni neutri hanno una vita media di
e decadono in raggi
mediante la
reazione elettromagnetica:
I muoni possono essere positivi o negativi ed hanno una vita media molto più grande28
rispetto a quella delle altre particelle generate nelle reazioni a catena; questo giustifica il
fatto che i muoni siano predominanti nello spettro rivelato sulla superficie terrestre.
Durante il loro passaggio in atmosfera perdono energia e possono decadere in un
elettrone o positrone e in una coppia neutrino-antineutrino:
I fotoni, o raggi
, danno origine ad una cascata elettromagnetica (electromagnetic
shower) che si sovrappone geometricamente a quella adronica e interagiscono con i
nuclei dell’atmosfera producendo coppie di elettrone-positrone:
28
La vita media a riposo di un muone è circa
[19]. Con le leggi della cinematica classica, se pur
viaggiasse alla velocità della luce (nel vuoto è
), riuscirebbe a percorrere solo
, spazio
non sufficiente affinché il muone venga rivelato al livello del mare. Poiché la velocità media di un muone
cosmico è
bisogna abbandonare la cinematica classica e considerare l’effetto relativistico
della dilatazione dei tempi secondo la trasformazione di Lorentz
in cui è il tempo relativistico (di decadimento del muone, in questo caso) e
è il tempo proprio di
decadimento, cioè il tempo di decadimento a riposo. Si ottiene
, cioè una vita media 40
volte maggiore. In questo tempo il muone riesce a percorrere, in media,
ed è possibile rivelarlo al
suolo.
28
2.
I raggi cosmici
A loro volta, gli elettroni e i positroni possono produrre un fotone:
Figura 2.5 : In questa immagine della NASA si vedono chiaramente gli sciami di particelle e radiazioni
elettromagnetiche che vengono create quando i raggi cosmici primari entrano nella nostra atmosfera.
Figura 2.6 : La particella primaria (generalmente un protone) urta con i nuclei degli elementi presenti nell'alta
atmosfera, soprattutto ossigeno e azoto. Da questa collisione vengono generate numerose particelle e radiazioni
elettromagnetiche che possono decadere o interagire a loro volta con la materia. In questo schema sono
rappresentate le principali reazioni che intervengono.
29
2.
I raggi cosmici
2.2.3. Raggi cosmici sulla superficie terrestre
La frazione preponderante della radiazione cosmica che raggiunge la superficie terrestre è
costituita da muoni, sebbene siano presenti piccole percentuali di protoni, neutrini e una
componente costituita da elettroni, positroni e fotoni.
I muoni rivelati al suolo hanno un’energia media di
, benché il loro spettro,
continuo, sia molto più ampio. Posseggono una massa a riposo di
, circa
207 volte quella dell’elettrone29, e dal momento che le loro interazioni sono simili a quelle
dell’elettrone sono anche chiamati “elettroni pesanti”.
La maggior parte dei muoni è prodotta nell'atmosfera all’altezza di
raggiungere il suolo, perde circa
e, prima di
causando la ionizzazione dell’aria. La loro energia
e la loro distribuzione angolare sono il risultato di una convoluzione dello spettro di
generazione, delle perdite di energia in atmosfera e dei decadimenti [14]. Ad esempio, la
lunghezza di decadimento dei muoni di energia pari a
sarebbe di
per effetto della dissipazione di energia in atmosfera, tale lunghezza si riduce a
, ma,
.
Lo spettro dei muoni sulla superficie terrestre è continuo in energia ed angolo di arrivo e
varia con continuità in funzione dell’altitudine, della posizione geografica e del livello di
attività solare. I raggi cosmici sono caratterizzati da una certa distribuzione di quantità di
moto
(prodotto tra la massa e la velocità) e di angolo di arrivo
rispetto alla verticale e
le due grandezze sono correlate. Lo spettro dei muoni è descritto dalle seguenti
caratteristiche [20]:

la distribuzione della quantità di moto è quasi piatta al di sotto di
l’andamento di
per impulsi superiori a
ed ha
(per approfondimento
vedere Figura 2.7 [21]);

i raggi cosmici arrivano da tutte le direzioni (sono isotropi), ma il flusso è maggiore
allo zenit ed ha una distribuzione angolare che varia approssimativamente come
, dove

è l’angolo rispetto alla verticale;
l’integrale dell’intensità di muoni verticali con quantità di moto superiore a
, al livello del mare, è
. Il flusso medio di muoni al suolo
su superfici orizzontali è di circa
29
Massa dell’elettrone:
[14]. Il nostro corpo è quindi
.
30
2.
I raggi cosmici
colpito ogni minuto da circa 600 muoni, mentre una nostra mano una volta al
secondo (regola della spanna).
Figura 2.7 : Spettro dei muoni al livello del mare per due differenti angoli rispetto alla verticale:
nel grafico di
sinistra e
in quello di destra. Per angoli ampi si riscontrano muoni con energia media più elevata; in questo caso,
infatti, i muoni di bassa energia decadono prima di raggiungere la superficie.
2.3.
Fenomeni fisici di interazione dei muoni con la materia
I muoni che attraversano la materia interagiscono con gli atomi di cui essa è costituita. I
fenomeni fisici che dominano queste interazioni sono principalmente di natura
elettromagnetica e comportano la perdita di energia della particella e la deviazione dalla
sua direzione originaria.
Per particelle pesanti30, quali sono i muoni, i processi che maggiormente influiscono sulla
loro perdita di energia sono quelli dovuti agli urti anelastici con gli elettroni degli atomi di
cui è costituita la materia attraversata. Durante queste collisioni l’energia ceduta dalle
30
Sono particelle pesanti quelle la cui massa è molto maggiore rispetto a quella dell’elettrone.
31
2.
I raggi cosmici
particelle agli atomi ne causa l’eccitazione31 o la ionizzazione32. Nel primo caso si parla di
collisioni “molli” (soft) e l’atomo interessato torna allo stato fondamentale restituendo in
parte l’energia assorbita durante l’urto mediante emissione di fotoni. Nel secondo caso si
parla invece di collisioni “energetiche” (hard): si crea un catione e un elettrone libero che,
se dotato di sufficiente energia, può indurre reazioni secondarie. In questo particolare
caso l’elettrone è anche detto raggio . Generalmente, la quantità di energia persa dalla
particella ad ogni urto è una piccola frazione della sua energia cinetica, ma, normalmente,
nella materia il numero di collisioni per unità di lunghezza è talmente alto che si possono
rilevare perdite di energia anche in spessori molto piccoli [2].
Altri fenomeni che dissipano energia durante il passaggio della particella attraverso la
materia sono l’irraggiamento e la produzione di coppie elettrone-positrone. Questi
diventano tanto più importanti tanto più aumenta l’energia iniziale della particella
incidente; alle basse energie dominano invece gli effetti degli urti anelastici.
Il principale processo che, invece, provoca la deviazione dei muoni dalla loro traiettoria
originale è la diffusione elastica (scattering) delle particelle contro i nuclei degli atomi che
costituiscono la materia attraversata; poiché tale fenomeno avviene molte volte anche in
un piccolo spessore, viene chiamato diffusione multipla (Multiple Coulomb Scattering,
MCS) . Ad ogni urto, il muone devia di un angolo molto piccolo ed è in conseguenza del
numero elevato di urti che si ottiene una deviazione significativa della traiettoria della
particella rispetto alla direzione originale.
Nei successivi paragrafi vengono descritti in maggior dettaglio i fenomeni fisici di
interazione tra i muoni e la materia attraversata.
31
Nella meccanica quantistica si definisce eccitazione la transizione di un sistema ad uno stato quantico di
maggiore energia (stato eccitato), il quale è generalmente instabile. Nel processo di eccitazione atomica,
attraverso l’apporto di energia, in particolare con assorbimento di fotoni di adeguata frequenza o per
effetto di collisioni tra le particelle, si assiste al passaggio di un elettrone di valenza dal suo stato energetico
fondamentale ad un livello energetico maggiore [7].
32
La ionizzazione consiste nella generazione di uno o più ioni a seguito dell’addizione o rimozione di
elettroni da un’entità molecolare neutra (cioè atomi o molecole), che può essere causata da collisioni tra
particelle o da assorbimento di radiazioni. Gli atomi o le molecole che hanno un numero di elettroni minore
del numero atomico, rimangono carichi positivamente e prendono il nome di "cationi"; quelli che hanno un
numero di elettroni maggiore del numero atomico, rimangono carichi negativamente e prendono il nome di
"anioni” [7].
32
2.
I raggi cosmici
2.3.1. Urti anelastici
L’effetto dominante delle collisioni inelastiche tra un muone e gli atomi della materia
attraversata è la ionizzazione del mezzo stesso, a seguito della quale si producono ioni
positivi ed elettroni liberi; importanza minore riveste invece il fenomeno dell’eccitazione
atomica e della successiva diseccitazione mediante l’emissione di fotoni.
La perdita di energia per particelle cariche pesanti che deriva da questi fenomeni è
descritta con sufficiente accuratezza dalla formula di Bethe-Bloch [14], la quale ha validità
per
:
in cui
e
= raggio e massa dell’elettrone;
= numero di Avogadro
);
= velocità della luce;
= densità del materiale;
e
= numero atonico e peso atomico del materiale;
= carica della particella incidente in unità di ;
= velocità della particella incidente;
= rapporto
=
per la particella incidente;
;
= correzione per l’effetto della densità33;
= correzione per l’effetto “guscio” (correzione di shell)34;
33
L'effetto della densità deriva dal fatto che il campo elettrico dei muoni incidenti tende a polarizzare gli
elettroni degli atomi del mezzo che stanno attraversando. A causa della polarizzazione, gli elettroni degli
atomi più “lontani" dalla traiettoria delle particelle cariche incidenti risultano schermati rispetto al campo
elettrico totale, quindi l'energia persa dal muone in seguito a collisioni con questi elettroni contribuirà alla
perdita totale di energia del muone stesso meno di quanto previsto dalla formula di Bethe-Bloch. Questo
effetto diventa più importante se l'energia della particella incidente aumenta e dipende dalla densità del
materiale che le particelle cariche stanno attraversando, perché la polarizzazione indotta é maggiore più il
materiale è denso.
34
La correzione di shell tiene conto degli effetti che si innescano quando la velocità della particella incidente
è comparabile, o minore, rispetto alla velocità orbitale degli elettroni degli atomi del mezzo che i muoni
stanno attraversando. A tali energie, l'ipotesi che gli elettroni degli atomi del mezzo siano stazionari rispetto
33
2.
I raggi cosmici
= energia massima trasferita in una singola collisione;
= potenziale medio di ionizzazione, ottenibile da formule semiempiriche in dipendenza
da .
L’impulso
dove
e l’energia
sono legati, invece, dalla relazione relativistica:
è la massa a riposo della particella considerata, misurata in
,e
è la
sua energia, ossia quella che la particella possiede per il fatto di avere una massa;
l’impulso
si misura in
.
Figura 2.8 : Se espressa in termini di
,
= = massa a riposo del muone), la perdita di
energia per unità di lunghezza (e di densità, dato che
, dove è lo spessore del materiale attraversato e la
sua densità)
non dipende dalla massa della particella ma solo dalla velocità, quindi da
. La forma
caratteristica della perdita di energia per ionizzazione presenta una discesa proporzionale a
per bassi ,
raggiunge un minimo, quindi risale quando le particelle diventano relativistiche. Il minimo raggiunto dalla
distribuzione della perdita di energia è detto minimo di ionizzazione e può essere considerato circa lo stesso per
particelle pesanti con la stessa carica, mostrando quasi una totale indipendenza dalla massa. Nel caso dei muoni dei
raggi cosmici, la maggior parte possiede energie dell’ordine del
, quindi quando attraversano un mezzo hanno
perdite di energia vicine al minimo, per questo sono dette particelle al minimo di ionizzazione o mip's (minimum
ionizing particles) [2].
alle particelle incidenti non è più valida e la formula di Bethe-Bloch non sarebbe più utilizzabile se non
venisse considerata la correzione di shell, appunto, dove
.
34
2.
I raggi cosmici
La Figura 2.8 [14] mostra l’energia persa dai muoni per effetto della ionizzazione: curve
differenti, quindi quantità di energia persa diverse, corrispondono a mezzi attraversati
differenti.
2.3.2. Bremsstrahlung
Per bremsstrahlung35 si intende la radiazione elettromagnetica a spettro continuo emessa
dal muone quando passa attraverso il campo elettrico di un nucleo, che ne devia
bruscamente la traiettoria e ne determina la perdita di energia. Passando in vicinanza di
un nucleo, il muone può subire una brusca accelerazione e, per questo motivo, irraggiare
energia elettromagnetica sottoforma di fotoni. Questi, dopo essere stati prodotti per
bremsstrahlung, possono generare elettroni e positroni per produzione di coppie, o
trasferire la loro energia a elettroni per diffusione Compton36 e per effetto fotoelettrico37.
Sopra una certa energia, detta critica, predominano le perdite per bremsstrahlung, al di
sotto, quelle per ionizzazione; per i muoni, la bremsstrahlung domina sugli altri processi di
interazione anche per energie non troppo elevate, ma sufficienti affinché possa avvenire
la produzione di raggi
energetici (
durante la ionizzazione del mezzo attraversato. Per muoni molto
) il processo di bremsstrahlung contribuisce a circa il
della loro
perdita media di energia [20].
2.3.3. Produzione diretta di coppie
La produzione diretta di coppie è un importante processo di interazione dei muoni con il
mezzo che stanno attraversando. L'energia persa per produzione di coppie positroneelettrone
cresce linearmente all'aumentare dell'energia del muone incidente e,
35
Irraggiamento per frenamento, dal tedesco bremsen, frenare, e strahlung, radiazione.
I fotoni, incidendo sulla materia, possono compiere sugli elettroni di valenza dell'atomo un urto
assimilabile all'urto elastico fra particelle puntiformi: un evento di urto fra particelle viene detto evento di
diffusione, o di scattering della particella incidente. L'effetto Compton si spiega osservando che, se un
fotone incidente colpisce un elettrone di valenza, il quale può essere considerato stazionario grazie alla
piccola energia di legame con l'atomo a cui appartiene, il fotone viene deviato con un angolo rispetto alla
direzione iniziale e cede all'elettrone una parte della sua energia; in questo modo l'elettrone che ha subito
l'urto ha sufficiente energia per essere emesso dall'atomo con un angolo
rispetto alla direzione di
incidenza del fotone.
37
Un materiale, colpito da radiazione elettromagnetica di opportuna frequenza, emette elettroni.
36
35
2.
quando essa è dell'ordine dei
I raggi cosmici
, questo processo fisico contribuisce a più della metà
della perdita totale di energia.
La Figura 2.9 [14] mostra il contributo della bremsstrahlung e della produzione diretta di
coppie
alla perdita complessiva di energia per irraggiamento, nel caso di un
muone che attraversa del ferro.
Figura 2.9 : Contributo della bremsstrahlung e della produzione diretta di coppie
energia per irraggiamento di un muone che attraversa del ferro.
alla perdita totale di
2.3.4. Diffusione multipla
La diffusione multipla il fenomeno statistico per cui gli urti elastici fra una particella
carica, nel nostro caso un muone, ed i nuclei della materia attraversata causano la
deviazione della traiettoria della particella stessa (Figura 2.10). La maggior parte di queste
interazioni è dovuta alle forze di Coulomb (attrazione o repulsione elettrostatica) che si
generano tra i nuclei del mezzo attraversato e il muone, ragione per cui questo fenomeno
è anche chiamato multiple Coulomb scattering. La diffusione è definita multipla se tra
particella e nuclei avvengono più di 20 urti. In tal caso, il problema può essere studiato in
maniera statistica e la distribuzione dell’angolo di deflessione ( ) dalla traiettoria
originale di un muone che attraversa un materiale è ben descritta dalla teoria della
diffusione di Molière. Ignorando la piccola probabilità di avere un unico angolo di
36
2.
deviazione largo e considerando, invece, angoli di deviazione
I raggi cosmici
per ogni singolo urto,
una buona approssimazione degli effetti della diffusione multipla è costituita da una
gaussiana; tale curva riproduce la distribuzione dell'angolo di deflessione
media nulla ed una deviazione standard
dove ,
e
, con una
ottenibile dall'espressione:
sono rispettivamente la quantità di moto, la velocità e la carica della
particella incidente e
è il rapporto tra lo spazio percorso dalla particella nel
materiale e la lunghezza di radiazione38 del materiale stesso.
La misura dell'angolo di deflessione della traiettoria del muone è funzione del numero
atomico ( ) del materiale, poiché da esso dipende fortemente
, infatti:
in cui è evidente che la lunghezza di radiazione è funzione, oltre che di , anche della
massa atomica ( ) del materiale e della sua densità ( );
è il numero di Avogadro.
Figura 2.10 : Schematizzazione della traiettoria seguita da una particella che, soggetta alla diffusione multipla,
interagisce ripetutamente con gli atomi della materia attraversata. In ogni urto la particella viene deviata di un
piccolo angolo; considerando tuttavia la serie di interazioni possiamo associare all’attraversamento della materia un
certo angolo finale .
38
La lunghezza di radiazione ( ) è una grandezza caratteristica del materiale e rappresenta la distanza
percorsa al suo interno da un elettrone o da un fotone da
, in modo che l'energia della particella
stessa venga ridotta di un fattore
rispetto al suo valore iniziale.
37
2.
2.4.
I raggi cosmici
Applicazioni con raggi cosmici
La fisica dei raggi cosmici, essendo più economica della fisica agli acceleratori, è più
dispersa e interessa anche piccole nazioni. Attualmente sono operativi circa un centinaio
di esperimenti su queste radiazioni: alcuni esperimenti sono collocati in gallerie nelle
montagne, per schermare i rivelatori dai raggi cosmici meno penetranti e registrare solo
le particelle con maggiori energie (i muoni, e a maggior ragione, i neutrini, che a energie
ordinarie hanno scarsa probabilità di interagire con la materia anche passando attraverso
il diametro della Terra). Grandi laboratori in cui si svolgono queste ricerche si trovano per
esempio in Italia (i Laboratori Nazionali del Gran Sasso dell’Istituto Nazionale di Fisica
Nucleare), in Francia, in Spagna, negli Stati Uniti, nell’America Latina, in Canada e in
Giappone, dove la fisica delle particelle elementari è stata eccellente negli ultimi anni
dominando in particolare il panorama mondiale della fisica dei neutrini. Molti esperimenti
sono posti negli osservatori di astrofisica; molti in regioni desertiche. Un esempio
importante è rappresentato dall’Osservatorio Pierre Auger in Argentina, nella pampa
vicino a Malargue (Figura 2.11 [22]).
In ambiti diversi da quelli della fisica delle alte energie i cosmici sono stati, e verranno,
utilizzati per eseguire delle “radiografie", misurando l'attenuazione del flusso di cosmici
quando questi attraversano oggetti di grandi dimensioni, o molto densi oppure con
elevato numero atomico. La prima applicazione dei raggi cosmici per ispezionare grandi
volumi è del 1955 quando E. P. George [23] tentò di misurare lo spessore della roccia
sovrastante un tunnel sotterraneo. Un utilizzo molto più originale fu ideato dal premio
Nobel per la fisica L. W. Alvarez [24], quando nel 1970 “radiografò” la piramide di
Chefren, per scoprire se in essa vi fossero camere interne nascoste, concludendo che non
ve ne erano. In tempi più recenti, Nagamine [25] (nel 1995) e Tanaka [26] (nel 2003),
insieme ad altri, hanno utilizzato la medesima tecnica per studiare la struttura interna di
un vulcano al fine di prevedere eventuali eruzioni. Tutte queste applicazioni si basano
sul’effetto dell’assorbimento dei muoni da parte della materia: valutando il numero di
raggi cosmici incidenti e il numero di quelli uscenti e conoscendo le caratteristiche del
materiale attraversato è possibile risalire al suo spessore.
38
2.
I raggi cosmici
Figura 2.11 : L’Osservatorio Pierre Auger in Argentina, con i suoi 1600 “bidoni” e i quattro rivelatori a fluorescenza
2
periferici, campiona una superficie di oltre 3000 km . È entrato in funzione nel 2004 e sta fornendo informazioni
importanti sui raggi cosmici, in particolare indicando che la direzione dei raggi cosmici di energia estremamente alta
sarebbe correlata ai nuclei delle galassie al di fuori della Via Lattea. Sembrerebbe quindi provato che l’origine dei
raggi cosmici di altissima energia è legato ai collassi gravitazionali in prossimità dei buchi neri supermassicci [12].
Nel 2003 un gruppo di ricercatori del laboratorio americano di Los Alamos [27] ha
studiato come sia possibile ottenere tomografie39 anche di oggetti di dimensioni ridotte,
purché di elevato numero atomico, sfruttando l'effetto dominante della diffusione
multipla.
Seguendo questa idea lo stesso gruppo [28, 29, 30] nel 2003 ha proposto di utilizzare i
cosmici per la rivelazione di materiale ad elevato numero atomico, in particolare materiali
fissili, quale l'uranio e il plutonio, o il piombo, utilizzato per schermare materiale
radioattivo. Un prototipo delle dimensioni di qualche decina di centimetri è stato
costruito e fatto funzionare, così dimostrando la fattibilità di questo sistema di analisi. Il
39
Per tomografia si intende la tecnica spettroscopica mirata alla rappresentazione tridimensionale del
volume sotto esame o di campioni a strati. Ad oggi ha assunto molta importanza nel campo medico, in
quanto esistono ormai diversi tipi di tomografia: la Tomografia Assiale Computerizzata (TAC), la Tomografia
a Emissione di Positroni (PET) e la Tomografia a Emissione di Fotone Singolo (SPECT). Negli ultimi anni si
intravede tuttavia la possibilità di nuovi scenari per applicazioni industriali.
39
2.
I raggi cosmici
problema principale che si frappone tra il modello in scala e un prototipo di dimensioni
reali è presentato dalla complessità del processo di elaborazione delle informazioni e dei
dati.
In quest’ottica una collaborazione italiana tra l’Istituto Nazionale di Fisica Nucleare
(INFN), l’Università di Padova, l’Università di Brescia e l’Università di Genova, riprendendo
gli studi americani, ha realizzato il primo e unico prototipo di tomografo di dimensioni
reali (volume di ispezione di circa
), presso i Laboratori Nazionali di Legnaro
dell’INFN. Tale apparato ha finora fornito risposte incoraggianti, essendo in grado di
visualizzare tridimensionalmente alcuni semplici oggetti posti all’interno del volume da
analizzare, distinguendo inoltre i materiali a basso
e ad alto
(es. alluminio), a medio
(es. ferro)
(es. piombo e tungsteno) [31].
Versioni commerciali di questo sistema potrebbero essere impiegate, come auspicato dai
governi occidentali dopo gli attentati terroristici dell’11 settembre 2001, per scansionare
container inviati presso i porti e impedire l’ingresso di materiale radioattivo o nucleare.
Medesimi controlli potrebbero essere effettuati sui camion all’ingresso delle fonderie per
la rivelazione di materiale schermante delle sorgenti radioattive. Ad oggi infatti non
esistono portali di rivelazione in grado di scongiurare questo pericolo, l’immissione nel
forno fusorio di tali sostanze crea infatti notevoli pericoli per la salute dei lavoratori e
ingenti danni economici. Un triste esempio è l’incidente verificatosi nel 1997 presso lo
stabilimento Alfa Acciai di Brescia, dove sono state mandate in fusione sorgenti di Cesio
137 e Cobalto 6040 di alta attività [32]. L’evento ha causato la compromissione di
un’intera linea di fusione, la contaminazione delle polveri di abbattimento fumi e del
prodotto finito, nonché, cosa più importante, l’esposizione a rischio radiologico dei
lavoratori. Analoghi incidenti hanno coinvolto AFV Acciaierie Beltrame SpA di Vicenza nel
40
Il cesio è l'elemento chimico di numero atomico 55 e il suo simbolo è Cs. Il
del cesio naturale è
rappresentato dall’isotopo cesio 133 ed è l’unico isotopo stabile, tra i 39 di cui è caratterizzato. Tra questi il
137
Cs è prodotto dalla detonazione di armi nucleari e dal processo di fissione nei reattori delle centrali
nucleari: purtroppo una notevole quantità fu rilasciata in atmosfera nell'esplosione di Chernobyl del 1986. Il
cesio 137 ha un tempo di dimezzamento piuttosto lungo, circa 30 anni, e decade in bario 137 tramite
radiazioni
di energie pari a
.
Il cobalto è l'elemento chimico di numero atomico 27 e il suo simbolo è Co. Il
del cobalto presente in
natura è l’isotopo cobalto 59 ed è stabile. Il cobalto ed i suoi sali trovano impiego in numerosi settori ed
applicazioni: leghe metalliche, magneti, elettrodi per batterie d'auto, polveri per il rivestimento di
porcellane e smalti, ecc. Il 60Co, invece, è un suo isotopo radioattivo artificiale ed è impiegato ad esempio
nel trattamento di molti tipi di tumori, come sorgente di raggi . Ha un tempo di dimezzamento di circa 5
anni e decade nel nichel 60, in seguito a decadimento .
40
2.
I raggi cosmici
2004, Acciaierie Venete di Sarezzo nel 2007 e l’acciaieria Somet di Bergamo nel 2011.
Sensibile a questo problema, l’Unione Europea nel 2010 ha finanziato il progetto MuSteel (Muons scanner to detect radioactive sources hidden in scrap metal containers) [33],
con l'obiettivo di validare l'utilizzo della tomografia muonica per l'applicazione sopra
descritta. Tale progetto si concluderà nel 2012 ed è stato affidato ad una collaborazione
composta dall’Università di Brescia, dall’Università di Padova, dall'Istituto Nazionale di
Fisica Nucleare, dall'AFV Acciaierie Beltrame SpA, dalla Tecnogamma (azienda
specializzata in tecnologie laser) e dalla SRB Costruzioni srl (azienda specializzata nella
realizzazione di carpenteria meccanica).
41
3.
3.
3.1.
Strumenti e procedure di simulazione
Strumenti e procedure di
simulazione
Premessa
Come anticipato nel Capitolo 1, lo scopo di questo lavoro di tesi è valutare l'utilizzo della
rivelazione dei raggi cosmici per realizzare un sistema innovativo di monitoraggio di
grandi strutture civili a sviluppo verticale per le quali è necessario valutare i possibili
mutui spostamenti delle parti rispetto ad un assetto di partenza. Le principali strutture
alle quali tale tecnica potrebbe essere applicata sono i pilastri di sostegno dei viadotti, le
torri e le dighe. In particolare, in questa tesi si è focalizzata l'attenzione sulle dighe in
muratura a gravità massiccia. In questo capitolo verranno descritti i software di
generazione e di analisi dei dati e le procedure utilizzati nello studio.
Il lavoro ha avuto inizio con la definizione della geometria della diga e di quella dei tre
rivelatori di particelle utilizzati per la misura del passaggio dei raggi cosmici; tali rivelatori
sono posizionati solidalmente alla muratura della quale si vuole monitorare lo stato ed
individuare possibili deformazioni. La descrizione della geometria, assieme alle
informazioni relative ai materiali costituenti i diversi volumi geometrici, è stata inserita
all'interno di un programma di simulazione scritto in linguaggio C++ e basato
sull'applicativo di simulazione di apparati sperimentali GEANT4 il quale utilizza
l’interfaccia VMC [34].
Questo applicativo consente di simulare il passaggio di particelle elementari nella materia
e quindi attraverso strutture con geometrie complesse e costituite da diversi materiali.
Programmi di questo tipo sono utilizzati per la simulazione e lo studio delle prestazioni
degli apparati sperimentali molto complessi che vengono utilizzati nella fisica delle alte
energie. Nel caso specifico, questo programma ha permesso di studiare agevolmente il
passaggio di muoni attraverso la struttura della diga.
42
3.
Strumenti e procedure di simulazione
Al fine di ottenere risultati il più possibile significativi è stato indispensabile introdurre nel
codice un generatore di raggi cosmici (muoni) che simulasse le distribuzioni di quantità di
moto e di angolo di arrivo rispetto alla verticale, così come sono state misurate alla
superficie terrestre.
Nel codice è stata inoltre inserita una procedura per la valutazione del disallineamento
dei rivelatori, quindi della deformazione della parete della diga, basata sulla misura del
percorso del muone a partire dalla lettura dei tre rivelatori. In questo lavoro si è supposto
che a deformarsi sia la sola zona centrale della diga, quindi che a spostarsi sia il solo
rivelatore centrale. Strutture civili di grandi dimensioni come quella studiata presentano
naturalmente stati di deformazione più complessi, ma per valutare l’applicabilità del
sistema di monitoraggio mediante raggi cosmici a queste strutture si è scelto di analizzare
inizialmente un caso semplice come lo spostamento del solo rivelatore centrale. In un
secondo momento, se tale tecnica dovesse risultare competitiva con quella oggi
impiegata, si potrà estendere l’analisi a situazioni più complesse. In breve, la procedura
per la valutazione del disallineamento è la seguente: noti i tre punti sui tre rivelatori nei
quali è stato misurato il passaggio del cosmico, si definisce la retta passante per due di
essi (il superiore e l'inferiore) e si misura quanto il terzo (quello sul rivelatore intermedio)
disti dal punto di intersezione tra la retta e il piano di rivelazione del rivelatore
intermedio. In maniera analoga si sarebbe potuto misurare il disallineamento del
rivelatore superiore (deformazione del coronamento della diga) andando a tracciare la
retta passante per l’intermedio e l’inferiore oppure misurare il disallineamento del
rivelatore inferiore (deformazione della base della diga) andando a tracciare la retta
passante per il superiore e l’intermedio.
Quando procede nel vuoto un muone di alta energia segue una traiettoria perfettamente
rettilinea; in presenza di materia la sua traiettoria è deviata dalle interazioni con essa, in
particolare dalla diffusione multipla (Paragrafo 2.3.4). Gli scarti41
e
(vedere Figura
3.14) fra il punto misurato sul rivelatore intermedio e l'intersezione fra la retta ed il piano
di rivelazione del rivelatore intermedio, per il singolo cosmico, dipendono da questi effetti
fisici di deviazione, dalla precisione dei rivelatori utilizzati nella misura della posizione
41
La rivelazione avviene nel piano orizzontale
verso l’alto.
, mentre l’asse
è perpendicolare a tale piano ed è rivolto
43
3.
Strumenti e procedure di simulazione
(risoluzione spaziale) ed anche dall'eventuale reciproco disallineamento dei rivelatori,
quindi dalla deformazione della struttura.
La misura di un singolo cosmico, essendo affetta da fenomeni stocastici di deviazione, che
diventano dominanti se gli spessori di materiale attraversato sono grandi, non può fornire
un’informazione diretta e precisa. Tuttavia, poiché gli effetti fisici di deviazione della
traiettoria del cosmico sono simmetrici in quanto sono statistici, provvedendo a misurare
non solamente un singolo cosmico, ma un numero sufficientemente elevato di cosmici, al
fine di ottenere delle distribuzioni statistiche degli scarti
e
, gli effetti stocastici che
affliggono la misura possono essere ridotti e trattati con i metodi dell'inferenza statistica
e diviene possibile estrarre dalla misura le informazioni sugli effetti di natura sistematica,
come il disallineamento dei rivelatori, con un certo grado di precisione e livello di
confidenza.
In particolare si avrà che la media della distribuzione degli scarti
lungo le coordinate
e
e
così ottenuti
conterrà l'informazione circa il disallineamento del rivelatore
intermedio rispetto ai due più esterni mentre l'errore su tale media sarà legato alla
precisione con la quale tale misura è stata effettuata. La precisione della misura sarà
quindi direttamente connessa con la numerosità dei campioni raccolti e, di conseguenza,
con il tempo necessario per la misura.
Bisogna a questo punto precisare due aspetti del problema. La prima considerazione
importante riguarda il fatto che questo tipo di misura è sensibile, per definizione, ai soli
spostamenti relativi dei rivelatori, senza possibilità di distinguere se un rivelatore si è
spostato rispetto ad un riferimento assoluto esterno, come ad esempio la roccia di
fondazione. Inoltre, la misura dello spostamento andrà sempre effettuata come misura di
confronto fra la condizione attuale del sistema ed una condizione misurata
precedentemente che ne costituisce il riferimento. Per questo motivo il sistema
analizzato è applicabile al monitoraggio di deformazioni, piuttosto che a misure di
posizionamento assoluto.
La seconda considerazione riguarda il fatto che il sistema di misura studiato, basato
solamente su tre rivelatori, costituisce il sistema minimale necessario. È possibile infatti
pensare a sistemi più complessi, basati su un numero maggiore di rivelatori, che
costituisca un vero e proprio telescopio nel quale i raggi cosmici possano attraversare
44
3.
Strumenti e procedure di simulazione
tutti i rivelatori o un loro sottoinsieme. In questo caso, naturalmente, le procedure di
analisi dei dati dovrebbero essere più complesse e prevedere il calcolo degli scarti tramite
adattamento di rette spaziali ad insiemi di punti misurati e la stima degli spostamenti
relativi dei rivelatori tramite procedure di minimizzazione più sofisticate [2]. Il caso in
esame che è, come detto, il più semplice, ha il pregio di poter essere trattato con grande
facilità formale, pur contenendo tutti gli elementi fisici che caratterizzano anche le
configurazioni più complesse.
3.2.
GEANT4 ed il metodo Monte Carlo
GEANT4 (utilizzato in questo studio attraverso l’interfaccia VMC) è un applicativo gratuito,
scritto in C++, che utilizza tecniche avanzate per la progettazione di programmi orientati
agli oggetti ed è composto di accessori che consentono un'accurata simulazione del
passaggio di particelle attraverso la materia [2].
Nella costruzione di GEANT4 sono stati previsti tutti gli aspetti utili alla definizione di tutto
ciò che può essere necessario alla simulazione [34], in particolare GEANT4 offre
l'opportunità di definire e di controllare: la geometria del sistema, i materiali impiegati, le
particelle elementari tracciate, la generazione di eventi primari, il tracciamento del
percorso delle particelle attraverso materia e campi elettromagnetici, i processi fisici che
governano le interazioni delle particelle, la risposta dei componenti sensibili di
rivelazione, la generazione di dati per ciascun evento, la registrazione e conservazione
degli eventi e delle loro tracce, la visualizzazione dei rivelatori e della traiettoria delle
particelle e l'immagazzinamento e l'analisi dei risultati delle simulazioni a diversi livelli di
dettaglio e precisione.
Il cuore di GEANT4 è una ricca collezione di modelli fisici per riprodurre le interazioni delle
particelle con la materia in un intervallo di energia molto vasto, durante il passaggio
attraverso un assetto sperimentale, in modo da simulare il comportamento delle
particelle e la risposta dei rivelatori. GEANT4 incorpora gran parte di tutto ciò che si
conosce circa le interazioni delle particelle ed è stato originariamente progettato per
esperimenti di fisica delle alte energie. Oggi è utilizzato anche per applicazioni in altre
aree scientifiche, quali la medicina, la biologia, la radioprotezione e l'astronautica.
45
3.
Strumenti e procedure di simulazione
GEANT4 è progettato e sviluppato grazie ad una collaborazione internazionale della quale
anche il CERN42 fa parte e si basa sull'esperienza accumulata nel campo delle simulazioni
Monte Carlo, dei rivelatori e dei processi fisici di interazione di tutti i tipi di particelle
attraverso la materia.
Con il termine di metodo Monte Carlo, oppure metodo MC, vengono in genere
denominate tutte quelle tecniche che fanno uso di variabili aleatorie per la risoluzione di
problemi matematici.
Il metodo Monte Carlo diventa l'unica alternativa disponibile in tutte le situazioni in cui è
troppo difficile, se non impossibile, utilizzare i tradizionali procedimenti numerici o
analitici. L'applicazione di questo metodo non è ristretta ai soli problemi di natura
statistica, ma include tutti quei casi in cui sia possibile trovare un collegamento tra il
problema in esame ed il comportamento di un certo sistema aleatorio, ad esempio la
diffusione di particelle nei materiali, il valore di un integrale indefinito, il calcolo del
numero ottimale di addetti ad un impianto.
Le basi teoriche di questo metodo sono conosciute da molto tempo ed il primo esempio
dell'impiego di numeri casuali per la risoluzione di integrali indefiniti si trova nel libro
“Essai d'aritmétique morale”, scritto nel 1777 da Georges-Luis Leclerc, conte di Buffon.
La prima applicazione sistematica del metodo Monte Carlo è però avvenuta solo nella
prima metà degli anni ’40 a Los Alamos, ad opera dell'equipe di scienziati guidata da
Enrico Fermi43, che sviluppò la prima reazione nucleare auto-alimentata (Chicago Pile-
42
L’Organizzazione Europea per la Ricerca Nucleare, comunemente conosciuta con l’acronimo CERN, è il più
grande laboratorio al mondo di fisica delle particelle. Si trova al confine tra Svizzera e Francia alla periferia
ovest della città di Ginevra nel comune di Meyrin. La convenzione che istituì il CERN fu firmata il 29
settembre 1954 da dodici stati membri, oggi ne fanno parte venti più alcuni osservatori, compresi stati
extraeuropei. Lo scopo principale del CERN è quello di fornire ai ricercatori gli strumenti necessari per la
ricerca in fisica delle alte energie. Questi sono principalmente gli acceleratori di particelle, che portano
nuclei atomici e particelle subnucleari ad energie molto elevate, e i rivelatori che permettono di osservare i
prodotti delle collisioni tra fasci di queste particelle. Ad energie sufficientemente elevate, i prodotti di
queste reazioni possono essere radicalmente differenti dai costituenti originali dei fasci, e a più riprese sono
state prodotte e scoperte in questa maniera particelle fino a quel momento ignote.
43
Enrico Fermi (Roma 1901 – Chicago 1954) è stato un fisico italiano tra i più noti al mondo principalmente
per i suoi studi e contributi teorici e sperimentali nell’ambito della meccanica quantistica e più in generale
nella fisica nucleare. La sua attività si è manifestata in molti campi della fisica e tra i suoi maggiori contributi
si possono citare la sua teoria del decadimento , la statistica quantistica di Fermi-Dirac e i risultati
concernenti le interazioni nucleari. Nel 1938 ricevette il Premio Nobel per la fisica, per la sua identificazione
di nuovi elementi della radioattività e la scoperta delle reazioni nucleari mediante neutroni lenti.
46
3.
Strumenti e procedure di simulazione
144). In particolare venivano studiate le reazioni del nucleo dell'atomo colpito da una
particella veloce: in questa situazione il nucleo si frantuma in molte particelle, che vanno
a colpire i nuclei di altri atomi vicini che a loro volta, in qualche caso, si frantumano con
una reazione a catena. Il problema che il gruppo di fisici voleva risolvere consisteva nel
chiedersi se tale processo sarebbe durato fino a coinvolgere l'intero universo o si sarebbe
arrestato dopo un certo numero di reazioni. Quest'ultima possibilità fu quanto emerse
dalle simulazioni.
Sempre degli anni ‘40 è la nascita del termine “Monte Carlo”, che fa riferimento alla città
del principato di Monaco, famosa per il suo casinò, e più precisamente alla roulette, uno
dei mezzi meccanici più semplici per generare delle variabili aleatorie. La paternità del
nome va in particolare attribuita ai matematici J. Von Neumann e S. Ulam, membri del
gruppo di lavoro di Los Alamos, che lo adottarono come nome in codice delle loro
ricerche segrete.
Dopo gli anni ‘50, con l'utilizzo dei calcolatori, questo metodo è diventato uno strumento
indispensabile per la ricerca scientifica, non solo perché i calcolatori permettono la rapida
esecuzione dei lunghi calcoli che sono spesso necessari per ottenere un risultato
significativo, ma anche per la facilità con cui possono generare numeri casuali. I dati
raccolti attraverso le simulazioni, trattati con opportuni metodi statistici, forniscono stime
che diventano tanto più attendibili quanto maggiore è il numero di prove fatte.
La generazione di numeri casuali riveste notevole importanza: l'unico modo in cui si può
ottenere una sequenza di numeri casuali che, per definizione, non è prevedibile quindi
neppure riproducibile, è quello di usare un processo stocastico quale l'estrazione di
numeri per mezzo di una roulette, il decadimento radioattivo di nuclei instabili o il rumore
termico di un'apparecchiatura elettronica. Tali sequenze possono poi essere raccolte in
tabelle che hanno però lo svantaggio di occupare, nella memoria del calcolatore
utilizzato, una grande area destinata unicamente a contenere una sequenza abbastanza
lunga da permettere anche l'analisi di sistemi molto complessi. L'impiego, invece, di un
44
Chicago Pile-1 (CP-1) è stato il primo reattore artificiale a fissione nucleare al mondo. Fu costruito come
parte del Progetto Manhattan dal laboratorio metallurgico dell'Università di Chicago sotto le tribune dello
stadio del campus della medesima università. Il reattore era composto da una pila di uranio e blocchi di
grafite, i quali furono assemblati sotto la supervisione del fisico italiano Enrico Fermi, in collaborazione con
Leó Szilárd, lo scopritore della reazione a catena. La prima dimostrazione si ebbe il 2 dicembre 1942, data
nella quale prese avvio l’era dell’energia nucleare.
47
3.
Strumenti e procedure di simulazione
fenomeno fisico per generare direttamente i numeri casuali di volta in volta necessari per
una simulazione non pone alcun problema in linea di principio, quando si è sicuri del buon
funzionamento degli strumenti impiegati. Tale metodo è però stato scartato perché nella
pratica è impossibile realizzare e collegare al calcolatore dei sistemi che siano abbastanza
rapidi da non rallentare la velocità di esecuzione dei programmi, oltre a dover verificare la
“qualità” dei numeri casuali, per evitare che impreviste anomalie delle apparecchiature
impiegate alterino le caratteristiche delle sequenze prodotte.
Per eliminare tutte queste difficoltà si fanno generare i numeri casuali direttamente al
calcolatore, attraverso appositi algoritmi matematici. Il calcolatore genera, così, valori di
variabili che possono essere considerate aleatorie, con densità uniforme nell’intervallo
[0,1]: le sequenze ricavate vengono dette “pseudocasuali” in quanto, al contrario di
quelle “veramente casuali”, esse sono assolutamente prevedibili e possono essere
riprodotte in modo identico quante volte si vuole. I numeri psuedocasuali hanno
comunque le stesse proprietà dei numeri casuali cioè, se sottoposti a verifica, risultano
indistinguibili da essi. Gli algoritmi che generano numeri pseudocasuali vanno inizializzati
con uno o più numeri interi detti semi (seeds): se i semi non vengono cambiati ad ogni
nuova prova del programma, i risultati, pur casuali, saranno sempre gli stessi; con gli
stessi semi si genererà sempre lo stesso campione [35].
Nel caso di simulazioni condotte su rivelatori, sequenze di numeri pseudocasuali sono
utilizzate ad esempio per generare e seguire delle particelle, variando statisticamente, da
un evento all'altro, alcuni parametri (il vertice e la direzione di emissione della particella,
l'energia della stessa, le fluttuazioni statistiche nella perdita di energia, l'angolo per lo
scattering multiplo, ecc.), in modo da riprodurre il più fedelmente possibile una situazione
reale.
Una delle applicazioni più interessanti del metodo MC è la determinazione di distribuzioni
statistiche comunque complicate. In generale, lo studio delle distribuzioni di variabili
aleatorie, funzioni di altre variabili aleatorie, richiede tecniche matematiche molto
laboriose, tanto che la soluzione analitica risulta molto complessa o addirittura non
calcolabile.
Il metodo Monte Carlo ha rivoluzionato questo ramo della statistica applicata, in quanto
consente di ottenere, con procedure “elementari”, la soluzione richiesta, anche se nella
48
3.
Strumenti e procedure di simulazione
forma approssimata di istogrammi e non nella forma analitica corretta. Dall'istogramma
simulato si possono poi estrarre i parametri che servono, come media, varianza, area
delle code, con errore statistico trascurabile rispetto al problema che si sta trattando. Si
può anche eseguire il best fit (cioè la migliore interpolazione) dell'istogramma utilizzando
funzioni empiriche come esponenziali, polinomiali, somme di gaussiane, ottenendo così
una forma analitica, indipendente dal passo dell'istogramma, che interpola la soluzione
vera con il grado di accuratezza desiderato.
GEANT4 è un applicativo che, sfruttando il metodo Monte Carlo e la generazione
pseudocasuale a partire da distribuzioni predefinite, come la gaussiana, la poissoniana o
la distribuzione uniforme, è in grado di restituire e rendere utilizzabili tutte le
informazioni che possono servire all'utente, per ciascun evento generato, al fine di
studiare un determinato sistema fisico, di cui sono noti i materiali di cui è costituito e la
sua geometria. GEANT4 raccoglie i risultati in appositi archivi di informazioni strutturate e
li rende disponibili per la successiva analisi; le informazioni, infatti, possono essere
rappresentate attraverso degli istogrammi, che, come detto, sono le soluzioni,
approssimate, del problema esaminato col Monte Carlo e costituiscono il punto di
partenza per una successiva indagine statistica.
Nel caso in esame, attraverso GEANT4 e con generazioni pseudocasuali, sono stati
generati i raggi cosmici che provengono da diverse direzioni e punti dello spazio, con
quantità di moto distribuita in accordo con dati sperimentali ed anch'essa attribuita in
modo pseudocasuale. Avendo imposto nel codice quali fossero le informazioni da salvare
nell'archivio, dalla lettura di quest'ultimo sono stati costruiti istogrammi relativi alla
quantità di moto posseduta da ciascun cosmico generato, all'energia persa da ciascun
cosmico durante l'attraversamento dei rivelatori, ma soprattutto istogrammi in cui è
rappresentata la distribuzione delle variabili statistiche
Carlo, per ciascun evento simulato.
e
e
, calcolate grazie al Monte
sono, per il singolo cosmico, come anticipato
nel Paragrafo 3.1, gli scarti fra il punto misurato sul rivelatore intermedio e l'intersezione
fra la retta che congiunge i punti in cui il cosmico intercetta i rivelatori superiore ed
inferiore ed il piano di rivelazione del rivelatore intermedio.
49
3.
3.3.
Strumenti e procedure di simulazione
Simulazione della geometria e tracciamento dei cosmici
Come precedentemente riportato, GEANT4 consente di simulare il passaggio di particelle
attraverso la materia, ed in particolare attraverso strutture, la cui geometria ed i materiali
di cui sono costituite possono essere definite dall'utente.
Una geometria simulata, in GEANT4, è costituita da un certo numero di volumi con
differenti forme geometriche, contenuti gli uni negli altri oppure intersecati per generare
forme geometriche più complesse. Il più grande di questi volumi è chiamato World
Volume (Volume Mondo) e contiene tutti gli altri volumi che servono per descrivere la
geometria del sistema in esame. Ciascun volume è creato descrivendo la sua forma, le sue
caratteristiche fisiche e posizionandolo all'interno del volume che lo contiene.
Per descrivere la forma geometrica di un volume, GEANT4 utilizza il concetto di solid
volume (volume solido). Quest'ultimo è un solido che ha forma geometrica ben definita e
dei valori specifici per ognuna delle dimensioni che lo caratterizzano. Per esempio un
cilindro sarà definito da due parametri, il suo raggio e l'altezza, un parallelepipedo
rettangolo sarà caratterizzato da tre parametri che sono le lunghezze dei tre lati.
Un volume solido possiede delle proprietà fisiche: densità, lunghezza di radiazione,
struttura atomica del materiale costituente, ecc. Queste proprietà vengono definite nel
codice di simulazione tramite il concetto di logical volume (volume logico), che unisce la
geometria del solido alle sue caratteristiche fisiche.
L'ultimo passo per la completa definizione dei volumi è il loro posizionamento nello spazio
simulato. Per fare ciò è necessario creare un physical volume (volume fisico), che dispone
una copia del volume logico in una posizione definita all'interno del volume più grande
che lo contiene.
Secondo la notazione di GEANT4, un volume che contiene completamente altri volumi è
“madre” per essi, che sono detti “figli”; ogni volume generato possiede un proprio SdR
(Sistema di Riferimento) con origine coincidente col centro del volume stesso. Il SdR del
volume madre è detto MRS (Mother Reference System) ed è rispetto ad esso che i “figli”
sono posizionati all'interno della “madre”; in particolare, la trasformazione di un punto
dal MRS (
rotazione
) al SdR dei figli ( ), a qualsiasi livello, è ottenuta utilizzando una matrice di
ed un vettore di traslazione
attraverso la relazione:
50
3.
Strumenti e procedure di simulazione
La descrizione di una struttura complessa in GEANT4 si può quindi ottenere con sistemi ad
albero di volumi, accostati gli uni agli altri o intersecanti sullo stesso livello gerarchico,
oppure contenuti completamente gli uni negli altri a diversi livelli. Esiste inoltre la
possibilità di frazionare i volumi in modo regolare per generarne delle parti individuali,
oppure di produrne molteplici copie in diverse posizioni spaziali. Questa descrizione
risulta estremamente flessibile, facile da implementare, e consente la rappresentazione di
strutture di estrema complessità, costituite da migliaia di volumi di cui possono essere
composti i grandi apparati sperimentali della fisica delle alte energie.
Le componenti di
sono le proiezioni, sugli assi del MRS, del vettore che congiunge
l'origine del MRS stesso con quella del SdR del volume figlio; le componenti di
sono le
coordinate angolari sferiche di ciascuno degli assi del SdR figlio rispetto al proprio MRS.
Nel caso in esame, la geometria è stata disegnata partendo dalla definizione del Volume
Mondo mediante un parallelepipedo rettangolo di aria di dimensioni
rispettivamente lungo gli assi
,
e . Il suo sistema di riferimento MARS (MAster
Reference System) ha origine coincidente con il centro del parallelepipedo stesso, gli assi
e
sono ortogonali fra loro e appartengono al piano orizzontale, mentre l'asse
,
perpendicolare a tale piano, è rivolto verso l'alto ed individua la direzione verticale. Al di
fuori del Volume Mondo le particelle non vengono tracciate e vengono completamente
arrestate sul suo bordo.
La geometria delle varie parti che compongono la configurazione analizzata (Figura 3.1 e
Figura 3.2) è stata ottenuta come somma o differenza di volumi. In Tabella 3.1 sono
riportate le principali caratteristiche dei volumi definiti all’interno del codice, in
particolare le dimensioni, il rapporto di dipendenza tra volumi ed il posizionamento di
ciascun volume figlio rispetto al proprio volume madre.
All’interno del Volume Mondo sono stati definiti tre volumi principali: il bacino di acqua, il
suolo e la diga in calcestruzzo. Al fine dell’analisi riveste poca importanza la presenza dei
primi due in quanto i rivelatori sono interamente contenuti nella diga e a sufficienti
distanze dal bacino e dal suolo da non poter essere influenzati, tuttavia la presenza di
questi due volumi facilita la visualizzazione dell’intera geometria.
51
3.
Strumenti e procedure di simulazione
52
3.
Strumenti e procedure di simulazione
53
3.
Strumenti e procedure di simulazione
Figura 3.2 : Disegno quotato della configurazione geometrica analizzata. In particolare sono stati messi in evidenza
nei tre dettagli i rivelatori che compongono il telescopio di misura.
La diga è stata semplicisticamente rappresentata come un prisma retto a base
trapezoidale che si sviluppa lungo l’asse
per una lunghezza di
. Il trapezio di base è
rettangolo, in quanto il paramento di monte è verticale, ha un’altezza di
anche quella della diga, e le basi di
e
, la quale è
, rispettivamente la larghezza della
muratura alla base e al coronamento.
Sebbene il metodo di misura basato sui raggi cosmici funzioni anche quando i rivelatori
non si vedono direttamente l’uno rispetto all’altro45, è utile, al fine di ottenere misure
45
I raggi cosmici sono adatti per essere utilizzati in campagne di misura nelle quali i rivelatori non sono
facilmente visibili gli uni rispetto agli altri. Questo perché i muoni, frazione più abbondante dei cosmici che
raggiungono la superficie terrestre, sono le più penetranti fra le diverse particelle elementari, dato che non
risentono dell’interazione forte nucleare, ma solo delle interazioni elettromagnetica e debole; per questo
possono penetrare notevoli spessori di materiale.
54
3.
Strumenti e procedure di simulazione
precise in un tempo il più breve possibile, che il materiale interposto tra loro sia il minimo
possibile. In strutture di piccole dimensioni si potrebbe ammettere spessori di materia
interposti dell’ordine delle centinaia di millimetri [2, 3], tuttavia in una struttura come
quella analizzata gli spessori da attraversare sarebbero più grandi di due ordini di
grandezza. Inserire i tre rivelatori in altrettante cavità orizzontali create appositamente e
a diverse altezze nella diga non rappresenterebbe una configurazione realizzabile in
quanto si otterrebbe un eccessivo allargamento della distribuzione degli scarti
e
dovuto allo scattering multiplo dei raggi cosmici all’interno del calcestruzzo, inoltre
quest’ultimo bloccherebbe la parte di radiazione meno energetica riducendo quindi il
numero di cosmici a disposizione. Si è perciò pensato di sfruttare le cavità verticali
ricavate all’interno della struttura muraria nelle quali vengono alloggiati i pendoli dritti e
rovesci, infatti, se la tecnica studiata dovesse risultare fattibile ed affidabile, potrebbe
rappresentare una valida alternativa all’utilizzo dei pendoli nella rilevazione delle
deformazioni. Queste cavità che si sviluppano lungo l’intera altezza della muratura hanno
forma cilindrica e solitamente un diametro dell’ordine di
studio prenderemo come riferimento il valore più restrittivo, cioè
. In questo
.
A partire dalla sommità e per l’intera altezza è stato quindi creato all’interno del volume
della diga un volume cilindrico di aria con il diametro di
. È stato necessario
imporre un diametro leggermente maggiore per poter simulare spostamenti dell’ordine
del millimetro del rivelatore intermedio, nel caso in cui venga analizzato il
comportamento del sistema di misura quando la diga è deformata. I tre rivelatori di raggi
cosmici sono infatti creati all’interno del volume cilindrico di aria, quindi il cilindro deve
avere dimensioni tali da contenerli in qualsiasi configurazione essi si trovino. Questo è un
semplice seppure efficace escamotage per evitare di dover rappresentare la diga e il
cilindro di aria con dei volume deformati.
Durante l’analisi si è reso necessario definire all’interno del volume della diga un volume
sensibile di calcestruzzo a forma di tubo con diametro interno di
esterno di
, diametro
e lunghezza pari alla distanza tra il rivelatore superiore e quello
inferiore. Questo tubo è stato posizionato in modo da rivestire la parete interna della diga
che contiene il telescopio di misura. L’aver reso sensibile questo volume ha permesso di
individuare i raggi cosmici che riescono ad attraversare tutti e tre i rivelatori a seguito di
55
3.
Strumenti e procedure di simulazione
fenomeni di scattering con la parete della diga. Come vedremo più in dettaglio nel
Capitolo 4, questi particolari cosmici non sono graditi in quanto vanno ad inficiare le
misure del telescopio di rivelatori, quindi si dovranno individuare dei parametri per
riconoscerli e per escluderli dall’analisi.
I rivelatori sono stati simulati costruendo un disco con spessore di
e diametro di
. Come si può intuire, quest’ultima dimensione è imposta dal dover installare gli
stessi all’interno degli alloggiamenti dei pendoli e rappresenta un limite intrinseco della
soluzione scelta per il posizionamento dei sensori. Si potrebbe pensare di poter installare
rivelatori di dimensioni maggiori, in dighe a gravità massiccia, all’esterno della muratura,
lungo il paramento di monte o quello di valle. In entrambi i casi vi sarebbero problemi
pratici di non facile risoluzione. Nel primo caso l’intero sistema di misura, o una buona
parte, si troverebbe sommerso e quindi si dovrebbe garantire il perfetto isolamento
dall’acqua della circuiteria elettrica ed elettronica; inoltre tra i rivelatori si troverebbe
interposta acqua e non più aria, quindi una sostanza in grado di ostacolare e deviare
maggiormente il passaggio dei cosmici. Nel secondo caso, invece, la pendenza del
paramento di valle renderebbe necessario vincolare i rivelatori, soprattutto il superiore e
l’intermedio, a strutture a sbalzo di notevoli dimensioni per poter averli sulla medesima
verticale, quindi sarebbe difficilmente garantito il corretto posizionamento degli stessi a
causa degli agenti atmosferici come neve e vento.
Per la rivelazione dei raggi cosmici è stato scelto un particolare tipo di rivelatore a gas che
utilizza due fogli GEM (Gas Electron Multiplayer – Moltiplicatore a gas di elettroni). La
configurazione base di un rivelatore a gas prevede due elettrodi (l’anodo e il catodo)
mantenuti ad una certa differenza di potenziale ed un gas facilmente ionizzabile posto tra
essi. Questi dispositivi sono stati tra i primi ad essere utilizzati per la rivelazione di
particelle negli esperimenti di fisica delle alte energie. Principalmente sfruttano
l’amplificazione della ionizzazione46 prodotta dal passaggio di una radiazione o di una
46
Quando una particella penetra nel rivelatore si formano delle coppie ione-elettrone; in modo diretto se si
tratta di una particella carica, in modo indiretto, attraverso reazione secondarie, se la particella incidente è
neutra. Il numero medio di coppie risulta proporzionale all’energia depositata nel dispositivo e sotto
l’azione del campo elettrico gli elettroni vengono accelerati verso l’anodo mentre gli ioni verso il catodo. Se
la differenza di potenziale imposta tra questi due elettrodi è sufficiente, gli elettroni liberatisi (elettroni
primari) acquistano abbastanza energia cinetica da ionizzare gli atomi del gas. Si generano quindi nuovi
elettroni liberi (elettroni secondari) il cui effetto è un’ulteriore ionizzazione delle molecole del gas e così via,
producendo di conseguenza una moltiplicazione a valanga di ioni e elettroni. Il numero di coppie ione-
56
3.
Strumenti e procedure di simulazione
particella nel gas per ottenere un segnale che viene poi analizzato dall’elettronica di
lettura [36]. In anni recenti è stata sviluppata la tecnologia GEM, grazie alla quale si sono
ottenuti rivelatori a gas con guadagni di amplificazione e risoluzioni spaziali maggiori.
Un GEM (Figura 3.3 [37]) consiste in un sottile foglio di Kapton®47 di spessore di
rivestito su entrambe le facce con lamine di rame sottili
di fori ad alta densità (
, che presenta una matrice
). Questi fori costituiscono la parte attiva del GEM,
infatti, con una differenza di potenziale imposta alle due lamine di rame, agiscono come
canali di moltiplicazione elettronica [38].
Figura 3.3 : Immagine di un GEM ottenuta con il microscopio elettronico. Si noti la scala in basso a sinistra di
.
48
Ciascun foro è caratterizzato da una struttura biconica, realizzata con tecnologia fotolitografica a doppia maschera .
Il diametro maggiore del tronco di cono, che misura
, è sulla superficie esterna del GEM, mentre il diametro
minore, di 55
, appartiene al piano intermedio del moltiplicatore a gas di elettroni. La distanza tra i fori è di
.
elettrone che deriva dalla moltiplicazione a valanga è direttamente proporzionale al numero di elettroni
prodotti durante la ionizzazione primaria. La corrente in uscita risulta amplificata di un fattore che dipende
dalla differenza di potenziale imposta fra anodo e catodo e che può essere anche molto elevato, dell'ordine
di
.
47
Il Kapton® (marchio registrato DuPont) è un film poli-immidico con eccellenti proprietà fisiche, chimiche
ed elettriche lungo un ampio intervallo di temperature (da -269 °C a +400 °C).
48
Il substrato viene ricoperto con una resina fotosensibile ed esposto a luce UV attraverso una maschera
positiva che riproduce i fori del foglio del GEM. Dopo l'esposizione, la parte di resina fotosensibile
impressionata viene rimossa con una soluzione alcalina. Il rame ed il Kapton® rimasti scoperti vengono
rimossi con un bagno in un acido.
57
3.
Strumenti e procedure di simulazione
È possibile realizzare rivelatori ad uno, due o tre fogli GEM. I rivelatori inseriti nelle
simulazioni condotte in questa tesi sono a due fogli GEM. In Figura 3.4 è possibile vedere
schematicamente la struttura interna di uno di questi rivelatori mentre in Figura 3.5 è
stata riportata la sua geometria simulata così come viene rappresentata dall’interfaccia
grafica di GEANT4.
Come è stato detto, ogni rivelatore è stato simulato mediante un disco di spessore
e diametro
. Al suo interno sono stati creati dei volumi, anch’essi a forma
di disco, che ne rappresentano le varie parti: i fogli GEM, le camere contenenti il gas e le
strutture di sostegno. Questi volumi hanno un diametro di
, minore rispetto a
quello del rivelatore, infatti la parte più esterna dello stesso ha unicamente una funzioni
di contenimento. D’ora in avanti si farà riferimento al rivelatore come ad un disco di
di diametro, in quanto questa è la dimensione della parte attiva del dispositivo,
cioè la parte sensibile al passaggi dei raggi cosmici.
Nelle simulazioni eseguite si è imposta per la generazione dei raggi cosmici una superficie
circolare con diametro di
e posta sulla faccia superiore del rivelatore superiore.
GEANT4 permette quindi il tracciamento dei cosmici, a partire da quando questi
intercettano il rivelatore superiore, con quantità di moto ed angolo di incidenza rispetto
alla verticale estratti dalle rispettive distribuzioni. Il tracciamento prosegue quando il
cosmico generato si trova ad attraversare spessori di diverso materiale. GEANT4, infatti,
tiene conto sia degli effetti fisici di perdita di energia con fluttuazione, dovuta
principalmente alle collisioni con gli elettroni del mezzo, sia della diffusione multipla, che
provoca deviazioni della traiettoria e costituisce, come già detto, uno dei fenomeni più
rilevanti al fine di valutare la precisione con cui si può misurare un eventuale
deformazione della struttura. L'effetto della diffusione multipla, come descritto nel
Paragrafo 2.3.4, è proporzionale alla carica del nucleo del materiale attraversato, tramite
la lunghezza di radiazione, ed è inversamente proporzionale alla quantità di moto del
muone. Il tracciamento dei cosmici tiene conto anche delle altre cause responsabili di
deviazioni di traiettoria, quali fenomeni di interazione elettromagnetica e dell'eventuale
decadimento del muone, essendo questo una particella instabile.
58
3.
Strumenti e procedure di simulazione
Figura 3.4 : Rappresentazione schematica di un rivelatore a due GEM. All’interno del rivelatore sono presenti tre
campi elettrici: tra il catodo ed il GEM 1 il campo elettrico è detto di deriva, tra i due GEM è detto di trasferimento e
tra il GEM 2 e il PCB (il Printed Circuit Board è un circuito stampato che funge da elettrodo di raccolta del segnale) è
detto di induzione. Grazie a questi campi gli elettroni delle ionizzazioni vengono accelerati e si hanno successive
moltiplicazioni a valanga.
Figura 3.5 : Geometria simulata della struttura dei rivelatori di raggi cosmici così come viene rappresentata
dall’interfaccia grafica di GEANT4.
59
3.
Strumenti e procedure di simulazione
Come si vedrà più in dettaglio nel Capitolo 4, i cosmici che attraversano tutti e tre i
rivelatori del telescopio di misura costituiscono una piccola porzione, circa lo
, del
totale di particelle generate, che provengono da ogni direzione dell'emisfero che ha per
base la superficie di generazione definita sul rivelatore superiore. Tale direzione, così
come la quantità di moto dei cosmici, sono variabili casuali appartenenti a particolari
distribuzioni. Anche i processi fisici subiti da ciascuna particella quando attraversa un
certo materiale sono di tipo stocastico, legati quindi a determinate leggi statistiche, e non
deterministiche. Per poter riprodurre tutti questi fenomeni, GEANT4 utilizza, all'interno
della procedura di simulazione, secondo il metodo Monte Carlo, un generatore di numeri
pseudocasuali, che consente di estrarre casualmente, secondo le distribuzioni note, le
occorrenze delle diverse variabili statistiche coinvolte.
In questo modo l'applicativo è in grado di tracciare le particelle all'interno del Volume
Mondo (Figura 3.6). Il tracciamento procede per passi successivi, opportunamente
calcolati dal programma, per tenere conto dell'attraversamento delle superfici di confine
fra volumi e delle diverse interazioni fisiche che avvengono all'interno dei vari materiali.
Quando il volume attraversato è definito sensibile, il programma registra, in apposite
locazioni, le coordinate del punto di attraversamento (hit). Nella geometria analizzata
sono stati definiti sensibili la camera di trasferimento dei rivelatori e il tubo di
calcestruzzo che contiene il telescopio di misura. Nel caso della camera di trasferimento,
le coordinate del punto di attraversamento, alle quali può essere applicata un’opportuna
fluttuazione in modo da simulare l'effetto della precisione spaziale propria del rivelatore,
saranno considerate come la misura del punto di passaggio del cosmico nel rivelatore
stesso.
I rivelatori simulati sono in grado di rendere disponibili tutte e tre le coordinate spaziali
del punto in cui la particella è entrata nel volume. Nel caso studiato, per rendere la
simulazione più verosimile al comportamento dei rivelatori reali, i rivelatori inseriti nel
codice misurano le coordinate
e
nel piano orizzontale, mentre la coordinata
è
fissata convenzionalmente sul piano mediano di ciascun rivelatore. Ciò non comporta
effetti rilevanti sui risultati, considerato il fatto che la direzione dei cosmici che
attraversano i tre rivelatori è molto prossima alla verticale.
60
3.
Strumenti e procedure di simulazione
61
3.
3.4.
Strumenti e procedure di simulazione
Descrizione del generatore di cosmici
Nel Paragrafo 2.2.3, oltre ad aver specificato che la maggior parte dei raggi cosmici che
arrivano alla superficie terrestre è composta da muoni sia di carica positiva (
negativa (
) sia
), si è precisato che i raggi cosmici sono caratterizzati da una certa
distribuzione di quantità di moto
e di angolo di arrivo
rispetto alla verticale, inoltre si
è sottolineato che le due grandezze sono fra loro correlate.
In particolare si è visto che:

la distribuzione della quantità di moto è quasi piatta al di sotto di
l’andamento di

per impulsi superiori a
ed ha
(Figura 2.7 [21]);
i raggi cosmici arrivano da tutte le direzioni (sono isotropi), ma il flusso è maggiore
allo zenit ed ha una distribuzione angolare che varia approssimativamente come
, dove

è l’angolo rispetto alla verticale;
l’integrale dell’intensità di muoni verticali con quantità di moto superiore a
, al livello del mare, è
. Nel caso di superfici orizzontali,
l’intensità di muoni al suolo è di circa
[14].
Il generatore di cosmici che è stato inserito nel codice di simulazione riproduce con
sufficiente approssimazione tali caratteristiche. Per quanto riguarda il rapporto
,
peraltro irrilevante ai fini del presente studio, e per la funzione di distribuzione della
quantità di moto, il generatore utilizza i dati sperimentali contenuti nella pubblicazione
del lavoro relativo allo sviluppo del rivelatore ADAMO49 [39], che coprono l'intervallo di
quantità di moto compreso fra 0.2
rapporto
e
, e dai quali si ricava il
in funzione della quantità di moto del cosmico, la cui curva sperimentale
è rappresentata nel grafico di destra della Figura 3.7 [39]. In Tabella 3.2 [39] sono riportati
i valori sperimentali di quantità di moto (fino al valore di
) inseriti nel codice di
simulazione e che rappresentano la distribuzione dai cui attingere con la generazione
casuale. Nel grafico di sinistra della Figura 3.7, il quale rappresenta lo spettro dei cosmici
che raggiungono la superficie terrestre, è mostrata la distribuzione di tali valori.
49
ADAMO è uno spettrometro magnetico che è stato sviluppato al fine di garantire una misura precisa dello
spettro, rilevato al suolo, delle principali particelle cariche presenti nelle air showers (muoni, protoni ed
elettroni) e generate dall’interazione dei raggi cosmici primari con l’atmosfera terrestre. ADAMO è stato
presentato per la prima volta alla ventottesima Conferenza Internazionale sui Raggi Cosmici (ICRC International Cosmic Ray Conference), tenuta a Tsukuba in Giappone nel 2003.
62
3.
Strumenti e procedure di simulazione
Figura 3.7 : Nel grafico di sinistra è presente la distribuzione dei dati sperimentali, ottenuti dalle campagne di misura
condotte con il rivelatore ADAMO, che rappresenta lo spettro di muoni carichi ( , ) al livello del mare. Il flusso, in
ordinata, è moltiplicato per
dove è la quantità di moto. Nel grafico di destra è rappresentata la curva dei valori
ottenuti dalle medesime campagne di misura del rapporto
in funzione della quantità di moto dei muoni.
Intervallo di
Quantità di
quantità di moto moto media
Flusso misurato
[GeV/c]
[GeV/c]
0.2 - 0.3
0.3 - 0.4
0.40 - 0.55
0.55 - 0.70
0.25
0.35
0.47
0.62
(1.2±0.1) x 10
(1.70±0.08) x 10
(2.03±0.06) x 10
(2.12±0.06) x 10
(1.7±0.09) x 10
(1.52±0.07) x 10
(1.79±0.05) x 10
(1.86±0.05) x 10
0.70 - 0.85
0.85 - 1.0
1.0 - 1.2
1.2 - 1.4
1.4 - 1.6
1.6 - 2.1
2.1 - 2.94
2.94 - 4.12
4.12 - 5.5
5.5 - 7.0
0.78
0.92
1.1
1.3
1.5
1.84
2.49
3.49
4.78
6.21
(2.04±0.05) x 10
(1.92±0.05) x 10
(1.77±0.04) x 10
(1.55±0.1) x 10
13.9±0.3
7.0±0.9
4.8±0.1
2.94±0.06
1.78±0.04
(1.76±0.05) x 10
(1.64±0.04) x 10
(1.48±0.03) x 10
(1.28±0.03) x 10
11.40±0.26
9.2±0.19
5.7±0.7
3.86±0.08
2.31±0.05
1.37±0.03
7.0 - 10.0
10.0 - 15.5
15.5 - 23.0
23.0 - 31.1
31.1 - 43.6
43.6 - 61.1
61.1 - 85.6
85.6 - 120.0
8.37
12.42
18.85
26.68
36.69
51.47
72.08
100.96
(10.2±0.2) x 10-1
(4.14±0.09) x 10-1
(1.54±0.04) x 10-1
(6.4±0.2) x 10-2
(2.8±0.1) x 10-2
(10.2±0.5) x 10-3
(4.2±0.3) x 10-3
(1.5±0.1) x 10-3
(7.8±0.2) x 10-1
(3.20±0.07) x 10-1
(1.16±0.03) x 10-1
(4.5±0.2) x 10-2
(2.03±0.08) x 10-2
(7.7±0.4) x 10-3
(3.2±0.2) x 10-3
(1.1±0.1) x 10-3
Tabella 3.2 : Flusso a livello del mare di muoni sia positivi sia negativi, misurato sperimentalmente. Sono stati
riportati i valori fino a
, in quanto i muoni con quantità di moto maggiore rappresentano una piccola
parte.
63
3.
Strumenti e procedure di simulazione
Per quanto riguarda invece la distribuzione angolare rispetto alla verticale, il generatore
riproduce l'angolo di arrivo fino ad un angolo massimo di
rispetto alla verticale, oltre
il quale il numero dei cosmici si riduce notevolmente. I cosmici con angoli superiori a
non sarebbero comunque utili alla tecnica di monitoraggio in quanto non riuscirebbero a
intercettare tutti e tre i rivelatori.
Il piano di generazione, parallelo al piano
, è stato scelto coincidente con la superficie
superiore del rivelatore superiore; su tale piano è stato individuato in modo casuale un
punto
all'interno di una superficie circolare di diametro
le coordinate
e
, assumendo che
avessero distribuzioni uniformi tra loro indipendenti. A ciascun punto
generato sono stati associati un angolo azimutale
, nel piano orizzontale
, ed un
angolo di zenit , rispetto all'asse verticale , necessari per il calcolo dei coseni direttori
che definiscono la direzione iniziale di ciascun cosmico. Il punto di generazione, l'angolo
azimutale e l'angolo rispetto alla verticale sono mostrati in Figura 3.8 [2].
L'angolo azimutale
è distribuito con probabilità uniforme fra
di cosmici è stato generato in modo casuale, tra
e
e
. Nel generatore
secondo la distribuzione
uniforme:
Facendo riferimento alla Figura 3.9 [2], è possibile calcolare l'angolo solido
dall'area infinitesima
a partire
, definita dagli angoli azimutale e di zenit:
da cui deriva la definizione di angolo solido, infinitesimo,
:
La distribuzione angolare di incidenza rispetto alla verticale, per energie dei cosmici
, che è il valore medio della distribuzione di quantità di moto dei cosmici stessi,
e per angoli di zenit
dove
, può essere espressa nel seguente modo [14]:
è la proiezione, sul piano
, dell'angolo solido
definito
nell’Eq.3.4.
64
3.
Strumenti e procedure di simulazione
Figura 3.8 : Visualizzazione delle coordinate generate per determinare il punto generico da cui far partire il muone e
l’angolo della sua direzione rispetto alla verticale. è l’angolo azimutale, mentre è l’angolo di zenit.
Figura 3.9 : La figura mostra l’area infinitesima
definita dall’angolo azimutale
, nel piano , e da quelli di zenit
, rispetto alla verticale, quando il cosmico viene generato da una distanza dal piano di rivelazione.
65
3.
Strumenti e procedure di simulazione
Dall'Eq. 3.5 e dall'Eq. 3.2 si può facilmente ricavare che l'angolo di zenit
, per raggi
cosmici incidenti su un piano orizzontale a livello del mare, è distribuito nel seguente
modo:
Nel generatore, l'angolo di zenit viene generato secondo tale distribuzione. Estrapolando
l'Eq. 3.6 per angoli
, si deduce che la percentuale dei cosmici che giungono al
suolo con angolo rispetto alla verticale maggiore di
nella generazione, è circa lo
, e che quindi vengono trascurati
del totale, cioè un numero estremamente piccolo che
non introduce errori rilevanti nella valutazione dei tempi di presa dati.
Infatti, integrando l'Eq. 3.6 fra due angoli qualsiasi
Ponendo
, da cui
Il numero totale
l'Eq. 3.6 tra
e
Il coseno di
e
, si ottiene:
, si può scrivere:
di cosmici che arrivano al livello del mare si ottiene integrando
e
, a cui corrispondono, come limiti di integrazione nella 3.7,
, da cui:
è
, quindi il numero di cosmici
che giungono al suolo e che
vengono trascurati dalla generazione, perché aventi angolo di arrivo rispetto alla verticale
maggiore di
è il seguente:
da cui si può ricavare la percentuale di cosmici che giungono al suolo, ma che vengono
trascurati dalla generazione:
66
3.
Strumenti e procedure di simulazione
Nel generatore di cosmici, dopo avere generato il punto
di moto e degli angoli
e
, il valore della quantità
secondo le distribuzioni sopra definite, vengono calcolati i
coseni direttori della direzione del cosmico rispetto agli assi
,
e
che vengono
trasferiti, assieme al valore dell'impulso, al programma di simulazione Monte Carlo per il
successivo tracciamento.
Attraverso il generatore di cosmici inserito nel codice sono stati generati un milione di
eventi e gli istogrammi e le distribuzioni ottenuti sono raccolte nelle figure dalla 3.10 alla
3.13. In particolare, l'istogramma di Figura 3.10 è l'analogo della curva sperimentale
ricavata dalle misure del rivelatore ADAMO. In Figura 3.11 è mostrato l'istogramma
dell'angolo azimutale: un qualsiasi angolo
in un intervallo di ampiezza
, giacente nel piano
, risulta equiprobabile
. In Figura 3.12 è rappresentato l'istogramma
dell'angolo con cui i cosmici sono generati rispetto alla verticale; infine, da Figura 3.13 è
evidente che il generatore simulato rispetta la legge espressa dall'Eq. 3.5, secondo cui il
flusso di cosmici attraverso la proiezione dell'angolo solido nel piano orizzontale
direttamente proporzionale a
, dove
è
l'angolo rispetto alla verticale.
Dopo la loro generazione, le informazioni possono essere salvate in un formato di
secondo livello: tutte i parametri utili e necessari allo studio oggetto della presente tesi
sono stati quindi salvati in un file utilizzando un particolare programma di analisi dei dati
chiamato ROOT, descritto in dettaglio nel prossimo paragrafo.
Figura 3.10 : L’istogramma in scala bilogaritmica della quantità di moto generata è stato realizzato estrapolando in
modo casuale un milione di valori da una distribuzione ottenuta interpolando i dati sperimentali di [39],
nell’intervallo compreso tra
e
.
67
3.
Strumenti e procedure di simulazione
Figura 3.11 : L’angolo azimutale è distribuito in modo uniforme, cioè ad ogni muone generato in un qualsiasi punto
del piano
di generazione può essere associato, con equiprobabilità, un qualsiasi angolo
compreso in un
intervallo di ampiezza
(
).
Figura 3.12 : Istogramma dell'angolo di zenit inserito nel generatore di cosmici. Nel sistema simulato la direzione
delle positive è verso l’alto, tuttavia si sono considerati gli angoli positivi rispetto alla direzione negativa dell’asse
.
68
3.
Strumenti e procedure di simulazione
Figura 3.13 : La distribuzione angolare di incidenza mostrata è valida se
e l’energia media dei muoni
; in tal caso è valida l’Eq. 3.5. In questo grafico si nota che la parte iniziale della curva (corrispondente ad
angoli compresi nell’intervallo
) è nulla, infatti per angoli
i muoni non vengono tracciati.
3.5.
ROOT
ROOT è un framework per l’analisi di dati, cioè è un potente pacchetto software orientato
ad oggetti, che sostanzialmente offre un ambiente di lavoro nel quale muoversi per
studiare dati raccolti [40]. E’ stato sviluppato dal CERN per sostituire i precedenti
pacchetti (tra i quali PAW - Physics Analysis Workstation - e CERNLIB); il progetto fu
avviato autonomamente da René Brun nel 1994 e tuttora vede impegnati moltissimi
studiosi di tutto il mondo. ROOT è scritto in C++, e rilasciato sotto licenza LGPL.
I pacchetti forniti da ROOT includono funzionalità, tra le quali:

visualizzazione, analisi di distribuzioni e funzioni tramite istogrammi e grafici;

fitting e minimizzazione di funzioni;

strumenti statistici per l'analisi dei dati;

algebra matriciale;

supporto di quadrivettori, utilizzati nella fisica delle alte energie;

supporto di funzioni matematiche standard;

analisi dei dati multivariata, per esempio usando reti neurali;

manipolazione di immagini, usata per esempio per analizzare figure astronomiche;

accesso ai dati distribuiti (nel contesto di Grid);

calcolo distribuito, per analizzare dati in parallelo;
69
3.

Strumenti e procedure di simulazione
persistenza e serializzazione degli oggetti, i quali possono far fronte ai
cambiamenti nelle definizioni delle classi dei dati persistenti;

accesso ai database;

visualizzazione 3D;

creazione di file in vari formati grafici, come PostScript, JPEG, SVG;

interfacciamento con i linguaggi Python e Ruby in entrambe le direzioni;

interfacciamento con generatori Monte Carlo.
Una caratteristica chiave di ROOT è il contenitore di dati chiamato tree (albero), con le
sue sottostrutture branches (rami) e leaves (foglie). Questa struttura può essere vista
come una finestra scorrevole di accesso ai dati grezzi, come quando sono memorizzati in
un file. Questa tecnica evita problemi di allocazione della memoria concernenti la
creazione di oggetti, e permette all'albero di comportarsi come un contenitore "leggero",
mentre si maneggia il buffer in maniera trasparente. Studiando quindi le diverse foglie
(cioè le variabili) di un determinato albero (contenitore di variabili) si riesce a giungere
alle più svariate informazioni.
La comodità sorprendente del software è quella di poter correlare in infiniti modi le
diverse variabili per poter ottenere la visualizzazione dei dati che interessano al
momento. Altra particolarità rivelatasi fondamentale nello studio è la possibilità di
definizione dei cosiddetti “tagli”: in un singolo grafico è possibile infatti discriminare un
numero finito di eventi, aventi una particolare caratteristica definita nel taglio.
Negli istogrammi riportati nel Capitolo 4, sono stati definiti dei tagli per poter analizzare,
ad esempio, soltanto i muoni aventi un determinato numero di hit, o i muoni che
attraversano il telescopio di misura senza aver interagito con la struttura della diga,
piuttosto che per poter studiare separatamente i muoni a basse energie rispetto a quelli
ad alte energie.
3.6.
Posizionamento dei rivelatori e procedura di calcolo degli scarti
In questo paragrafo viene descritta la procedura adottata per provvedere al controllo ed
alla misura del possibile disallineamento dei rivelatori, quindi della deformazione della
diga nella quale tali sensori sono installati. Come già detto in premessa, questa procedura
70
3.
Strumenti e procedure di simulazione
è la più semplice ed è applicabile nel caso siano disponibili tre rivelatori. Nel caso siano
disponibili quattro o più rivelatori attraversati degli stessi cosmici, la procedura
matematica sarà più complessa, necessiterà di procedure di adattamento e
minimizzazione e, nel caso, di processi ricorsivi, ma potrà consentire migliori prestazioni
in termini di precisione e tempo di misura. Essa sarà comunque basata essenzialmente
sugli stessi principi e fenomeni che caratterizzano la configurazione più semplice.
Nella realtà i tre rivelatori dovrebbero essere posizionati solidalmente alla struttura
muraria e contenuti nella cavità cilindrica che alloggia i pendoli dritti e rovesci. Come
detto in precedenza, per studiare il comportamento del sistema di misura nel caso di
deformazione della diga si dovrebbe rappresentare la stessa come un volume deformato,
complicando quindi la definizione della geometria. Per evitare questo, si è pensato di
simulare la condizione deformata della struttura spostando semplicemente i rivelatori e
mantenendo sempre la medesima geometria della diga. Nel codice di calcolo quindi i
rivelatori non sono vincolati alla muratura e possono essere spostati cambiando il vettore
che ne definisce la posizione rispetto al loro volume madre, cioè rispetto il tubo di aria
che li contiene.
Nel caso analizzato, i tre rivelatori hanno le medesime dimensioni: sono dei dischi con
spessore di
e diametro della superficie attiva di
. Quest’ultimo valore è in
accordo con le dimensioni degli alloggiamenti dei pendoli, infatti queste cavità vengono
solitamente realizzate con un diametro di
. In Tabella 3.1 sono riportate le
posizioni dei rivelatori rispetto al loro MRS (Mother Reference System, Paragrafo 3.3); in
particolare i rivelatori inferiore, intermedio e superiore sono posti rispettivamente alle
quote di
,
e
si sviluppa per un’altezza di
rispetto al centro della diga, quindi il telescopio di misura
.
E' necessario aggiungere alcune considerazioni relative alla precisione necessaria all'atto
del primo posizionamento del sistema di rivelatori sulla struttura civile interessata. È
importante infatti sottolineare che tale posizionamento può essere eseguito con
precisioni meccaniche del tutto ordinarie e senza bisogno di particolari accorgimenti per
garantire elevatissime precisioni relative. Inoltre, non è determinante, ai fini delle misure
di disallineamento, che i sistemi di riferimento dei vari rivelatori siano considerati
esattamente allineati in quanto le misure sono sempre di confronto fra una condizione
71
3.
Strumenti e procedure di simulazione
iniziale di riferimento misurata ed una condizione successiva da controllare. In questo
processo di confronto, gli eventuali errori sistematici, causati da un disallineamento
iniziale fra i rivelatori, possono essere largamente compensati. Inoltre è anche possibile
prevedere una campagna di misure di calibrazione volta a determinare le posizioni
reciproche iniziali dei rivelatori. In questa fase preliminare, possono essere valutate
possibili traslazioni e rotazioni relative, mediante una raccolta sufficiente di cosmici. Tale
situazione iniziale può essere inserita nel codice di analisi dati ed essere tenuta in
considerazione durante le campagne di monitoraggio successive, dove una “deviazione”'
rispetto alla situazione iniziale indicherà una deformazione della struttura in
osservazione.
In particolare, eventuali traslazioni relative possono essere esattamente compensate,
senza l'utilizzo di particolari accorgimenti, dato che sono leggibili come spostamento della
media della distribuzione dalla posizione presunta. Rotazioni reciproche dei rivelatori
genererebbero invece un allargamento delle distribuzioni, tuttavia questo fenomeno
sarebbe molto contenuto poiché un posizionamento ordinario può garantire precisioni
sufficientemente elevate e gli errori di origine statistica, nelle distribuzioni, si sommano
quadraticamente.
In ogni caso è possibile, se considerato necessario, misurare e correggere, nella procedura
di analisi, una eventuale rotazione iniziale fra i rivelatori, suddividendo il piano di
rivelazione in sottoaree ed effettuando una raccolta dati iniziale estesa quanto basti per
poter ottenere statistica sufficiente per ciascun gruppo di cosmici, raccolto nelle diverse
sottoaree dei rivelatori; la campagna di calibrazione, per correggere eventuali rotazioni,
risulta quindi più lunga rispetto a quella necessaria per considerare solo le traslazioni,
perché vi deve essere statistica sufficiente in ogni sottoarea. Confrontando fra loro i
risultati relativi ai diversi gruppi di cosmici, i disallineamenti di traslazione e rotazione
possono essere misurati e corretti.
Dato che, come visto, eventuali traslazioni e rotazioni reciproche dei rivelatori del
telescopio di misura possono essere misurate durante una campagna di calibrazione ed
essere compensate grazie al codice di analisi dati, nel seguito di questo paragrafo verrà
presentata la procedura di analisi, nell'ipotesi di un allineamento iniziale dei rivelatori
perfettamente noto. Per simulare un possibile errore nell’istallazione del telescopio, al
72
3.
Strumenti e procedure di simulazione
rivelatore intermedio è stato imposto uno spostamento di
lungo l’asse
(vedere
Tabella 3.1). Nel caso in cui la campagna di calibrazione dovesse riconoscere un
disallineamento iniziale, come quello imposto, questo sarà tenuto in considerazione nella
successiva fase di monitoraggio della struttura.
Il programma di simulazione genera i cosmici secondo il generatore descritto nel
Paragrafo 3.4 e simula, considerando i fenomeni fisici di interazione tra particelle e
materia descritti nel Paragrafo 2.3, il passaggio dei raggi cosmici attraverso la struttura ed
il rilascio di energia nei rivelatori. I rivelatori misurano, con una determinata risoluzione
spaziale, propria di ogni tipo di rivelatore, un punto
50
corrispondente al passaggio
di un muone.
Nel seguito viene descritta la procedura adottata per valutare lo spostamento relativo del
rivelatore intermedio rispetto ai rivelatori superiore ed inferiore, quindi per determinare
eventuali deformazioni della diga a metà della sua altezza. Come precedentemente detto,
con un procedimento analogo si può determinare la deformazione della diga al
coronamento o alla base. La procedura di seguito descritta è basata sull'elaborazione
statistica dei dati relativi ad un insieme di cosmici, il cui passaggio è stato registrato in
tutti e tre i rivelatori.
E' opportuno, a questo punto, precisare come si possa essere sicuri che, durante una fase
di presa dati con cosmici reali, i tre segnali registrati dai tre rivelatori corrispondano allo
stesso raggio cosmico. La prima considerazione da fare è che, nella registrazione dei
segnali provenienti dai rivelatori, bisogna tenere conto della coincidenza temporale che
deve caratterizzare segnali provenienti dallo stesso cosmico. Un muone di alta energia è
sicuramente relativistico (vedere nota [27] del Paragrafo 2.2), quindi impiega circa
per percorrere un metro. Una stretta coincidenza temporale dovrà essere imposta ai
segnali, per associarli al passaggio di uno stesso cosmico. Secondariamente bisogna
ricordare che il ritmo di arrivo dei cosmici alla superficie terrestre è molto basso,
, quindi la probabilità che due cosmici incidano sullo stesso rivelatore nello
stretto intervallo temporale di coincidenza è molto piccola. Eventi ove questa eventualità
si realizzasse saranno rari e si potranno tranquillamente scartare.
50
La coordinata
attribuita al punto di passaggio misurato dal rivelatore corrisponde esattamente e
convenzionalmente al piano mediano del rivelatore stesso.
73
3.
Siano
punti
,
,
e
Strumenti e procedure di simulazione
e
le coordinate ,
e
dei
di passaggio del medesimo cosmico attraverso i tre rivelatori di
Figura 3.14, misurati rispettivamente dai rivelatori superiore, intermedio ed inferiore, con
risoluzione spaziale tipica dei rivelatori utilizzati (qui scelta pari a
le coordinate del punto
con cui la retta passante per i due punti
), e siano
e
interseca il rivelatore intermedio.
Figura 3.14 :
e
sono, rispettivamente, la distanza lungo l'asse e lungo l'asse tra il punto di passaggio del
cosmico nel rivelatore intermedio e il punto di intersezione tra quest'ultimo e la traiettoria ipotizzata rettilinea del
muone fra i rivelatori superiore ed inferiore.
La differenza fra la posizione del punto
e del punto
sul piano mediano del
rivelatore intermedio è dovuta a: (i) disallineamento fra i rivelatori (effetto sistematico);
(ii) diffusione multipla del cosmico nell'attraversamento della materia ed effetti di
deviazione dovuti ad irraggiamento elettromagnetico del cosmico (effetti stocastici
simmetrici). La misura del disallineamento, che è un effetto sistematico, può essere
ottenuta dallo studio della distribuzione delle variabili statistiche
e
, e dalla valutazione dei parametri delle distribuzioni e dei loro errori, per il
74
3.
Strumenti e procedure di simulazione
campione raccolto, se sufficientemente numeroso. Le coordinate
,
,
e
risultano fissate convenzionalmente sui piani mediani dei singoli rivelatori. L'errore
sistematico che ne deriva è comunque molto ridotto essendo la dimensione verticale dei
rivelatori molto piccola rispetto a quelle caratteristiche della struttura analizzata ed
essendo la direzione dei cosmici utili per l'analisi molto vicina alla verticale.
Per calcolare le variabili
e
passante per i due punti
passante per il punto
Dove
viene definita l'equazione della retta nello spazio [2],
e
. La forma parametrica del fascio proprio di rette,
è la seguente:
sono i coseni direttori.
Imponendo il passaggio per il punto
si ottiene:
da cui:
Applicando il metodo di riduzione, sommando quadraticamente membro a membro si
ricava , infatti:
dato che
.
A questo punto si possono calcolare i tre coseni direttori:
75
3.
La coordinata
Strumenti e procedure di simulazione
nel rivelatore intermedio è nota, pertanto, sostituendola nella seconda
equazione della 3.8, si ricava il parametro corrente
della retta
nell'intercetta del
rivelatore intermedio:
che permette di calcolare, grazie alle altre due equazioni della 3.8, in cui si inseriscono
anche i coseni direttori della 3.12, le coordinate
e
in cui la retta
intercetta il piano
di rivelazione del rivelatore intermedio:
Sottraendo
statistiche
e
e
a
e
, rispettivamente, si ricava la misura delle variabili
:
Nel Capitolo 4 si studierà la forma delle distribuzioni delle variabili statistiche così
ottenute e si valuterà la possibilità di ottenere stime dei loro parametri sulla base di
campioni.
76
4.
4.
4.1.
Analisi
Analisi
Premessa
A causa della limitata intensità dei raggi cosmici che raggiungono la superficie terrestre
(vedere Paragrafo 2.2.3), il tempo di misura, il quale si vedrà è strettamente correlato alla
precisione ottenibile, è uno dei parametri più importanti da tenere in considerazione. È
stato ritenuto quindi opportuno provvedere, in primo luogo, ad una valutazione analitica
dell’accettanza geometrica del sistema, definita come il rapporto tra il numero di cosmici
che nell’unità di tempo entrano nell’angolo solido coperto dal telescopio di misura ed il
numero di cosmici che, nell’unità di tempo, intercettano il rivelatore superiore.
Successivamente, per tenere in considerazione non solo la geometria del sistema di
misura, ma anche altri fattori quali le interazioni fisiche tra i cosmici e la materia, i mezzi
dei quali la struttura analizzata è composta e le distribuzioni dell’energia e della quantità
di moto dei cosmici, è stata eseguita una simulazione Monte Carlo. In corrispondenza del
rivelatore superiore è stato generato e tracciato un campione di 1 milione di muoni, che
corrisponde, dato il flusso dei cosmici alla superficie terrestre, ad un periodo di
ore
di presa dati. La simulazione ha restituito un’accettanza poco dissimile da quella calcolata
analiticamente. Questo sta ad indicare che la geometria del sistema di misura ha un
effetto preponderante sull’accettanza del telescopio rispetto agli altri fattori considerati
nella simulazione.
Dopo queste prime valutazioni si è passati all’analisi delle distribuzioni delle variabili
statistiche
e
, le quali, come già getto nel capitolo precedente, rappresentano il
disallineamento del rivelatore intermedio del telescopio di misura rispetto ai rivelatori
superiore e inferiore. Preliminarmente sono stati studiati i contributi che i fenomeni fisici
di interazione tra cosmici e materia e la risoluzione dei rivelatori hanno sulla distribuzione
degli scarti
e
. A tal fine si sono eseguite 9 simulazione imponendo per ciascuna la
generazione di un campione di
cosmici, ognuno dei quali con energia di
e
direzione verticale. Da queste è emerso che l’allargamento delle distribuzioni campionarie
77
4.
Analisi
degli scarti sono dovute principalmente al fenomeno di diffusione multipla, mentre poco
influenti risultano le precisioni con i quali i rivelatori misurano il punto di passaggio del
cosmico.
Allo scopo di valutare la forma e i parametri statistici delle distribuzioni delle variabili
e
è stato generato un campione di circa 300 milioni di cosmici corrispondente a circa un
anno di presa dati. Per simulare un possibile errore nell’installazione del telescopio, al
rivelatore centrale è stato imposto uno spostamento di
lungo la direzione
(vedere Tabella 3.1). Questo fatto non influirà in alcun modo sulla fase di monitoraggio,
infatti il disallineamento dovrà essere letto come misura di confronto rispetto ad una
configurazione di riferimento. Quest’ultima è ottenuta mediante la calibrazione del
telescopio di rivelatori che restituisce, dopo un adeguato periodo di presa dati, una
misura del reale disallineamento del rivelatore intermedio.
A seguito di questa simulazione sono state analizzate le forme delle distribuzioni degli
scarti
e
e degli angoli di zenit ottenute. Le distribuzioni degli angoli di zenit non
sono apparse del tutto regolari come atteso e la comprensione delle ragioni di questo
fatto ha consentito di ottenere migliori informazioni riguardo al disallineamento dei
rivelatori e di trovare un criterio per selezionare i cosmici maggiormente “affidabili”.
I cosmici così individuati sono stati utilizzati per ottenere la migliore forma funzionale per
la distribuzione di probabilità che rappresenta la popolazione delle variabili
e
. Dalla
fisica dei processi coinvolti, essenzialmente la diffusione multipla, si attende che tale
distribuzione sia approssimativamente una gaussiana, quando l'energia del cosmico è
fissata. Poiché i cosmici possiedono un ampio spettro di energia, la distribuzione
risultante delle variabili statistiche
e
avrà una forma più complessa,
approssimabile, come si vedrà, con una sommatoria di gaussiane.
Ottenuta la migliore funzione di adattamento, che rappresenta la distribuzione degli
scarti
e
dell’intera popolazione, ne è stato cercato il migliore adattamento (best fit)
a campioni di diversa numerosità, quindi corrispondenti a periodi di misura diversi e più
brevi, estratti dall'intera popolazione, lasciando il valore medio della forma funzionale ed
un fattore di scala come parametri liberi di variare per consentire l'adattamento della
funzione stessa alla distribuzione rappresentativa di ciascun campione. Lo studio dei
parametri statistici delle funzioni adattate, utilizzando la procedura di best fit su campioni
78
4.
Analisi
di cosmici di una determinata numerosità, ha consentito di valutare la precisione con la
quale è possibile stimare gli eventuali disallineamenti dei rivelatori in condizioni reali.
Estraendo campioni di numerosità differente, ciascuno corrispondente ad un diverso
tempo di osservazione, è stato inoltre costruito un grafico della precisione ottenibile in
funzione del tempo, per poter prevedere, dopo un certo arco temporale e nelle
condizioni geometriche in esame, quale sia il minimo disallineamento rivelabile. Questo
costituisce uno dei risultati principali di questo lavoro.
Come verifica conclusiva sono state eseguite due simulazioni nelle quali il posizionamento
del rivelatore intermedio è stato variato, simulando così due possibili deformazioni della
struttura. Questo con lo scopo di verificare che le previsioni ottenute precedentemente
circa la sensibilità del sistema alla misura dei disallineamenti in funzione del tempo siano
effettivamente riprodotte in questi “esperimenti” simulati.
4.2.
Valutazione dell’accettanza del sistema
Come indicato nel capitolo precedente, la stima del disallineamento dei rivelatori, e
quindi la stima della deformazione della struttura in esame, può essere ottenuta tramite
l’analisi statistica delle distribuzioni delle variabili
e
. L'incertezza con la quale i
parametri di queste popolazioni possono essere ottenuti a partire da parametri
campionari dipende dalla numerosità dei campioni, quindi dalla statistica raccolta di
cosmici che attraversano i tre rivelatori.
Fattori limitanti la numerosità dei campioni raccoglibili sono: (i) l'accettanza del
telescopio di rivelatori, definita come il rapporto fra il numero di cosmici che attraversano
i tre rivelatori (cosmici utili) ed il numero totale di cosmici che attraversano il rivelatore
superiore; (ii) la bassa intensità dei cosmici che colpiscono il rivelatore superiore; (iii) il
tempo disponibile per la misura. Il fattore che maggiormente limita l'accettanza è l'angolo
solido complessivo coperto dal telescopio di rivelatori, tenuto conto dell'ampia
distribuzione angolare dei cosmici rispetto alla direzione verticale.
Per questo motivo risulta utile, preliminarmente, eseguire una valutazione dell'angolo
solido coperto dal telescopio di rivelatori nella situazione in esame ed effettuare una
79
4.
Analisi
stima del numero di cosmici che si possono raccogliere nell'unità di tempo in funzione
delle dimensioni geometriche del telescopio stesso.
Il valore corretto dell'accettanza potrà tuttavia essere calcolato con precisione solo
tramite un calcolo Monte Carlo che terrà conto esattamente della geometria e delle
interazioni dei cosmici con la materia della struttura.
4.2.1. Calcolo approssimato dell’accettanza geometrica
L'accettanza geometrica del telescopio di rivelatori è definita come:
dove
è il numero di cosmici che intercettano il rivelatore superiore nell'unità di
tempo, mentre
è il numero di cosmici che, nell'unità di tempo, entrano nell’angolo
solido coperto dal telescopio di misura. A rigore, l'accettanza del telescopio si ottiene
come integrale doppio di superficie, convoluto con la distribuzione angolare dei cosmici
rispetto alla verticale.
Figura 4.1 : L'accettanza del telescopio di misura va valutata considerando i due rivelatori più esterni, cioè quello
superiore e quello inferiore. Nel caso considerato, i rivelatori simulati hanno la stessa forma e le stesse dimensioni,
così l'area
del rivelatore superiore e l'area
del rivelatore inferiore risultano identiche. Con si è indicata la
distanza fra il rivelatore superiore ed inferiore e
,
e
sono porzioni infinitesime, rispettivamente,
dell'area , dell'area
e dell'angolo solido
sul piano .
80
4.
Analisi
Facendo riferimento alla notazione in Figura 4.1, si possono dare le seguenti definizioni:
dove
è il numero di cosmici e
rivelazione del rivelatore superiore (
dove
è una porzione infinitesima della superficie di
) o del rivelatore inferiore (
è ancora il numero di cosmici e
proiezione dell’angolo solido
);
, definito nel Paragrafo 3.4, rappresenta la
dell’Eq. 3.4 sul piano
.
Il numero di cosmici che attraversano il rivelatore superiore nell'unità di tempo è dato da:
La frequenza dei cosmici che intercettano
con ogni direzione è la seguente:
La frequenza dei cosmici che intercettano un’area
ed entrano nell'angolo solido
è
data da:
La frequenza dei cosmici che intercettano
ed entrano nell'angolo solido
è la
seguente:
Sostituendo l’Eq. 4.5 nell’Eq. 4.7 si ricava:
I cosmici utili sono quelli che passano sia per
sia per
, per stimarne il numero è
quindi necessario calcolare un integrale doppio:
Il termine
81
4.
Analisi
rappresenta una misura di cosmici al secondo, per unità di superficie, per unità di angolo
solido:
e dipende dall'angolo
di arrivo dei cosmici rispetto alla verticale, ma può essere
approssimato ad un valore costante, nel caso in cui si abbiano valori di
prossimi alla
verticale.
Il numero di cosmici risulta, con questa approssimazione:
L’Eq. 3.4 definisce l’angolo solido come:
quindi, nell’Eq. 4.10, all’angolo
dove
può essere sostituito
è la distanza fra i rivelatori superiore e inferiore, come mostrato in Figura 4.1.
In questo modo l’Eq. 4.10 diventa:
In cui
rappresenta l’angolo solido dal centro di
su
ed
è l’area del
rivelatore superiore.
Per fornire un valore numerico, sebbene approssimato, dell'accettanza del sistema è
necessario valutare la costante
Essa può essere intesa, passando dalle variazioni infinitesime a quelle finite, come:
con cui si calcolano i cosmici che passano su una superficie unitaria e con angolo
all'interno di
entro
intorno alla verticale, ovvero la frazione della distribuzione che sta
. Quest’ultimo può essere approssimato nel seguente modo:
82
4.
Analisi
Nel paragrafo 3.4 si è ricordato come il flusso di cosmici alla superficie terrestre, nell'unità
di tempo e di angolo solido, sia pari a
Calcolando il valore dell’angolo solido secondo l’approssimazione nella 4.13
utilizzando i valori di
e
è possibile calcolare
riportati in Figura 4.2 e ricordando che
:
Figura 4.2 : Configurazione nella quale è possibile calcolare l’Eq. 4.13.
In un periodo di
ore, che corrisponde all'intervallo temporale necessario affinché
circa un milione di raggi cosmici attraversino il rivelatore superiore, il numero di particelle
utili alla rivelazione è di
4.1, di
. Da ciò risulta un’accettanza, calcolata secondo l’Eq.
. Dall’analisi svolta si può desumere come, nella configurazione
ipotizzata, il tempo di misura risulti essere il fattore maggiormente limitante.
83
4.
Analisi
4.2.2. Calcolo Monte Carlo dell’accettanza
In questo paragrafo si procede ad una valutazione dell'accettanza del telescopio di
rivelatori per mezzo di un calcolo Monte Carlo. Questo consente, non solo di provvedere
all'integrazione numerica dell'Eq. 4.9 con una valutazione rigorosa delle geometrie
coinvolte, ma anche di tenere in considerazione i diversi effetti fisici, diffusione multipla,
frenamento, distribuzioni di quantità di moto ed angolo di zenit dei cosmici, i cui
contributi all'accettanza sono difficilmente valutabili con un metodo analitico.
Per valutare la reale accettanza del telescopio di misura è stato generato un campione di
un milione di cosmici, in particolare la simulazione Monte Carlo utilizzata ha le seguenti
caratteristiche:

i vertici di generazione dei cosmici sono stati distribuiti uniformemente sulla
superficie di generazione posta sulla faccia superiore del rivelatore superiore;

sono state considerate le distribuzioni dell’energia e della quantità di moto dei
cosmici fornite dai dati sperimentali di [39] (vedere Paragrafo 3.4);

sono stati considerati gli effetti fisici quali la diffusione multipla, la produzione di
raggi , la Bremsstrahlung, la produzione di coppie
, i decadimenti e la
perdita di energia51;

i rivelatori e la struttura della diga sono stati riempiti dei mezzi di cui sono
realmente costituiti;

è stata introdotta la risoluzione spaziale dei rivelatori (
), ovvero ciascuna
misura dei rivelatori fornita dal Monte Carlo è stata considerata affetta da un
errore intrinseco gaussiano;

è stato imposto che la coordinata
coincidesse con la
di ogni punto di passaggio dei cosmici rivelato
di posizionamento del rispettivo rivelatore rispetto al MARS.
Dalla simulazione si è ottenuto che, del milione di raggi cosmici generati sulla superficie
del rivelatore superiore, 66 hanno intercettato tutti e tre i rivelatori del telescopio di
misura. Dall’Eq. 4.1 risulta quindi un’accettanza pari a
, molto simile a quella
calcolata analiticamente nel Paragrafo 4.2.1.
51
La perdita di energia è un fenomeno fisico essenziale per la procedura Monte Carlo, infatti il programma
di simulazione registra il passaggio di una particella all’interno di un volume sensibile solamente se questa vi
deposita dell’energia nell’attraversarlo.
84
4.
Analisi
La compatibilità tra la formula analitica e la simulazione indica che, per il calcolo
dell’accettanza totale, gli effetti fisici sono trascurabili rispetto all’accettanza geometrica
del telescopio di misura.
4.3.
Studio dei contributi della risoluzione del rivelatore e delle
interazioni fisiche sulla distribuzione delle variabili statistiche
e
In questo paragrafo vengono valutati gli effetti, dapprima separatamente e poi
sinergicamente, che la risoluzione spaziale dei rivelatori e le interazioni fisiche tra raggi
cosmici e materia hanno sulla distribuzione delle variabili statistiche
e
.
A questo scopo sono state eseguite 9 simulazioni in ognuna delle quali è stato generato
un campione di
cosmici aventi energia pari a
(il valore medio secondo [39])
e direzione verticale. Per rendere questi campioni maggiormente omogenei tra loro, le
simulazioni sono state inizializzate con lo stesso seme (vedere Paragrafo 3.2). Inoltre, per
maggior chiarezza, i rivelatori sono stati allineati sulla verticale in modo da avere le
distribuzioni degli scarti centrate intorno allo zero.
Di seguito sono descritte le simulazioni eseguite e sono riportati gli istogrammi delle
relative distribuzioni delle variabili statistiche
e
.
In Tabella 4.1 sono inoltre riportati, per ogni simulazione, il numero di cosmici
che
attraversano tutti e tre i rivelatori e le deviazioni standard campionarie
dei
campioni ottenuti dagli scarti
in cui
e
e
, calcolate secondo la formula:
è ancora la numerosità del campione,
sono gli elementi del campione ed
è
la media campionaria definita come
La maggior parte di detti calcoli e la produzione degli istogrammi e dei grafici presentati è
stata eseguita tramite ROOT (vedere Paragrafo 3.5). Come tutti i programmi di
85
4.
Analisi
istogrammazione, ROOT calcola i parametri campionari non direttamente dai singoli dati,
ma dagli istogrammi realizzati utilizzando i dati. Se si ha l'accortezza di utilizzare campioni
sufficientemente numerosi e di dimensionare opportunamente i canali degli istogrammi,
la differenza dei parametri campionari calcolati dai dati o dagli istogrammi è trascurabile.
Simulazione 1. (Condizione iniziale)
Nella condizione iniziale, che costituisce una condizione di riferimento:

l’incertezza con la quale i rivelatori misurano le coordinare di impatto dei cosmici è
stata considerata nulla, affinché le informazioni dei rivelatori non siano affette da
alcun errore;

per rendere trascurabili gli effetti fisici che intervengono quando i cosmici
attraversano la materia, il volume sensibile del rivelatore è stato riempito di aria 52
mentre i restanti volumi sono stati riempiti di vuoto53.
Figura 4.3 : Trascurando la risoluzione spaziale dei rivelatori e i processi fisici che governano il passaggio dei raggi
cosmici attraverso la materia i residui
e
risultano praticamente nulli.
52
Si è reso necessario riempire il volume sensibile del rivelatore (la camera di trasferimento) con aria in
quanto il Monte Carlo permette di avere un hit in un determinato volume solo se in questo vi è una
deposizione di energia. Ciò è possibile solo se il raggio cosmico attraversa della materia.
53
Nel codice di simulazione il vuoto è definito come un materiale avente massa molare
,
numero atomico
e densità
.
86
4.
Analisi
In questo caso, la quasi totalità dei cosmici generati ha attraversato tutti e tre i rivelatori e
le distribuzioni dei residui
e
sono risultate molto strette intorno allo zero, come
mostrato in Figura 4.354. Non si è ottenuta un’accettanza unitaria e i residui non sono
risultati sempre nulli solamente a causa della presenza dell’aria nel volume sensibile dei
rivelatori. I risultati ottenuti in questa simulazione ci assicurano comunque che il
procedimento di calcolo degli scarti non contiene errori sistematici.
Simulazione 2.
In questa simulazione sono stati mantenuti gli stessi materiali definiti nella simulazione
precedente, ma è stata introdotta una risoluzione spaziale finita dei rivelatori, che viene
simulata aggiungendo una fluttuazione gaussiana di deviazione standard (l'errore) pari a
alle coordinate di intercetta del cosmico con ognuno dei rivelatori.
Questa introduzione non ha comportato alcuna riduzione significativa dell'accettanza, ma
ha determinato un allargamento delle distribuzione campionarie di
in Figura 4.4. Le distribuzioni ottenute per i campioni di
e
e
, come si vede
sono delle gaussiane di
media compatibile con la condizione di riferimento e di deviazioni standard
e
, leggibili in Figura 4.4. Questo appare ragionevole se si
considera che, nella condizione simulata di cosmici perfettamente verticali, gli scarti
vengono ottenuti sviluppando le formule della 3.15:
analogamente:
in cui
e
sono rispettivamente la distanza fra il rivelatore
superiore e l’intermedio e la distanza fra il rivelatore superiore e l’inferiore. Perciò la
54
È doveroso notare che il programma GEANT4 adotta il centimetro come unità di misura di base per le
lunghezze, quindi i valori delle medie e delle RMS presenti in tutti gli istogrammi riportati in questo lavoro di
tesi sono espressi in centimetri.
87
4.
Analisi
deviazione standard delle distribuzione degli scarti calcolati con le equazioni 4.17 e 4.18 è
la seguente:
in cui le coordinate
,
e
sono i valori di
del punto in cui ciascun cosmico
interseca il piano di rivelazione dei rivelatori superiore, intermedio ed inferiore,
rispettivamente.
Figura 4.4 : L’introduzione per i rivelatori di una risoluzione spaziale di
ha generato una distribuzione degli
scarti
e
secondo una gaussiana di deviazione standard rispettivamente di
e di
.
Sapendo
che
stimare la deviazione standard
,
della distribuzione degli scarti
è
possibile
(lo stesso vale per
) mediante la legge di propagazione dell'errore di una grandezza derivata55 :
55
La varianza per una generica funzione
nel seguente modo:
dove
, dipendente da
è la varianza della distribuzione di ciascuna variabile casuale
variabili casuali
, è definita
.
88
4.
Analisi
Si noti che il valore stimato con questa formula è compatibile con quelli ottenuti dagli
istogrammi di Figura 4.3.
Simulazioni 3 e 4.
Diversamente dalla precedente, in queste due simulazioni le risoluzioni finite dei
rivelatori, che vengono simulate aggiungendo una fluttuazione gaussiana di deviazione
standard (l'errore) alle coordinate di intercetta del cosmico con ognuno dei rivelatori,
vengono prese pari rispettivamente a
e
(cioè
).
Questa modifica non ha comportato alcuna riduzione dell'accettanza, ma ha determinato
ulteriori allargamenti delle distribuzione campionarie di
4.5 e 4.6. Le distribuzioni ottenute per i campioni di
e
e
, come si vede nelle figure
sono ancora delle gaussiane
di media compatibile con la condizione di riferimento e di deviazioni standard
e
per la risoluzione di
per la risoluzione di
e
e
.
Figura 4.5 : L’introduzione per i rivelatori di una risoluzione spaziale di
ha generato una distribuzione degli
scarti
e
secondo una gaussiana di deviazione standard rispettivamente di
e di
.
Con la formula definita precedentemente è possibile stimare le deviazioni standard
delle rispettive distribuzioni degli scarti
(lo stesso vale per
):
89
4.
Analisi
Si noti che il valori stimati con queste formule sono ancora compatibili con quelli ottenuti
dagli istogrammi delle figure 4.4 e 4.5.
Figura 4.6 : L’introduzione per i rivelatori di una risoluzione spaziale di
(
) ha generato una
distribuzione degli scarti
e
secondo una gaussiana di deviazione standard rispettivamente di
e di
Simulazione 5.
In questa simulazione tutti i volumi definiti nella configurazione analizzata sono stati
riempiti di aria, mentre è stata considerata nulla l’incertezza con la quale i rivelatori
misurano le coordinare di impatto dei cosmici. Introdurre aria in tutti i volumi equivale ad
attivare tutti i processi fisici che intervengono quando i cosmici attraversano l’atmosfera.
Confrontando questa simulazione con quella di riferimento si ha una leggera diminuzione
dell’accettanza causata dal frenamento e dalla diffusione multipla in aria. Al contrario, si
hanno importanti effetti per quanto riguarda le distribuzioni campionarie degli scarti
e
, come rappresentato in Figura 4.7: le distribuzioni si sono visibilmente allargate ed
hanno assunto la forma gaussiana con media compatibile con la condizione di riferimento
e deviazioni standard
e
. La forma della curva è a buon
ragione gaussiana, infatti, secondo la legge della diffusione multipla (vedere Paragrafo
90
4.
2.3.4), per valori fissati di quantità di moto (in questo caso
Analisi
), le deviazioni delle
particelle hanno forma approssimativamente gaussiana con deviazione standard
inversamente proporzionale alla quantità di moto della particella stessa. Si noti inoltre
che le distribuzioni degli scarti continuano a rimanere simmetriche, ciò è dovuto alla
natura stocastica del fenomeno fisico di diffusione multipla.
Confrontando questi valori con quelli ottenuti dalla simulazione 3 si nota infine che gli
effetti sulle distribuzioni degli scarti
rivelatore di
e
relativi da una risoluzione spaziale del
sono confrontabili con gli effetti che si ottengono riempiendo tutti i
volumi di aria.
Figura 4.7 : Riempire tutti i volumi con aria ha provocato un notevole allargamento delle distribuzioni campionarie
degli scarti
e . Questo allargamento risulta confrontabile con quello ottenuto dalla simulazione 3.
Simulazione 6.
In questa simulazione sono stati introdotti i materiali di cui struttura e rivelatori sono
realmente costituiti, mentre è stata considerata ancora nulla l’incertezza con la quale i
rivelatori misurano le coordinare di impatto dei cosmici. Inserire gli effettivi materiali
equivale ad attivare tutti i processi fisici che intervengono quando i cosmici attraversano
la struttura reale. La sostanziale differenza rispetto alla simulazione precedente è
rappresentata dai materiali di cui sono fatti i rivelatori, infatti nell’attraversamento del
telescopio di misura non vi sono interposti altri mezzi solidi. Inoltre, le interazioni dei
91
4.
Analisi
cosmici con la parete in calcestruzzo della diga sono trascurabili in quanto i cosmici sono
stati generati con direzione verticale.
Per quanto riguarda l'accettanza del sistema, si nota che l'introduzione dei materiali ne
determina una buona diminuzione. Ciò si può spiegare considerando che la diffusione
multipla, soprattutto all’interno dei materiali dei quali i rivelatori sono costituiti, può
spostare il muone dalla sua traiettoria originale al punto tale che esso non intercetti
almeno uno dei due rivelatori intermedio o inferiore. Seppure gli spessori dei rivelatori
siano modesti (
), l’effetto della diffusione è notevolmente amplificato dall’avere
elevate distanze tra i rivelatori del telescopio, infatti piccole variazioni angolari della
traiettoria si traducono in apprezzabili spostamenti se le distanze percorse sono grandi.
L'effetto sulle distribuzioni campionarie degli scarti
e
è, rispetto al caso
precedente, ancora più marcato come rappresentato in Figura 4.8: a causa della
diffusione multipla e delle notevoli distanza tra i rivelatori le distribuzioni si sono
notevolmente allargate. Hanno comunque mantenuto, per i motivi già menzionati, forma
gaussiana e simmetrica.
Figura 4.8 : Riempire tutti i volumi con i materiali di cui sono costituiti ha provocato un ulteriore allargamento delle
distribuzioni campionarie degli scarti
e . Questo allargamento risulta doppio rispetto a quello dalla simulazione
4, nella quale la risoluzione spaziale dei rivelatori è stata presa pari a
.
Le deviazioni standard riportate nella Figura 4.8 risultano essere
e
. Confrontando queste con quelle ottenute nella simulazione 4 si osserva
92
4.
che l'allargamento delle distribuzioni di
e
Analisi
determinato dalla diffusione multipla
risulta doppio rispetto a quello ottenuto imponendo una risoluzione spaziale del
rivelatore di
. Se lo stesso confronto viene fatto con la simulazione 2, nella quale
la risoluzione spaziale è presa pari a
, l'allargamento delle distribuzioni di
e
determinato dalla diffusione multipla risulta essere 20 volte superiore.
Simulazione 7.
In questa simulazione sono stati introdotti i materiali di cui struttura e rivelatori sono
realmente costituiti, inoltre si è imposta una risoluzione spaziale dei rivelatori pari a
.
Le deviazioni standard riportate nella Figura 4.9 risultano essere
. Confrontando le distribuzioni campionarie degli scarti
e
e
ottenute
in questo caso (Figura 4.9) con quelle ottenute nel caso precedente non si notano
sostanziali differenze, a prova del fatto che il contributo dato dalla risoluzione del
rivelatore di
è trascurabile rispetto a quello dovuto alle interazioni tra i cosmici e
la materia.
Figura 4.9 : Distribuzione delle variabili statistiche
e
ottenute imponendo una risoluzione spaziale dei rivelatori
di
e introducendo i materiali di cui struttura e rivelatori sono realmente costituiti. Non si notano sostanziali
differenze rispetto ai grafici ottenuti nella simulazione 6.
93
4.
Analisi
Simulazioni 8 e 9.
Diversamente dalla precedente, in queste due simulazioni le risoluzioni finite dei rivelatori
sono state prese pari rispettivamente a
e
.
Questa modifica non ha comportato alcuna riduzione dell'accettanza del telescopio di
misura e ha determinato allargamenti delle distribuzione campionarie di
e
interessanti. Le deviazioni standard riportate nelle Figura 4.10 risultano essere
e
e
, mentre quelle riportate nella Figura 4.11
.
In particolare si nota che tra le simulazioni 6 e 8 non vi sono variazioni apprezzabili delle
deviazioni standard delle distribuzioni dei
e
, quindi anche in questo caso l’influenza
dei processi fisici è ben maggiore rispetto a quella dovuta alla risoluzione del rivelatore di
. L’influenza della risoluzione inizia ad avere una certa importanza solo con il
valore di
, infatti si passa dalla deviazione standard
simulazione 6 alla deviazione standard
della
della simulazione 9.
Figura 4.10 : Distribuzione delle variabili statistiche
e
ottenute imponendo una risoluzione spaziale dei
rivelatori di
e introducendo i materiali di cui struttura e rivelatori sono realmente costituiti.
94
4.
Analisi
Figura 4.11 : Distribuzione delle variabili statistiche
e
ottenute imponendo una risoluzione spaziale dei
rivelatori di
e introducendo i materiali di cui struttura e rivelatori sono realmente costituiti.
Simulazione
1
2
3
4
5
6
7
8
9
eventi
19890
19875
19875
19875
19724
19373
19363
19363
19363
25
125
614
1227
642
2167
2136
2217
2448
26
126
618
1234
656
2139
2130
2218
2453
Tabella 4.1 : Per ciascuna simulazione sono stati generati
cosmici e sono stati costruiti gli istogrammi delle
variabili statistiche
e , che hanno restituito in particolare le seguenti informazioni:
(numero di cosmici che
attraversano tutti e tre i rivelatori del telescopio di misura),
(deviazione standard della distribuzione di
)e
(deviazione standard della distribuzione di ).
Per le analisi svolte in questo lavoro di tesi si è scelto di utilizzare, per i rivelatori,
risoluzioni di
, in quanto queste sono le risoluzioni spaziali raggiungibili con i
rivelatori dotati di tecnologia GEM (vedere Paragrafo 3.3) che sono stati inseriti nel codice
di calcolo. Dalle simulazioni 8 e 9 appare tuttavia evidente che l’impiego di rivelatori con
risoluzioni inferiori (
od anche
), e quindi meno costosi, non
95
4.
Analisi
apporterebbe sostanziali differenze, in quanto si è dimostrato che l’effetto della
diffusione multipla è dominante rispetto alla precisione dei rivelatori.
4.4.
Studio della precisione del sistema
In questo paragrafo viene studiata, nelle condizioni geometriche del caso in esame, la
precisione di misura ottenibile con il telescopio di rivelatori, in funzione della statistica
raccolta, quindi del tempo di osservazione. Nelle valutazioni eseguite in questa sezione, le
caratteristiche strutturali del sistema, le dimensioni, la risoluzione dei rivelatori ed i
parametri fisici sono fissati ai valori di riferimento riportati nella simulazione del
Paragrafo 4.2.2.
La prima informazione necessaria per affrontare lo studio riguarda la forma e la struttura
delle popolazioni delle variabili statistiche
forma delle distribuzioni di
e
e
nel caso in esame. La conoscenza della
risulta necessaria, come si può vedere nel Paragrafo
4.4.3, per poter eseguire il migliore adattamento (best fit) di tale funzione, con opportuni
parametri liberi, alle distribuzioni campionarie di
e
, ottenute da una misura
effettuata in un tempo finito. Il best fit alla distribuzione campionaria consente la
determinazione dei parametri liberi di detta funzione e dei loro intervalli di confidenza; ad
esempio permette di calcolare il valore medio della funzione, che risulta uno stimatore
corretto ed efficiente del corrispondente parametro della popolazione.
4.4.1. Generazione e tracciamento dei cosmici
Prima di affrontare lo studio della struttura delle distribuzioni delle variabili statistiche
e
è necessario descrivere il metodo utilizzato per la generazione e il tracciamento dei
cosmici a partire dalla superficie di generazione posta sulla faccia superiore del rivelatore
superiore.
Nel Paragrafo 4.2 si è visto che l’accettanza del telescopio di misura, definita come il
rapporto tra il numero di cosmici che attraversano i tre rivelatori (cosmici utili) ed il
numero totale di cosmici che attraversano il rivelatore superiore, è molto piccola. Per
avere un campione di cosmici utili statisticamente significativo si deve generare quindi un
numero enormemente maggiore di cosmici passanti per il rivelatore superiore.
96
4.
Analisi
Questo per il calcolatore rappresenta un limite notevole, infatti, simulazioni
eccessivamente grandi vanno ad occupare la macchina per diverse ore e a saturarne la
memoria. Per avere un termine di paragone basti pensare che il tracciamento di un
milione di cosmici, che per la geometria dei rivelatori impiegati equivarrebbe a circa 27
ore di presa dati su una struttura reale, ha occupato la macchina per circa 40 ore e ha
generato un file delle dimensioni di circa 73 GB.
Figura 4.12 : In questa figura sono stati rappresentati le tracce di tre cosmici, i tre rivelatori che costituiscono il
telescopio di misura e la superficie posta sul piano intermedio del rivelatore inferiore utilizzata dall’algoritmo di
tracciamento. In particolare, in rosso si vede la traccia di un cosmico “utile”, in blu la traccia di un cosmico tracciato
ma non “utile” e in verde la traccia di un cosmico che non viene tracciato.
Per risolvere questo problema è stato inserito un sistema di puntamento all’interno
dell’algoritmo di generazione. Con questa modifica sono stati comunque generati i
cosmici secondo la distribuzioni di energia e angolo di zenit di [39], ma sono stati
“tracciati”56 i soli cosmici la cui proiezione della direzione di generazione cade, sul piano
medio del rivelatore inferiore, all’interno di una superficie circolare di raggio doppio
rispetto a quello del rivelatore (Figura 4.12). In questo modo vengono tracciati solamente
56
La generazione consiste nell’attribuire ad ogni cosmico le coordinate del punto di generazione e le tre
componenti della quantità di moto. Questo processo per il calcolatore è praticamente istantaneo. Il
tracciamento invece prevede la simulazione delle interazioni tra i cosmici e la materia attraversata e il
salvataggio in memoria di ogni informazione relativa alla traiettoria e alle interazioni avvenute. Questo
processo è quindi quello che impegna maggiormente le capacità computazionali del calcolatore.
97
4.
Analisi
i cosmici con angoli di zenit prossimi alla verticale, includendo quindi tutti quelli utili
all’analisi. È stata scelta una superficie con raggio doppio rispetto a quello del rivelatore
inferiore per tracciare anche quei cosmici che per direzione di generazione non
dovrebbero attraversare tutti e tre i rivelatori, ma che per effetto della diffusione multipla
potrebbero essere riportati all’interno dell’angolo solido coperto dal telescopio di misura.
D’ora in avanti si parlerà sempre di cosmici tracciati e non più di cosmici generati,
ricordando tuttavia che per passare dai primi ai secondi basterà moltiplicare per un
fattore pari a
. Questo è un valore empirico ed è stato calcolato come la media del
rapporto tra cosmici generati e cosmici tracciati di 5 simulazioni eseguite imponendo il
tracciamento di
cosmici.
4.4.2. Struttura delle distribuzioni di
e
La forma delle distribuzioni delle variabili statistiche
e
dipende dai processi fisici
coinvolti nella deviazione dei cosmici, dal loro spettro di quantità di moto, dalla
risoluzione spaziale dei rivelatori e dalla struttura degli spessori interposti.
Come già sottolineato in precedenza, il processo fisico di diffusione multipla, che è il
principale responsabile della deviazione dei cosmici, per un valore fissato di quantità di
moto dà origine ad una distribuzione gaussiana dell'angolo di deviazione. Poiché i cosmici
sono caratterizzati da uno spettro esteso di quantità di moto, la forma delle distribuzioni
risultanti è più complessa di una semplice gaussiana. Essa risulta una distribuzione
simmetrica se la struttura attraversata è sufficientemente simmetrica rispetto all'asse
passante per il centro dei rivelatori, con un picco centrale corrispondente ai cosmici più
energetici; infatti le particelle con quantità di moto più elevate subiscono deviazioni di
traiettoria inferiori rispetto a quelle con quantità di moto inferiore. Questa struttura è
caratterizzata da code lunghe, corrispondenti ai cosmici di energia minore.
Le distribuzioni delle popolazioni in oggetto potrebbero sperimentalmente essere
ottenute se si potessero raccogliere infiniti dati con un apparato corrispondente a quello
oggetto dello studio. Ciò è ovviamente impossibile, per ragioni di ordine pratico, ma una
valutazione della forma delle popolazioni delle variabile statistiche
e
può essere
ottenuta con il metodo Monte Carlo, utilizzando delle produzioni di dati sufficientemente
ampie. Per questo motivo è stato effettuato il tracciamento di
cosmici passanti
98
4.
Analisi
dal rivelatore superiore. A questo tracciamento è corrisposta, nel caso specifico, la
generazione di
milioni di cosmici, pari a un tempo di misura approssimativamente
di 343 giorni, e il tracciamento di
cosmici utili (cosmici che intercettano tutti e tre
i rivelatori del telescopio di misura).
Per simulare un possibile errore nell’installazione del telescopio, al rivelatore centrale è
stato imposto uno spostamento di
lungo la direzione
(vedere Tabella 3.1).
Questo fatto non influirà in alcun modo sulla fase di monitoraggio, infatti il
disallineamento dovrà essere letto come misura di confronto rispetto alla configurazione
iniziale, cioè rispetto a quella che si ottiene dalla calibrazione dello strumento.
Le distribuzioni degli scarti
e
ottenute dal tracciamento di
cosmici
passanti per il rivelatore superiore sono mostrate in Figura 4.13. Ad un’analisi visiva
entrambe le distribuzioni appaiono simmetriche, come ci si dovrebbe aspettare, infatti il
fenomeno fisico di diffusione multipla è simmetrico rispetto alla direzione di volo del
cosmico e la geometria del sistema presenta una marcata simmetria assiale.
Figura 4.13 : Distribuzioni delle variabili statistiche
e
a seguito del tracciamento di
hanno intercettato tutti e tre i rivelatori che compongono il telescopio di misura.
Le medie campionarie
e
risultano inoltre compatibili con
la configurazione di riferimento, nonostante il segno della media
mente lo spostamento imposto sia positivo (
cosmici. Di questi,
risulti negativo
lungo la direzione ). È necessario
99
4.
sottolineare, infatti, che per come sono state costruite le variabili statistiche
(vedere paragrafo 3.6), uno spostamento sul piano
Analisi
e
del rivelatore intermedio si traduce
nello spostamento in direzione opposta della media delle distribuzioni degli scarti
e
.
Infine, le deviazioni standard campionarie
e
sono molto alte, a prova del fatto che la diffusione multipla ha una notevole influenza
sulla traiettoria dei cosmici, soprattutto se questi posseggono basse energie. Per
verificare ciò, in Figura 4.14 sono state rappresentate tre differenti distribuzioni della
quantità di moto: con la linea rossa è stata rappresentata la distribuzione di quantità di
moto dei cosmici tracciati, con la linea blu quella dei cosmici utili e con la linea rossa
quella dei cosmici utili che generano scarti
e
. Come si può
notare dalla figura, il numero di cosmici che generano scarti superiori a
dei cosmici utili, e nessuno di questi ha un energia superiore a
è di
,
.
Prima di procedere con l’analisi è doveroso definire alcuni parametri per rendere meno
laboriosa la spiegazione dei grafici che sono riportati di seguito. In particolare, per ogni
cosmico tracciato si è definito l’angolo
come l’angolo di zenit di generazione, mentre
per i soli cosmici utili si sono definiti i seguenti angoli (Figura 4.15):
-
: angolo di zenit della retta passante per i punti dello spazio che definiscono gli
hit nei rivelatori superiore e inferiore;
-
: angolo di zenit della retta passante per i punti dello spazio che definiscono gli
hit nei rivelatori superiore e intermedio;
-
: angolo di zenit della retta passante per i punti dello spazio che definiscono gli
hit nei rivelatori intermedio e inferiore;
: angolo di zenit della retta di regressione ottenuta applicando il metodo dei minimi
quadrati57 ai punti dello spazio che definiscono i tre hit nei rivelatori; questo è l’angolo di
zenit ricostruito per mezzo del telescopio di misura.
57
Il metodo dei minimi quadrati, anche noto come OLS (Ordinary Least Squares), è una tecnica di
ottimizzazione che permette di trovare una funzione, detta curva di regressione, che si avvicini il più
possibile ad un insieme di dati (tipicamente punti nel piano o nello spazio). In particolare la funzione trovata
deve essere quella che minimizza la somma dei quadrati delle distanze tra i dati osservati e quelli della
curva che rappresenta la funzione stessa. Nel caso studiato la curva di regressione è una retta.
100
4.
Analisi
Figura 4.14 : In questi grafici sono state rappresentate, in quello di sinistra con scala bilogaritmica mentre in quello di
destra in scala logaritmica, tre diverse distribuzioni della quantità di moto. In particolare, in nero si è rappresentata la
distribuzione di quantità di moto dei raggi cosmici tracciati, in blu quella dei raggi cosmici utili e in rosso quella dei
raggi cosmici utili che generano degli scarti
e
.
Figura 4.15 : In questa figura sono state rappresentate le proiezioni sul piano
(questo è il motivo del pedice )
degli angoli di zenit
,
,
,
,
. La traccia del cosmico (linea rossa) è stata disegnata come una spezzata
per simulare i possibili effetti che la diffusione multipla ha sulla particella quando questa attraversa i rivelatori. In
verde è stata inoltre rappresentata la retta di regressione ottenuta dal metodo dei minimi quadrati applicato ai punti
che definiscono i tre hit.
101
4.
Analisi
Per avere un’ulteriore verifica della simmetria del processo di diffusione multipla si sono
riportati i grafici di Figura 4.16. Nel grafico di sinistra sono state rappresentate tre
differenti distribuzioni dell’angolo di zenit: con la linea nera è indicata la distribuzione
dell’angolo
, con la linea blu la distribuzione dell’angolo
con la linea rossa la distribuzione dell’angolo
per i soli cosmici utili e
. Come è possibile vedere dalla linea
nera, il sistema di puntamento (vedere Paragrafo 4.4.1) ha permesso di generare cosmici
aventi angolo di zenit non superiori a
, mentre il solo algoritmo di generazione
avrebbe restituito una distribuzione come quella riportata in Figura 3.12. Osservando
inoltre le linee rossa e blu si nota un fatto inatteso: vi è una parte non indifferente di
cosmici utili il cui angolo di generazione
dell’angolo ricostruito
risulta sistematicamente maggiore
. È possibile vedere questo anche dalla marcata asimmetria che
presenta la distribuzione della differenza
rappresentata nel grafico di destra
della medesima figura. Ci saremmo invece aspettati di trovare, per quanto riguarda
quest’ultimo grafico, una distribuzione maggiormente simmetrica, a sostegno del fatto
che il fenomeno fisico di diffusione multipla è simmetrico rispetto alla direzione di volo
del cosmico.
Figura 4.16 : Nel grafico di sinistra sono state rappresentate tre diverse distribuzioni dell’angolo di zenit: in nero si è
indicata la distribuzione degli angoli di zenit di generazione (
) del campione di 100 000 cosmici tracciati, in blu la
distribuzione degli angoli di zenit di generazione dei soli cosmici utili e in rosso la distribuzione degli angoli di zenit
ricostruiti dal sistema di misura per i soli cosmici utili (
). Nel grafico di destra è rappresentata la differenza, per i
soli cosmici utili, tra l’angolo di zenit ricostruito dal sistema di misura e l’angolo di generazione (
).
102
4.
Analisi
Queste considerazioni hanno portato ad ipotizzare che alcuni dei cosmici che per
direzione di generazione non dovrebbero attraversare tutti e tre i rivelatori, a seguito di
interazioni con la diga vengano deviati in modo tale da farli rientrare nell'angolo solido
coperto dai rivelatori intermedio ed inferiore.
Per convalidare tale ipotesi è stato creato all’interno della diga un volume sensibile di
calcestruzzo a forma di tubo con diametro interno di
, diametro esterno di
e lunghezza pari alla distanza tra i rivelatori superiore e inferiore (vedere Tabella
3.1 e Figura 3.1). Questo tubo è stato posizionato in modo da rivestire la parete interna
della diga che contiene il telescopio di misura. L’aver reso sensibile questo volume ha
permesso di individuare i raggi cosmici che riescono ad attraversare tutti e tre i rivelatori
a seguito di fenomeni di scattering con la parete della diga. Dalla simulazione è emerso
che dei
cosmici utili,
hanno attraversato il telescopio di misura a seguito di
interazioni di diffusione con il calcestruzzo della struttura. Per semplicità d’ora in avanti
verranno chiamati cosmici “buoni” e cosmici “infiltrati” quei cosmici utili che
rispettivamente non interagiscono e interagiscono con la diga. Quindi, dei
7808 (
) sono risultati cosmici infiltrati mentre i restanti
(
utili,
) sono
quelli buoni.
Per verificare che proprio i cosmici infiltrati siano i responsabili dell’asimmetria del
grafico di destra della Figura 4.16, nel grafico di destra della Figura 4.17 è stata
rappresentata la medesima distribuzione della differenza
, ma relativa ai soli
cosmici buoni. Come è possibile vedere, la distribuzione ha perso gran parte del carattere
asimmetrico. L’asimmetria residua presente nella coda sinistra dell’istogramma indica che
ci sono dei cosmici buoni con angoli di generazione
ricostruiti
maggiori rispetto agli angoli
. Questo fatto può essere spiegato pensando agli effetti della diffusione
multipla: l’angolo di zenit ottenuto a seguito di questo fenomeno può essere espresso
qualitativamente come:
dove
è l’angolo di deviazione. Se si ottiene
aumentano le probabilità che il
cosmico possa uscire dall’angolo solido del telescopio di misura, viceversa, se
aumentano le probabilità che il cosmico non vi esca. Per questo motivo saranno più
103
4.
numerosi i cosmici utili con angoli
maggiori rispetto angoli ricostruiti
Analisi
dal sistema
di misura. Da ciò deriva l’asimmetria residua dell’istogramma presente nel grafico di
destra della Figura 4.16.
Nel grafico di sinistra della Figura 4.17 sono state invece rappresentate le distribuzioni
degli angoli
: in nero quella relativa ai cosmici utili e in rosso quella dei cosmici
infiltrati. Si nota che la quasi totalità dei cosmici utili con angoli di generazione superiori a
attraversa l’intero telescopio di misura solamente a seguito di interazioni con la
diga. Il valore
non è casuale, infatti rappresenta il massimo angolo di zenit che un
cosmico utile può assumere in mancanza del fenomeno della diffusione multipla 58.
Per sottolineare l’effetto deleterio della diffusione dei cosmici utili all’interno del
calcestruzzo della diga, sono state confrontate in Figura 4.18 le distribuzioni degli scarti
e
di tutti i cosmici utili (linea nera) con le relative distribuzioni dei cosmici infiltrati
(linea rossa). Come si nota, le code delle popolazioni sono interamente rappresentate da
cosmici infiltrati.
Da ciò deriva la necessità di individuare un criterio per escludere dall’analisi questa parte
di cosmici non gradita. Tale criterio non potrà naturalmente utilizzare l’angolo di
generazione
del cosmico perché nella realtà il nostro sistema di misura non lo rileva,
inoltre non potrà neppure utilizzare l’informazione sull’hit nella parete della diga perché
nella realtà sarebbe impensabile rivestire l’intera cavità con dei rivelatori appositi. Queste
informazioni potranno essere tuttavia usate nel Monte Carlo per controllare la bontà del
criterio scelto.
Come criterio generale si è pensato di escludere quei raggi cosmici che pur intercettando i
tre rivelatori del telescopio di misura presentano una traccia poco assimilabile ad una
retta. Per fare questo si è agito sugli angoli di zenit e sono stati provati due differenti tagli:
59
58
In assenza di fenomeni di diffusione, l’angolo di zenit massimo
è quello posseduto da un cosmico
che viene generato sul bordo del rivelatore superiore e intercetta il rivelatore inferiore in un punto
diametralmente opposto. La distanza orizzontale e quella verticale risulterebbero essere rispettivamente di
e
, da ciò si ricava:
59
Il simbolo
rappresenta l’operatore logico AND.
104
4.
per tre differenti valori del parametro
(
,
e
Analisi
).
Figura 4.17 : Nel grafico di sinistra sono state rappresentate le distribuzioni dell’angolo di zenit di generazione
relative ai cosmici utili (linea blu) e ai cosmici infiltrati (linea rossa). Nel grafico di destra è rappresentata la
differenza, per i soli cosmici buoni, tra l’angolo di zenit ricostruito dal sistema di misura e l’angolo di generazione.
Figura 4.18 : Distribuzioni delle variabili statistiche
e
relative ai cosmici utili (linea nera) e ai cosmici infiltrati
(linea rossa). Per maggior chiarezza, il grafico è stato rappresentato fino a 500 eventi, comunque le curve nere sono le
medesime rappresenta in Figura 4.13.
In Tabella 4.2 sono riassunti i risultati ottenuti. In particolare per le popolazioni dei
cosmici utili, dei cosmici buoni e dei cosmici infiltrati sono stati calcolati il numero di quelli
che vengono eliminati dal taglio (cosmici “tagliati”) e il numero di quelli che non vengono
105
4.
Analisi
eliminati dal taglio e quindi vengono inclusi nell’analisi successiva (cosmici “utilizzati”). Il
taglio ideale dovrebbe riuscire ad includere tutti i cosmici buoni ed escludere tutti quelli
infiltrati; nella realtà una parte dei primi saranno eliminati e una parte dei secondi non lo
saranno. Osservando la tabella si nota che per un fissato valore di , il taglio
restrittivo del taglio
è meno
; inoltre, per un fissato taglio, all’aumentare del valore di
aumentano sia il numero dei cosmici buoni inclusi sia quello dei cosmici infiltrati inclusi.
Si capisce quindi che l’ottimo si trova in una condizione di compromesso: bisogna
scegliere un taglio che elimini tanti più cosmici infiltrati possibile, senza che riduca
eccessivamente il numero di cosmici utili lasciati passare. Per le analisi successive si è
scelto di applicare il taglio
con il parametro
cosmici utili, ne vengono lasciati passare
. Sotto queste condizioni, dei
(cosmici utilizzati).
In Figura 4.19 sono rappresentate le distribuzioni degli scarti
e
(linea nera) e le relative distribuzioni dei cosmici tagliati dal taglio
dei cosmici utili
(linea rossa).
Confrontando questa figura con la 4.18 si nota una certa somiglianza, in ragione
dell’efficacia del taglio scelto.
Figura 4.19 : Distribuzioni delle variabili statistiche
e
relative ai cosmici utili (linea nera) e ai cosmici esclusi dal
taglio
con
(linea rossa). Per maggior chiarezza, il grafico è stato rappresentato fino a 500 eventi. Si noti
la somiglianza tra le distribuzioni dei cosmici “tagliati” e le distribuzioni dei cosmici infiltrati di Figura 4.18.
106
4.
Analisi
107
4.
In Figura 4.20 sono riportate infine le distribuzioni delle variabili statistiche
relative al nuovo campione di
Analisi
e
cosmici utilizzati. Confrontando queste distribuzioni
con quelle di Figura 4.13 si nota che le deviazioni standard campionarie si sono molto
ridotte e le medie campionarie, non risentendo più delle eccesive code delle distribuzioni,
si sono avvicinate alla condizione imposta.
Figura 4.20 : Distribuzioni delle variabili statistiche
e
relative ai cosmici utili che sono stati inclusi dal taglio,
cioè relative ai cosmici utili che il taglio non ha eliminato e che quindi sono disponibili per la successiva analisi
(cosmici “utilizzati”).
4.4.3. Funzione di migliore adattamento alle distribuzioni
e
Per quanto riguarda la forma funzionale da utilizzare per riprodurre le distribuzioni delle
popolazioni di
e
del nuovo campione di
adottata l'ipotesi che essa corrisponda ad una somma di
cosmici (cosmici utilizzati), si è
gaussiane con uguale media,
diversa deviazione standard e peso relativo da determinare. Nonostante la complessità
del fenomeno che dà origine alla forma degli istogrammi di
e
, l'ipotesi appare
ragionevole in quanto, per un valore fissato della quantità di moto dei cosmici incidenti, la
diffusione multipla genera una distribuzione degli scarti
e
di tipo gaussiano la cui
deviazione standard è inversamente proporzionale alla quantità di moto [2]. Il flusso di
cosmici che investono il telescopio di rivelatori è caratterizzato da una distribuzione larga
108
4.
Analisi
di quantità di moto che dà quindi origine, per ogni intervallo di quantità di moto, a
distribuzioni gaussiane con deviazioni standard diverse, minori per le quantità di moto più
elevate e maggiori per le più basse.
Una somma di gaussiane con uguale media, diverse deviazioni standard e diversi pesi
relativi è quindi sembrata una buona ipotesi da adottare. Il processo di miglior
adattamento della forma funzionale scelta agli istogrammi delle variabili statistiche
e
, che è di seguito descritto, ha portato a valutare il numero di gaussiane necessarie per
il miglior adattamento, i valori delle deviazioni standard di ogni gaussiana ed il peso
relativo delle stesse nonché a verificare la bontà dell'adattamento stesso ai dati.
Le tecniche di analisi statistica utilizzate sono il metodo dei minimi quadrati e il test di
adattamento del
. Le tecniche matematiche per eseguire queste elaborazioni sono già
contenute nel pacchetto di istogrammazione e calcolo statistico di ROOT. La procedura
seguita nel calcolo è descritta nel seguito.
1. Si è costruita una funzione
, descritta dall'Eq. 4.20, come la somma di
un certo numero di gaussiane aventi media comune
standard
e pesi
e diverse deviazioni
.
dove
è il peso di ciascuna gaussiana,
è la deviazione standard di ciascuna gaussiana,
è il valore della media della distribuzione, imposto uguale per tutte le gaussiane.
2. Si sono definite diverse possibilità riguardo al numero
di gaussiane da adottare
per i calcoli successivi di miglior adattamento.
3. L'adattamento è stato effettuato, in accordo con il metodo dei minimi quadrati,
minimizzano la funzione
dove
, definita nel seguente modo [35]:
corrisponde al numero di eventi caduti nell'i-esimo canale,
totale di eventi presenti nel campione,
è il numero
è la densità di probabilità ipotizzata,
calcolata nel punto centrale di ciascun canale e
rappresenta il vettore dei
109
4.
Analisi
parametri del best fit, da trovare minimizzando l'espressione 4.22. La maggior parte
dei canali considerati dell'istogramma ha un numero di conteggi superiore a cinque,
quindi il metodo può essere applicato. La minimizzazione fornisce i valori migliori
per i parametri, con una stima dei loro errori, nonché un valore della variabile
statistica
utile per effettuare un test statistico sulla bontà dell'adattamento
stesso.
4. Il test statistico utilizzato per verificare la qualità dell'adattamento della funzione
all'istogramma è il test di
. In particolare, senza calcolare livelli di confidenza, si è
verificato che il valore del
gradi di libertà,
ridotto, vale a dire il valore di
diviso il numero di
, fornito direttamente da ROOT, fosse vicino ad uno. Il
numero dei gradi di libertà corrisponde al numero dei canali utilizzati per
l'adattamento meno il numero dei parametri liberi della funzione. Tale test si basa
sul fatto che, se il campione esaminato è effettivamente estratto da una
popolazione con distribuzione equivalente a quella ottenuta con l'adattamento, la
media della distribuzione di
è uguale a
, cioè al numero di gradi di libertà. Ci
si aspetta quindi, se l'interpolazione è ragionevole, di ottenere
. Il numero
dei gradi di libertà tiene conto del fatto che alcuni parametri della distribuzione
sono determinati in base ai dati stessi [35].
5. Il numero di gaussiane da utilizzare per costruire la funzione
è stato definito
empiricamente60 in base ad una serie di prove successive con diverso numero di
gaussiane e di verifiche del valore corrispondente del
ottenuto dall'adattamento.
Come si vedrà in seguito per entrambe le distribuzioni degli scarti
e
si sono
rese necessarie 4 gaussiane.
6. Tramite la procedura di miglior adattamento, sono stati determinati tutti i valori
delle deviazioni standard
i loro pesi
delle gaussiane che compongono la funzione , nonché
, che sono stati normalizzati a dare somma unitaria. Si è quindi definita
una funzione
60
Una valutazione più quantitativa del numero di gaussiane effettivamente necessario per realizzare un
buon adattamento ai dati potrebbe essere fatta sia mediante il controllo del grafico dei residui
standardizzati per le diverse funzioni sia mediante il test F di Snedecor [35].
110
4.
Analisi
in cui
è il peso di ciascuna gaussiana, con somma dei pesi normalizzata all'unità.
Ognuno dei valori
rappresenta il contributo della singola gaussiana nella
funzione complessiva. Il valore di
contiene, in realtà, anche il fattore di
normalizzazione della singola gaussiana. Ciò non ha, tuttavia, nessun effetto sui
risultati;
è la deviazione standard di ciascuna gaussiana come determinata dal
procedimento di migliore adattamento;
è il valor medio comune a tutte le gaussiane utilizzate. Negli adattamenti
successivi della funzione
alle distribuzioni campionarie questo parametro sarà
lasciato libero di variare assieme al fattore di scala
è il fattore di scala attraverso il quale la funzione
;
può adattarsi alla numerosità
dei campioni ottenuti dai dati Monte Carlo.
Nel seguito vengono riportati alcuni risultati ottenuti con la procedura sopra descritta. In
Figura 4.21, sono illustrati i risultati del miglior adattamento della funzione
istogrammi delle popolazioni
e
agli
. Si noti visivamente, in questa scala, la buona
qualità dell'adattamento, che è confermata dai valori di
Nella figura è anche riportato il valore della media
ridotto molto vicini all’unità.
(il parametro
) comune a tutte le
gaussiane che compongono la funzione. Si noti che la media della funzione di miglior
adattamento è compatibile con la condizione di riferimento entro l'errore stimato dalla
procedura di minimizzazione sia per la distribuzione di
sia per
, infatti:
Questo risultato è atteso in quanto la popolazione è stata generata nel Monte Carlo con
media delle
pari a
e media delle pari a
.
I valori delle medie dei dati, ricavati dagli istogrammi, accompagnanti dal loro errore,
calcolato mediante l’Eq. 4.26, sono riportati di seguito:
111
4.
Analisi
Si noti infine che il valore della media della funzione è più vicina alla condizione imposta
rispetto alla semplice media dei dati calcolata sull'istogramma. Inoltre essa risente meno
delle possibili asimmetrie dell'istogramma stesso. Questo è il vantaggio principale che
deriva dal fatto di utilizzare, come stimatore della media della popolazione, il valore della
media della funzione di migliore adattamento alla distribuzione campionaria piuttosto che
la semplice media campionaria [2].
Figura 4.21 : Le due figure rappresentano gli istogrammi di
e
con sovraimposte le funzioni di miglior
adattamento. Sono inoltre riportati i valori del
ridotto e dei parametri
e
stimati attraverso la procedura di
fit, accompagnati dall'errore stimato dalla procedura di minimizzazione. In particolare il parametro
è la media
comune a tutte le gaussiane,
,
,
e
sono i pesi
delle quattro gaussiane e
,
,
e
sono le
relative deviazioni standard . Dalla semplice osservazione delle figure emerge che la funzione di best fit approssima
bene la forma della distribuzione degli scarti. Anche i valori di
ridotto sono molto buoni, in particolare per la
distribuzione dei
mentre per la distribuzione dei
.
I valori ottenuti dalla procedura di adattamento per i pesi normalizzati e le deviazioni
standard sono riportati, con i loro errori, in Tabella 4.3. Per ottenere il miglior
adattamento sia alla distribuzione di
sia a quella di
sono state necessarie quattro
gaussiane. Infatti, con un numero superiore di gaussiane, quelle eccedenti le quattro sono
risultate inutili, dato che i loro parametri si sono stabilizzati sui valori delle quattro già
considerate, ovvero si sono ottenute più gaussiane uguali.
112
4.
Analisi
Determinata la forma funzionale di miglior adattamento per la distribuzione delle variabili
statistiche
e
, si è deciso di utilizzare quest’ultima per l’analisi successiva, la quale è
volta a ricavare le precisioni di misura del telescopio in funzione del tempo. Nel Paragrafo
4.5 si vedrà come la scelta della forma funzionale delle variabili
non avrebbe portato a
differenze apprezzabili nei risultati.
parametri
0.343±0.034
450±82
0.392±0.031
1703±153
0.203±0.018
4898±257
0.063±0.004
13524±280
Tabella 4.3 : In tabella,
0.490±0.028
632±46
0.319±0.020
2343±214
0.138±0.021
5982±654
0.054±0.008
13993±530
rappresenta il peso normalizzato di ciascuna gaussiana e
ne è la deviazione standard.
4.4.4. Calcolo della precisione di misura del telescopio
In questo paragrafo verrà presentato lo studio di come la precisione ottenibile dal
telescopio vari in funzione del tempo di misura, ovvero del numero di cosmici, passanti
per il telescopio e rivelati. Per simulare periodi di campagna di misura diversi, la
popolazione complessiva di
cosmici tracciati è stata suddivisa in diversi
sottocampioni di diversa numerosità, come elencato in Tabella 4.4.
È importante qui sottolineare la differenza tra i cosmici tracciati, ovvero generati e che
hanno superato il filtro di puntamento (vedere Paragrafo 4.4.1), e quelli utilizzati, ovvero
quelli che hanno attraversato tutto il telescopio e che vengono usati per il calcolo delle
variabili
e
. Sebbene nel seguito useremo il numero di cosmici tracciati per
distinguere i vari sottoinsiemi, va ricordato che le fluttuazioni statistiche sono associate al
numero di cosmici utilizzati (in media, il rapporto tra cosmici utilizzati e cosmici tracciati
risulta di 0.21).
È importante ricordare che la precisione raggiungibile dal telescopio di misura è definita
come l'errore statistico che si può commettere nell'individuazione di un disallineamento
113
4.
Analisi
reciproco dei rivelatori e che, come tale, dipende dal metodo statistico utilizzato nella
trattazione dei dati. In altre parole, quando si indicherà una precisione di misura, si farà
sempre riferimento al metodo statistico considerato. Il metodo scelto per questa analisi
utilizza la procedura di best fit precedentemente descritta. In alternativa si sarebbero
potute utilizzare le medie campionarie e le deviazioni standard delle distribuzioni dei
campioni.
Si è fatta questa scelta in quanto la dettagliata analisi statistica svolta in [2] ha mostrato
come la precisione ottenibile con il sistema di misura impiegato sia meglio stimata dalla
procedura di best fit, rispetto a quella ottenuta dalle medie campionarie e le deviazioni
standard delle distribuzioni dei campioni. Il motivo statistico di tale risultato risiede nel
fatto che mediante l'utilizzo di una funzione di miglior adattamento viene impiegata
anche l'informazione relativa alla forma della popolazione dalla quale deriva il campione e
non solo quella relativa agli stimatori statistici quali media e deviazione standard. Inoltre,
il valore del parametro della funzione è meno sensibile alle eventuali asimmetrie della
distribuzione, rispetto ai parametri campionari, e sfrutta meglio l'informazione contenuta
nelle code della distribuzione.
[campioni]
cosmici
tracciati
cosmici
utilizzati
tempo di
osservazione
[giorni]
100
80
50
40
32
25
20
16
10
8
5
4
2
1
1000
1250
2000
2500
3125
4000
5000
6250
10000
12500
20000
25000
50000
100000
216±1
270±2
433±3
541±3
676±4
865±5
1082±6
1352±9
2163±9
2704±16
4327±9
5408±15
10817±2
21633
3.4
4.3
6.9
8.6
10.7
13.7
17.1
21.4
34.3
42.8
68.5
85.6
171.3
342.5
Tabella 4.4 : Numero, popolosità e relativo tempo di osservazione dei sottocampioni nei quali è stato suddiviso il
campione di
cosmici al fine di costruire la curva di precisione del telescopio di misura.
114
4.
Mediante la procedura di best fit le distribuzioni delle variabili statistiche
Analisi
e
di
ciascun sottocampione -esimo di un dato insieme sono state approssimate con la forma
funzionale
di miglior adattamento, definita nell’Eq. 4.23, in cui il peso relativo e la
deviazione standard di ciascuna gaussiana sono state fissate ai parametri minimizzati
sull’intera popolazione, riportati nella colonna dei
lasciati liberi sono stati la media
in Tabella 4.3, mentre i parametri
della funzione ed il suo peso
.
Per ciascun sottocampione si sono considerati i valori del numero di cosmici utilizzati che
attraversano tutti e tre i rivelatori del telescopio di misura, della media della funzione
e l'errore sulla media
stimato dall'algoritmo di minimizzazione.
La precisione di misura del telescopio
viene calcolata come la media degli errori
di
ogni singolo sottocampione, i quali valori vengono forniti direttamente dall'algoritmo di
minimizzazione della procedura di best fit. L’equazione risulta essere:
dove
è il numero di sottocampioni con medesima numerosità.
Dalla distribuzione degli
standard
, oltre alla media
, si sono anche calcolati la deviazione
di tale distribuzione ed il relativo errore sulla media
, secondo le
rispettive formule:
in cui
è la deviazione standard della distribuzione dell'intera popolazione ed
ancora è il numero di sottocampioni con medesima numerosità.
I dati raccolti ed i risultati ottenuti sia per la distribuzione dei
sia per quella dei
sono mostrati in Tabella 4.5. Si noti in particolare, per i sottocampioni di medesima
numerosità, la compatibilità secondo la legge61
tra le precisioni di misura lungo l’asse
61
Legge : se è una variabile gaussiana di media e deviazione standard , la probabilità di ottenere un
valore compreso in un intervallo centrato sulla media e di ampiezza
è circa del
, mentre se
115
4.
Analisi
e quelle lungo l’asse . Questo fatto non è inatteso, infatti, la struttura nella quale i
rivelatori sono alloggiati e il telescopio di misura presentano una marcata simmetria
assiale. Quindi, lungo qualsiasi direzione del piano
il rivelatore intermedio si sposti per
effetto della deformazione della struttura, la precisione di misura non deve esserne
influenzata.
tempo di
osservazione
[campioni]
[giorni]
100
80
50
40
32
25
20
16
10
8
5
4
2
1
3.4
4.3
6.9
8.6
10.7
13.7
17.1
21.4
34.3
42.8
68.5
85.6
171.3
342.5
216±7
188±5
151±4
133±2
118±2
107±2
95±2
84±2
67±1
60±1
47±1
42±0.4
29±0.3
21
68.88
43.45
28.10
13.85
11.11
11.22
8.90
6.21
4.22
4.02
2.02
0.88
0.36
0
204±5
185±4
146±2
132±2
119±2
102±5
85±7
83±1
66±1
59±1
46±1
41±1
29±0.5
20
52
32
17
14
10
24
30
4
5
3
2
2
1
0
Tabella 4.5 : Tabulazione ed analisi dei dati, relativi alle distribuzione
e
, nel caso in cui vengano estratti
sottocampioni dalla popolazione, con procedura di best fit. Legenda:
= numero di sottocampioni estratti;
=
precisione di misura del telescopio;
= deviazione standard della distribuzione degli errori sulla media, stimati
dall’algoritmo di minimizzazione;
= errore sulla media che definisce la precisione di misura del telescopio.
È possibile inoltre eseguire una verifica statistica dei dati riportati nella suddetta tabella
andando a studiare l’andamento della precisione in funzione del tempo. Poiché l’errore
sula media dipende da
numerosità
, il rapporto tra l’errore sulla media di un campione con
ed uno di numerosità
deve essere
Questo è stato
verificato in Tabella 4.6.
l’intervallo è di
essa è circa del
con una probabilità di 3 casi su 1000.
; inoltre il valore
può cadere fuori da un intervallo di
solo
116
4.
50000-100000
25000-50000
12500-25000
10000-20000
6250-12500
5000-10000
3125-6250
2500-5000
2000-4000
1250-2500
1000-2000
29/21
42/29
60/42
67/47
84/60
95/67
118/84
133/95
151/107
188/133
216/151
Tabella 4.6 : Tabella dei rapporti tra la precisione
rivelatore superiore pari rispettivamente ad e a
4.5.
1.43
1.43
1.43
1.43
1.41
1.41
1.40
1.40
1.40
1.42
1.44
29/25
41/29
59/41
66/46
83/59
85/66
119/83
132/85
146/102
185/132
204/146
Analisi
1.14
1.43
1.43
1.44
1.41
1.29
1.43
1.55
1.43
1.40
1.40
di insiemi di sottocampioni con numero di cosmici passanti per il
.
Costruzione della curva di precisione in funzione del tempo
Si è detto che ad un certo numero di cosmici passanti attraverso il rivelatore superiore
corrisponde un certo intervallo temporale, in particolare, se i rivelatori sono orizzontali il
flusso di cosmici che arrivano alla superficie terrestre è di
simulati hanno una superficie di rivelazione di
[14]. I rivelatori
, perciò, in un minuto,
attraverso il rivelatore superiore, passano circa 616 particelle.
Nel paragrafo precedente sono stati estratti sottocampioni corrispondenti a determinate
numerosità di cosmici, passanti attraverso il rivelatore superiore, ognuna delle quali
corrisponde ad un determinato intervallo temporale. È quindi possibile costruire la curva
di precisione in funzione del tempo per un periodo di presa dati di circa un anno, tempo
necessario affinché
milioni di cosmici (vedere Paragrafo 4.4.2) attraversino il
rivelatore superiore.
Si è proceduto nel seguente modo:

utilizzando i valori medi
dell'errore sulla media riportati in Tabella 4.5 si sono
costruiti i grafici in Figura 4.22, con in ascissa il tempo ed in ordinata la precisione
media.
117
4.
Analisi
Figura 4.22 : Grafici delle precisioni medie, lungo e lungo , del telescopio di misura in funzione del tempo. In
particolare, le ordinate dei punti indicati in nero sono i valori
riportati in Tabella 4.5, mentre le linee rosse sono
quelle ottenute dalla procedura di best fit.

Sui dati dei grafici si è applicata una procedura di best fit, utilizzando una forma
funzionale del tipo:
in cui
è il tempo e
è il parametro libero con cui la funzione può adattarsi ai
dati. La forma della funzione
è nota, si è infatti verificato nel paragrafo
precedente, con i valori riportati in Tabella 4.6, che la precisione di misura segue la
legge
, cioè
, dove è il tempo, essendo
.
In questo modo si sono trovati i parametri :
ottenendo rispettivamente le funzioni:
che rappresentano le curve della precisione del telescopio di misura in funzione
del tempo espresso in giorni. Bisogna notare che le costanti , pur non essendo
118
4.
Analisi
uguali, differiscono solo del 3%. Utilizzando quindi solo una di queste per calcolare
la precisione lungo l’altro asse non verrebbero introdotti errori significativi nella
valutazione.
Le simulazioni e i calcoli svolti nel Paragrafo 4.4.4 e in questo sono stati ripetuti anche
utilizzando per la forma funzionale di miglior adattamento i parametri relativi alla
distribuzione delle variabili
(Tabella 4.3), e non quelli relativi alle variabili
. In Figura
4.23 si sono rappresentate le curve di precisione analoghe a quelle presenti in Figura
4.22; dal loro confronto non si notano sostanziali differenze. Questo sta ad indicare la
compatibilità tra le distribuzioni delle variabili
e
, infatti il sistema e la
configurazione studiati presentano una simmetria assiale.
Figura 4.23 : Grafici delle precisioni medie del telescopio di misura in funzione del tempo. Questi sono analoghi a
quelli presentati in Figura 4.21, ma la forma funzionale utilizzata per il calcolo delle precisioni
è quella relativa alla
procedura di best fit applicata non alla distribuzione delle variabili , ma a quella delle variabili .
119
4.
Analisi
Figura 4.24 : Grafico delle precisioni medie del telescopio di misura in funzione del tempo per rivelatori con
risoluzione spaziale di
.
Figura 4.25 : Grafico delle precisioni medie del telescopio di misura in funzione del tempo per rivelatori con
risoluzione spaziale di
.
Le stesse procedure e gli stessi calcoli sono stati infine svolti anche per rivelatori
caratterizzati da risoluzioni spaziali di
e
. Nelle figure 4.24 e 4.25 sono
rappresentati i grafici delle relative curve di precisione. Inoltre, per avere un confronto
più immediato, in Tabella 4.7 sono stati riportati i valori delle precisioni, lungo l’asse ,
relative a rivelatori con risoluzioni spaziali di
,
e
. Nel primo caso
le precisioni di misura del telescopio risultano minori, ma non tanto da non poter
prendere in considerazione, anche in ragione degli elevati costi che caratterizzano i
dispositivi più precisi, l’idea di installare rivelatori con risoluzioni spaziali inferiori.
Diversamente dalle valutazioni riportare nel Paragrafo 4.3, si è trovato che la risoluzione
dei rivelatori è un fattore importante da considerare se si vogliono ottenere sistemi di
misura con determinate precisioni. Confrontando infatti le precisioni ottenute con
rivelatori con risoluzione spaziale di
con quelle ottenute con rivelatori con
120
4.
risoluzione di
Analisi
si notano significative differenze. Differenze che nel Paragrafo 4.3
non sono state messe in evidenza in quanto i cosmici erano stati generati tutti con
energia di
e direzione verticale.
tempo di
osservazione
[campioni]
[giorni]
100
80
50
40
32
25
20
16
10
8
5
4
2
1
3.4
4.3
6.9
8.6
10.7
13.7
17.1
21.4
34.3
42.8
68.5
85.6
171.3
342.5
216
188
151
133
118
107
95
84
67
60
47
42
29
21
228
211
183
158
142
132
114
105
83
75
59
53
37
26
225
228
173
158
147
130
116
105
83
76
62
54
39
28
Tabella 4.7 : Precisioni medie del telescopio di misura ottenibili con rivelatori con risoluzioni spaziali di
e
.
4.6.
,
Simulazione di uno spostamento
Nel Paragrafo 3.6 si è detto che il telescopio di rivelatori è in grado di misurare eventuali
deformazioni della struttura alla quale è vincolato poiché tali deformazioni si traducono in
errori sistematici di traslazione della media da un valore iniziale, preso come riferimento,
a quello letto dopo un certo intervallo temporale. Con questo metodo, quindi, non si è in
grado di effettuare misure assolute di posizione ed è necessario conoscere la posizione
iniziale (di riferimento) del rivelatore intermedio rispetto agli altri due, che rappresenta lo
zero del sistema di misura.
Nel Paragrafo precedente si è studiata la precisione del telescopio in funzione del tempo,
trovando le funzioni 4.29, attraverso le quali è possibile determinare l'incertezza da
121
4.
Analisi
attribuire ad ogni singola misura del sistema in seguito ad un determinato tempo
di
raccolta dati.
Lo zero del sistema di misura può essere noto a priori, nel limite delle precisioni
meccaniche con cui i rivelatori sono stati posizionati, oppure può essere determinato
sperimentalmente attraverso una campagna di misura che abbia come scopo la
calibrazione del telescopio di rivelatori, ovvero la determinazione della posizione di
riferimento. La precisione con cui questa può essere determinata, dipende, in questo
caso, dalla durata della campagna di raccolta dati e può essere facilmente calcolata
utilizzando la funzione
della Eq. 4.27, la quale è stata ottenuta da simulazioni Monte
Carlo.
Per la struttura in esame si è ipotizzato di svolgere una campagna di misura di
calibrazione di circa un mese, precisamente 34.3 giorni, utilizzando come riferimento il
valore risultante della media della funzione di best fit
scarti
ottenute
e
, e come precisione
delle
equazioni
Rispettivamente per
4.29
, adattata alla distribuzione degli
quella calcolata come media delle precisioni
sostituendovi
un
tempo
giorni.
e per , si sono ricavati i seguenti valori di riferimento:
Questa rappresenta la configurazione di riferimento rispetto alla quale devono essere
valutati i possibili spostamenti del rivelatore intermedio, quindi della deformazione della
struttura, durante la successiva fase di monitoraggio.
Per confermare che una traslazione dei rivelatori rispetto ad una posizione iniziale induce
errori sistematici tradotti in uno spostamento del valore medio della distribuzione degli
scarti
e
(quindi anche della media della funzione di best fit
adattata a tali
distribuzioni), ma non influisce sulla precisione di misura, si è innanzitutto controllato che
imponendo traslazioni “macroscopiche” del rivelatore intermedio, non mutasse la
precisione del telescopio di rivelatori. Per fare ciò è stato generato un campione di
cosmici tracciati ed è stato imposto, rispetto alla configurazione di riferimento,
uno spostamento del rivelatore centrale di
lungo la direzione
e di
lungo la direzione . Seguendo lo stesso procedimento descritto nel Paragrafo 4.4.4 sono
state calcolate le precisioni del telescopio in funzione del tempo di misura e i relativi punti
122
4.
Analisi
sono stati sovrapposti alle curve di precisione le cui equazioni sono presenti nella 4.29. In
Figura 4.26 si può notare che tali curve approssimano adeguatamente bene i puniti
rappresentati, quindi, anche dopo lo spostamento del rivelatore, le precisioni del sistema
di misura non cambiano e la curva funzionale di best fit è adeguata.
Anche dall'osservazione di Figura 4.27, dove sono rappresentate le distribuzioni di
e
relative alla suddetta simulazione, si nota che l'ampiezza degli istogrammi non cambia
in modo significativo rispetto alla configurazione di riferimento (Figura 4.20); l'unica
differenza consiste nello spostamento della media della distribuzione in direzione opposta
rispetto a quella in cui è stata imposta la traslazione del rivelatore (per come sono state
costruite le variabile statistiche
e
nella Eq. 3.15).
Figura 4.26 : In figura sono mostrati i grafici a punti delle precisioni in funzione del tempo nel caso di rivelatore
intermedio spostato a cui sono sovrapposte le funzioni
della 4.29, rappresentanti la precisione del telescopio di
misura in funzione del tempo. In questo modo si verifica che lo spostamento di un rivelatore rispetto agli altri non
comporta, come conseguenza, una variazione della precisione ottenibile in funzione del tempo di osservazione, ma
solo uno spostamento delle medie delle distribuzioni
e .
123
4.
Analisi
Figura 4.27 : In figura sono mostrati gli istogrammi di
e
dopo la generazione di
cosmici tracciati, nel
caso in cui al rivelatore intermedio vengano imposti spostamenti lungo e rispettivamente di
e
rispetto alla configurazione di riferimento.
Per ottenere una valutazione di quanto tempo sia necessario attendere per avere la
certezza di un dato spostamento rispetto alla configurazione di riferimento (quella
ottenuta dalla fase di calibrazione) sono state considerate le distribuzioni delle medie
ottenute applicando la procedura di minimizzazione ai diversi sottocampioni presi da
popolazioni di
cosmici tracciati. Il numero e la popolosità dei vari sottocampioni
sono gli stessi riportati in Tabella 4.4.
In particolare si sono considerate due differenti simulazioni andando a generare
cosmici tracciati ed imponendo per ognuna un differente spostamento del rivelatore
centrale, quindi differenti deformazioni della struttura. Rispetto alla configurazione di
riferimento, nella quale il rivelatore intermedio ha coordinate imposte
nelle “configurazioni deformate” le coordinate sono state prese pari a:
Lo spostamento
è il medesimo utilizzato poco sopra per verificare che la precisione del
telescopio di misura fosse indipendente dal disallineamento dei rivelatori. Come già detto
questa traslazione è macroscopica ed in condizioni di normale esercizio della struttura
deformazioni di questa entità si ottengono in periodi di diversi mesi.
124
4.
Nella configurazione
e
62
lo spostamento imposto di
Analisi
lungo entrambe le direzioni
può rappresentare invece una più realistica deformazione delle diga, sempre in
condizioni di buon esercizio della stessa.
Possiamo affermare che un determinato spostamento è rilevabile dopo un certo periodo
di tempo
, se ogni valore delle medie
all’esterno di un intervallo di ampiezza
relativa al medesimo periodo
63
cade
e simmetrico rispetto alle condizioni
di riferimento. In particolare, questi intervalli sono centrati attorno alle coordinate
e
(paria a
ed hanno una semiampiezza di
).
Figura 4.28 : In questa figura sono rappresentati gli istogrammi relativi alle medie
dei 100 sottocampioni che
compongono la popolazione di
cosmici tracciati nel caso in cui al rivelatore centrale siano imposte le
coordinate
(configurazione ). La campitura rossa rappresenta l’intervallo di ampiezza
centrato attorno alla configurazione di riferimento
e
. Il fatto che nessun
elemento cada all’interno di questo intervallo sta ad indicare che una presa dati di
è sufficiente per
rilevare con sicurezza spostamenti dell’ordine di
.
Nella Figura 4.28 è rappresentato l’istogramma delle medie
adattamento della curva di best fit
ottenute dal miglior
ai 100 sottocampioni che costituiscono l’intera
62
Si noti che rispetto alla configurazione di riferimento, al rivelatore centrale, nel caso B, è stato imposto
uno spostamento di:
,
quindi di
sia lungo la direzione sia lungo quella .
63
È stato preso un intervallo di questa ampiezza in ragione della Legge
(vedere nota 60).
125
4.
popolazione nella configurazione
Analisi
. Ogni sottocampione è composto quindi da 1000
cosmici tracciati (circa 216 cosmici utilizzati) e rappresenta un periodo di misura di circa
3.4 giorni. Come è possibile vedere dalla figura, tutte le medie
dell’intervallo di ampiezza
cadono all’esterno
rappresentato dalla campitura rossa, quindi è
possibile affermare che spostamenti di dell’ordine di
sono rilevabili in periodi
pari o minori di 3.4 giorni.
Andando invece ad analizzare la configurazione
si nota che per tempi di misura di 3.4
giorni (Figura 4.29) non è possibile affermare che gli spostamenti di
rivelatore intermedio lungo le direzioni
delle medie
e
sono rilevabili con certezza. Buona parte
ottenute dal miglior adattamento delle distribuzioni
infatti all’interno dell’intervallo
imposti al
e
cadono
.
In Figura 4.30 sono rappresentati gli istogrammi relativi a tempi di misura di circa 7 giorni.
Confrontando questa figura con la precedente si nota che le distribuzioni delle medie
si stringono e tendono ad uscire dall’intervallo
. Alcuni elementi
dell’istogramma vi cadono comunque all’interno, quindi neppure 7 giorni sono sufficienti
per rilevare con certezza spostamenti di
rappresentati gli istogrammi delle medie
. Nelle figure 4.31 e 4.32 sono stati infine
relativi a periodi di misura rispettivamente
di circa 2 settimane e 2 mesi. Nel primo caso è possibile affermare con certezza che
solamente lo spostamento lungo la direzione
è stato riconosciuto mentre nel secondo
caso sono vengono rilevati entrambi. Il fatto che non vi sia una simmetria tra spostamenti
lungo
e spostamenti lungo
particolare, nel caso in
allo spostamento di
medie
. Nel caso in
è spiegabile guardando la configurazione di riferimento. In
la calibrazione ha “allontanato” l’intervallo
rispetto
imposto, facendo quindi cadere al di fuori dell’intervallo le
invece la calibrazione ha “avvicinato” l’intervallo
quindi si è reso necessario un periodo più lungo per avere tutte le medie
al di fuori
dell’intervallo. Ciò è causato dall’errore nella valutazione della posizione iniziale a seguito
della campagna di calibrazione e al fatto che i fenomeni analizzati sono statistici.
126
4.
Analisi
Figura 4.29 : In questa figura sono rappresentati gli istogrammi relativi alle medie
dei 100 sottocampioni che
compongono la popolazione di
cosmici tracciati nel caso in cui al rivelatore centrale siano imposte le
coordinate
(configurazione ). In questo caso molti elementi dell’istogramma cadono
nel’intervallo di ampiezza
, quindi una presa dati di
non è sufficiente per rilevare
spostamenti di
.
Figura 4.30 : In questa figura sono rappresentati gli istogrammi relativi alle medie
dei 50 sottocampioni che
compongono la popolazione di
cosmici tracciati nel caso in cui al rivelatore centrale siano imposte le
coordinate
(configurazione ). Rispetto alla Figura 4.29 le distribuzioni delle medie
si
sono strette, tuttavia alcuni elementi dell’istogramma cadono ancora all’interno dell’intervallo. Quindi una presa dati
di
non è sufficiente per rilevare spostamenti di
.
127
4.
Analisi
Figura 4.31 : In questa figura sono rappresentati gli istogrammi relativi alle medie
dei 25 sottocampioni che
compongono la popolazione di
cosmici nella configurazione . In questo caso tutte le medie
relative
alle cadono all’esterno dell’intervallo, quindi è possibile affermare con certezza di poter rilevare lo spostamento di
imposto lungo dopo una presa dati di
. Non è possibile tuttavia affermare la stessa cosa
anche per lo spostamento lungo .
Figura 4.32 : In questa figura sono rappresentati gli istogrammi relativi alle medie
dei 25 sottocampioni che
compongono la popolazione di
cosmici nella configurazione . In questo caso tutte le medie
, sia
relative alle sia relative alle , cadono al di fuori dell’intervallo
. È quindi possibile affermare con certezza
che dopo una presa dati di
è possibile rilevare lo spostamento imposto.
Le valutazioni fin qui eseguite tengono conto di tutti gli intervalli con medesima
numerosità che compongono l’intera popolazione di
cosmici tracciati. In una
128
4.
Analisi
reale campagna di misura su una diga si rende invece disponibile solamente il primo
intervallo di ogni gruppo di medesima numerosità. Per controllare dopo quanto tempo sia
possibile misurare un determinato spostamento si è quindi proceduto nel seguente
modo:
1. Si è tenuta in considerazione la campagna di misura di calibrazione di circa un
mese già descritta in questo paragrafo. Riportiamo per semplicità i valori di
riferimento e le precisioni ottenuti:
2. Si sono imposte una traslazione in direzione
ed una in direzione
(configurazione ):
pertanto si è modificato il vettore di posizione del rivelatore intermedio, secondo
la definizione che ne è stata data nel Paragrafo 3.3, da
a
.
3. Si sono generati campioni in cui il numero di cosmici passanti per il rivelatore
superiore corrisponde, per ciascun campione, ad un determinato tempo di misura,
riferito allo stesso istante iniziale. Un campione con una certa numerosità
contiene quindi anche tutta la statistica di quelli con numerosità inferiore. In
questo modo si è simulata una campagna di misura reale, durante la quale, a
ciascun campione viene adattata la forma funzionale
media (
). La precisione
, di cui viene annotata la
, attribuita alla singola misura, è ricavata
sostituendo nelle equazioni 4.29 il tempo di misura .
Si dispone quindi di intervalli (
) per ogni tempo di misura
considerato, ricavati su campioni che, se non è intervenuto nessuno spostamento,
appartengono alla stessa popolazione.
Per verificare la compatibilità fra il valore di riferimento ed il valore della media del
campione, si costruisce la variabile statistica ([35], par. 6.12, pagg. 204-209) che ha valore
atteso nullo, nell'ipotesi che i due valori
ed
provengano dalla stessa popolazione:
129
4.
Analisi
Tale variabile può essere standardizzata nel seguente modo:
a
vanno applicati livelli di probabilità gaussiani (distribuzione di riferimento gaussiana),
perché il numero di cosmici di cui è costituito ciascun campione è maggiore di 30. La
verifica avviene per mezzo del test a due code, scegliendo arbitrariamente il livello del
test al
([35], par. 6.11, pagg. 202-204). Se l'evento ha un livello di significatività
minore del
esso si trova nelle code della densità di riferimento, perciò si giudica più
probabile la falsità dell'ipotesi.
I dati raccolti durante la simulazione della campagna di misura e i valori della variabile
standardizzata
sono riportati in Tabella 4.8.
Trovato il valore di
, in apposite tabelle (tabella F.1. [35], pag. 470) si legge il
corrispondente valore della densità gaussiana
calcolare il livello di significatività
, attraverso il quale si può
, ovvero la probabilità di sbagliare rigettando l'ipotesi
di compatibilità fra due misure. Per la nostra verifica si considerano incompatibili quelle
misure il cui livello di significatività risulta inferiore al
.
tempo cosmici
[giorni] tracciati
0.86
1.71
3.43
4.28
5.11
6.85
8.56
10.70
250
500
1000
1250
1492
2000
2500
3125
-545
-1648
-226
-226
-509
-482
-590
-609
426
301
213
190
174
151
135
120
1.32
1.74
3.98
4.40
3.24
3.84
3.49
3.67
-256
-664
-453
-508
-506
-500
-524
-515
412
291
206
184
169
146
130
116
0.28
1.75
1.45
1.88
2.03
2.25
2.63
2.80
Tabella 4.8 : In tabella sono riassunti i valori della media e della deviazione standard delle funzioni
di best fit nel
caso in cui si sono imposti uno spostamento di
in direzione e di
lungo . Legenda:
=
media di
adattata alla distribuzione dei
;
= errore su
;
= valore standardizzato della variabile
statistica (
);
= media di
adattata alla distribuzione dei ;
= errore su
;
= valore
standardizzato della variabile statistica (
);
= valore di riferimento per la media della funzione
adattata alla distribuzione dei
;
= valore di riferimento per la media della funzione
adattata alla
distribuzione dei .
130
4.
Analisi
Conoscendo a priori il livello di significatività al di sotto del quale consideriamo
incompatibili due misure, è possibile calcolare il valore relativo della densità gaussiana:
Con le tabelle sopra menzionate è inoltre possibile trovare
In alternativa
alla procedura di calcolo del livello di significatività, è possibile confrontare i valori di
ottenuti per ogni periodo di misura con il valore limite
. Nel caso in cui
si assumono incompatibili le due misure quindi si rileva una deformazione
della struttura.
Confrontando i valori dei parametri
e
che la traslazione di
del rivelatore centrale risulta rilevata dopo 3.4
lungo
con il valore limite
giorni, mentre per registrare lo spostamento di
lungo
si nota
si sono dovuti
attendere 5 giorni. Il fatto che non si siano trovati due “periodi di attesa” uguali è
unicamente riconducibile al carattere statistico delle popolazioni di cosmici utilizzata.
131
5.
5.
Conclusioni
Conclusioni
Con questo lavoro di tesi ci si è proposti di avviare uno studio circa la possibilità di
utilizzare la rivelazione dei raggi cosmici per realizzare un sistema innovativo per il
monitoraggio statico di grandi strutture civili che presentano sviluppo prevalentemente
verticale. In particolare si è analizzato il caso di una diga a gravità massiccia prendendo
come riferimento la struttura e la geometria di uno sbarramento presente nel territori
della provincia di Brescia.
Il metodo di analisi proposto in questo lavoro è di tipo statistico e lo studio è stato
effettuato utilizzando GEANT4, un applicativo gratuito, basato sul metodo Monte Carlo, in
grado di gestire ogni possibile interazione dei cosmici con la materia attraversata. È stato
necessario sviluppare un codice da inserire nell'applicativo al fine di simulare:

la struttura della diga, definendone la geometria ed il materiale di cui è costituita;
[Paragrafo 3.3]

il sistema di rivelazione, il più elementare possibile, rappresentato da un
telescopio verticale costituito da tre rivelatori di raggi cosmici, definendo per
ciascuno di essi la geometria, il materiale e la risoluzione spaziale; [Paragrafo 3.3]

il generatore di cosmici, dei quali (almeno di quelli che arrivano alla superficie
terrestre) si conoscono bene la composizione, la distribuzione angolare, lo spettro
energetico e la frequenza, per unità di area, con cui arrivano alla superficie
terrestre; [Paragrafo 3.4]

un algoritmo che ricostruisca la retta passante per i punti in cui il cosmico
attraversa i rivelatori superiore ed inferiore e definisca gli scarti
differenza, rispettivamente nelle direzioni
e
come la
e , fra il punto rivelato dal rivelatore
intermedio ed il punto in cui quest'ultimo è attraversato dalla retta ricostruita.
[Paragrafo 3.6]
È stato quindi possibile utilizzare il simulatore Monte Carlo per generare popolazioni
molto numerose di cosmici, a cui far attraversare la struttura in esame ed il telescopio di
132
5.
Conclusioni
rivelatori, con lo scopo di misurare l'eventuale disallineamento del rivelatore intermedio
rispetto agli altri due, superiore ed inferiore.
A seguito di analisi preliminari si è ottenuto che, a causa delle distribuzioni angolare e di
quantità di moto che caratterizzano i cosmici che raggiungono la superficie terrestre, il
fattore maggiormente limitante l’accettanza del sistema di misura, come ci si poteva
aspettare da semplici considerazioni geometriche, è l’angolo solido coperto dal telescopio
di rivelatori. L’accettanza è definita come il rapporto tra il numero di cosmici che
attraversano l’intero telescopio di misura e il numero di cosmici che nello stesso intervallo
di tempo passano per il rivelatore superiore. Solamente i primi possono essere utilizzati
dal telescopio per la misura di eventuali disallineamenti e il loro basso numero limita la
precisione raggiungibile dal sistema in un determinato tempo. [Paragrafo 4.2]
In un secondo momento sono stati valutati i contributi apportati alla forma delle
distribuzioni delle variabili statistiche
e
da parte della risoluzione spaziale dei
rivelatori e da parte dalle interazioni fisiche tra cosmici e materia attraversata. Entrambi
questi fattori generano un allargamento delle distribuzioni degli scarti, tuttavia l’effetto
delle interazione fisiche, soprattutto della diffusione multipla, è ben più importante
rispetto all’effetto della risoluzione dei rivelatori. Per questo motivo è possibile utilizzare
rivelatori con risoluzioni non troppo elevate senza ridurre apprezzabilmente la precisione
dell’intero sistema di misura. [Paragrafo 4.3]
Dopo queste valutazioni iniziali è stata simulata la generazione di un campione di circa
300 milioni di cosmici a partire dalla superficie del rivelatore superiore. Il passaggio di
questi attraverso la struttura ed il telescopio di rivelatori ha restituito la distribuzione
degli scarti
e
. Tale distribuzione, la sua forma e la sua larghezza dipendono dalle
interazioni tra i cosmici e gli atomi del materiale attraversato, in particolare dalla
diffusione multipla, dalla ionizzazione e produzione di raggi
dalla produzione diretta di coppie (
, dalla bremsstrahlung e
), dal tipo di materiale attraversato, in
particolare dalla sua densità e dal suo numero atomico e dall'entità degli spessori
attraversati.
Si è individuato durante lo studio delle distribuzioni delle variabili
e
e degli angoli di
zenit che la diffusione multipla dei raggi cosmici all’interno del calcestruzzo permette ad
alcuni cosmici, che per angoli di generazione dovrebbero uscire dal telescopio di misura,
133
5.
Conclusioni
di deviare la loro traiettoria e rientrare nell’angolo solido del telescopio. A causa di questo
effetto le distribuzioni degli scarti
e
vengono “sporcate”, quindi si è reso necessario
trovare un criterio per includere nell’analisi solo i cosmici che presentano una traiettoria
che poco si discosta dalla linearità. [Paragrafo 4.4.2]
Le medie campionarie delle distribuzioni di
e
così ottenute contengono
un’informazione più affidabile circa l'eventuale disallineamento del rivelatore intermedio,
inoltre l'errore su tale media è legato alla precisione con la quale è possibile effettuare la
misura. Si è quindi determinata la forma della distribuzione degli scarti
e
attraverso
una procedura di miglior adattamento, approssimando la distribuzione ad una somma di
gaussiane aventi media comune e diverse deviazioni standard. In particolare le gaussiane
più larghe corrispondono a cosmici con valori di quantità di moto minori e viceversa.
Si è costruita la curva della precisione del telescopio di misura in funzione del tempo e si è
mostrato che la precisione segue, in accordo con la statistica, la legge
in cui
è una costante che dipende dalle caratteristiche del telescopio di misura e della
struttura su cui esso è installato mentre è il tempo di misura. [Paragrafo 4.5]
La logica dello strumento consiste nel misurare posizioni relative, per questo motivo
risulta necessaria una campagna preventiva di misura, attraverso la quale fissare il valore
di riferimento rispetto al quale valutare eventuali spostamenti successivi. Sono state
quindi eseguite delle simulazioni nelle quali il posizionamento del rivelatore intermedio è
stato variato, simulando così un possibile deformazione della diga. In questo modo si è
verificato che le previsioni ottenute precedentemente circa la sensibilità del sistema alla
misura dei disallineamenti in funzione del tempo fossero effettivamente riprodotte in
questo “esperimento” simulato. In particolare, si è confermato che più lo spostamento
del rivelatore è piccolo, maggiore è il tempo necessario per rilevarlo con sicurezza.
Assumendo una campagna di calibrazione di un mese si è verificato infine che il sistema è
in grado di individuare con sicurezza uno spostamento del rivelatore intermedio, quindi
una deformazione della diga, di
in periodo di misura di circa tre giorni. [Paragrafo
4.6]
134
Bibliografia
[1]
Riccardo Monaci. Caratterizzazione e monitoraggio sperimentale di dighe a
gravità. Tesi di Laurea presso il Politecnico di Milano. Facoltà di Ingegneria (A.A.
2010/11).
[2]
Ileana Bodini. Disegno di strumenti innovativi basati sulla rivelazione di raggi
cosmici. Tesi di Laurea presso l’Università degli Studi di Brescia. Facoltà di
Ingegneria (A.A. 2004/05).
[3]
I. Bodini, G. Bonomi, D. Cambiaghi, A. Magalini, A. Zenoni. Cosmic ray detection
based measurement systems: a preliminary study. Measurement Science and
Technology, 4 October 2007.
[4]
Terna. http://www.terna.it/
[5]
Ingam – Ingegneria Ambiente Montagna. http://www.ingam.com/
[6]
Maurizio Tanzini. Impianti idoelettrici: progettazione e costruzione. Dario
Flaccovio Editore, 2008.
[7]
http://it.wikipedia.org/wiki.
[8]
Prof. Ing. Ignazio Mantica. Dispense di costruzioni idrauliche. Università degli Studi
di Ancona, Istituto di Idraulica.
[9]
Advanced Geotechnical Instrumentation Systems and Consulting s.r.l. Scheda
tecnica di pendoli e tecoordinometri.
[10] Portale dei servizi di pubblica utilità della Regione Lombardia.
http://www.ors.regione.lombardia.it/cm/home.jhtml
[11] Samuel Tolansky. Introduzione alla fisica atomica. Universale scientifica
Boringhieri, 1966.
[12] Progetto Gubermator. Istituto Calasanzio, Empoli.
http://www.monci.it/homogubernator/0_Sommario.htm
[13] Alessandro De Angelis. L’enigma dei raggi cosmici. Springer, 2012.
135
[14] Physics Letters B, Volume 667. Review of Particle Physics, July 2008. Elsevier.
[15] Cristina Papaleo. Caratterizzazione dei raggi cosmici rivelati dall’esperimento
Argo-YBJ in funzione della quota di interazione del primario. Tesi di Laurea presso
l’Università degli Studi di Roma. Facoltà di Scienze Matematiche Fisiche e Naturali
(A.A. 2008/09).
[16] Francesco Maragliulo. Studio del flusso dei Raggi Cosmici di altissima energia. Tesi
di Laurea presso l’Università degli Studi di Salerno. Facoltà di Scienze MM.FF.NN.
(A.A. 2006/07).
[17] Maria Giuseppina Liber. I raggi cosmici, un percorso didattico per vedere
l’invisibile. Editore Provincia Autonoma di Trento, 2007.
[18] Alessandro Bettini. Introduction to Elementary Particle Physics. Cambridge
University Press, 2008.
[19] Robert Resnick, David Halliday, Kenneth S. Krane. Fisica 1. Edizione italiana a cura di
Lanfranco Cicala. Casa Editrice Ambrosiana, 2003.
[20] Francesco Pellegrino. Studio dimensionale di rivelatori per tomografia muonica.
Tesi di Laurea presso l’Università degli Studi di Brescia. Facoltà di Ingegneria (A.A.
2008/09).
[21] Vadim A. Naumov. Atmospheric muons and neutrinos. Proceedings of 2nd
Workshop on Methodical Aspects of Underwater/Underiece Neutrino Telescopes.
Hamburg, 2001.
[22] Kavli Institute for Cosmological Physics at the University of Chicago.
[23] E. P. Georgen. Cosmic rays measure overburden of tunnel, pag. 455.
Commonwealth Engineer (1955).
[24] L. W. Alvarez e altri. Search for hidden chambers in the pyramids using cosmic
rays. Science 167 (1970), pag. 832.
[25] K. Nagamine, M. Iwasaki, K. Shimomura, K. Ishida. Method of probing innerstructure of geophysical substance with the horizontal cosmic-ray muons and
possible application to volcanic eruption prediction. Nuclear Instruments and
Methods in Physics Research A 356 (1995), pagg. 585-595.
136
[26] H. Tanaka ed altri. Development of a two-fold segmented detection system for near
horizontally cosmic-ray muons to probe the internal structure of a volcano.
Nuclear Instruments and Methods in Physics Research A 507 (2003), pagg. 657-669.
[27] Konstantine N. Borozdin ed altri. Radiographic imaging with cosmic-ray muons.
Nature, Volume 422 (20 Marzo 2003).
[28] Larry Joe Schultz. Cosmic ray muon radiography. Tesi di Dottorato, Portland State
University, 2003.
[29] Larry Joe Schultz ed altri. Image reconstruction and material Z discrimination via
cosmic ray muon radiography. Nuclear Instruments and Methods in Physics
Research A 519 (2004), pagg. 687-694.
[30] Larry Joe Schultz ed altri. Cosmic ray muon radigraphy for contraband detection.
http://www.lanl.gov/orgs/p/pdfs/muon2.pdf
[31] G. Bonomi, A. Zenoni, S. Pesente, S. Vanini, M. Benettoni, G. Zumerle, P. Calvini, P.
Checchia, E. Conti, F. Gonnella, G. Nebbia, S. Squarcia, G. Viesti. First results on
material identification and imaging with a large-volume muon tomography
prototype. Nuclear Instrument and Methods in Physics Research A 604 (2009).
[32] G. Bonomi, A. Donzella, A. Zenoni. Tomografia muonica: i raggi cosmici e le
acciaierie. 2° Convegno Dipartimento Ingegneria Meccanica e Industriale, 18
Maggio 2011.
[33] G. Bonomi, L. Dassa, A. Donzella, V. Villa. Progettazione della struttura di un
portale per tomografia muonica di rottami di ferro. 2° Congresso Nazionale del
Coordinamento della Meccanica Italiana. Ancona, 25-26 giugno 2012.
[34] http://root.cern.ch/drupal/content/geant4-vmc
[35] A. Rotondi, P. Pedroni, A. Pievatolo. Probabilità Statistica e Simulazione. SpringerVerlag Italia, Milano 2005.
[36] Barbara Sergi. Ottimizzazione di un rivelatore a Tripla-GEM per l’Esperimento
LHCb. Tesi di Laurea presso l’Università degli Studi di Cagliari. Facoltà di Scienze
Matematiche, Fisiche e Naturali (A.A. 2003/04).
[37] Silvia Franchino. Principi di funzionamento ed alcune applicazioni dei rivelatori
GEM. Seminario di Silvia Franchino. Pavia, 28 giugno 2006.
137
[38] M. C. Altunbas, K. Dehmelt, S. Kappler, B. Ketzer, L. Ropelewski, F. Sauli, F. Simon.
Aging measurements with the Gas Electron Multiplier (GEM). Nuclear Instrument
and Methods in Physics Research A 515 (2003), pagg. 249-254.
[39] L. Bonecchi, M. Bongi, D. Fedele, M. Grandi, S. ricciarini, E. Vannuccini. Development
of the ADAMO detector: test with cosmic rays at different zenith angles. 29th
International Cosmic Ray Conference Pune (2005).
[40] ROOT User’s Guide 5.26 December 2009 (2009).
http://root.cern.ch/download/doc/Users_Guide_5_26.pdf
138
Ringraziamenti
Giunto al termine di questo lavoro di tesi desidero ringraziare innanzitutto il Dottor
Germano Bonomi e la Dottoressa Antonietta Donzella, rispettivamente relatore e
correlatore di questa tesi, per la grande disponibilità e cortesia dimostratemi e per tutto
l’aiuto fornito durante la stesura.
Un sentito grazie va inoltre all’Ingegner Massimo Da Lio per la disponibilità e l’interesse
mostrato per questa lavoro e per le preziose informazioni con le quali ho potuto
arricchirlo.
Ringrazio inoltre il Professor Danilo Cambiaghi per aver dato l’input a quello che poi è
diventato il progetto della mia tesi e per il suo costante interesse.
Ringrazio i miei famigliari per avermi sostenuto in questo importante percorso e per
avermi sopportato anche nei periodi più stressanti. In particolare, un caloroso grazie a
mia mamma che con i suoi quotidiani sacrifici mi ha permesso di raggiungere questo
traguardo.
Un grazie di cuore anche ad Alice, mia ragazza e confidente, per i sorrisi, gli
incoraggiamenti e gli indimenticabili momenti trascorsi insieme.
E come potrei dimenticarmi dei “compagni di banco” con i quali ho condiviso questi anni
di vita universitaria. Un grazie a Samu, il Palini, Habio, Freddi, Frankie e l’Andrew, Laura e
Beppe.
Ringrazio infine mio fratello Christian, i vecchi amici Gabry, Fulvio e il Baru ed i nuovi amici
Paolo, Ambra, Gaio, Francy, Roby Z. e Roby C. con i quali ho trascorso belle avventure e
divertenti serate.