storia delle tecnologie e della comunicazione

Transcript

storia delle tecnologie e della comunicazione
Consiglio Nazionale
delle Ricerche
Dipartimento di Fisica
Università di Bologna
Museo di Fisica
Sistema Museale d’Ateneo
Istituto Nazionale
di Fisica Nucleare
Sezione Bologna
storia e tecnologie della comunicazione
ZANDERS
a cura di
giorgio dragoni
Ma sopra tutte le invenzioni stupende,
qual eminenza di mente fu quella
di colui che s’immaginò di trovar modo
di comunicare i suoi più reconditi pensieri
a qualsivoglia altra persona, benché distante
per lunghissimo intervallo di luogo e di tempo?
Galileo Galilei: Dialogo sopra i due massimi
sistemi del mondo Tolemaico e Copernicano,
Firenze (I giornata, 130)
Volume realizzato dall’Ufficio del Presidente del CNR
Immagine e Attività Promozionali
Coordinamento generale: Mario Apice
Ideazione, Progetto e Cura del Volume: Giorgio Dragoni
Progetto grafico: Orfeo Pagnani
Impaginazione: om grafica, roma
Finito di stampare nel mese di Giugno 2002
om grafica - via f. luscino 73 - roma
a cura di
Giorgio Dragoni
storia
e tecnologie
della
comunicazione
MOSTRA INTERATTIVA SULLA STORIA E SULLE TECNOLOGIE DELLA COMUNICAZIONE REALIZZATA COL PATROCINIO DI:
Ministero dell'Università e della Ricerca Scientifica e Tecnologica — Università degli Studi di Bologna — Regione
Emilia-Romagna — Provincia di Bologna — Comune di Bologna — Consiglio Nazionale delle Ricerche — Accademia
Nazionale dei Lincei — Accademia Nazionale delle Scienze detta dei XL — Accademia delle Scienze dell’Istituto di Bologna
IN COLLABORAZIONE CON:
Fondazione Guglielmo Marconi
Università
degli Studi
di Bologna
COMITATO SCIENTIFICO
Oreste Andrisano, Mario Apice, Pierangelo Bellettini, Franco Berardi, Paolo Bernardi, Maurelio Boari, Vittorio Boarini, Pier
Ugo Calzolari, Rosaria Campioni, Giorgio Celli, Paolo Cortesi, Gian Luigi Costa, Giovanni Cristofolini, Giuliano Della Valle,
Giorgio Dragoni (coordinatore della mostra e del volume), Angelo Errani, Gabriele Falciasecca, Attilio Forino, Giordano
Gasparini, Antonio Genovese, Giorgio Giacomelli, Paolo Giusti, Roberto Grandi, Roberto Guidorzi, Antonella Huber, Maria
Grazia Ianniello, Vivian Lanzarini, Renato Lenzi, Giuseppe Maino, Carmine Marinucci, Vito Monaco, Stelio Montebugnoli,
Giovanni Morigi, Antonio Natali, Lucia Padrielli, Giovanni Paoloni, Alessandro Pascolini, Stefano Pirani, Giovan Battista
Porcheddu, Mario Rinaldi, Gianluigi Russo, Raffaella Simili, Franco Soresini, Giancarlo Susini, Giorgio Tabarroni, Walter
Tega, Angelo Varni, Ettore Verondini, Laura Villani, Romano Volta, Dino Zanobetti.
COMITATO ORGANIZZATORE
Roberto Amato, Oreste Andrisano, Sanzio Bassini, Maurizio Bigazzi, Pierangelo Bellettini, Fabio Bisi, Andrea Bosi, Annalisa
Bugini, Sonia Camprini, Andrea Conti, Cheti Corsini, Giovanna D'Amia, Franca Di Valerio, Giorgio Dragoni,Cesare
Fontana, Barbara Frentzel-Beyme, Giulia Gandolfi, Giordano Gasparini, Luca Ghedini, Giovanni Gottardi, Loretta
Gregorini, Stefano Gruppuso, Antonella Guidazzoli, Antonella Huber, Vivian Lanzarini, Giuseppe Maino, Marina
Manferrari, Salvatore Mirabella, Vito Monaco, Mauro Nanni, Alessandro Pascolini, Gianni Pasolini, Giuseppe Pavani,
Giovan Battista Porcheddu, Valentina Ridolfi, Roberto Roppa, Raffaella Simili, Silvia Sintoni, Franco Soresini, Sergio
Tamburini, Piero Todesco, Goliardo Tomassetti, Barbara Valotti, Annelisa Veronesi, Laura Villani.
Per la realizzazione informatica e la trascrizione dei testi che compaiono in questo volume si ringraziano, oltre a tutti gli
Autori, le seguenti amiche/i e colleghe/i: Annalisa Bugini, Sonia Camprini, Paola Fortuzzi, Magda Giorgi, Barbara FrentzelBeyme Zamboni, Giovanni Lensi e, in particolare e soprattutto, Fabio Bisi. Un ringraziamento, inoltre, per i suoi consigli,
si deve a Luigi Prandstraller. Un sincero ringraziamento al personale e ai funzionari delle Teche Rai: Barbara Scaramucci,
Sandra Eichberg, Barbara Tafuro, Susanna Mieli. Uno agli amici Umberto Cavezzali, Vito Monaco e Mario Rinaldi. Senza
l’appoggio del primo la collaborazione con la Rai sarebbe stata forse impossibile, senza l’aiuto dei secondi la
collaborazione con i Dipartimenti di Ingegneria e con il Cineca molto più difficile. Un sentito ringraziamento, all’allora
Rettore della nostra Università, Fabio Alberto Roversi Monaco e al Direttore Amministrativo, Ines Laura Fabbro, per il
contributo finanziario concesso all’iniziativa. Uno, infine, per avermi offerto un costante sicuro riferimento, al Professor
Attilio Forino, allora Direttore del Dipartimento di Fisica.
Si ringrazia: Progetto Finalizzato per i Beni Culturali del Consiglio Nazionale delle Ricerche; Istituto e Museo di Storia
della Scienza, Firenze; DEIS, Dipartimento di Elettronica, Informatica, Sistemistica, Bologna; CNIT, CSITE - CNR; CeSIA;
CITAM; LABNET, Napoli; Istituto Tecnico Commerciale Statale; "Crescenzi - Tanari", Bologna; Biblioteca dell'Archiginnasio,
Bologna; Deutsches Museum, Monaco di Baviera; The National Museum of Science & Industry, Londra; Traditionsverein
Fernmelde -\Elektronische Aufklärung Luftwaffe e.V., Treviri; Istituzione Cineteca Comunale di Bologna; Museo del
Gabinetto di Fisica, Urbino; AIRE, Associazione Italiana per la Radio d'Epoca; Consorzio Università - Città di Bologna; ARI,
Associazione Radioamatori Italiani, Bologna; AEI, Associazione Elettrotecnica ed Elettronica Italiana; Siemens AG,
SiemensForum, Monaco di Baviera; Collezione Cremona, Colleferro, Roma; Agilent Technologies; ASI, Comsat
Laboratories, Eutelsat, Siemens ICN; Sinform; IEEE; Vehicular Technology Communications; Museo della Radio: mille
voci… mille suoni, Bologna; IRA, Istituto di Radioastronomia; Istituto di Geologia Marina; Area della Ricerca CNR,
Bologna; Koinè Sistemi, Torino; The Exploratorium, San Francisco, Usa; Heureka, Vantaa, Helsinki, Helsinki 2000.
i Collezionisti: Francesco Soresini, Filippo Sinagra, Marco Moretti, Nelson Rodriguez, Carlo Pria, Romualdo Gianni, Nerio
Neri, Francesco Cremona, Luigi Foschini, Giovanni Pelagalli, Franco e Susanna Govoni, Luca Liberatore, Maurizio Bigazzi,
Alberto Camellini, Alberto Dani, Carlo e Giovan Battista Porcheddu, Raimondo Aielli.
e i Fotografi: Istituzioni, Enti, Privati che hanno cortesemente contribuito ad arricchire il volume con immagini
fotografiche. Per un ringraziamento individuale e specifico si rinvia alle didascalie delle rispettive immagini. Qui si
ringraziano, in particolare: Gianfranco Artusi, Fabio Bisi, Gianalberto Cigolini (Studio Fotografico, Milano), Giorgio
Dragoni, Antonio Grilli, Carlo Porcheddu, Studio Villani (Bologna), “La Repubblica”, “Il Resto del Carlino”, GEC-Marconi
(Chelmsford, Inghilterra), Science Photo Library, Max-Planck Institute für Radioastronomie (Bonn).
ORGANIZZAZIONE, SEGRETERIA, UFFICIO STAMPA DELLA MOSTRA
TRAIT–D’UNION • Tel. 051 6486.168 - Fax 051 6486.229 • E-mail:[email protected]
in collaborazione con: Albo Allestimenti Bologna e Viabizzuno Progettiamo la Luce.
FMR
TECHE RAI
Z A N-
Studio
Arnoldo Mondadori
Franco Maria Ricci
Fotografico
Gianalberto Cigolini, Milano
Museo di Fisica - Dipartimento di Fisica - Sistema Museale d’Ateneo - Università degli Studi, Bologna
indice
8 presentazioni
20 evoluzione delle comunicazioni: la storia
22 Dai viaggiatori ai cronisti e ai turisti, L. Andalò ■ 24 Il nascere e lo svilupparsi della
comunicazione scritta, P. Bellettini ■ 26 La Bologna curiosa di G.C. Croce, R. Campioni ■ 28
La “chiave del mondo” e la sua ombra, G. D’Amia ■ 30 Onde radio nello spazio, F. Soresini ■
44 Guglielmo Marconi (1874-1937), B. Valotti ■ 46 Le vie della comunicazione elettrica. Dal
telefono alla radio, G.B. Porcheddu ■ 64 Claude Shannon e la teoria dell’informazione,
T. Numerico ■ 69 Heureka, il Science Centre finlandese e i “nuovi” centri di diffusione della
cultura scientifica e tecnologica, A. Bugini, S. Camprini
74 ricerca nel campo delle telecomunicazioni
76 La Rete informatica dell’Università di Bologna,
M. Boari, F. Delpino ■ 78 La Rete Garr, il
progetto GRID e le Reti di Ricerca INFN, A. Pascolini ■ 82 Dynamic System Identification,
CITAM, R. Guidorzi ■ 83 La Ricerca presso l’ENEA, S. Gruppuso ■ 86 Gli strumenti della
memoria: informatica e diagnostica fisica per i beni culturali, D. Biagi Maino, G. Maino ■ 94
Le ricerche presso il Centro di Studio per l’Informatica e i sistemi di telecomunicazioni del CNR,
O. Andrisano ■ 98 Il Radiotelescopio di Medicina, R. Ambrosini, S. Montebugnoli, M. Nanni ■
102 Il Progetto 2D, 3D, 4D, Progetto Nu.M.E. Consorzio Università-Città, Bologna 2000,
Cineca, F. Bocchi ■ 105 Navigazione in 4D del NUovo Museo Elettronico della Città di
Bologna, A. Guidazzoli ■ 106 Prima installazione del Baby Reality Center del Cineca, F. Serafini
■ 108 La storia e la ricerca dell’Istituto di Geologia Marina del CNR in Multivisione, M. Ravaioli,
F. Giglio, G. Marozzi, N. Bianchi, F. Bentivoglio, D. Martignani
■ 110 La visualizzazione dei
fondali marini in realtà virtuale, G. Bortoluzzi, T. Diamanti, G. Stanghellini, L. Calori, A. Guidazzoli
■ 112 Il codice a barre, R. Amato
114 comunicazione e ricerca nelle scienze della vita
116 Il Progetto Genoma,
G. Della Valle, V. Politi, R. Bernardoni, G. Perini, D. Grifoni
■
119
Comunicazione e orientamento nelle api, G. Celli ■ 124 Parlarsi con le molecole disciolte negli
oceani, P. Cortesi, O. Cattani, G. Isani, G. Vitali, S. Sintoni ■ 130 Il linguaggio degli ultrasuoni
dei delfini, R. Lenzi, L. Bartoletti, S. Sintoni, P. Cortesi ■ 134 Impatto ambientale dei sistemi di
comunicazione, P. Bernardi, M. Cavagnaro, S. Pisa, E. Piuzzi ■ 136 Internet e net-culture,
F. Berardi
138 ricerca e restauro: il passato parla
140 I metalli: un messaggio dal passato, G.L. Garagnani, V. Imbeni,
■ 141 Una contraffazione antica studiata al SEM,
D. Prandstraller
C. Martini, G. Poli,
G. Russo
■
143
Comunicare con il Faraone senza disturbarlo, F. Casali
146 prospettive
148 Una lunga marcia… che continua!,
R. Predi
■
150 Scenari futuri, storia di ieri,
R. Simili
indice
9 Prefazione, L. Bianco ■ 10 Guardando avanti, P.U. Calzolari ■ 11 Bologna 2000: la Città e
la cultura, G. Guazzaloca ■ 12 Lista degli autori
■ 13 Address given at the opening
ceremony of the Communication Exhibition at the Palazzo Re Enzo, Bologna, P.E. Persson ■ 14
Presentazione e progetto generale della mostra e del volume, G. Dragoni ■ 17 Il veliero,
ovvero le linee espositive della mostra, L. Trebbi ■ 18 La comunicazione nella pittura di
Benedetta Cappa nel Palazzo delle Poste a Palermo, A. Ferretti
B. Cappa,
Sintesi delle
comunicazioni aeree,
Palazzo delle Poste,
Palermo.
Per cortesia di: FMR,
Franco Maria Ricci.
8
prefazione
Il volume che qui presentiamo supera il livello di puro e semplice catalogo che testimonia un’occasione temporanea
qual’è quella di una Mostra – compito questo già di per sé dignitoso e necessario – per assumere il ruolo di un documento che
all’inizio del 2002 ci consegna un quadro di numerose attività nel settore delle comunicazioni e, per certi aspetti, fa il punto su
molte ricerche nel settore delle telecomunicazioni, viste nel loro sviluppo temporale, nella loro evoluzione, nelle loro forme attuali anche più avanzate. Per raggiungere questo ambizioso obiettivo è stato necessario procedere all’attivazione di numerose
collaborazioni – e al loro coordinamento – con Enti di Ricerca, Istituti Universitari, Musei, collezionisti e, soprattutto, ricercatori
italiani e stranieri.
La vasta latitudine culturale dei temi trattati, la poliedricità degli stimoli da essi suggeriti non possono non avere una
forte valenza formativa e, in generale, didattica. Ben si comprende, quindi, l’ampio spazio destinato nella Mostra (e,quindi, nel
Volume) alla Sezione di Exhibit finlandesi, al Farfare Fisica, ma anche alle Collaborazioni con l’Infn, l’Enea, il Cineca… per citare
solo qualche esempio, oltre, naturalmente, allo spazio riservato alle attività di ricerca coordinate dal CNR.
Un’esigenza culturale imprescindibile ha fatto sì che l’inquadramento generale della Mostra e del Catalogo fosse di
tipo storiografico, ma la parte preponderante è connessa agli aspetti tecnologici contemporanei. È innovativo, crediamo, l’aver
voluto avvicinare ai temi delle tecnologie più avanzate l’esigenza di voler confrontare altri e diversi linguaggi e modi del comunicare, quali quelli delle api, dei pesci, dei delfini, oltre al codice dei codici: la mappa del DNA, il progetto Genoma, ma anche di
oggetti quali monete, reperti d’arte antichi che, comunque, trasmettono un loro messaggio, che ci giunge dal passato, portandoci, a volte, sorprendenti informazioni.
La ricerca non ha confini e, quindi, non può sorprendere come un settore della Mostra/Volume sia dedicato anche
alla ricerca di intelligenze extra terrestri.
Il comunicare è indispensabile, ma, a volte, si può avere un’esigenza di voler comunicare solo con qualcuno, non
con tutti. È un’esigenza imprescindibile della nostra vita privata, ma è anche un obbligo in un universo come il nostro in cui la
concorrenzialità è ancora così forte. La sezione che si occupa della crittografia, delle radio spie, del codice Enigma – la cui decrittazione è stata alla base dello sviluppo dei moderni calcolatori – illustra specificamente questa dimensione atipica e, per così dire in negativo – in senso fotografico – del comunicare.
È chiaro che, in un contesto come questo, non poteva mancare la presenza del Consiglio Nazionale delle Ricerche,
sia a livello istituzionale, sia a livello di Istituti di Ricerca e, in particolare, del Progetto Finalizzato per i Beni Culturali.
Lucio Bianco
p resentazioni
Presidente CNR
9
Insegne Rettorali (XVI sec.) dell’Università
di Bologna conservate in Palazzo Poggi,
Sede del Rettorato.
Tutte le foto di questa pagina sono
dovute alla cortesia dell’Università degli
Studi di Bologna.
guardando avanti
Una Mostra è sempre un’occasione di conoscenza, di stimolo, di creazione di centri di interesse nel pubblico dei visitatori. In particolare ciò è vero per una
Mostra come questa in cui si coniuga il passato (la storia e le prime applicazioni della tecnologia delle comunicazioni) con il presente (la straripante diffusione dei sistemi informatici su larga scala) e con il futuro (l’arrembante sviluppo ulteriore della ricerca nel settore delle telecomunicazioni). Rilevante poi ci sembra l’idea di non far
prevaricare gli aspetti tecnologici su quelli umani e apprezzabile l’aver tenuto in considerazione i modi di comunicare tra gli insetti, tra i delfini, con un’apertura verso la
ricerca di intelligenze extra-terrestri.
Una Mostra assolve a molte funzioni di tipo didattico, di interattività
culturale, e questa Mostra si è segnalata particolarmente proprio per questi aspetti.
Basti pensare al grande numero di studenti e di scolaresche da cui è stata visitata.
Purtroppo, essa è un’occasione effimera, di durata temporanea. Questo il suo limite, come quelli precedenti i suoi pregi.
Il Libro che sta vedendo la luce ora avrà il pregio di dare all’effimero una
sua dimensione permanente. Una riflessione scritta sulle telecomunicazioni. Un’ocGonfalone dell’Università
di Bologna fatto eseguire
e offerto da un Comitato
di Dame bolognesi nel 1888.
Palazzo Poggi, Sede del Rettorato
dell’Università.
casione per riflettere sui numerosi aspetti connessi alla stessa radice del nostro modo di essere, cioè quello del comunicare. L’occasione è, quindi, importante. Consentirà anche a chi non ha avuto l’occasione di visitare la Mostra di prendere contatto con le sue tematiche. Di riflettere sui suoi sviluppi. Di aggiornarsi sulle sue linee di accrescimento, sulle sue innovazioni più recenti.
È già molto. Ma si potrebbe fare persino di più. L’insegnamento, la didattica, la creazione di centri di interesse, la rinascita di un modo di comunicare più
immediato, più diretto tra insegnanti e studenti sono, ormai, un obbligo imprescin-
Sigillo dell’Università
di Bologna impiegato
anche per le Celebrazioni
del IX Centenario dell’Università
(1088-1988).
dibile della nostra civiltà tecnologica. Il non capire questo punto potrebbe essere pericoloso per la nostra società stessa. E il calo di frequenze nei corsi di laurea scientifici o tecnici testimoniano che non si tratta di un pericolo astratto, puramente teorico. Si tratta di un pericolo reale.
L’Università, tra i suoi numerosi compiti non può ignorare questo aspetto sociale. Molto si sta facendo per affrontare il problema e per risolverlo ma, forse,
si potrebbe fare qualcosa di più. La creazione di una struttura permanente storicoscientifico-tecnologica, cioè di un museo della scienza e della tecnica innovativo nelle sue forme di promozione didattica e nei suoi modi di presentare al pubblico degli studenti, e a quello più generale, il fascino di discipline che permeano la vita contemporanea, dovrebbe costituire un obiettivo imprescindibile da attuarsi a favore
della crescita e della diffusione della cultura scientifica.
È un obiettivo in cui crediamo. È un obiettivo che ci proponiamo, e che
speriamo di realizzare.
Pier Ugo Calzolari
Rettore dell’Università degli Studi di Bologna
10
Tutte le foto
di questa pagina
sono dovute
alla cortesia di:
C. Porcheddu.
bologna 2000: la città e la cultura
La mostra Communication ritengo abbia occupato nel panorama delle iniziative di Bologna Città Europea della Cultura del 2000 una posizione di estrema rilevanza. Non solo perché il tema che l’Unione Europea ha voluto assegnare a Bologna
è proprio quello della Comunicazione, considerando l’impegno che in questi anni l’amministrazione civica ha indirizzato allo sviluppo della comunicazione pubblica, la tradizione di eccellenza della nostra Università nelle scienze della comunicazione e la presenza di un forte tessuto di associazioni e di imprese attive nel campo delle nuove tecnologie.
Non solo perché Bologna, grazie alla sua posizione geografica centrale, è stata in passato luogo di transito di culture, merci e uomini, e ora, alle soglie del nuovo millennio, vuole cogliere le opportunità offerte dalle reti informatiche per continuare a svolgere quel ruolo di crocevia della Comunicazione che la tradizione storica le affida. Ma anche e soprattutto perché
il tema della comunicazione ricopre oggi una centralità strategica. Lo sviluppo delle nuove tecnologie ha radicalmente modificato il modo di pensare e di apprendere, ha ampliato le possibilità di partecipazione di tutti alla vita culturale e sociale, ha aperto inediti scenari, ma nel contempo ha suscitato interrogativi e ha reso necessarie nuove risposte.
Proprio per analizzare a fondo un tema così complesso, Bologna 2000 ha sviluppato in questo ambito un programma di iniziative estremamente ricco ed articolato, che ha visto nella mostra Communication uno dei suoi momenti più alti. Una
mostra che, attraverso i più innovativi strumenti elaborati dalla didattica scientifica, ha illustrato l'evoluzione storica dei sistemi
di comunicazione e i suoi aspetti socio-culturali, analizzando in particolare l'impatto delle nuove tecnologie e le loro implicazio-
Fontana del Nettuno
del Giambologna.
ni sul concetto di comunicazione. Una mostra che ha inoltre dimostrato come, per raggiungere risultati così importanti, sia necessario mettere in campo tutte le forze disponibili attraverso la collaborazione tra istituzioni, enti di ricerca e aziende del settore di livello internazionale.
Il fatto poi che una parte dell’esposizione abbia viaggiato per tutte le nove Città Europee della Cultura costituisce il
coronamento ideale per questo progetto che si prefigge di dare un contributo all'ampliamento delle conoscenze verso i nuovi
Giorgio Guazzaloca
Presidente di Bologna 2000
Sindaco del Comune di Bologna
In alto:
Basilica di S. Petronio
e Palazzo dei Notai.
in Piazza Maggiore,
Bologna.
Basilica di S. Luca,
Bologna.
11
p resentazioni
strumenti della comunicazione.
p resentazioni
lista degli autori
AMATO, Roberto Communication Supervisor, Datalogic Spa, Bologna
AMBROSINI, Roberto Primo Ricercatore, Ist. di Radioastronomia,
Resp. Gruppo Controllo Interferenze Radio, Membro del Radio
Science Team delle Missioni Cassini, Bologna
ANDALO’, Learco Pres. dell’Associazione Culturale Erasmo, Imola
ANDRISANO, Oreste Prof. Ord. di Sistemi di Telecomunicazioni, DEIS,
Dip. di Elettronica Informatica e Sistematica, Dir. CSITE - CNR, Centro di Studio per l’Informatica e i sistemi di Telecomunicazione –
CNR, Univ. di Bologna
BARTOLETTI, Luca Resp. Settore Ambiente, Centro per l’Innovazione
e lo Sviluppo Economico (C.I.S.E.). Azienda Speciale della Camera di
Commercio di Forlì-Cesena
BELLETTINI, Pierangelo Dir. della Biblioteca dell’Archiginnasio del
Comune di Bologna
BENTIVOGLIO, Franco Collab. esterno softwarista dell’IGM, Ist. di
Geologia Marina, CNR, Bologna
BERARDI, Franco Saggista – Esperto di Telematica, Consorzio Università – Città di Bologna
BERNARDI, Paolo Prof. Ord. di Microonde, Univ. di Roma “La Sapienza”
BERNARDONI, Roberto Assegnista, Unione Europea, Genetica, Univ.
di Bologna
BIAGI Donatella MAINO Prof. Ass. di Storia del Restauro, Fac. di Conservazione dei Beni Culturali, Sede di Ravenna, Univ. di Bologna
BIANCHI, Nicola Collab. esterno Ist. di Geologia Marina, CNR, Bologna
BIANCO, Lucio Pres. del CNR, Consiglio Nazionale delle Ricerche
BOARI, Maurelio Prof. Ord. del DEIS, Univ. di Bologna
BOCCHI, Francesca Prof. Ord. di Storia Medievale, Univ. di Bologna,
Resp. del Progetto NuME, Nuovo Museo Elettronico
BORTOLUZZI, Giovanni Tecnico Ist. di Geologia Marina, CNR, Bologna
BUGINI, Annalisa Libero professionista, già Borsista CNR, Collab. del
Museo di Fisica, Dip. di Fisica, Univ. di Bologna
CALORI, Luigi Tecnologo, CINECA, Centro Interuniversitario di Calcolo, Bologna; Ist. di Geologia Marina, CNR, Bologna
CALZOLARI , Pier Ugo Rettore dell’Università di Bologna
CAMPIONI, Rosaria Soprintendente per i Beni Librari e Documentari
della Regione Emilia-Romagna
CAMPRINI, Sonia Borsista CNR, Museo di Fisica, Dip. di Fisica, Univ. di
Bologna
CASALI, Franco Prof. Ass. di Metodi nucleari di analisi tecnologiche,
Lab. di Fisica Sanitaria, Univ. di Bologna
CATTANI, Otello Ric. Biochimica, Dip. di Biochimica, Univ. di Bologna
CAVAGNARO, Marta Ric. di Campi Elettromagnetici, Univ. di Roma
“La Sapienza”
CELLI, Giorgio Prof. Ord. di Entomologia, Direttore dell’Istituto di Entomologia “G. Grandi”, Univ. di Bologna
CORTESI, Paolo Prof. Ass. di Biochimica Dip. di Biochimica, Univ. di
Bologna
D’AMIA, Giovanna Arch., Dott. di Ricerca in Storia dell’Architettura e
dell’Urbanistica, Esperta di Storia dell’Architettura Contemporanea
e del Design, Milano – Parigi
DELLA VALLE, Giuliano Prof. Ord. di Genetica, Dip. di Biologia Evoluzionistica Sperimentale, Univ. di Bologna
DELPINO, Federico Astronomo presso l’Osservatorio Astronomico di
Bologna
DIAMANTI, Tiziano Collab. del CINECA e dell’Ist. di Geologia Marina,
CNR, Bologna
DRAGONI, Giorgio Prof. Ass. di Storia della Fisica, Univ. di Bologna
FERRETTI, Alessandra Insegnante di Disegno e Storia dell’Arte, Liceo
Scientifico “A. Righi”, Bologna
GANDOLFI, Giulia Collab. Facoltà di Conservazione dei Beni Culturali, Sede di Ravenna, Università, Bologna, Borsista Archivio Storico,
Univ. di Bologna
GARAGNANI, Gian Luca Prof. Ass. di Metallurgia, Dip. di Ingegneria,
Università, Ferrara
GIGLIO, Federico Assegnista Ist. di Geologia Marina, CNR, Bologna
GRIFONI, Daniela Dottorando in Genetica, Univ. di Bologna
GRUPPUSO, Stefano Componente Unità Comunicaz. e Informaz.,
ENEA, Ente per le Nuove Tecnologie, l’Energia e l’Ambiente, Bologna
GUAZZALOCA, Giorgio Pres. di Bologna 2000, Sindaco del Comune
di Bologna
GUIDAZZOLI, Antonella Ing. Resp. del Laboratorio ViS.I.T. (Visual Information Technology Laboratory) CINECA, Centro Interuniversitario
di Calcolo, Bologna
GUIDORZI, Roberto Prof. Ord. DEIS, Dir. del CITAM, Centro Interfacoltà per le Tecnologie Didattico – Educative Teleaudiovisive “G.
Marconi”, Univ. di Bologna
IMBENI, Valentina Borsista post doc, Ist. di Metallurgia, Univ. di
Bologna
ISANI, Gloria Ricerc. di Biochimica, Dip. di Biochimica, Univ. di Bologna,
LENZI, Renato Corporate Animal Program Manager, Dolphin Discovery, Cancun, Messico
MAINO, Giuseppe Vice Dir. Div. di Fisica Applicata ENEA, Prof. Incaricato di Informatica Generale, Facoltà di Conservazione dei Beni Culturali, Sede di Ravenna, Univ. di Bologna
MAROZZI, Gabriele Tecnico fotografico dell’Ist. di Geologia Marina,
CNR, Bologna
MARTIGNANI, Davide Collab. esterno dell’Ist. di Geologia Marina,
CNR, Bologna
MARTINI, Carla Ricerc., Istituto di Metallurgia, Univ. di Bologna
MONTEBUGNOLI, Stelio Dirigente Tecnologo, Resp. della Stazione
Radio - Astronomica di Medicina, Resp. Nazionale del Progetto Italiano Search for Extraterrestrial Intelligence, SETI
NANNI, Mauro Primo Tecnologo, resp. del Centro di Calcolo e Rete
Informatica dell’Ist. di Radioastronomia del CNR, Bologna
NUMERICO, Teresa Borsista post-doc (in Storia della Scienza a Bari)
presso l’Università di Salerno. Ex Interactive Manager di Turner
Broadcasting System, Italia
PASCOLINI, Alessandro Prof. Ass. di Metodi Matematici della Fisica,
Dip. di Fisica, Univ. di Padova; Resp. Progetto Speciale Divulgazone
Scientifica, INFN, Istituto Nazionale di Fisica Nucleare
PERINI Giovanni Ricerc. di Genetica, Univ. di Bologna
PERSSON, Per - Edvin Dir. di Heureka, The Finnish Science Centre,
Vantaa/ Helsinki
PISA, Stefano Ricerc. di Campi Elettromagnetici, Univ. di Roma “La
Sapienza”
PIUZZI, Emanuele Dott. di Ricerca in Ingegneria Elettronica, Univ. di
Roma “La Sapienza”
POLI, Giorgio Prof. Ass. di Scienze dei Metalli, Facoltà di Ingegneria,
Univ. di Bologna
POLITI, Valeria Borsista Unione Europea, Genetica, Univ. di Bologna
PORCHEDDU, Giovan Battista Prof. a Contratto di Storia della Scienza e della Tecnica, Facoltà di Conservazione dei Beni Culturali, Sede
di Ravenna, Univ. di Bologna, Collab. Museo di Fisica - Dip. di Fisica, Univ. di Bologna
PRANDSTRALLER, Daria Collab. Tecnico Laureato, Ist. di Metallurgia,
Facoltà di Chimica Industriale, Univ. di Bologna
PREDI, Renzo Dir. Sistema Museale d’Ateneo, Univ. di Bologna
RAVAIOLI, Mariangela Dir. sostituto dell’Ist. di Geologia Marina,
CNR, Bologna
RUSSO, Gianluigi Prof. Ass. di Struttura della Materia, Univ. di Bologna
SERAFINI, Francesco Collab. esterno del Lab. VIS.I.T. (Visual Information Technology Laboratory) CINECA, Bologna per conto del Consorzio Università-Città di Bologna
SIMILI, Raffaella Prof. Ord. di Storia della Scienza, Dip. di Filosofia,
Univ. di Bologna; Coord. Sottoprogetto Museologia e Museografia
del Progetto Finalizzato Beni Culturali del CNR
SINTONI, Silvia Tirocinio post- laurea in Scienze Biologiche, Dip. di
Biochimica, Univ. di Bologna
SORESINI, Franco Ex Preside Ist. Radiotecnico “Aurelio Beltrami”, Ex
Funzionario della Magneti Marelli, Olivetti e Honeywell, Consulente
del costituendo Museo della Tecnica Elettrica di Pavia
STANGHELLINI, Giuseppe Tecnologo Ist. TESRE (Ist. di Tecnologia e
Studio delle Radiazioni Extraterrestri), CNR, Bologna
TREBBI, Lucia Architetto, Bologna
VALOTTI, Barbara Curatrice del Museo “Marconi” della Fondazione
Guglielmo Marconi, Pontecchio Marconi, Bologna
VITALI, Giovanni Agente tecnico, Dip. di Biochimica, Univ. di Bologna
12
Per-Edvin Persson
Director Heureka
the Finnish Science Centre
Vantaa / Helsinki
address
Ladies and Gentlemen,
On behalf of Heureka, the Finnish Science Centre, it is indeed
a great pleasure and honour for me to bring our greetings to
the opening of ‘Communication’ here in the beautiful City of
Bologna. While Heureka has been responsible for the production of this exhibition, it is very much a joint European project,
in which our partners in all European Cities of Culture have
participated. I am particularly grateful for the positive and
constructive co-operation that we have had from Professor
Giorgio Dragoni and his team here at the Museum of Physics
in Bologna, and the Bologna 2000 organization.
‘Communication’ has been planned by a network of museums in the Cities of Culture in Europe in 2000. These institutions are the Requien Museum in Avignon, the Bergen Museum, the Museum of Physics here in Bologna, the Royal Belgian Institute of Natural Sciences in Brussels, the Bunkier
Sztuki Contemporary Art Gallery in Crakow, Heureka in Vantaa/Helsinki, the National Technical Museum in Prague, Iceland Telecom in Reykjavik, and the Museum of the Galician
People in Santiago de Compostela. The exhibition will visit all
these nine institutions - in a modular form - before the end of
this year. The production process has been led by Heureka
with a massive support from Helsinki - European City of Culture. In addition, the Finnish Ministry of Trade and the European Commission have supported this European joint venture. Heureka is very grateful for this co-operation.
Communicating is indeed very human. Human culture is based on languages and the ability to transmit a message to
another human being. The exhibition deals with communication in a broad sense, to focus on the possibilities and challenges posed by modern communication technologies. These
technologies are changing our idea of the world and our behaviour. Use of a new technology is based on a social and
psychological learning process. For example, I might mention
learning to use the on/off-button of a cell phone. Using the
World Wide Web is becoming part of our everyday lives. The
13
focus of the exhibition on the present and the future fits well
into the theme of Helsinki as a European City of Culture: Knowledge, technology and the future.
About 4000 languages are spoken in the world today. The
majority of the languages spoken in Europe belong to the Indo-European family of languages. Most of them use the Latin
alphabet, as do the fourteen languages that are used simultaneously in the ‘Communication’ exhibition. Even so, the alphabets of these fourteen languages look quite different: just
the number of different letter signs ranges from twenty to
thirty-five. This minor detail gives a hint of the challenges involved in making the exhibition available and enjoyable in
these fourteen languages.
The Communication exhibition has been an important cooperative effort, even partially ground-breaking from a museological point of view. It includes nine partner institutions
ranging from national science centres, technical museums
and natural history museums to regional museums and contemporary art galleries. It circulates in a modular form, where
each partner has had the possibility of influencing the contents of their version. The size of the exhibition varies from
250 square meters to 1000 in the different venues. It operates in fourteen languages everywhere. The planning is progressed through an extranet at the Heureka website, accessible to the partners with a password. Of course, we had direct
meetings as well, but an important part of the final communication in the planning process has been through the technology we present in the exhibition. After its tour in the European Cities of Culture, we hope to see three versions of the
exhibition tour in Europe, America and Australia in 20012002. Negotiations are under way.
I am very grateful for the wonderful co-operative atmosphere that has prevailed in this project. My thanks go to our European partners and today especially to our friends here at
the Museum of Physics and the Bologna 2000 office. I thank
Helsinki - European City of Culture and its commercial partners for their support. I thank Schenker Stinnes Logistics, who
is the main carrier of the exhibition throughout Europe. I
thank all those who have participated in the planning process
of the exhibition, too numerous to list on this occasion. I wish
the exhibition the best of success here in Bologna.
Bologna, Palazzo
del Podestà e
Palazzo Re Enzo,
sedi della Mostra.
Foto di:
C. Porcheddu.
p resentazioni
given at the
opening ceremony of the
communication exhibition at the
palazzo re enzo, bologna
Un momento
dell’Inaugurazione
della Mostra,
31 agosto 2000,
Bologna.
Foto di:
C. Porcheddu.
G. Dragoni
presentazione
p resentazioni
e progetto generale
della mostra e del volume
Il simpatico
cagnolino in
ascolto non
più della tromba
de La Voce del
Padrone, ma di
un moderno
grammofono,
splendido esempio
del design anni
Trenta. Lo stesso
grammofono che
faceva bella mostra
di sé nel film
Shanghai Express
con Marlene
Dietrich.
Per cortesia di:
C. Pria, Milano.
Foto di: F. Bisi.
PREMESSA
La comunicazione è l’essenza stessa della vita. L’esistenza, la
sopravvivenza, la vita degli individui non sarebbe pensabile
senza la possibilità della comunicazione.
La Mostra/il Volume tratterrà e illustrerà i modi, i metodi, gli
strumenti e le tecnologie per la trasmissione, registrazione,
elaborazione, riproduzione del suono, delle immagini e dei
dati. Storia, Scienza e Tecnica? Certo. Ma non solo! La Mostra/il Volume offrirà molto di più. Gli aspetti umani legati ai
modi dei comunicare, le rivalità per la priorità delle invenzioni, successi straordinari di alcuni grandi innovatori. La storia,
lo scenario attuale e quello futuribile. Una particolare attenzione sarà data alle forme e allo sviluppo della tecnologia della comunicazione: dall’uomo, alle macchine, ai radiotelescopi.
Il telegrafo, il telefono, la radio, la televisione fino ai più sofisticati sistemi attuali basati sui computer, sui satelliti, su Intemet. Gli spazi espositivi saranno caratterizzati da immagini,
fotografie, pannelli, stampe, strumenti storici e recenti, prototipi, riproduzioni, documenti da giornali d’epoca, musica e
sonoro, exhibit interattivi, collage di scene tratte da film, ecc.
Un settore speciale della Mostra/del Volume sarà dedicato al
ruolo che Bologna ha avuto nella storia della Comunicazione
attraverso le grandi figure che ne hanno consentito la straordinaria crescita: primo fra tutti Guglielmo Marconi!
Particolare cura sarà data alla possibilità di una profonda comprensione della Mostra da parte del visitatore, attraverso lo
studio dei percorsi tematici, la progettazione dell’attività didattica, la scelta delle manifestazioni integrative: proiezioni,
conferenze, ecc. Una Mostra che parlerà le principali lingue
internazionali, arricchita con stazioni multimediali interattive e
didattiche per capire e partecipare. Realizzata dal Centro di
divulgazione scientifica Heureka di Helsinki e dal Museo di Fisica dell’Università di Bologna, grazie ad una grande collaborazione nazionale e internazionale.
La Mostra storico-scientifico-tecnologica Communication, e,
quindi, il presente Volume si è inserita/inserisce all’interno di
un tema generale che l’Unione Europea aveva assegnato per
il 2000 a Bologna – insignita del titolo di Capitale europea
della Cultura – il tema della Comunicazione. Tema sul quale
sono state organizzate importantissime iniziative culturali a
cura dei Professori Umberto Eco e Roberto Grandi.
METODOLOGIA
La Mostra Communication/il Volume è improntata su un dichiarato intento di superamento di tutte le barriere culturali.
Perché, in realtà, comunicare vuol dire proprio questo. Superare gli ostacoli, le barriere linguistiche, culturali, disciplinari
frapposte al dialogo, e alla comprensione fra gli individui.
Per raggiungere concretamente questo obiettivo e senza volere o potere, peraltro, - visti i limiti di spazio, di tempo, e di supporto finanziario della nostra iniziativa - realizzare L’Enciclopedia Generale delle Comunicazioni, obiettivo questo, evidentemente impossibile metodologicamente - si è deciso di procedere ad una impostazione particolare della Mostra/Volume molto diversa dalle usuali, ma anche solite Mostre Tecnologiche - e che ora illustreremo brevemente. L’allestimento della
Mostra pur essendo fondato sui materiali, sugli oggetti, sugli
exhibit, sulle nuove tecnologie, tende a superare dichiaratamente questi confini attraverso la collocazione di questi oggetti in un “ambiente” che ne evochi la storia, l’uso, l’impatto sulle società del tempo, la sua influenza sulle epoche successive.
Si tende a realizzare questo obiettivo tramite l’inserimento degli “oggetti” nel loro tempo, attraverso la proposizione di affiches pubblicitarie, di stampe o foto dell’epoca, di manifesti, ritagli di giornali. Chiaro esempio dello stile della Mostra, l’apparato iconografico del presente Volume. Si noti, in particolare, il
Leit motiv del libro, costituito dalle immagini delle tempere di
Benedetta Cappa Marinetti (v. articolo A. Ferretti pp. 18-19)
nella Sintesi delle Comunicazioni del Palazzo delle Poste di Palermo, ristampate qui per cortesia di Franco Maria Ricci.
L’idea è quella di voler superare il tecnicismo, insito negli oggetti tecnici, attraverso la comprensione dei motivi della loro
introduzione, l’ambientamento storico e culturale, la spiega-
14
CONTENUTI DELLA MOSTRA
La Mostra/il Volume si prefigge di fornire una base di riflessione sul Tema vastissimo delle Comunicazioni. Naturalmente,
come già indicato, è stato necessario procedere ad opportuni
tagli. Queste scelte e l’intero impianto della Mostra verranno
presentate qui brevemente. L’impostazione generale e la scelta dei materiali per la Sezione di Telecomunicazioni della Mostra è dovuta a F. Soresini, G.B. Porcheddu e allo scrivente.
L’ESPOSIZIONE STORICA
La Prima Sezione si apre facendo riferimento a temi che NON
potranno essere sviluppati, ma al cui contesto si accenna con
15
Il professor Pier Ugo Calzolari (a destra), da poco
eletto Rettore dell’Università degli Studi di Bologna
e il curatore della Mostra/Volume durante
l’Inaugurazione. Foto di: “La Repubblica”,
Bologna Cronaca, 1 settembre 2000, p. XI.
qualche pannello, per “immagini”, brevi commenti, oggetti
“simbolo”. Questo vale per i riferimenti a: I. Comunicazione
Orale; 2. Carta e Strumenti di Scrittura; 3. Comunicazione
scritta; 4. Mezzi di locomozione; 5. Colombi viaggiatori; 6.
Segnalazione ottica; 7. Foto e Cinematografia. Questa Sezione sarà realizzata anche grazie alla Collaborazione di vari Collezionisti, all’aiuto della Mostra Una Città in Piazza, e grazie al
progetto “Giano”, che costituirà un vero e proprio approfondimento dei temi brevissimamente indicati in precedenza.
In questa Prima Sezione di carattere introduttivo generale - e
che rinvia a temi che verranno approfonditi, ma anche a temi
che non è possibile sviluppare - il Visitatore potrà avere una
prima “immersione” nei modi del Comunicare: dalle forme
verbali a quelle scritte, dalla ruota ai mezzi di locomozione
tradizionali: velocipede, bicicletta, auto; ad alcuni “mezzi”
tecnici di segnalazione: quella ottica tradizionale, per esempio. A questa prima Sezione Introduttiva seguiranno le varie
parti o Sezioni Tematiche della Mostra:
Un momento
dell’Inaugurazione
della Mostra.
Foto di:
C. Porcheddu.
LA TELEGRAFIA CON I FILI, IL TELEFONO
La Seconda Sezione affronterà il tema della nascita e dello sviluppo della Telegrafia elettrica e della Telefonia trasmesse attraverso i fili. Strumenti e apparecchi originali saranno affiancati da affiches pubblicitarie, documenti, immagini d’epoca
che ne consentiranno una contestualizzazione e ne recupereranno il clima dell’epoca.
p resentazioni
zione semplice, breve, chiara delle loro caratteristiche funzionali - attuata attraverso “brevi introduzioni” e le didascalie
agli oggetti. Spiegazioni più particolareggiate saranno riportate per temi più difficili o insoliti. Attività didattiche specifiche verranno offerte o saranno a disposizione mediante guide a chi desidererà capire “di più”. La Mostra sarà arricchita
da film, filmati didattici, conferenze, seminari.
Si tenterà di superare una delle tipiche “divisioni” culturali tra
le scienze, le tecniche e la cultura generale attraverso, appunto, questa contestualizzazione storica in cui si fondano insieme i vari aspetti del mondo della comunicazione: dal linguaggio gestuale e verbale, alle soluzioni tecniche della telegrafia, alla telegrafia senza fili, alla radio, alla TV, a Internet,
sino alle nuove avveniristiche, futuribili, tecnologie attuali. Si
cercherà di colmare questa “divisione” anche proponendo al
Visitatore temi riguardanti il linguaggio degli insetti, dei pesci,
dei delfini, o addirittura, il linguaggio del passato, o la ricerca
degli “extraterrestri”. Questo, sia attraverso l’analisi di reperti antichi e attraverso i messaggi che questi oggetti ci inviano,
sia attraverso le onde elettromagnetiche che giungono sulla
Terra captate dai radiotelescopi e che decodificate ci parlano
di eventi lontanissimi nel tempo, e, forse, di altre Civiltà.
È nell’integrazione tra queste diverse realtà che ci auguriamo
possa risiedere il fascino della nostra Mostra. Essa parlerà per
“esempi”, abbiamo già sostenuto, infatti, che l’enciclopedia
dei saperi, seppure in un settore specifico quale è quello della comunicazione è, metodologicamente, impossibile.
Come esempio di queste iniziative ricordiamo, solamente, l’allestimento, a Mostra già aperta, dello spazio Baby Reality
Center e l’efficacia di una immersione tri-quadridimensionale
in uno spazio virtuale, reso quasi “reale” da elaborate e sofisticate tecniche informatiche e matematiche (v. art. F. Serafini, a pp. 106-107).
È questo clima che il Volume ha voluto riproporre in maniera
però ancor miù meditata e diffusa, più completa, anche più
specialistica, ma, comunque, sempre nello spirito di trasparenza didattica e culturale che ha improntato la Mostra.
Resta un rammarico, quello di non aver affrontato – né nella
Mostra né nel Volume – un tema fondamentale legato alla
Comunicazione, e cioè quello della falsificazione dell’informazione, della sua manipolazione, un tema così ampio, generale e diffuso in tutti i settori della vita che meriterebbe un altro
Volume – al quale peraltro stiamo lavorando da tempo – e,
forse, un’altra Mostra.
LA TELEGRAFIA SENZA FILI
La Terza Sezione è dedicata alla Telegrafia senza Fili e vedrà
documentata la nascita di questa importantissima tecnologia.
In questo percorso verrà messo in risalto il ruolo innovativo
avuto da Guglielmo Marconi nel contesto storico del tempo.
La Sezione sarà allestita grazie alla Collaborazione della Fondazione Marconi, del Museo di Fisica, del Museo Mille voci…
mille suoni, di vari Collezionisti… Così pure vale per altre successive Sezioni storiche.
Carosello.
Celebre rubrica
della Rai-Tv.
Per circa quindici
anni (1957-71)
l’intermezzo
pubblicitario
e, quindi,
il mezzo per
la comunicazione
commerciale ma
anche delle mode,
dei gusti, di forme
di persuasione
sintetiche
ed efficaci.
p resentazioni
A. Bugini,
S. Camprini,
Catalogo didattico
Communication,
CNR, Roma, 2000.
Un ausilio didattico
agli Exhibit
finlandesi di
Heureka,
The Finnish
Science Centre.
LA RADIO E LA SUA EVOLUZIONE
Questa Sezione intende documentare l’Evoluzione della Radio, non solo dal punto di vista degli sviluppi tecnologici, ma
anche dal punto di vista del design e dell’impatto culturale.
Le radio progettate dai Bugatti, Castiglioni, Caccia Dominioni ne costituiranno un esempio, ma non unica testimonianza. Ad esse si aggiunge una bella – forse unica per la sua
completezza – raccolta di radio prodotte commercialmente
dalle Compagnie Marconi. Una Mostra, nella Mostra, organizzata per merito di N. Neri e dell’AIRE (Associazione Italiana per la Radio d’Epoca). La Sezione si chiude con una serie
di apparecchi radio a transistor, anch’essi ambientati tramite
manifesti e affiches. All’intemo del percorso della radio saranno allestiti spazi appositi dedicati, in modo specifico, a:
• La produzione commerciale delle società Marconi
• Registrazione e Riproduzione dei suoni
• Le Radio Spie
• La Crittografia
• La Televisione
A queste Sezioni si aggiungeranno Magic-box (spazi appositi,
con vari altoparlanti e nastri per la riproduzione sonora di
“pezzi” storici dedicati all’ascolto della Radio o alla visione di
“episodi” eclatanti delle trasmissioni televisive). I momenti
proposti in questo settore renderanno ancora più viva l’immersione in avvenimenti, socio politici e culturali che hanno
fatto la nostra Storia. Si prevede l’ascolto e la proiezione di
spot pubblicitari intesi, esclusivamente, quali mezzi espressivi
di “comunicazione”.
HEUREKA THE FINNISH SCIENCE CENTRE
La sezione Finlandese costituirà il “cuore” della Mostra e avrà
forte impatto didattico. Per gli specifici exhibit finlandesi si rinvia al volumetto didattico appositamente realizzato per questa occasione (A. Bugini, S. Camprini, Catalogo didattico
Communication, Ufficio del Presidente, CNR, Roma, 2000).
ALTRI MODI E MONDI DELLA COMUNICAZIONE
Una ampia Sezione sarà dedicata alle ricerche nel mondo della comunicazione degli animali (insetti, pesci, delfini…) e all’individuazione di possibili Extraterrestri. Si vedano le Collaborazioni di Celli, Cortesi, Montebugnoli, Della Valle…
La “voce” dal passato: La Ricerca nel campo del Restauro:
Garagnani, Casali, Russo…
Le ricerche più avanzate: L’evoluzione tecnologica, attualmente in fase di grande sviluppo, è documentata dalla presenza di tutti i più grandi Enti di Ricerca e da Aziende più all’avanguardia nel settore: INFN, CNR, ENEA, UNIVERSITA’ tra
cui in primis l’Università degli Studi di Bologna, CINECA,…
ITALTEL, DATALOGIC, l’ARI (Associazione Radioamatori Italiani) ha partecipato allestendo una stazione radio che effettue-
rà collegamenti con radioamatori di tutto il mondo. Per non
parlare del Progetto Antartide dell’ENEA che illustra le attività
dei nostri ricercatori e le modalità di comunicazione in un continente non cablato: l’Atlantide, appunto.
La Mostra è stata un’occasione di confronto per i grandi temi
dell’International Telecomunication Union: UMTS, cellulari
della quarta generazione, Broad Band…
La crittografia: Tra tanto comunicare, nasce l’esigenza della
riservatezza. In questa sezione, da una esposizione di “pezzi”
storici nasce lo spunto per parlare della segretezza della trasmissione dei dati alla quale quotidianamente ci affidiamo
(carte di credito, Bancomat, E-mail, acquisti in rete). La sezione viene allestita grazie alla collaborazione di Istituzioni internazionali (Science Museum, Deutsches Museum, Siemens
Museum, Luftwaffè Museum) e nazionali.
Internet: Sarà riservato uno spazio per le Comunicazioni via
Internet. Grazie alla collaborazione con MonrifNet.
Sezione Didattica a cura del Museo di Fisica, Farfare Fisica: Modelli didattici, repliche di apparati sperimentali storici, strumenti didattici antichi che da anni fanno parte delle attività di diffusione della cultura scientifica promosse dal Museo di Fisica di Bologna e dall’Aula Didattica (SMA - Sistema
Museale d’Ateneo) verranno presentati al pubblico e agli studenti. L’impostazione didattica si fonda sulla base di alcuni
principi di tipo interattivo e comunicativo diretto seguiti da
anni dal Museo ed esemplificati da alcune mostre e Settimane della Cultura Scientifica quali: “Farfarefisica”, “Vedo, prevedo… stravedo”, “Riflettere per osservare”,… Si veda il volumetto Farfare Fisica, appositamente realizzato (Farfare fisica, Attività didattica al Museo di Fisica di Bologna, a cura di
G. Dragoni, Museo di Fisica, Dipartimento di Fisica - Sistema
Museale d’Ateneo, Università Bologna, Ufficio del Presidente,
CNR, Roma, 2000.
Conferenze: Si stanno organizzando Conferenze che prevedono la presenza di personalità del mondo universitario, della ricerca e, in generale, della comunicazione.
Seminari: Si prevede l’organizzazione di Seminari tecnici tenuti da: F. Soresini, F. Sinagra, F. Cremona ed altri.
Filmati: In Collaborazione con la RAI TV e la Cineteca Comunale di Bologna si sta organizzando una proiezione di filmati
inerenti la tematica generale del comunicare.
Sia alla realizzazione della
Mostra, sia a quella del Volume hanno partecipato numerose Istituzioni, Enti, Ricercatori che si ringraziano
sentitamente. Per una loro
dettagliata elencazione si
veda (a p. 6) il Colophon.
Farfare fisica, Attività didattica al Museo di
Fisica di Bologna, a cura di G. Dragoni,
uno strumento didattico realizzato per i
visitatori della Mostra e del Museo di Fisica.
16
L. Trebbi
il veliero, ovvero le linee espositive
della mostra
Palazzo Re Enzo,
Bologna.
Salone del Trecento.
Veduta d’insieme
della sezione storica
della Mostra.
Foto di: F. Bisi.
17
Il viaggio continua nel Salone del Podestà che ospita tutti gli
elementi temporali della storia della comunicazione: dalla Fondazione Marconi (il passato) al Punto della Didattica, Farfare Fisica, per una sperimentazione dal vivo (il presente), ai 26 exhibit dalla Finlandia (il futuro). Sull’onda della metafora della navigazione, le salette adiacenti si ergono a scialuppe e svelano i
segreti di forme di comunicazione diverse e inedite, tratte dal
mondo della flora e della fauna, che completano il ciclo della
vita, ricongiungendo l’uomo al mondo che lo circonda e fornendogli ulteriori elementi di studio e di meraviglia.
p resentazioni
Un immenso veliero che naviga sulle onde del tempo, solcando gli oceani del passato, del presente e del futuro. Questo,
in sostanza, il filo conduttore dell’allestimento di Communication, un Leitmotiv che percorre, con elementi diversi, tutte
le sezioni di cui è composta la mostra.
Il grande vascello salpa dal Salone del Trecento di Palazzo Re
Enzo dove, su grandi “barcacce” che rievocano le imbarcazioni più primitive della storia della navigazione dell’uomo,
trovano posto alcuni degli esemplari più significativi degli
esordi della comunicazione.
Le barcacce navigano nella notte del passato, e “trasportano”, in armonia dimensionale, i vari oggetti esposti, sottolineando l’incedere lento delle invenzioni che hanno rivoluzionato il mondo, dalla telegrafia alla radio ai telefoni. Al centro,
quasi come un faro, l’emblema della comunicazione: antenne
a quadro, digradanti nell’altezza e nel diametro, spiegano agli
occhi dell’uomo il percorso delle onde elettromagnetiche.
Lasciando il passato e approdando nel presente nel Salone del
Seicento, la barcaccia si trasforma in un grande veliero, e tra
le sue vele schiude i segreti dei risultati di cui è ricco il nostro
tempo. Disposte attorno ad una sorta di corte, che funge da
ponte della nave, le nuove tecnologie guardano al futuro, giocando sulla trasparenza come simbolo della continuità tra i
due estremi, ieri e domani. Qui sono gli spazi degli enti che
hanno firmato e firmano il progresso odierno, i computer dimostrativi dell’immensità delle applicazioni che l’evoluzione
tecnologica e scientifica ha consentito.
A. Ferretti
p resentazioni
B. Cappa, Sintesi delle Comunicazioni
telegrafiche e telefoniche (a sinistra) e
radiofoniche (a destra). Per cortesia di: FMR.
la comunicazione nella pittura
di benedetta cappa
nel palazzo delle poste a palermo
Tra le avanguardie artistiche del Novecento, il Futurismo è
certamente quella che più ha espresso e rappresentato nei temi proposti, nei materiali, nelle tecniche usate la nuova realtà
fornita dai moderni mezzi di comunicazione.
In una continua ricerca di fusione tra le arti e le nuove conquiste scientifiche, nell’attuazione concreta dell’idea di totalità dell’arte, l’artista futurista vuole rappresentare una delle
caratteristiche della società moderna: il movimento, da quello più tradizionale del cavallo in Boccioni, a quello tecnicomeccanico del particolare della ruota della locomotiva e del
treno in Balla, agli effetti delle onde alzate dal motoscafo in
uno dei quadri di Benedetta Cappa (1897-1977).
A differenza del pittore barocco che dalla terra ha gli occhi
puntati in un cielo immaginario dove su vortici di nubi si affacciano e agiscono figure religiose di santi e di angeli, il pittore futurista dall’alto del cielo, su un veloce aeroplano, vincendo quasi la legge di gravità, ha gli occhi puntati sulla terra e così ci rappresenta il paesaggio: terra, mare, e aria in uno
spazio cosmico, dove macrocosmo e microcosmo coesistono
fondendosi armonicamente in un tutt’uno, come il piccolo villaggio e l’immensità del mare e del cielo nell’aeropittura di
Benedetta Cappa Marinetti. La pittrice, scenografa, ceramista
e scrittrice (Le forze umane,1924 – Viaggio di Gararà, 1931 –
Astra e il sottomarino, 1935) sposa nel 1923 Filippo Tommaso Marinetti, conosciuto a Roma nello studio del pittore Giacomo Balla di cui era giovane allieva.
Partecipe e protagonista delle attività del movimento futurista, compie numerosi viaggi in Italia e all’estero, in Argentina,
Brasile, nel Nord Africa, Egitto, Algeria, la trasvolata sugli Appennini e sull’Italia, il viaggio transoceanico in transatlantico
dai quali trarrà esperienza diretta per molte immagini dei suoi
quadri.
Vicina alla pittura del maestro, in particolare per la scelta compositiva, e a volte anche alle esperienze astratte e surrealiste
per sintesi e ricerca psicologica, aderisce dal manifesto dell’aeropittura (1929) a questa nuova corrente del Futurismo,
caratterizzando sulla base di questa impostazione la sua produzione artistica successiva, in particolare i cinque pannelli dipinti da Benedetta nel 1934 sul tema delle comunicazioni per
la sala delle riunioni nel Palazzo delle Poste di Palermo.
L’architetto bolognese Angiolo Mazzoni, dirigente dell’Ufficio
Tecnico delle Poste e Telegrafi e delle Ferrovie, ci fornisce in
questo edificio, alto ventiquattro metri e articolato su quattro
piani, un tipico esempio di architettura pubblica del regime
fascista.
Riscontriamo lo stile nella ripresa di elementi classicistici come
la monumentalità del colonnato d’ingresso e dello scalone e
nelle linee architettoniche, così pure nella profusione dei rivestimenti murari in marmi policromi, grigi e viola all’esterno,
più vivaci all’interno, dove coesistono armonicamente molti
materiali diversi. Si nota in modo molto evidente questa fusione di elementi cromatici e materici nelle pareti e negli arredi della Sala riunioni al terzo piano dell’edificio dove spiccano,
come finestre aperte sugli infiniti spazi del mondo moderno,
i 5 pannelli a tempera ed encausto di Benedetta. Le pareti, il
lungo tavolo al centro della stanza, i sedili in muratura rivesti-
B. Cappa,
Sintesi delle
Comunicazioni
marittime. Per
cortesia di: FMR.
B. Cappa, Sintesi delle Comunicazioni aeree.
Per cortesia di: FMR.
18
Sala Riunioni del
Palazzo delle Poste
di Palermo. Per
cortesia di: FMR.
19
luminoso che le sta accanto, alla forte spinta ascensionale suscitata dall’immagine.
La stessa funzione, nelle comunicazioni telegrafiche e telefoniche, ha il traliccio-antenna inclinato, vera e propria diagonale del quadro immerso in una dimensione cosmico-planetaria.
E’ però nella sintesi delle comunicazioni radiofoniche dove la
ricerca della pittrice, più vicina alla pittura di Prampolini e di
Fillia, diventa pura astrazione simbolica nel gioco formale e dinamico degli elementi che costituiscono lo strumento tecnico.
“Noi canteremo… i ponti simili a ginnasti giganti che scavalcano i fiumi, balenanti al sole con un luccichio di coltelli; i piroscafi avventurosi che fiutano l’orizzonte,… e il volo scivolante degli aeroplani, la cui elica garrisce al vento come una
bandiera…”
F.T. Marinetti, Fondazione e manifesto del Futurismo 20 febbraio 1909, Le Figaro, Parigi.
B. Cappa, Sintesi
delle Comunicazioni
telegrafiche e
telefoniche.
Per cortesia di: FMR.
BIBLIOGRAFIA
G. Bernabei - G. Gresleri - S. Zagnoni, Bologna Moderna
1860-1980, Patron, Bologna, 1984
AA.VV., Futurismo & Futurismi, a cura di P. Hulten, Bompiani,
Milano, 1986
M. de Micheli, Le avanguardie artistiche del Novecento, Feltrinelli, Milano, 1988
AA.VV., Benedetta, fughe e ritorni, presenze futuristiche in Sicilia, Electa, Napoli, 1998
F.M.R., Le poste del Duce, Giugno-Luglio 1999, n°134, pp.
69-104
p resentazioni
ti in marmo rosso fiorito e libeccio di Trapani, le sedie in rame
e marocchino rosso, spiccano sul pavimento a mosaico di piccole tessere blu. Nella magia del luogo sembra quasi concretizzarsi il tema espresso dai grandi pannelli abbinati nella scelta cromatica dei materiali, dei rivestimenti e degli arredi nella
stessa architettura della stanza.
Le comunicazioni aeree nella luce luminosa del sole nel cielo
si identificano facilmente con il giallo del soffitto, così le comunicazioni marittime con il colore azzurro del pavimento,
quelle terrestri con il rosso dei marmi e le comunicazioni radiofoniche e telegrafiche con gli elementi di rame usati negli
arredi.
Nella sintesi delle comunicazioni terrestri, gli alti piloni del viadotto in primo piano sono linee-forza che collegano la terra e
il cielo in uno spazio luminoso e rosato. Lo spazio aperto, infinito si contrappone al lungo tunnel scavato nella profondità
della montagna.
Qui troviamo una costante della pittura di Benedetta: la figura umana non compare, ma dell’uomo si “sente” la presenza
come invisibile osservatore sospeso nel cielo o tra le onde del
mare, quasi travolto dall’incombente massa del gigantesco
transatlantico nelle comunicazioni marittime, ed evidente è
l’importanza data all’opera dell’uomo e ai nuovi moderni
mezzi tecnologici da lui creati.
Come le veloci ali dell’aeroplano tagliano l’aria e il cielo, così
nelle comunicazioni terrestri la terra è perforata dal tunnel grigio, le verdi colline in alto a destra sono trasformate in ripidi
dirupi dal taglio di una tortuosa, segmentata, astratta strada
bianca che contribuisce, compositivamente, insieme al raggio
B. Cappa,
Sintesi delle
Comunicazioni
marittime,
Palazzo delle
Poste,
Palermo.
Per cortesia
di: FMR.
20
e voluzione
delle c omunicazioni:
la s toria
22 Dai viaggiatori ai cronisti e ai turisti
—
L. Andalò
24 Il nascere e lo svilupparsi della comunicazione scritta
26 La Bologna curiosa di G.C. Croce
—
—
P. Bellettini
R. Campioni
28 La “chiave del mondo” e la sua ombra
30 Onde radio nello spazio
—
—
G. D’Amia
F. Soresini
44 Guglielmo Marconi (1874-1937)
—
B. Valotti
46 Le vie della comunicazione elettrica. Dal telefono
alla radio — G.B. Porcheddu
64 Claude Shannon e la teoria dell’informazione
—
T. Numerico
69 Heureka, il Science Centre finlandese e i “nuovi” centri di diffusione
della cultura scientifica e tecnologica — A. Bugini, S. Camprini
21
L. Andalò
e voluzione delle c omunicazioni: la s toria
dai viaggiatori ai cronisti e ai turisti
Dietro ai viaggi c’è sempre stato il fascino del mondo, ed una
curiosità insaziabile di conoscere e di capire per comunicare.
Fin dalle lontananze dei tempi c’è stato chi ha avuto il coraggio di solcare i mari o di varcare le barriere delle montagne, di
affrontare terribili durezze e fatiche oggi impensabili: e ciò
che per questi era allora un viaggio materiale, per gli abitanti
delle città e delle campagne diventava poi informazione.
Se si ricordano quei protagonisti non è per provare il sapore
storico del passato, ma perché le loro conoscenze sono state
alla base di forme primordiali di comunicazione. Anzi, talvolta, le esperienze che ci hanno tramandato fanno parte dell’immaginario metropolitano di oggi.
I viaggiatori, i pellegrini, sentivano come propria casa uno
spazio fisico che geograficamente andava al di là dell’Europa; cosicché superavano i confini degli Stati per conoscere e
poi divulgare abitudini di popoli diversi, lingue, usi, informazioni sugli Stati e sull’organizzazione del potere politico, religioni, ecc.
Contemporaneamente, i cronisti locali, cioè i raccoglitori delle vicende delle loro città e quindi i testimoni più attenti dei
loro tempi, erano persone che non scrivevano per sé stessi,
ma, attraverso un rapporto con la gente, avevano per obiettivo la comunicazione.
Per secoli quei cronisti hanno registrato, interpretato e diffuso piccole e grandi notizie, e, assai spesso, non soltanto quelle della loro città, ma anche le notizie esterne che raccoglievano dai viaggiatori, dai pellegrini, dai commercianti, dagli
uomini d’arme.
Un esempio di duplice valenza di cronisti e comunicatori la si
può trovare nel caso di due autori forlivesi del secolo XV: Leone Cobelli e Andrea Bernardi, detto Novacula.
In tali scritti c’erano soprattutto gli eventi di Forlì al centro del
mondo, però c’era anche una apertura nel registrare e nel trasmettere le notizie che provenivano dall’esterno.
Nonostante che il Cobelli ed il Novacula dovessero tener conto di un potere violento, si può dire che in loro più che una
Acquaforte di
G.M. Mitelli, 1692.
22
Acquaforte di G.M. Mitelli, 1690.
23
e voluzione delle c omunicazioni: la s toria
vocazione per una attività diaristica c’era la tendenza per una
esposizione giornalistica (il Cobelli si distingue anche sotto il
profilo culturale con citazioni persino dalla Divina Commedia).
Poi, attraverso i secoli ci fu l’evolversi dei profili dei viaggiatori; la comodità dei viaggi e lo sviluppo della tecnica della stampa rimpicciolirono il ruolo dei cronisti nell’ambito della comunicazione.
Nell’epoca dei Grand Tour, ovvero dei turisti ante litteram del
Seicento e Settecento, le persone vennero messe in corrispondenza, le une con le altre, specialmente attraverso i resoconti dei viaggi.
Oggi, siamo giunti alle alte velocità, alle curiosità postmoderne che offrono spostamenti che fanno cambiare gli aspetti
delle immagini e delle emozioni: siamo al gran-turismo di
massa.
È pur vero che esiste ancora la comunicazione parlata o per
immagini casalinghe tra turisti ed amici, ma ci sono, soprattutto, la vivezza e la immediatezza dei filmati e dei documentari televisivi e degli altri mezzi della comunicazione moderna:
una informazione assai spesso effimera.
P. Bellettini
e voluzione delle c omunicazioni: la s toria
il nascere e lo svilupparsi
della comunicazione scritta
Affrontare il tema della comunicazione scritta nei secoli passati significa normalmente focalizzare l’attenzione sul suo
strumento principe, il libro, ignorando i canali alternativi,
spesso ingiustamente considerati ‘minori’, che hanno costituito per secoli il mezzo fondamentale di informazione per la
maggior parte della popolazione e che meritano di essere
analizzati con maggiore attenzione.
Fra le principali tipologie di documenti informativi prodotti in
Età Moderna si possono ricordare:
• i bandi, attraverso i quali veniva assicurata la comunicazione ufficiale del ‘palazzo’ rivolta ai sudditi;
• le filastrocche e le operine della tradizione popolare, il cui
interprete più efficace fu Giulio Cesare Croce (v. p. 26);
• gli avvisi e le gazzette, che rappresentano i primordi della
comunicazione ‘giornalistica’.
Verso la metà del Cinquecento si afferma, soprattutto a Venezia e a Roma, una nuova modalità di comunicazione degli
avvenimenti politico-militari di attualità. Ai tradizionali dispacci e alle relazioni degli ambasciatori vengono ad affiancarsi
lettere di avvisi con una periodicità strettamente correlata ad
un servizio postale ormai sempre più efficiente e collaudato.
Esternamente simili a delle semplici lettere, gli avvisi riportavano, spesso a cadenza bisettimanale, in uno stile scarno e in
genere alieno da commenti, le notizie pervenute dai principali centri italiani ed europei. A differenza degli avvisi monografici, che informavano, senza alcuna specifica periodicità, su
singoli e rilevanti episodi (battaglie, trattati di pace, nascite
mostruose, fatti criminali inauditi, terremoti, miracoli) e che
cominciarono ad essere stampati fin dalla prima metà del XVI
secolo, gli avvisi periodici (quelli che noi siamo abituati a chiamare gazzette) ebbero una loro versione a stampa in Italia solo a partire dalla fine degli anni Trenta del Seicento.
Gli avvisi settimanali a stampa presero il posto – anche se non
integralmente – degli avvisi periodici manoscritti pubblici; rimase comunque, ancora per gran parte del Settecento, un
abbondante spazio per la sopravvivenza di avvisi periodici manoscritti segreti, che riportavano per un pubblico elitario e circoscritto di addetti ai lavori (Segreterie di Stato, diplomatici,
cardinali, alta nobiltà) le notizie più riservate e piccanti, notizie che non era prudente pubblicare e che comunque difficilmente avrebbero potuto superare la revisione censoria e i
controlli a cui le gazzette a stampa erano soggette.
Un accenno ai redattori di avvisi è in una singolare opera di Giulio Cesare Croce, Il giocondo, et florido convito fatto nelle sontuose nozze del Raffano, et della Rapa. Elencando coloro che
danno ospitalità alla figlia del Raffano e della Rapa, la Carota,
coloro quindi che – nel tono ironico e ammiccante del componimento – sono abituati “a piantar gran carrote tutto l’anno”
(cioè ad ingannare il prossimo), Croce pone “Quei che scrivono
avisi molto grata hanno costei [la Carota], e gli fan gran carezze” (come a dire, sono abituati a buggerare chi si fida di loro).
Che l’attività di redattore di avvisi fosse considerata poco onorevole e spesso affine a quella delle spie e dei diffamatori è del
resto confermato da più parti. Già nel 1572 un papa bolognese, Gregorio XIII, riprendendo e specificando alcuni provvedimenti dei suoi predecessori, emanava una bolla in cui
stigmatizzava l’attività dei menanti, equiparandoli agli scrittori di “libelli famosi” (cioè infamanti, denigratori e lesivi dell’onore delle persone).
Uno strillone con notizie di guerra, in una
incisione di G.M. Mitelli datata 1684.
24
La comunicazione giornalistica era
legata al servizio postale
(incisione di G.M. Mitelli del 1685).
25
battito vivacissimo che doveva inevitabilmente trovare il suo
sbocco nel lavoro dei torchi tipografici.
All’inizio del 1796, prima dell’arrivo delle truppe francesi, a
Bologna veniva pubblicato un solo periodico, il bisettimanale
“Gazzetta di Bologna”, che vantava una storia di oltre un secolo e mezzo, potendo risalire senza interruzioni fino al 1642.
Poco più di un anno dopo, nel luglio 1797, a Bologna venivano pubblicati contemporaneamente cinque periodici, e cioè
due bisettimanali (la “Gazzetta di Bologna” e “L’Osservatore
politico”), due trisettimanali (“Il Monitore bolognese” e
“L’Abbreviatore degli atti della repubblica italiana e delle novelle politiche degli altri popoli”) e un quadrisettimanale (“Il
Democratico imparziale o sia Giornale di Bologna”).
Nel breve volgere di pochi mesi si era passati dal monopolio
di fatto dell’informazione di attualità detenuto dalla vecchia
“Gazzetta di Bologna” ad una situazione in cui l’offerta di informazione era estremamente differenziata, con toni spesso
militanti e battaglieri.
Nell’ottobre 1797 nacque poi “Il Quotidiano bolognese ossia
raccolta di notizie secrete”, il primo foglio quotidiano bolognese, che proseguì fino al 21 settembre 1798 (ultimo giorno
dell’anno VI della Repubblica Francese), quando dovette cessare la sua attività per la troppo esosa tassa del bollo. Nel medesimo giorno cessava anche l’altro quotidiano bolognese nel
frattempo nato, e cioè il “Giornale de’ patrioti del dipartimento del Reno della Repubblica Cisalpina” (era nato il 1 giugno 1798, meno di quattro mesi prima).
e voluzione delle c omunicazioni: la s toria
«È tanta l’infelicità delle cose umane, che non solo i vizi vecchi contrastano con pertinacia alla solerzia dei legislatori, ed
anche repressi con pene severe rinascono, ma addirittura di
giorno in giorno ne sopravvengono altri nuovi, sconosciuti ai
secoli passati. Talché a noi, per obbligo ingiuntoci da Dio, tocca di operare nel migliore dei modi per reprimerli fin dal loro
principio, prima che attecchiscano, e per troncarli, per quanto possiamo, dalle radici. Essendo pertanto, non molto tempo
fa, emersa una nuova setta di uomini morbosamente curiosi,
i quali propongono, accettano e scrivono ogni cosa riguardante i pubblici o privati affari che venga loro a conoscenza,
o che per loro libidine inventino, sì del paese come di fuori,
mescolando senza alcun ritegno il falso, il vero e lo incerto; in
modo tale che di questo si è già istituita un’arte nuova; e la
maggior parte di loro, anche per un compenso vile, fatti certi
piccoli commentari con queste notizie raccolte da vani rumori del volgo, senza il nome di chi li scrisse, di qua e di là li spediscono, ed anche come mandati prima da Roma in diversi
luoghi, di poi li vendono come ritornati da altri luoghi in Roma; e non solo si fanno lecito di occuparsi delle cose avvenute, ma anche di quelle che debbono avvenire presagiscono
stoltamente […]»
Ma il lavoro degli ‘scrittori’ di avvisi era ormai troppo funzionale alla diffusione delle notizie, indispensabile per le burocrazie e gli apparati diplomatici, necessario al dispiegarsi
dell’azione politica per essere bloccato da una bolla pontificia. La prima gazzetta a stampa bolognese (era un settimanale) comparve nel 1642; mentre il primo quotidiano bolognese è del 1797.
Come è risaputo, con l’arrivo delle truppe rivoluzionarie francesi si assistette un po’ ovunque in Italia ad un’esplosione di
stampati, opuscoli, pamphlet, periodici di ogni tipo, come
non si era mai sperimentato prima. Una situazione geo-politica e militare in velocissimo movimento, il continuo susseguirsi di novità clamorose ed epocali, l’effervescenza con cui fu
accolta la libertà di espressione e di stampa, la fine di una atavica costrizione all’autocensura preventiva innescarono un di-
R. Campioni
e voluzione delle c omunicazioni: la s toria
la bologna curiosa
di giulio cesare croce
Acquaforte
di G.M. Mitelli,
circa 1679.
Nel corso del Cinquecento Bologna fu teatro di rilevanti avvenimenti politici, basti citare l’incoronazione di Carlo V da
parte di papa Clemente VII, avvenuta il 24 febbraio 1530 nella chiesa di San Petronio cui assistettero i potenti di tutta Europa, come attesta la celebre Cavalcata (da San Petronio alla
chiesa di San Domenico) incisa da Nikolaus Hogenberg, mirabile per la ricchezza dei sontuosi costumi e per la precisione
degli elementi informativi. In età rinascimentale e barocca la
città rappresentava un crocevia strategico non solo dal punto
di vista politico, come seconda città dello Stato pontificio, ma
anche culturale – in virtù del più antico Studio d’Europa, che
ebbe sede nel prestigioso palazzo dell’Archiginnasio allora
espressamente costruito – ed economico, coi rinomati prodotti della seta e della canapa.
Non sorprende che in un centro di così intense e articolate relazioni vi fosse un forte interesse e consumo di notizie, testimoniato dall’ampia circolazione di lettere, resoconti e avvisi di
ogni genere. La curiosità e la voracità dei “novellisti” (Giuseppe Maria Mitelli li ritrarrà poi mirabilmente in ascolto di un
lettore ad alta voce di avvisi o in attesa frenetica del corriere
recante le notizie di carattere politico-militare dalle maggiori
città europee) non potevano lasciare indifferente lo sguardo
di un acuto osservatore della vita quotidiana bolognese come
il cantastorie Giulio Cesare Croce (San Giovanni in Persiceto
1550 – Bologna 1609).
L’intento mimetico-giocoso delle operette, dedicate alle notizie
che giungevano in città da varie parti e che erano recepite dai
più con una certa credulità, è evidenziato anche nei titoli.
Con gli Avvisi burleschi, venuti da diverse parti del Mondo, cose notabilissime, e degne da essere intese il Croce fa il verso alle notizie di avvenimenti politico-militari che pervenivano manoscritte su fogli portati dai corrieri, con brani di questo tenore:
Sono giunti gli avvisi come le Mosche si ritireranno per tutta questa vernata ai Bagni di Lucca e che un gran numero
di frittelle si son messe in punto per andare a campare sulla riva dell’Olio, per pigliare la tenuta del Pesce fritto …
Con gli Avvisi venuti di quà, di là, di sù e di giù da diverse parti del Mondo, dove dà ragguaglio delle cose più maravigliose,
che siano successe dall’Anno, che voi sapete, sino al presente. Portati da Bargalisse corriero del Prencipe Cacapensieri,
che è venuto questa notte, ed è smontato alla Fontana di
Marforio il cantimbanco fa il verso a un altro genere di notizie che erano diffuse attraverso avvisi a stampa, sovente monografici, e che riguardavano eventi prodigiosi, come la nascita o l’apparizione di mostri, o avvenimenti calamitosi, quali incendi, inondazioni e terremoti. Il “dir burlesco” si esplica
in questo caso nella descrizione di un fenomeno ordinario
presentato come eccezionale, per il solo fatto di darne notizia: “In Modena, allì 11 del detto [Marzo], venne una nebbia
tanto fosca che gli orbi non si vedevano l’un l’altro, ancora
che si toccassero insieme”.
26
27
e voluzione delle c omunicazioni: la s toria
Gli avvisi stampati rientravano nel genere delle cosiddette
“stampe popolari”, che erano distribuite dai venditori ambulanti a poco prezzo nei mercati e nelle strade, e in gran parte
erano rivolte alle stesse fasce di pubblico per le quali erano
scritte molte composizioni crocesche. La fortuna degli Avvisi
burleschi del Croce può forse essere spiegata anche come un
bisogno di alcuni gruppi di lettori e/o ascoltatori di sorridere
delle proprie debolezze e sdrammatizzare eventi straordinari
che potevano ingenerare paure e incubi.
D’altronde il cantimbanco sapeva come conquistare i potenziali acquirenti e la prima attività promozionale per la vendita
dei suoi opuscoli è svolta direttamente accompagnando con
la lira la recita o il canto dei suoi componimenti poetici nei
luoghi di maggiore affluenza di pubblico.
L’abilità del Croce nel pubblicizzare le proprie creazioni letterarie è inoltre testimoniata dalla citazione di suoi titoli nel testo di opere successive; ad esempio, nelle Lodi delle pullite et
leggiadre caldirane, ricorda tra le arie cantate dalle filatrici di
seta proprio alcune sue canzoni.
Si può infine rimarcare una discreta strategia comunicativa sul
piano tipografico–editoriale, seppure nell’ambito di una pro-
duzione di serie volta a realizzare velocemente libretti e ventarole di largo consumo e a poco prezzo. Sui diversi frontespizi delle centinaia di opuscoli – prodotti in gran parte nell’officina di Bartolomeo Cochi e dei suoi successori attivi in
Bologna in vicolo San Damiano, all’insegna del Pozzo rosso –
è quasi sempre presente una vignetta silografica che allude al
contenuto del libretto. Sul frontespizio della Canzone nova, e
ridicolosa in lode de’ sughi (Bologna, Bartolomeo Cochi,
1610) al posto della silografia figura un’ottava dedicata ai lettori con un pressante invito ad acquistare la canzone:
Voi, che vi dilettate di mangiare
De’ sughi à tira corpo, e pien budello,
Quest’operetta venite à comperare
Dal vostro suiscerato Darinello,
Che impararete come s’han da fare,
E di comporli vi darà il modello;
Non vogliate restar per cosa alcuna,
Che per quattro quattrin n’haurete una.
Anche da questi brevi cenni si coglie come la “cornucopia letteraria” di Giulio Cesare Croce costituisca una riserva preziosa
cui attingere per abbozzare un vivace ritratto della Bologna di
età controriformistica con particolare riguardo al tema della comunicazione nella vita quotidiana. Si tratta dell’obiettivo perseguito con la mostra “Una città in piazza” che è stata visitata
(Bologna, estate 2000) da varie migliaia di visitatori non solo
italiani.
Acquaforte
di G.M. Mitelli,
circa 1680.
G. D’Amia
la “chiave del mondo”
e la sua ombra
1.
2.
Per l’innata facoltà di parola, che finisce col farne quasi una
presenza animata, la radio è una delle invenzioni che hanno
maggiormente contribuito a mutare la vita quotidiana nel XX
secolo. E la storia della sua evoluzione formale è uno dei capitoli più avvincenti dell’affascinante epopea del design. Nel
corso di un secolo, in linea con gli adattamenti tecnici e con
lo sviluppo di nuovi processi produttivi, il radioricevitore di uso
civile si è infatti adattato ai mutamenti di gusto e ai nuovi rituali di una società in piena trasformazione, cercando di assecondare le aspettative innescate da una campagna pubblicitaria tra le più ricche di suggestioni.
Se gli apparecchi della fase sperimentale mantengono il loro
carattere prettamente tecnico – con gli elementi circuitali
montati a giorno su di un semplice supporto ligneo – l’allargamento dell’utenza e la diffusione della radio nel panorama
domestico portano con sè una crescente attenzione per l’aspetto formale del ricevitore. Mentre la tendenza ad accorpare in un unico contenitore gli elementi funzionali prima distinti (antenna, altoparlante, alimentatore) induce l’apparecchio a mimetizzarsi con l’ambiente, assumendo le forme di un
mobile “in stile”. La radio è in questo modo “acquattata in un
canterano rinascimento, in un credenzone gotico, in un comò
Queen Anne o in una libreria Tudor” – come lamenta la rivista ”Domus” nel 1933 – e molte ditte forniscono uno stesso
modello di ricevitore in versione da tavolo o consolle, per non
dire di quelle che lo propongono, a scelta, con veste “classica” o “moderna”. Non sono rari, a questo proposito, i casi in
cui il disegno esteriore del ricevitore si piega alle mode stilistiche che si sono avvicendate nel corso del Novecento, dal liberty all’art déco, dallo “stile Bauhaus” alle tendenze aerodinamiche degli anni Cinquanta. Talvolta invece il disegno dell’apparecchio è un vero e proprio “pezzo d’autore” affidato
alla matita di un celebre designer. Ricordiamo in questo senso – ma gli esempi potrebbero essere più numerosi – la collaborazione di Carlo Bugatti con la Gaumont, quella di Piero
Bottoni con la CGE, quella degli architetti Figini e Pollini con
La voce del padrone, o ancora l’attività, a tutti nota, di Achille Castiglioni e di Marco Zanuso per la Brion Vega.
Se l’aspetto esteriore risulta essenziale al successo commerciale di un ricevitore, non si può non tener conto del ruolo
fondamentale che vi gioca una ben mirata campagna promozionale. A cominciare dai primi anni Venti assistiamo infatti alla nascita di una cartellonistica specializzata firmata, in qualche caso, da “persuasori occulti” di indubbia fama.
La scelta operata nel messaggio pubblicitario contribuisce alla popolarità di un apparecchio radio, mentre ne sottolinea la
semplicità d’uso, la facilità di trasporto o la fedeltà di riproduzione sonora. Accanto al manifesto-oggetto (in tedesco
Sachplakat) che esalta le caratteristiche tecniche e formali del
ricevitore, assistiamo infatti a una proliferazione di possibili
6.
7.
UN PERCORSO PER IMMAGINI ATTRAVERSO LA STORIA
DEL RICEVITORE CIVILE
3.
4.
5.
28
10.
8.
ambientazioni che spaziano dal pic-nic alla crociera, dal safari agli sport invernali, per concludersi con un intero campionario riservato all’ascolto domestico. Presentata come il nuovo focolare della vita familiare, la radio diviene il fulcro dei ricevimenti danzanti e delle serate con gli amici, allieta l’ora del
tè ed intrattiene i bambini con le favole della buonanotte.
9.
Inutile dire che lo scenario di queste ambientazioni è spesso
quello di una sontuosa dimora aristocratica. Almeno per tutta la prima metà del secolo la “chiave del mondo” – come viene chiamata la radio in più di una locandina pubblicitaria – è
infatti uno status symbol prima ancora che un mass-media.
11.
12.
NOTA GENERALE: I manifesti e le cartoline pubblicitarie originali qui
riprodotte sono stati cortesemente offerti da un Collezionista privato
che si ringrazia.
DIDASCALIE ALLE FOTO
1. Le voci dalla foresta, in una
suggestiva immagine dei ricevitori
SITI databile ai primi anni Venti.
Manifesto pubblicitario.
2. Uno dei primi modelli di radiosveglia (come si evince anche dalla
visibilità dell’orologio nel frontale)
realizzato in bachelite dalla Philips,
1953. Per cortesia di R. Gianni,
Vimercate, Milano. Foto di: Studio
Fotografico G. Cigolini, Milano.
3. “La combinazione ideale”: un
altoparlante e un ricevitore Philips
in una locandina di fine anni Venti.
Manifesto pubblicitario.
4. Locandina pubblicitaria per cuffia
di ascolto della Telefunken, 1925
ca. Manifesto pubblicitario.
5. Cartolina pubblicitaria dei
modelli Musagete, famosi ricevitori
della Radiomarelli. 1932 ca.
29
6. Radioricevitore supereterodina
Radiola a 5 valvole. Pregevole lo
stile. Per cortesia di: R. Gianni,
Vimercate, Milano. Foto di: F. Bisi.
7. Anche l’aspetto esteriore della
radio e, soprattutto, del suo
altoparlante, può farsi strumento
di propaganda, come in questo
ricevitore tedesco della seconda
metà degli anni Trenta. Per
cortesia di: N. Rodriguez, Milano.
Foto di: F. Bisi.
8. Bella immagine di Mario Gros
per il “Giugno radiofonico” del
1937. Manifesto pubblicitario.
9. Locandina della Philips. La
diffusione dei radioricevitori civili
contribuisce alla moda della
home-dance, 1930 ca.
Manifesto pubblicitario.
10. La radio al centro del focolare
domestico, in una locandina della
RCA per il modello Radiola 17, fine
anni Venti. Manifesto pubblicitario.
11. Radioricevitore Excelsior 55
della Sonora, 1955. È un modello
in metallo, bachelite e plastiche
policrome con un design fiammato
tipicamente anni Cinquanta. Per
cortesia di: R. Gianni, Vimercate,
Milano. Foto di: F. Bisi.
12. Radioricevitore Microwatt 9450
della Philips del 1949. I bordi in
cristallo producono, ad apparecchio
acceso, un effetto di luminescenza.
Per cortesia di: R. Ajelli, Milano.
Foto di: G. Cigolini.
13. Radio ricevitore della Emerson
di gusto tipicamente americano,
realizzato in bachelite. È il classico
modello soprammobile (midget)
prodotto dal 1935. Per cortesia di:
R. Gianni, Vimercate, Milano. Foto
di: G. Cigolini.
13.
F. Soresini
onde radio nello spazio
PREMESSA
e voluzione delle c omunicazioni: la s toria
Questo breve excursus sulla nascita e lo sviluppo delle radiocomunicazioni si riferisce soprattutto al primo cinquantennio
del XX secolo. Considerando che la Mostra “Communication
2000” si è svolta a Bologna, si è preferito limitare l’argomento alle origini ed ai fondamentali sviluppi delle radiocomunicazioni. Ciò, in relazione al fatto che illustri personalità quali Galvani, Righi, Marconi, Majorana che vi hanno contribuito sono
legati, in qualche modo tutti, alla “Alma Mater Studiorum”.
GALVANI, VOLTA E LE TELECOMUNICAZIONI
Il 1999 ed il 2000 sono gli anni che ricordano il bicentenario
della pila di Alessandro Volta. “Communication” si svolge al
termine di questa ricorrenza e giunge spontaneo prendere avvio dall’opera di questi due scienziati, che hanno dato il via a
esperienze che stanno alla base delle telecomunicazioni.
L’elettricità era, al tempo di Volta (1745-1827), oggetto di curiosità e di strano diletto salottiero. Era di moda un gioco di
società: l’elettrizzazione delle persone a mezzo di una macchina elettrostatica a strofinio, come ce lo dimostrano alcune
stampe dell’epoca. Ma Volta era uno scienziato, e al di là di
questi interessi mondani, vedeva nell’elettricità statica l’importanza che era giusto collegarvi. A quel tempo, un altro uomo di fama eccezionale, Benjamin Franklin (1706-1790), stupiva, in America, con i suoi studi e le sue esperienze. Volta,
prima di dedicare i suoi studi alla realizzazione della pila
(1799), si occupava dell’insegnamento della fisica, in generale, e dell’elettricismo in particolare, presso l’Università di Pavia. La prima delle sue scoperte in questo, per allora, nuovissimo settore della fisica, è stato, nel 1775, l’Elettroforo, che
consisteva in uno spesso disco composto da un impasto di cera d’api e trementina che, strofinato con un panno di lana caldo o con una pelliccia, si elettrizzava negativamente.
Ponendo, in presenza - senza toccarlo - di questo disco isolante, un disco di ottone fissato ad un manico di vetro, se ne
otteneva la elettrizzazione per induzione in verso positivo nella faccia rivolta al disco isolante e in verso negativo dalla par-
te del manico. A questo punto, toccando con un dito questa
superficie superiore del disco di ottone, si finiva con lo scaricarlo facendo disperdere a terra, attraverso il corpo, la elettricità che vi era indotta. Infine, l’elettricità positiva, rimasta sulla faccia inferiore del disco di ottone si distribuiva su tutta la
superficie di esso. Si otteneva, così, senza bisogno di ricorrere ad una macchina elettrostatica a strofinio, una sorgente di
energia elettrica da poter utilizzare in molti modi e per un
tempo relativamente lungo. Volta stesso ne fece una interessantissima applicazione per la accensione automatica della
sua lampada perpetua ad aria infiammabile.
Necessita fare una parentesi per ricordare che Volta è stato
anche un precursore dello studio dell’aria nativa infiammabile delle paludi: ossia del gas metano. Per dimostrare la presenza di questo gas, realizzò, nel 1777, la famosa Pistola voltaica che può considerarsi l’embrione del motore a scoppio.
Ma soffermiamoci sulla pistola voltaica, in quanto l’utilizzo del
suo scoppio, a scopo di segnalazione, è il motivo per cui Volta entra nel campo delle telecomunicazioni. La pistola, realizzata o in ottone, o in vetro, assunse svariate forme, ma solitamente, la più tipica è quella convenzionale di una vera e
propria pistola per sparare. In sostanza si tratta di un recipiente da riempirsi di gas, provvisto di una adatta apertura atta a contenere un tappo fungente da proiettile. Facendo scoccare, all’interno della pistola, una scintilla, mediante la chiusura di un circuito elettrico collegato ad una macchina elettrostatica, o ad una bottiglia di Leyda caricata, o ad un elettroforo, la miscela gassosa deflagrava producendo uno scoppio che lanciava lontano il tappo. L’invenzione si diffuse ben
presto e ricevette le più svariate applicazioni, da quelle di svago a quelle pratiche. Volta - e qui eccoci al dunque - in una
lettera (conservata all’Istituto Lombardo di Scienze e Lettere di
Milano) inviata ad un corrispondente, padre Barletti, il 18
Aprile 1777 scrive sulla possibilità di collocare - ad esempio una pistola ad’aria infiammabile a Milano, e da essa fare partire un conduttore che arrivasse fino a Como. In questa città
si sarebbe potuto provocare lo sparo della pistola, affidando a
questo scoppio un determinato significato prestabilito. Il bello sta che Volta suggerisce di usare, come conduttore di ritorno la terra, facendo pescare, da una parte, un conduttore nell’acqua del Naviglio e l’altro nel lago di Como.
Lasciamo parlare Volta: “…se il fil di ferro fosse sostenuto alto da terra da pali di legno qua e là piantati per esempio da
Como fino a Milano e quivi interrotto solamente dalla mia pistola, continuasse e venisse infine a pescare nel canale del Naviglio, continuo col mio lago di Como, non credo impossibile
far lo sparo della pistola a Milano con una bottiglia di Leyda
da me scaricata a Como”. Da questa primitiva idea di utilizzare l’elettricità per trasmettere a distanza un’informazione,
prendevano avvio le più svariate proposte.
Agli inizi dell’ultimo quarto del secolo XVIII non si parlava ancora nemmeno della telegrafia ottica, che ebbe il battesimo
nel1793, in Francia ad opera dei fratelli Chappe. Si trattava di
Sistemi di segnalazione a distanza impiegati
dall’antichità al Settecento.
30
un dispositivo di segnalazione a visibilità, base dei successivi
sistemi semaforici, usati in marina e nella segnaletica ferroviaria, costituito da braccia meccanicamente posizionabili in diverse combinate angolazioni, così da fare corrispondere alle
diverse configurazioni altrettanti significati.
Ritornando all’uso dell’elettricità troviamo, dopo la proposta
voltiana, i progetti di telegrafi elettrostatici ad opera dello
svizzero Lesage e dell’inglese Ronalds. Sono sistemi, piuttosto
complicati, atti a determinare effetti elettrostatici a distanza,
allo scopo di segnalare convenzionalmente, con la loro combinazione, opportune informazioni. La vera e pratica telegrafia elettrica nascerà solo con l’avvento della pila.
Frattanto, Volta attua una ininterrotta successione di novità
nel campo dell’elettrostatica e ne discute con accademie
scientifiche di tutto il mondo. Abbiamo, così: la citata lampada a gas metano con accensione ad elettroforo, l’eudiometro
per l’esame delle acque, il condensatore, quale perfezionamento dell’elettroforo, per citare solo alcune delle realizzazioni voltiane più significative. Ma a Bologna, nel contempo, nel
1789, il medico Luigi Galvani (1737-1798) scopre il fenomeno dell’elettricità animale. Questa esperienza, e la sua diversa
interpretazione, conduce Volta a realizzare una svariata serie
di prove che, dieci anni dopo, nel 1799, sbocciano nella maggiore delle sue scoperte, la Pila.
Galvani propendeva per l’elettricità di origine animale e Volta
per l’elettricità metallica di contatto. Ambedue avevano la loro valida ragione. Volta, per dimostrare la sua teoria, crea il
“generatore elettrico a corona di tazze”, e poi la “pila a colonna”. Volta, quindi, non pervenne alla sua scoperta in modo casuale, ma, intravisti i fenomeni derivanti dal contatto
tra i metalli, ne seguì pazientemente la manifestazione fino a
che, aumentando il numero delle coppie metalliche, giunse
ad ottenere azioni elettriche di notevole intensità e indiscutibile evidenza. Il nome di “pila” deriva dal fatto che l’apparato elettromotore, come Volta lo chiamava, era costituito da
un buon numero di coppie di dischi, uno di rame, l’altro di
zinco, posti uno sopra all’altro; le coppie di metallo venivano
separate da strati di panno imbevuto in una soluzione acida.
Pontelegrafo
realizzato da
Giovanni Caselli
(1815-1891) per
trasmettere scritti
e disegni,
riprodotti per via
elettrochimica
(1864).
Questo nella versione verticale della pila. Unendo un filo conduttore a ciascuno dei dischi estremi, l’uno di rame e l’altro
di zinco, e chiudendo il circuito, si poteva ottenere il fluire di
una corrente elettrica, da cui il nome di elettricità dinamica.
A questo punto, siamo nel 1799, si dischiude un nuovo mondo di fenomeni elettrici.
I primi fenomeni ad attrarre l’interesse pratico sono quelli
elettrochimici. Si scopre l’elettrolisi, ossia la scomposizione
dell’acqua nei suoi componenti, la galvanostegia, la galvanoplastica, nonché l’utilizzo dell’elettricità per uso medicale.
I primi telegrafi elettrici sfruttano la pila per uso elettrochimico in cui la segnalazione avviene a mezzo della attuazione
della scomposizione dell’acqua a distanza.
Ricordiamo i due pionieri in questo settore; John Alexandre
(1802) e Samuel Thomas von Sömmering (1811). Ma solo la
scoperta dei fenomeni elettromagnetici e il loro studio ad
opera di Öersted, Ampère, Arago permette di realizzare dei
telegrafi, ad indicazione fugace o scriventi, di pratico utilizzo.
Ogni nazione civile annovera un proprio pioniere e difficile è
cercare, fra le diverse pretese priorità, la giusta successione
dei meriti. Ricordiamo solo alcuni telegrafi che hanno il merito di essere stati i primi ad essere adottati per uso pratico.
Il telegrafo ad aghi magnetici di Charles Wheatstone (18021875). In esso, gli aghi si spostano in virtù di una corrente circolante attraverso apposite bobine di filo.
Il telegrafo a quadranti indicatori di Louis François Clement
Breguet (1804-1883). In questo caso è un indice, comandato
da un arpionismo mosso dagli impulsi inviati in una elettrocalamita, che si sposta sulla circonferenza del quadrante su cui
sono segnate le cifre e le lettere.
Tavola 2 del De Viribus Electricitatis in Motu Muscolari di
Luigi Galvani del 1791. Nell’immagine viene rappresentata una
rana utilizzata da Galvani come rivelatore di onde elettromagnetiche
generate da scariche temporalesche. Si noti la primordiale, ma
efficace, applicazione pratica del concetto di “antenna” e di “terra”.
31
Telegrafo a
indice ideato
da Luis François
Clement Breguet
(1804-1883).
e voluzione delle c omunicazioni: la s toria
Planche di
esperienze
galvaniane tratte
da L. Galvani,
De Viribus
Electricitatis in
Motu Musculari
Commentarius,
Tabula V da
Opere Edite ed
Inedite,
Bologna, 1841;
Ristampa anastatica
A. Forni Ed.,
Bologna, 1998.
e voluzione delle c omunicazioni: la s toria
Il Telegrafo
ad ago
ideato da
C. Wheatstone
(1837).
Per cortesia
di: Ist. Tecnico
Commerciale
“Pier CrescenziTanari”,
Bologna.
Foto di: F. Bisi.
Cassetta
telegrafica campale
modello 1897.
Impiega un
classico apparato
telegrafico
Morse-Hipp in uso
presso l’Esercito
Italiano fino alla
Seconda Guerra
Mondiale.
Per cortesia di:
Museo di FIsica,
Dip. Fisica Sistema Museale
d’Ateneo,
Università di
Bologna.
Foto di: F. Bisi.
Il Telegrafo
di S. Morse
(costruzione
1837, brevetto
1854) in cui
la ricezione
del messaggio
avviene per
incisione in
codice Morse
di una banda
di carta
scorrevole.
Il telegrafo scrivente nel codice di Samuel Morse (1791-1872).
È questo l’esempio più pratico di un apparecchio che sarà di
grande diffusione. Siamo nel 1837. Gli impulsi, brevi e lunghi
di corrente, determinati con un apposito tasto, eccitano un
elettromagnete che comanda la registrazione, di diversa durata, degli impulsi elettrici, sopra un nastro di carta. Oramai il
telegrafo elettrico è nato. Senza la pila di Volta non avrebbe
potuto esistere.
Ricordiamo ora alcune esperienze di Galvani e di Volta che
preludono alla dimostrazione dell’esistenza delle onde elettromagnetiche. Se per “radioricezione” intendiamo la possibilità di palesare, comunque, ai sensi umani l’esistenza di perturbazioni elettromagnetiche nello spazio, la nostra mente è
portata a risalire alle mirabili esperienze eseguite da Luigi Galvani e da Alessandro Volta. Galvani, infatti, usando una rana
come “rivelatore” ed un complesso “antenna - terra”, perfettamente rispondente ai criteri radiotecnici, poteva rivelare
le perturbazioni elettromagnetiche provocate dalle scariche
atmosferiche o dalle scintille scoccanti allo spinterometro di
una macchina elettrostatica a strofinio. E ciò avveniva quasi
un secolo prima che le radio-onde assumessero forma concettualmente definita per merito di Maxwell. Basta, infatti, talora considerare le cose sotto un diverso punto di vista, per
mettere in luce relazioni impensate; la fama di Luigi Galvani
deriva dall’avere, egli, per primo, aperto i vasti orizzonti sulle
azioni fisiologiche dell’elettricità. Le sue esperienze sulle rane,
sia col concorso di una macchina elettrica, sia col semplice
contatto di un arco bimetallico, ebbero risonanza mondiale.
La confutazione, da parte di Alessandro Volta, dell’interpretazione data da Galvani ai fenomeni da lui scoperti, condusse
all’invenzione della pila (1799) . L’interesse suscitato dall’elettricità così detta “galvanica” e le ricerche fisiologiche dei due
scienziati hanno sempre prevalso sulla considerazione di alcuni fenomeni concomitanti, della vera natura dei quali Galvani
e Volta non si resero, né potevano rendersi, conto, ma che
hanno particolare sapore di fortuita e curiosa priorità nel cam-
po della radio. Sarebbe però assurdo pretendere di anticipare
di un secolo la nascita teorica (Maxwell) e sperimentale (Hertz)
delle onde elettromagnetiche, oppure d’infirmare l’indiscutibile priorità di Marconi nel farne pratica applicazione.
Le ricerche di Galvani e di Volta, avevano, infatti, ben diverso
indirizzo e se anche queste loro ricerche ebbero come conseguenza collaterale il verificarsi di fenomeni radioelettrici, non
è meno vero che, dell’intima essenza di tali fenomeni, i due
scienziati rimasero completamente all’oscuro. Se, quindi, non
si possono considerare alla stregua di precursori in questo
senso, poiché ben lontana dalla loro mente era l’intenzione
specifica di ottenere segnalazioni a distanza per mezzo delle
onde elettromagnetiche, è tuttavia incontrovertibile ch’essi
effettivamente realizzarono tali trasmissioni, sotto veste incognita, per mezzo di una macchina elettrica che funzionava da
trasmettitore e di una rana scorticata che fungeva da ricevitore. Dissipato, così, ogni dubbio sulle rispettive posizioni nella
scala delle priorità, ed allontanando il più possibile ogni equivoco sulla reale portata delle citate esperienze di Galvani e
Volta, le esamineremo dal punto di vista radioelettrico.
Nella tavola, riprodotta dal volume di Galvani, “De viribus
electricitatis in motu muscolari commentarius”, 1791, è riconoscibile la tecnica seguita nelle sue esperienze d’elettrofisiologia: nella zona 1 sporge, da sinistra, il conduttore d’una
macchina elettrica. Sul tavolo, si vedono, in 2, le gambe posteriori di una rana scorticata, con i nervi crurali scoperti. Dalla relazione di Galvani, risulta che, trovandosi disposta la rana
sul tavolo nelle condizioni anzidette, un assistente ne toccasse per caso col bisturi i nervi scoperti: con grande meraviglia
degli astanti, i muscoli dell’animale vivamente si contraevano.
Ma ad un altro assistente del celebre medico sembrò che questa contrazione fosse avvenuta mentre si traeva dal conduttore della macchina elettrostatica una scintilla. Grandemente interessato dallo straordinario fatto, Galvani, che era intento a
tutt’altre ricerche, le abbandonava per dedicarsi all’indagine
del nuovo fenomeno. Ripetuta l’esperienza col medesimo risultato, gli riuscì di stabilire che per provocare la convulsione
della rana, occorreva toccarne i nervi con un corpo conduttore e non con un isolante e che l’effetto veniva magnificato se
i nervi crurali terminavano entro un cilindro di ferro dal quale
si dipartiva un lungo conduttore. Dotato di mirabile spirito indagatore, Galvani continuò le sue ricerche variandone le condizioni sperimentali e, tra l’altro, pensò di tendere un filo metallico attraverso la stanza, isolandolo mediante una sospensione a cappi di seta. All’estremo del filo appese un gancio in
comunicazione metallica con i nervi crurali d’una rana racchiusa nel recipiente di vetro, e le cui zampe erano a contatto di una sostanza buona conduttrice dell’elettricità, ad esem-
32
Il Telegrafo stampante ideato
(1854) da David Edward
Hughes (1831-1900).
Per cortesia di: C. Pria, Bollate,
Milano. Foto di: F. Bisi.
esperienze dei due celebri scienziati esiste un’identità sorprendente, la quale autorizza a pensare che se l’essenza vera del fenomeno fosse stata intravista, la radiotelegrafia sarebbe forse nata un secolo prima.
LE ONDE ELETTROMAGNETICHE E LA LORO
pio graniglia di piombo. Messa, quindi, in funzione la macchina elettrostatica e trattene le scintille, di nuovo si verificavano vive contrazioni delle gambe della rana, per quanto la
macchina eccitatrice fosse lontana dal filo. Senza soffermarci
sulle conseguenze teoriche che Galvani trasse dalle sue scoperte, è evidente che ci si trova davanti al complesso di condizioni sperimentali richieste per una trasmissione di segnali a
distanza mediante le onde elettromagnetiche. Le scariche,
notoriamente oscillanti, ricavate dalla macchina elettrica, generavano delle onde elettromagnetiche, le quali, propagandosi all’intorno, venivano captate dal filo, rappresentante
l’antenna del complesso ricevente. Quale rivelatore, straordinariamente originale, funzionavano i sensibilissimi nervi crurali della rana, mentre la graniglia di piombo serviva da “terra” o, meglio, da “contrappeso”.
Ma non basta, nella sua celebre monografia già ricordata, e
precisamente nella parte seconda, Galvani descrive pure l’effetto delle scariche temporalesche. Preparata nel solito modo
la rana, egli ne collega i nervi crurali ad una vera e propria antenna accuratamente isolata e le zampe ad un filo metallico,
che fa scendere nel pozzo di casa. Qui, la corrispondenza, dal
punto di vista radioelettrico è ancora più appariscente. Ad
ogni scarica d’un temporale vicino, la rana accusava, con la
contrazione delle sue gambe, il …«parassita» atmosferico, né
più, né meno, come un apparecchio radioricevente. Ovviamente, esiste tra quest’ultimo ed una rana scorticata una
spiccata differenza; se si deve, però, badare all’essenza delle
cose, ogni differenza scompare: nervi crurali, coherer, cristallo di galena, tubo elettronico, transistore, hanno compiuto, in
ordine di tempo, il medesimo ufficio.
Meno noto è, forse, che, ad un certo momento, Volta fece
anche a meno della rana (Ed. Nazionale delle Opere di A.Volta, Vol.1 pag.108) disponendo semplicemente sul tavolo alcuni conduttori uno in fila all’altro, a una certa distanza dalla macchina elettrica, ma non a contatto fra di loro, bensì
con un leggerissimo intervallo. Ora, avvenne che, traendo le
solite scariche dalla macchina elettrostatica, egli poté osservare, come testimonianza del passaggio del “fluido elettrico”
nei conduttori allineati, delle piccole scintille scoccanti nelle
interruzioni tra un conduttore e l’altro. Ai nervi crurali della
rana, Volta aveva sostituito un altro rivelatore: la scintilla
stessa che, circa novant’anni dopo, Hertz vedeva scoccare tra
le sferette del “risuonatore elettrico” col quale stabiliva l’esistenza e la propagazione, nello spazio, delle onde elettromagnetiche generate dal suo “oscillatore”. Neppure Volta, che
perseguiva il concetto di “atmosfera elettrica”, poteva comprendere di che cosa veramente si trattasse. Perciò non lo si
può certo considerare precursore di Hertz; ma tra queste
33
James Clerk Maxwell (1831-1879), nella sua celebre memoria
“Una teoria dinamica del campo elettromagnetico”, apparsa
nel 1864, espresse matematicamente un possibile modo di
concepire il propagarsi degli effetti elettrici e magnetici che
rappresenta la base teorica delle radiocomunicazioni. La teoria
di Maxwell fu confermata sperimentalmente nel 1887 da
Hertz, seguito da Righi nel 1891 e negli anni successivi, nonché dalle preliminari esperienze realizzate da Branly in Francia,
nel 1893, da Lodge in Inghilterra, nel 1894, e da Popoff in Russia nel 1895. Ma l’idea di utilizzare onde elettromagnetiche a
scopo di comunicare si sviluppò solo, come vedremo, attraverso le esperienze di Guglielmo Marconi (1874-1937), iniziate
nel 1895 e proseguite fino alla loro pratica realizzazione.
Heinrich Rudolph Hertz (1857-1894), fu uno scienziato nel vero senso della parola: dedicò la sua intera attività alle scoperte scientifiche per puro amore della scienza senza pensare a
trarne lucro; e, quantunque abbia avuto vita breve, come l’ebbe anche breve il precursore dei suoi lavori James Clerk Maxwell, aprì alla scienza nuovi, vastissimi, orizzonti. Egli dopo
aver conseguito la laurea a Berlino, all’età di 23 anni fu tosto
assunto come assistente dal suo professore von Helmholtz;
ma dopo 3 anni fu nominato ordinario di fisica sperimentale
alla scuola tecnica superiore a Karlsruhe, nel laboratorio della
quale fece le sue grandiose scoperte. Vi trovò un paio delle
cosiddette “spirali di Riess o di Knochenhauer” che erano due
spirali isolate con ceralacca e sostenute l’una sopra l’altra per
mezzo di un perno verticale passante per il loro centro. Scaricando in una di esse una bottiglia di Leyda, notò delle scintille in un piccolo intervallo dell’altra. Era la dimostrazione della
teoria di Maxwell. Per chiarire meglio la cosa, sostituì alla prima spirale un conduttore rettilineo, con un intervallo di scarica al centro e due sfere metalliche alle estremità per regolarne le capacità; ed all’altra spirale sostituì un semplice anello,
provvisto di un intervallo di scarica regolato da un micrometro, e spostabile per poterlo adoperare a diverse distanze. Con
tali apparecchi semplicissimi, che chiamò oscillatore l’uno e risuonatore l’altro, egli studiò l’azione elettrica a distanza: la
creazione di onde elettromagnetiche e la loro rivelazione fino
a 12 metri di distanza, la loro riflessione, rifrazione e polarizzazione, la loro velocità ed identità con le onde luminose. Studiò l’effetto dei dielettrici, la propagazione delle onde nei fili,
(argomento a cui si era già dedicato un altro scienziato tede-
Spinterometro per
generare onde
elettromagnetiche
a mezzo della
scarica tra le sfere
metalliche, ideato
da A. Righi
(ca. 1891).
Per cortesia di:
Ist. Tecnico
Commerciale ”Pier
Crescenzi-Tanari”,
Bologna.
Foto di: F. Bisi.
e voluzione delle c omunicazioni: la s toria
DIMOSTRAZIONE SPERIMENTALE IN HERTZ
“Telefono che si
ascolta a distanza”,
ideato e brevettato
da A. Righi (1878);
nell’immagine
l’altoparlante,
prototipo degli
odierni dispositivi.
Per cortesia di:
Ist. Tecnico
Commerciale “Pier
Crescenzi-Tanari”,
Bologna.
Foto di: F. Bisi.
sco, il von Bezold), le scariche elettriche nei gas rarefatti e descrisse le sue esperienze in notevoli memorie.
Nel 1889 fu nominato professore ordinario di fisica all’Università di Bonn, e ripeté i suoi esperimenti perfezionandoli nel laboratorio di fisica, ma poté attendervi per pochi anni, giacché
nel 1893 si ammalò, ed il 1 Gennaio 1894 morì. Hertz aveva
adoperato in genere onde di 9 metri, ma appena installatosi
a Bonn ripeté i suoi esperimenti con onde di 30 cm. Subì allora uno di quei patemi d’animo da cui non possono andare
immuni neppure i grandi indagatori, giacché un errore di calcolo nella capacità dell’oscillatore, lo portò per un momento
a conseguenze che parevano mettere in dubbio la teoria di
Maxwell. Ma fu un dubbio che durò pochi giorni.
e voluzione delle c omunicazioni: la s toria
RIGHI E L’OTTICA DELLE OSCILLAZIONI ELETTRICHE
Le esperienze di Hertz furono immediatamente ripetute nei
principali laboratori di fisica, con lo scopo essenziale di convalidarle e riempire qualche lacuna. Chi portò in ciò il massimo contributo è stato il Professor Augusto Righi (1850-1920)
dell’Università di Bologna. Egli modificò l’oscillatore di Hertz:
adattandovi sfere più piccole, riscontrò che otteneva onde più
corte, e giunse fino ad avere onde di 2 cm e 1/2. Per evitare
l’inconveniente già riscontrato da Hertz che le sferette dell’intervallo di scarica si ossidavano rapidamente sotto l’azione
delle scintille, con conseguente modificazione della loro superficie ed irregolarità negli effetti, le immerse nell’olio di vaselina, ottenendo così onde più uniformi. Migliorò anche il risuonatore, realizzando un rivelatore sotto forma di specchio
argentato, rigato da un gran numero di tratti paralleli, vicinissimi, tracciati con una punta di diamante, o costituiti da una
sola lastrina argentata con una singola interruzione; e più tardi un rivelatore a gas rarefatto. Righi non ha pensato, sembrerebbe, che le onde che studiava potessero servire come
mezzo di comunicazione a distanza; ma l’idea nacque accanto a lui ad opera del giovane Marconi.
LA RILEVAZIONE DELLE ONDE ELETTROMAGNETICHE
CALZECCHI ONESTI, BRANLY, LODGE
Mentre si attuavano esperienze relative ai fenomeni di propagazione delle onde elettromagnetiche, veniva scoperto e perfezionato un primo rilevatore, il tubetto a limatura, che fu poi
chiamato coherer. Il suo funzionamento era basato sulla proprietà delle polveri metalliche, scoperta prima da Munck (1835)
e poi riscoperta nel 1878 da Hughes, ed utilizzata prima da Calzecchi Onesti nel 1884 ed in seguito studiata dal fisico francese Branly nel 1893 e dal fisico inglese Lodge, sempre nel 18931894. La forma esterna del coherer era quella di un piccolo tubo di vetro provvisto, alle estremità, di due elettrodi metallici
molto ravvicinati, tra i quali era leggermente compresso un sot-
tile strato di polvere metallica. Il tubetto veniva quindi chiuso
estraendo l’aria per evitare l’ossidazione della limatura. Nel
1893 Lodge col suo coherer collegato ad un galvanometro nel
circuito di una pila e con l’aggiunta di un meccanismo ad orologeria, che con leggeri scuotimenti ripristinava la resistenza
elettrica del coherer (decoherizzazione), otteneva la rivelazione
delle onde fino a 36 metri di distanza dall’oscillatore. Ed egli
stesso affermò, in una sua conferenza del 1894, che coi medesimi mezzi si sarebbero potuti ottenere effetti fino a 700 metri
al massimo. Tuttavia, com’ebbe ad ammettere più tardi, non
aveva mai pensato di sostituire al galvanometro un apparecchio
telegrafico per la ricezione di dispacci.
POPOFF
Popoff ripeté, nel 1895, quello che Galvani, più di 100 anni
addietro, aveva fatto utilizzando una rana; infatti, facendo
uso del coherer, realizzava un dispositivo atto a rivelare perturbazioni elettromagnetiche atmosferiche anche da considerevoli distanze. Il Prof. Popoff dell’Accademia militare di
Kronstadt, nell’aprile 1895 fece così conoscere alla Società
fisico-chimica russa un apparecchio, per mezzo del quale otteneva la registrazione di scariche elettriche dell’atmosfera.
Nel circuito di una pila erano inseriti un coherer e un relé
che, al passaggio della corrente, stabiliva un contatto con un
circuito comprendente una pila ed un’elettrocalamita che
faceva vibrare un’ancora posta tra la campana e il coherer,
a piccola distanza. Ora, se un treno d’onde veniva ad influenzare il coherer, per esempio in seguito ad una scarica
elettrica atmosferica, la corrente della pila eccitava il relé. Allora, questa attirava l’ancora che, percuotendo la campana,
determinava un segnale acustico e ricadendo, poi, verso il
coherer, lo colpiva e lo decoherizzava, cosicché tutto era riportato allo stato di partenza. Oltre a questo risultato, Popoff ne raggiunse un altro di ben maggiore importanza. Lo
scopo prefissosi, cioè la rivelazione di onde provenienti da
scariche elettriche atmosferiche, gli suggerì l’idea di mettere uno degli elettrodi del coherer in comunicazione con la
terra e l’altro con l’asta di un parafulmine, o con un filo metallico verticale convenientemente sospeso. Spunta, così, in
modo efficace, il concetto dell’antenna ricevente, anche se
non finalizzata alla ricezione di segnali trasmessi dall’uomo.
La felice idea di applicare l’antenna ad un oscillatore per farne un trasmettitore e ad un rivelatore per farne un apparecchio ricevente, era invece riservata alla geniale intuizione di
Guglielmo Marconi, nella cui mente maturavano, proprio in
quell’epoca, idee e propositi, che dovevano portare di colpo
dalla semplice ricezione di segnali, alla realizzazione di una
vera e propria telegrafia senza fili.
PRIMA DELLA TELEGRAFIA SENZA FILI
Prima che si realizzasse la telegrafia senza fili, da parte di Marconi nel 1895, le telecomunicazioni erano già nate e si erano
notevolmente sviluppate. Portandoci alla fine del secolo XVIII,
vediamo nascere in Francia, per merito dei fratelli Chappe, il
sistema di telegrafia ottico-semaforica che Napoleone, nel
1805, prolungherà in Italia con la linea Parigi-Torino-MilanoVenezia. Con la caduta di Napoleone, poco più di dieci anni
34
L’OPERA DI MARCONI
Fin dal 1858 l’italiano Sponzilli aveva scritto in una pubblicazione del Genio Militare di Napoli, che un giorno o l’altro si
sarebbe potuto adoperare una perturbazione dell’etere, analoga a quella luminosa, per comunicare a distanza. E nel 1892
sir W. Crookes aveva chiaramente espresso in un articolo pubblicato sulla “Fortnightly Review” che si sarebbe potuto un
giorno comunicare a distanza con onde hertziane di diversa
lunghezza. Nel 1895 pensò all’attuazione di tale idea un giovane ventunenne, di propositi molto tenaci, che abitava a Bologna, Guglielmo Marconi.
Marconi per attuare il concetto delle comunicazioni a distanza senza filo, ricorse dapprima ad un oscillatore del tipo usato da Hertz e da Righi che installò nella villa paterna di Pontecchio (a pochi chilometri da Bologna), e per ricevitore adoperò un rivelatore più sensibile di quelli usati in precedenza:
un tubetto ripieno di limatura metallica, che era stato oggetto di studio da parte specialmente di Branly e di Lodge. Marconi perfezionò questo tubetto per renderlo ancora più sensibile ottenendo portate di qualche centinaio di metri. Allora
pensò di modificare il dispositivo trasmittente, e collegò una
delle estremità del circuito secondario della bobina d’induzione dell’oscillatore ad una piastra metallica posata a terra e l’altra estremità ad un bidone metallico sospeso in alto all’estremità di una pertica. Constatò che la distanza di ricezione aumentava rapidamente con l’altezza del bidone e con le sue dimensioni; e finì col sopprimerlo, alzando però molto il filo che
35
lo collegava al trasmettitore. Per la ricezione intercalò il tubo
con limatura fra una piastra collegata al suolo ed un conduttore isolato; e cominciò ad ottenere buoni risultati. Celebre il
suo esperimento di trasmissione di un segnale elettromagnetico oltre la collina dei Celestini – fuori dalla visibilità ottica –
dietro la Villa Griffone (1,5 km ca.) residenza della famiglia
Marconi, nel Settembre del 1895. La radiotelegrafia era nata.
È stato eccepito, che in sostanza Marconi non ha fatto altro
che mettere l’oscillatore di Hertz in posizione verticale, con una
delle sfere a terra. Ed infatti a questo semplice concetto si può
ridurre il trasmettitore realizzato da Marconi a Pontecchio. È
come dire che per andare in America basta veleggiare dall’Europa verso occidente…verissimo, ma dopo che Colombo ha
insegnato la strada. È la ormai vecchia storia dell’uovo.
Marconi non trovando in Italia gli aiuti necessari per dar sviluppo alla sua invenzione si recò in Inghilterra, patria di sua
madre dove presentò tosto, all’inizio del 1896, domanda per
il primo brevetto di telegrafia senza fili. Poco dopo essere arrivato a Londra, Marconi fu invitato da sir William Preece, ingegnere capo delle poste inglesi, a dar dimostrazioni della sua
invenzione. Egli eseguì esperimenti ad una distanza di circa
100 metri, alla presenza delle autorità governative e poco dopo, ne eseguì delle altre nella piana di Salisbury, riuscendo a
stabilire regolari comunicazioni alla distanza di circa 2 miglia.
Nel 1897 telegrafò attraverso il canale di Bristol a distanza di
oltre 8 miglia. Telegrafò poi anche attraverso il canale di Wimereux (nei pressi di Boulogne-sur-Mer) e durante queste ultime trasmissioni i dispacci furono anche ricevuti a Chelmsford, distante circa 85 miglia. Nel luglio del 1897 Marconi
venne in Italia e diede una dimostrazione della sua invenzione al Ministero della Marina, ed altra dimostrazione al Quirinale. Dal 10 al 18 luglio eseguì esperimenti alla Spezia, ove
vennero stabilite regolari comunicazioni tra la costa e la corazzata S. Martino alla distanza di 16 km. Durante i mesi di
settembre e di ottobre, Marconi, ritornato in Inghilterra fece
nuovi esperimenti nella piana di Salisbury, mentre altri ne venivano eseguiti a Dover per cura del Ministero delle Poste inglesi. In tale anno, 1897, Marconi stabilì una delle prime leggi della pratica radioelettrica, affermando che a parità di condizioni “la portata è proporzionale all’altezza dell’aereo”, cioè
dell’antenna.
Nel 1898 la radiotelegrafia fu impiegata alle manovre navali
inglesi con buoni risultati fino alla distanza di 60 miglia; nelle
manovre del 1899 tre navi inglesi, munite di apparecchi Marconi, poterono comunicare fra loro fino alla distanza di 74 miglia nautiche. In quell’anno Marconi si recò in America per dimostrazioni sulla sua invenzione. È noto che questa, mentre
e voluzione delle c omunicazioni: la s toria
dopo, tale impianto venne smantellato, ma il Regno di Sardegna lo sostituì tra Torino, Milano e Genova con il sistema ottico Gonella. A metà del secolo XIX il telegrafo elettrico venne
a sostituire quelli semaforici. Nel 1799, Volta, con la sua pila,
aveva realizzato la prima sorgente di elettricità dinamica che
consentì di scoprire, tra gli altri suoi effetti, quelli elettromagnetici, base di diversi sistemi telegrafici via via escogitati. In
Italia, spiccano due nomi di illustri fisici: Magrini e Matteucci.
Magrini, col suo telegrafo elettromagnetico, ideato nel 1837,
del tutto simile a quello contemporaneamente realizzato da
Wheatstone in Inghilterra e diffusosi nel pratico uso. Matteucci, che realizza la prima linea telegrafica in Toscana iniziata nel 1847 ed è autore del primo testo italiano sulla telegrafia. Le reti telegrafiche nazionale e mondiale si svilupparono
ulteriormente anche per collegamenti a lunga distanza, quali
quelli con i cavi cablografici sottomarini.
Presto nasce l’idea di poter trasmettere elettricamente la voce. Due italiani, il Manzetti di Aosta nel 1864 e Meucci, il fiorentino profugo all’Avana e poi negli USA, nel 1872 realizzano i primi tentativi, ma sarà Bell, nel 1876, che attuerà praticamente il problema. In Italia, i fratelli Gerosa di Milano ne diverranno i pionieri, dando vita ad una industria (che diverrà la
FACE, ora Alcatel) e realizzando la prima rete telefonica di Milano tra il 1881 e il 1883. Anche la telefonia automatica avrà
origine italiana, quando nel 1884 Marzi, a Roma, installò
presso la Biblioteca Vaticana un impianto a commutazione
automatica per 10 utenti. Nel contempo si attuano le prime
esperienze sulle onde elettromagnetiche che porteranno alla
realizzazione della telegrafia senza fili.
Il famoso detector
magnetico ideato
da G. Marconi,
sperimentalmente
realizzato in una
scatola di sigari
(1902). Copia
dell’originale,
realizzata da
M. Bigazzi.
Per cortesia di:
Fondazione
G. Marconi.
Foto di: F. Bisi.
e voluzione delle c omunicazioni: la s toria
Uno dei primi
radioricevitori ad
una valvola, per
radiodiffusione,
con ascolto in
cuffia, prodotto
dalla Società Siti,
modello Sitisimplex
R9 (1924).
Per cortesia di:
R. Aielli, Milano.
Foto di: Studio
Fotografico G.
Cigolini, Milano.
Radioricevitore a
cristallo di galena,
con ascolto in
cuffia, prodotto
dalla Western
Electric Italiana
(1922). Per cortesia
di: R. Gianni,
Vimercate, Milano.
Foto di: Studio
Fotografico G.
Cigolini, Milano.
dapprima aveva suscitato dubbi e diffidenze, in seguito, dinnanzi alla realtà dei fatti, cominciò a trovare numerosi aderenti ed a suscitare le speranze di grandi lucri. Quindi fin dal
1897 si costituirono potenti organismi per sfruttare i brevetti
presi da Marconi. La prima di tali Compagnie è stata la Wireless Telegraph and Signal Ltd. che si costituì nel luglio 1897
con un capitale di 100.000 sterline per l’acquisto dei brevetti
Marconi per tutti i paesi, salvo l’Italia, avendo voluto Marconi
svincolare la sua Patria dalle interessenze straniere. Il 22 novembre 1899 fu costituita la Compagnia Marconi d’America;
il 2 ottobre 1901 la Compagnie de Telegraphie sans fil di Bruxelles; il primo novembre 1902 la Wireless Telegraph Company of Canada; il 24 aprile 1903 la Compagnie française maritime et colonial de telegraphie sans fil; il 4 agosto 1906 la
Compagnia Marconi argentina; l’8 ottobre 1906 la Russian
Company of Wireless telegraph and telephones; il 24 dicembre 1910 la Compagnia Nacional de Telegrafia sin hilos spagnola. È così, mano a mano, la radiotelegrafia sistema Marconi prese piede in tutto il mondo. Ma ciò non avvenne senza lotte, che furono specialmente accanite in Germania e in
America. Nel maggio del 1897 aveva assistito agli esperimenti di Marconi in Inghilterra il professore tedesco Slaby, il quale
naturalmente fece conoscere al suo governo la possibilità di
comunicare a distanza senza fili. L’anno seguente espose chiaramente l’argomento in una conferenza tenuta a Potsdam, alla presenza del Kaiser e del Re di Spagna. È naturale che il Kaiser fattosi un’idea della somma importanza che avrebbe assunto la radiotelegrafia abbia tosto pensato ad aiutare lo
Slaby per creare un sistema tedesco onde non essere soggetto agli inglesi. A somiglianza della compagnia Marconi inglese fu così poi costituita la Telefunken, che fu per diversi anni
concorrente della Marconi. Negli Stati Uniti d’America avvennero lotte giudiziarie suscitate specialmente dalle compagnie
dei cavi sottomarini e dalla compagnia che sfruttava i brevetti De Forest, concorrente americano di Marconi. A parte que-
ste lotte d’interessi è da notarsi che grandi ed imprevisti ostacoli si frapponevano alla radiotelegrafia, quale risultato dopo
i primi tempi della sua creazione, perché potesse avere un
grande sviluppo. Gli ostacoli provenivano dalle alte montagne, dalla curvatura della terra, dalla luce solare, nonché dalle interferenze, da disturbi atmosferici, dall’evanescenza, dalla radiazione circolare delle onde elettriche. Essi costituivano
argomenti potentissimi nelle mani degli avversari, e giustificavano lo scetticismo di molti tecnici e la diffidenza dei capitalisti verso le radiotrasmissioni. Ma bisogna dire che il genio inventivo di Marconi, il valore dei suoi collaboratori, nonché
quello di parecchi altri tecnici e scienziati, riuscirono ad eliminare in gran parte tali inconvenienti. Ed i governi cooperarono non poco allo sviluppo della radiotelegrafia, specialmente
in considerazione dei grandi vantaggi che essa offriva alle comunicazioni marittime, giacché costituiva il solo mezzo per attuarle. Marconi, fin dal 1898, pensò all’opportunità di realizzare dispositivi sintonici, tali cioè che il ricevitore potesse “rispondere” soltanto a segnali aventi una determinata frequenza corrispondente a quella del trasmettitore. Si trattava,
dunque, di realizzare un fenomeno di risonanza analogo a
quello acustico, per il quale un diapason eccitato trasmette,
attraverso l’aria, le sue oscillazioni ad un altro diapason con
esso accordato. Marconi ottenne questo risultato variando il
numero delle spire di un’induttanza accoppiata all’antenna o
mettendo un condensatore in serie con essa. Il brevetto Marconi che fu rilasciato il 26 aprile 1900 e che porta il numero
7777, rivendica appunto l’uso di circuiti accordati tanto in trasmissione, quanto in ricezione, con un accoppiamento induttivo tra il circuito dell’antenna e quello dell’apparato vero e
proprio. Fu con apparecchiature di questo genere che Marconi poté ricevere, il 12 dicembre 1901, i primi segnali trasmessi da oltre 3000 km, da Poldhu, a Terranova.
Si può dire che l’impiego della radio nelle comunicazioni marittime ha avuto inizio nel 1900, e la prima compagnia di navigazione che la abbia adottata è stata il Norddeutscher Lloyd.
Il 25 aprile di tale anno si costituì anche la “Marconi International Marine Communication Co” con sede in Londra e Bruxelles e con agenzie a Parigi e Roma per lo sviluppo del sistema Marconi sulle navi. Nello stesso anno l’ammiragliato britannico l’adottò per la marina militare e l’esempio fu poi seguito dalle altre Marine. Il battesimo alla radiotelegrafia, per
la salvezza della vita umana in mare, si è avuto nel primo impressionante salvataggio compiutosi in occasione della collisione del grande transatlantico inglese “Republic” col transatlantico italiano “Florida” (1909).
Circa gli ostacoli naturali, bisogna dire che Marconi, contrariamente all’opinione di molti, non riteneva che fosse insormontabile quello della curvatura della Terra. Perciò, nel 1901,
terminato l’impianto in Inghilterra della prima potente stazione radio telegrafica, a Poldhu, decise di servirsene per comunicare con l’America; scelse per queste prove l’isola americana di Terranova, che è la parte occidentale più vicina alla costa inglese, ma distante da questa circa 1800 miglia. Vi si trasferì nel novembre, lasciando a Poldhu il prof. Fleming per dirigere il compito di questa stazione. Dopo ripetuti tentativi, il
12 dicembre, innalzato all’altezza di circa 120 metri un cervo
36
I PRIMI GENERATORI DI OSCILLAZIONI
I generatori di oscillazioni furono dapprima dei derivati degli
oscillatori di Hertz e di Righi, cioè degli apparecchi a scintilla.
Tali apparecchi tennero a lungo il campo, pur con varie modificazioni e perfezionamenti. Si possono citare i più perfezionati, quelli nei quali si cercò di interrompere o frazionare la
scintilla, fra cui il generatore a scintilla interrotta di Balsellie,
quello a scintilla rotante di Fessenden, lo scaricatore a disco di
Marconi, il sistema a scintilla smorzata di Loewenstein, il sistema a scintilla smorzata Telefunken, l’apparecchio con scin-
37
tilla ad alta frequenza del dott. Chaffèe, ed il sistema De Forest. Ma l’idea di trasmettere oltre ai segnali telegrafici anche
la parola, cosa che con la scintilla non era possibile, fece presto pensare a generatori fondati su altri principi. E dapprima
vennero i generatori ad arco. I primi a trovare un generatore
di tale specie furono gli americani Bell ed Hayes, i quali constatarono che accoppiando induttivamente un circuito contenente una batteria ed un microfono con un arco voltaico a
corrente continua, si otteneva da questo la riproduzione della voce; e costruirono il primo apparecchio ad arco, un fotofono, generatore che serviva a trasmettere la parola. Nel 1900
Duddell dimostrò il fenomeno dell’arco musicale: messo in serie in un circuito un condensatore ed un’induttanza e shuntandole con un arco, notò che in tale circuito si producevano
oscillazioni elettriche, le quali davano luogo a suoni musicali.
Poulsen nel 1902 pose un arco Duddell in un’atmosfera di
idrogeno (ed anche di altri gas di alta conduttività termica) e
adoperò un elettrodo positivo raffreddato ad acqua ed un
soffiamento magnetico attraverso l’arco: creò così un potente generatore di oscillazioni ad alta frequenza. Ebbe in tal modo inizio la radiotelegrafia ad onde continue.
De Forest ideò poi un arco simile a quello di Poulsen: la differenza principale era che egli impiegava vapori di alcool in luogo dell’idrogeno.
Nel 1914 Fleming brevettò un generatore ad arco, con dischi
di carbone in un’atmosfera di acetilene e di idrogeno. Il sistema ad arco parve per un certo tempo aver risolto il problema
della trasmissione, e parecchie stazioni lo adottarono. Ma esso aveva un forte concorrente: il sistema ad alternatore.
Fin dal 1906 Fessenden aveva costruito un alternatore ad alta
frequenza; ed in seguito ne ideò altri. Goldschmidt prese anch’egli brevetti nel 1907 per un alternatore adatto alla produzione di correnti ad alta frequenza. Nel 1908 Alexanderson, della General Electric Company americana, costruì il suo
primo alternatore. E ne costruì altri in seguito che furono
adottati da diverse stazioni.
Al principio della grande guerra (1915-18) alcune nazioni, come l’Italia, si erano date decisamente all’uso del sistema Poulsen; altre, come la Germania, la Francia e l’America avevano
adottati gli alternatori ad alta frequenza: la Germania aveva
gli alternatori Telefunken, con moltiplicatore di frequenza, la
Francia aveva quelli basati sul brevetto Sotour, gli Stati Uniti
e voluzione delle c omunicazioni: la s toria
volante sostenente il filo d’antenna, riuscì a sentire con un ricevitore telefonico il ritmo della scintilla di Poldhu, ripetuta tre
volte. L’evento che stupì il mondo intero, annullava dunque
l’opinione che la curvatura della Terra costituisse un ostacolo.
Alla fine del 1902 fu stabilita una regolare comunicazione fra
l’Inghilterra ed il Canadà. Allora il nostro Governo richiese a
Marconi l’impianto di una stazione capace di corrispondere
con altre consimili di Europa e d’America. Fu scelta nel settembre del 1903 la località di Coltano, presso Pisa.
Anche l’ostacolo delle alte montagne fu dimostrato essere superabile, giacché nel 1902 Marconi, durante una crociera che
fece a bordo della R. nave “Carlo Alberto” mentre questa stava a Gibilterra riuscì a ricevere da Poldhu attraverso i Pirenei.
L’influenza della luce solare sulle radiotrasmissioni a grande
distanza fu ben precisata da Marconi nel 1903, e da quell’epoca egli pensò al modo di ovviare agli inconvenienti, che ne
derivavano. Da allora si tennero presenti negli studi e nelle
realizzazioni le diverse particolarità della propagazione diurna
e di quella notturna; ma nel 1905, per opera specialmente del
Round, fu constatato che le condizioni notturne e quelle diurne presentavano differenze tanto meno notevoli quanto più
lunga era l’onda utilizzata. Si acuì allora la gara nell’allungamento delle onde negli impianti radiotelegrafici. Marconi, nel
1909 usando onde superiori ai 5000 metri arrivò persino ad
ottenere segnali diurni più intensi che quelli notturni. La convenienza di adoperare onde molto lunghe per le grandi comunicazioni ricevette un’ulteriore conferma nel 1910, quando l’Austin ed il Cohen, eseguendo esperienze per conto della Marina americana, furono indotti a stabilire la ben nota formula empirica che porta il loro nome, e che ha servito per diversi anni come base per il calcolo di grandi stazioni radiotelegrafiche malgrado che vari scienziati, specialmente il nostro
prof. Vallauri, avessero dimostrato che tra i risultati della pratica e quelli dedotti dalla predetta formula esistevano spesso
notevoli differenze.
Circa la propagazione delle onde va accennato che fin dal
1902 Kennelly in America ed Heaviside in Inghilterra enunciarono l’ipotesi della probabile esistenza di uno strato conduttore nell’alta atmosfera, dal quale le onde potevano essere
“riflesse” (in realtà sono ripetutamente rifratte), e stabilirono
anche che esso doveva trovarsi a circa 80 km dalla superficie
terrestre. Il matematico Watson calcolò poi, fondandosi sull’intensità delle ricezioni, che lo strato ionizzato doveva trovarsi a circa 100 km di altezza. Tale strato è poi stato oggetto
di molti altri studi, specialmente dopo le irregolarità riscontrate nella propagazione delle onde corte.
Radioricevitore a
due valvole per
radiodiffusione,
prodotto da
Tonyphone,
modello Two Valve
(1923). Per cortesia
di: R. Gianni,
Vimercate, Milano.
Foto di: Studio
Fotografico G.
Cigolini, Milano.
e voluzione delle c omunicazioni: la s toria
Radioricevitore supereterodina
a 5 valvole (1938), portatile,
a valigetta, con custodia di
protezione in ferro per uso
militare. Marca: Radione.
Per cortesia di: R. Gianni,
Vimercate, Milano.
Foto di: Studio Fotografico
G. Cigolini, Milano.
Radioricevitore
Brownie (1923).
Il ricevitore vero e
proprio è a sinistra
con la sintonia
e il rivelatore a
cristallo di galena.
Al centro
l’amplificatore
microtelefonico;
a destra
l’altoparlante, in
questo caso il
modello Dinkie
della Ditta Sterling.
Per cortesia di: R.
Gianni, Vimercate,
Milano.
Foto di: Studio
Fotografico G.
Cigolini, Milano.
Radioricevitore
supereterodina a
cinque valvole
della Ditta Ansaldo
Lorenz, modello
5V3 (1940).
Tipica la “scala
parlante” con il
nominativo delle
stazioni emittenti.
Per cortesia di:
R. Aielli, Milano.
Foto di: Studio
Fotografico
G. Cigolini, Milano.
avevano gli Alexanderson. Marconi era però del parere che
l’alternatore non risolvesse completamente il problema, perché non si prestava a rapidi cambiamenti di lunghezza d’onda e serviva soltanto per onde lunghissime; e preconizzava
che il problema sarebbe stato risolto dall’uso della valvola termoelettronica.
I PRIMI RIVELATORI
Il risuonatore di Hertz e gli apparecchi consimili adoperati dagli scienziati per i primi studi sulle onde elettromagnetiche
non erano adatti per la radiotelegrafia. Questa fece i suoi primi passi coll’aiuto di un dispositivo basato sul fatto che un tubo contenente limatura metallica acquista una grande conducibilità per effetto di azioni elettriche e la perde se sottoposto ad un urto. Questo fatto fu posto in evidenza nel 1884
dal prof. Calzecchi Onesti del Liceo di Fermo, che lo descrisse
in tre memorie pubblicate dal periodico “Il Nuovo Cimento”
dall’ottobre 1884 al marzo 1885. Quantunque tali memorie
fossero state citate dalle principali riviste scientifiche, e particolarmente in Francia dal “Journal de Physique” non ne venne a conoscenza il professor Branly dell’Istituto cattolico di Parigi, il quale nel 1890, cioè sei anni dopo, constatò lo stesso
fatto e ritenne di essere il primo ad aver fatto tale scoperta.
Egli però fu effettivamente il primo a constatare che la limatura di ferro si ammassava anche per effetto di una scarica
elettrica che avvenisse nelle sue vicinanze. Diversi fisici studiarono tosto il tubetto a limatura metallica, e specialmente sir
Oliver Lodge, che introdusse miglioramenti nel dispositivo del
Branly, lo rese più sensibile e lo battezzò col nome di coherer.
Egli ideò pure un martelletto che, automaticamente, riportava la limatura metallica alla primitiva condizione di non conduttività, dopo che era stata resa conduttiva. È questo il congegno di cui si servì dapprima Marconi per le sue esperienze.
In Francia si è voluto attribuire al professor Branly l’invenzione della radiotelegrafia, per aver creato il coherer; ma tale asserzione è evidentemente priva di fondamento. La primizia
della scoperta spetterebbe al Calzecchi Onesti; al Branly, poi,
non è mai venuto in mente di servirsi del suo dispositivo per
ricevere segnali portati da onde hertziane. E si può anche aggiungere che il coherer non ha avuto un’importanza decisiva
nella radiotelegrafia, tanto che fu presto abbandonato: altri
principi fisici potevano ben servire per costruire dei rivelatori
di onde elettromagnetici. Però Marconi, adoperandolo nei
suoi primi tentativi, e cercando di renderlo più sensibile, indusse altri tecnici a fare altrettanto: vennero quindi alla luce
numerosi tipi di coherer: fra essi quello di Robinson oltre a
quello del Lodge, un tipo creato dal semaforista della Marina
italiana Castelli, ed altro del francese Ferrié, che nel 1897 costruì un coherer a limatura di oro, suscettibile di regolaggio.
Per le esperienze eseguite nel 1901 attraverso l’atlantico Marconi adoperò un detector del tipo di quelli che erano allora
adoperati nella Marina italiana, e vi aggiunse un ricevitore telefonico, poiché l’orecchio umano è il ricevitore più sensibile.
Nel 1902 egli però migliorò il rivelatore magnetico, che Rutherford aveva inventato nel 1895 e prese un brevetto per il
suo detector magnetico.
Siccome nemmeno i rivelatori magnetici soddisfacevano troppo alle esigenze, si pensò anche a crearne altri di natura diversa. E così vennero alla luce quelli elettrolitici, il primo dei
quali è stato ideato dal De Forest. Consisteva in un tubo di rame contenente una pasta di mercurio, glicerina, acqua ed un
po’ di limatura metallica, la quale pasta era posta fra due elettrodi metallici. In essa si formavano strutture cristalline quando era attraversata da una corrente continua, strutture che
venivano parzialmente distrutte se la pasta era attraversata da
correnti pulsanti. Altre forme di rivelatori elettrolitici furono
create da Ferrié, Schloemich e Vreeland. È anche meritevole di
menzione il rivelatore di S.C. Brown, consistente in una palla
di perossido di rame fra elettrodi di rame e platino.
Il problema della rivelazione fece poi un notevole passo innanzi nel 1906, quando Dunwoody dimostrò che il carborundum aveva la proprietà di rettificare le piccole correnti ad alta
frequenza, ed inventò il rivelatore a carborundum. Esso fu
ben presto seguito dal rivelatore a punta di rame e molibdeno del Prof. Pierce, dal detector “Pericon” di Pickard, formato da pirite e zinco, dal detector “Silicon”, da quello del Blake a solfito d’acciaio, da quello formato da un contatto fra
tellurio e grafite, chiamato Bronek Cell, da quello inventato
da Walter nel 1908 e costituito da un filo di tantalio posato
su mercurio, ed infine da quelli classici a galena, inventati dal
dr. Eccles, fra il 1909 ed il 1911, ed in seguito da altri perfezionato. Eccles diede anche la teoria del loro funzionamento.
Ma tutti questi rivelatori dovevano passare in seconda linea
con la scoperta della valvola termoionica.
I TUBI ELETTRONICI
La “valvola” è stata il componente che ha fatto fare i più
grandi passi alla radio. La sua invenzione si può annoverare
fra le più grandi scoperte. L’idea della valvola ionica si può dire abbia avuto principio nel 1884 quando Edison, rinchiusa
una lastra metallica entro il bulbo di una lampada elettrica ad
incandescenza, fra i due rami del filamento a ferro di cavallo,
osservò che lo spazio vuoto dentro di essa conduceva una
corrente quando il filamento era reso incandescente, e che la
38
Altoparlante
elettromagnetico
a spillo degli Anni
Venti. Per cortesia
di: N. Rodriguez,
Milano.
Foto di: F. Bisi.
39
pure l’importanza della tensione di griglia. Lavori ulteriori di
Schloemich, Round, Tigerstedt ed altri sulla costruzione della
valvola a tre elettrodi condussero alla realizzazione di un anodo cilindrico ed una griglia situata tra il filamento e la placca.
Nel 1912 un gruppo di case produttrici tedesche, apprezzando i lavori del von Lieben sulla valvola, ne acquistò i brevetti.
A partire dal 1913 si nota una precisa differenza fra le prime
valvole “molli” e quelle nuove “dure”, messe sul mercato,
specialmente in seguito ai lavori del Langmuir sul vuoto. Nel
1914 la Telefunken costruì il primo amplificatore a due valvole di bassa frequenza. Avvenuta nel 1913 la scoperta della
“reazione” per merito di Meissner e De Forest, fu anche risolto il problema dell’emissione di onde continue (o persistenti) per mezzo di valvole. Ma la loro costruzione urtò pure
contro le difficoltà inerenti alla necessità di un alto vuoto. Esse furono superate in seguito ai citati lavori di Langmuir ed alla scoperta della pompa molecolare a diffusione avvenuta nel
1915. In tale epoca si è cominciato ad ottenere, per mezzo di
valvole, trasmissioni con rilevanti portate. Le principali ditte di
materiali radio diedero da allora vivo impulso alla costruzione
di apparecchi a valvole; ed i principali tecnici e scienziati, quali Irving, Langmuir, Fleming, Round, Lee De Forest, Marius Latour, Abraham, Barkhausen, Moeller, White, Vallauri, Gutton,
Armstrong ed altri ne fecero rapidamente progredire la tecnica. Si è diminuita la potenza necessaria all’accensione del filamento, si è abbassata la tensione di placca delle valvole riceventi; si è aumentata la durata di quelle emettenti. E furono create valvole speciali, come quelle a catodo riscaldato dalla corrente alternata.
e voluzione delle c omunicazioni: la s toria
corrente passava dalla lastra metallica al filo incandescente,
ma non in senso inverso. Nel 1899 Elster e Geitel osservarono
anche che un filo di platino, immerso nell’ossigeno e posto
nell’aria rarefatta, scaricava più facilmente elettricità positiva
che negativa. Wehnelt nel 1903 utilizzò l’effetto scoperto da
Edison per raddrizzare le correnti alternate, e riconobbe che
la conducibilità dei tubi a gas rarefatti era dovuta all’uscita di
“particelle” dal catodo incandescente, e che specialmente le
leghe metalliche erano atte a tale emissione. Il raddrizzatore
di Wehnelt ebbe poi successive modifiche e perfezionamenti.
La “valvola” è stata inventata l’anno seguente. L’inventore
della prima valvola, quella a due elettrodi (o diodo) è stato il
Fleming, che studiò l’effetto Edison dal 1885 al 1890 e fu
condotto alla conclusione che in una lampadina elettrica vi
era emissione di particelle principalmente dal ramo negativo
del filamento, le quali erano cariche di elettricità negativa. Egli
fece questa scoperta molto tempo prima che Joseph John
Thomson facesse l’altra, pur essa molto notevole, dell’esistenza in un tubo a vuoto molto spinto di particelle più piccole degli atomi: infatti questi dimostrò l’esistenza degli elettroni soltanto nel 1899. Fleming non pensando agli elettroni,
ritenne dapprima che tali particelle fossero atomi di carbonio.
Dal 1900 in poi egli, che già aveva preso servizio nella Compagnia Marconi, pensando alla rettificazione delle deboli correnti alternate ad alta frequenza indotte dalle onde nell’antenna cioè al modo di renderle unidirezionali per poter usare
un galvanometro per rilevarle, fece molti esperimenti per
sfruttare in tal senso l’effetto Edison, e finì col creare la valvola rettificatrice a due elettrodi, che brevettò in Inghilterra nel
dicembre 1904, ed altrove al principio del 1905. La valvola
Fleming rassomigliava un po’ ad un tubo Wehnelt. Essa fu in
seguito molto migliorata da Brandes, della Telefunken, che vi
introdusse una cosa di capitale importanza: il campo anodico
generato da una tensione ausiliaria. Brandes prese per questo
un brevetto alla fine del 1905. Benché Fleming abbia poi cercato di far prendere sviluppo nella radiotelegrafia alle sue valvole, migliorandone notevolmente i collegamenti, esse vennero inizialmente poco adoperate. Si è che soltanto due anni
dopo, cioè nel 1907 veniva realizzata in America un’altra valvola, destinata a rendere servizi molto migliori, perché oltre all’anodo ed al catodo aveva il terzo importantissimo elettrodo,
la griglia. La valvola a tre elettrodi fu creata dal De Forest, che
prese per essa un brevetto nel febbraio, e la chiamò Audion.
Dapprima anche la valvola De Forest fu considerata con diffidenza: si preferiva per la rivelazione l’impiego del cristallo, il
quale offriva ugual sensibilità di una delle prime valvole a tre
elettrodi, e richiedeva un circuito più semplice. Adottatosi però un alto vuoto nel bulbo di vetro e circuiti adatti, le valvole
non tardarono ad affermarsi. La priorità dell’impiego della valvola come amplificatore è attribuita a Robert von Lieben, che
ha preso per questo un brevetto nel marzo del 1908. Nel novembre dello stesso anno anche De Forest riconosceva il potere amplificatore dei suoi “Audion” con un brevetto relativo
ad un dispositivo per amplificare deboli correnti elettriche, ma
non dimostrò di ben valutare l’effetto della griglia, mentre invece questo fu ben riconosciuto dal von Lieben, che dimostrò
LA RADIOTELEFONIA
Ritornando un po’ indietro, si è accennato che nel 1897 Bell
ed Hayes in America constatarono che da un arco a corrente
continua si poteva avere la riproduzione della voce e, crearo-
Altoparlante
elettromagnetico
a spillo degli Anni
Venti. Per cortesia
di: N. Rodriguez,
Milano.
Foto di: F. Bisi.
e voluzione delle c omunicazioni: la s toria
Fonografo Edison
con registrazione su
cilindro cerato (1877).
Per cortesia di: N.
Rodriguez, Milano.
Foto di: F. Bisi.
potenze equivalenti a potenze di qualche centinaia di kilowatt. L’uso di nuovi sistemi di modulazione, come quello a
soppressione della portante e di una delle due bande laterali,
consentì di ottenere ulteriori, notevoli guadagni di potenza.
LE ONDE CORTE
Ricevitore
telefonico Bell a
calamita rettilinea
(ca. 1881).
Per cortesia di:
C. Pria, Bollate,
Milano.
Foto di: F. Bisi.
Ricevitore
telefonico Bell a
calamita rettilinea
(ca. 1881).
Per cortesia di Ist.
Tecnico Comm.
“Pier CrescenziTanari”, Bologna.
Foto di: F. Bisi.
no un fotofono; e che nel 1900 Duddell aveva dimostrato il
fenomeno dell’arco musicale. Con tali scoperte si può dire abbia avuto inizio la radiotelefonia. Nel 1902 Ruhmer fece numerosi esperimenti adoperando un arco parlante insieme ad
un riflettore parabolico. Nel 1913 Koepsel fece delle prove
adoperando un arco Duddell. Fessenden fu il primo ad adoperare un microfono nel circuito antenna. Nel 1906, adoperando un relais telefonico di sua invenzione, dimostrò la possibilità di collegare una linea telefonica terrestre con una stazione radiotelefonica. Nel 1907 riuscì a trasmettere bene la
parola dalla sua stazione di Brant Rock alla distanza di 200 miglia. Nel 1906 il prof. Q. Majorana, adoperando un suo microfono a liquido, riuscì a radiotelefonare da Monte Mario
(Roma) a Trapani, distante 420 km. Nel 1912 riuscì in altre
prove alla stessa distanza. Nell’anno seguente il Prof. Vanni,
adoperando un arco del dott. Moretti (giovane medico romano dedicatosi per qualche anno allo studio della radio) e modulando la emissione con un microfono a liquido telefonò
soddisfacentemente da Centocelle a Tripoli, distante circa
1000 km. Il dott. Moretti nel 1912 tentò pure la radiotelefonia
col suo generatore ad arco ed un originale microfono; ma, per
mancanza d’aiuto, non poté perfezionare il dispositivo. Ma la
radiotelefonia non è entrata nell’uso pratico che con l’avvento
della valvola. Questa le ha poi fatto avere un potentissimo sviluppo, rendendola adatta non soltanto per le trasmissioni relativamente vicine, ma anche per quelle lontanissime.
“L’American Telephone and Telegraph Company” tentò nel
1915, mediante l’impiego di valvole, la radiotelefonia transatlantica dalla stazione marittima di Arlington (Stati Uniti) alla
Torre Eiffel di Parigi, e quantunque a quell’epoca si potesse
disporre soltanto di piccole valvole, e di potenza limitata, si riuscì a parlare attraverso l’Atlantico. La guerra impedì di continuare le esperienze per giungere a risultati pratici. Nel 1923
la predetta compagnia ritentò la prova ed ottenne una comunicazione telefonica abbastanza chiara tra New York e South
Gate, presso Londra. Questo felice risultato indusse il Ministero delle poste Inglesi a collegarsi con essa e con la Western
Eletric per proseguire negli studi. Altri studi furono fatti dalla
Società Marconi e da altre compagnie. I risultati furono così
felici, che si è potuto impiantare nel 1927 un collegamento
telefonico attraverso gli Oceani. Esso è stato molto favorito
dall’adozione delle onde corte per le trasmissioni a grande distanza e dall’esser stata resa possibile una trasmissione in duplex. Da allora in poi i collegamenti si moltiplicarono rapidamente e, presto, circondarono il Globo. In Italia, il primo collegamento radiotelefonico intercontinentale diretto si stabiliva nel 1931 tra Roma e Buenos Aires. La radiotelefonia commerciale a grandissima distanza, quando ancora non esistevano i satelliti artificiali, fu fatta essenzialmente su onde corte,
le potenze impiegate in trasmissione arrivano all’ordine di
qualche decina di kilowatt; l’uso di antenne direttive rese tali
La gara nell’allungamento delle onde per i servizi radiotelegrafici, si può dire abbia avuto termine nel 1922, quando con
varie esperienze eseguitesi si constatò che la ricezione di onde di 40.000 metri era impossibile a grande distanza, che
quella di onde di 23.000 era debole, e che invece ottima era
la ricezione con onde di 18.000 m. Si venne allora alla conclusione che non convenissero lunghezze d’onda superiori ai
20.000 m. Ma a quell’epoca, le onde corte già cominciavano
a dimostrare le loro pregevoli qualità. La loro adozione d’altronde s’imponeva per ottenere un maggior rendimento con
l’impiego di minor energia, in maniera da avere un minor costo, e poter lottare contro le compagnie dei cavi; per poter impiantare un maggior numero di stazioni, ed anche per ottenere un certo grado di segretezza. I dilettanti (radioamatori)
degli Stati Uniti, costretti dalle leggi vigenti poco prima della
guerra mondiale a servirsi solo di onde inferiori ai 200 m cominciarono allora a studiare le onde comprese fra 100 e 200
m. Nel 1920 organizzarono una prova transatlantica tra l’America e l’Inghilterra ed adoperando con tali onde una potenza inferiore al kilowatt riuscirono a trasmettere e ricevere
dall’uno all’altro continente. Contemporaneamente, Marconi
studiava le onde inferiori ai 100 m, che fu poi dimostrato essere le onde corte più pratiche. Mentre nel 1902 diceva scherzando “occorre fare i passi più lunghi per andare più lontano”
nel 1916 diceva “va più rapido e più lontano un piccolo cane
a passi rapidi e corti, che un elefante a passi lenti e lunghi”.
Nelle sue esperienze degli anni 1916 e 1917 eseguite a Genova ed alla Spezia adoperò onde da 3 metri in su, ed in genere di 15 metri. Nelle prove fatte nel 1923 tra una stazione
sperimentale situata a Poldhu e lo yacht Elettra provò la lunghezza d’onda di 97 metri; nelle prove del 1924 utilizzò onde di 92, 60, 47 e 32 m. Le prove eseguite con l’onda di 32
m dall’Inghilterra al Canadà, all’America del Sud ed all’Australia dimostrarono che era possibile trasmettere messaggi a
tali distanze, adoperando soli 12 kW o meno al trasmettitore,
anche quando l’intero circolo massimo fra tali località e l’Inghilterra era esposto alla luce diurna. Prove con onde superiori ai 100 m e precisamente di 112 metri furono eseguite nel
giugno 1923 e mesi seguenti da Adriano Ducati: egli ottenne
Grammofono a manovella con sistema a risonanza
“Klingsor”. Funziona come una slot-machine, con una
monetina. Risale agli Anni Quaranta.
Per cortesia di: C. Pria, Bollate, Milano. Foto di: F. Bisi.
40
L’UTILIZZO DEI TUBI ELETTRONICI
TRASMISSIONE
Il triodo, grazie agli studi di Meissner, Armstrong, Hartley, Colpitt, venne generalmente introdotto come generatore di oscillazioni persistenti data la sua caratteristica di costituire, opportunamente impiegato, una resistenza differenziale negativa e quindi in grado, a spese di una sorgente di alimentazione, di mantenere sul circuito oscillazioni elettriche, compensando, sia l’energia irradiata, sia quella dissipata. Con l’avvento del triodo, tutti i vecchi sistemi di generazione passarono in secondo piano, almeno per quanto si riferiva alle ricerche sperimentali, malgrado la limitata potenza e la instabilità
di frequenza dei primi tubi. Il primo trasmettitore a valvole entrava in esperimento in Italia (presso la Marina) nel 1915. Nello stesso anno, il triodo venne anche impiegato come amplificatore a radio frequenza e si costruirono radiotrasmittenti di
una certa potenza disponendo, dopo il generatore, stadi amplificatori in cui venivano montate decine di triodi in parallelo.
I vecchi tubi, a scarso rendimento e di potenza relativamente
modesta, vennero sostituiti da tubi a potenza elevata e richiedenti uno stadio pilota driver di più modesta potenza. Con
questi nuovi tubi che richiedevano particolari sistemi di raffreddamento a circolazione di liquido, si raggiunsero potenze
di centinaia di kilowatt. La modulazione salì al 100 % con distorsioni trascurabili. La stabilità di frequenza venne dapprima
ottenuta ricorrendo ad uno stadio pilota completamente indipendente, alimentato da una sorgente autonoma, ed in seguito usando particolari dispositivi stabilizzatori, fra i quali si
impose subito l’impiego del quarzo piezoelettrico.
RICEZIONE
L’adozione delle oscillazioni persistenti nella trasmissione radiotelegrafica, ottenuta dapprima con l’arco Poulsen, poi con
gli alternatori ad alta frequenza ed, infine, coi triodi, portò a
nuovi orientamenti nella tecnica dei radioricevitori per rendere percettibile nel telefono la manipolazione del segnale trasmesso. Un primo sistema, già proposto dal Fessenden nel
1902, fu quello ad eterodina, che trovò, nella proprietà del
triodo, una eccellente realizzazione. Secondo tale sistema il
segnale in arrivo veniva fatto interagire, “battere”, con una
oscillazione, generata localmente da un oscillatore a triodo, la
cui frequenza differiva da 800 ÷ 1000 Hz da quella dell’oscillazione in arrivo, determinando un battimento intelligibile al
telefono in tutte le sue intermittenze dovute alla manipola-
zione telegrafica. Da questo sistema derivò, poi, quello detto
di autodina, o endodina, in cui due circuiti oscillatori accordati su frequenze poco diverse, così da produrre battimenti udibili, erano inseriti rispettivamente nei circuiti di placca e di griglia di un unico triodo ed erano tra loro accoppiati induttivamente, come nel sistema Round-Marconi (1913) o capacitivamente, come nel sistema Alexanderson (1914). A questi sistemi può concettualmente ricondursi il circuito “ultraudion”
ideato da De Forest nel 1914.
NUOVI CIRCUITI
Nei primi tempi, i sistemi a eterodina e derivati, che tanto progresso avevano portato nella ricezione telegrafica, furono pure applicati alla ricezione telefonica mediante i cosiddetti circuiti omodina, in cui la frequenza locale veniva sintonizzata su
quella da ricevere così da annullare il battimento. Migliori risultati si ebbero coi ricevitori a super-reazione, proposti dall’Armstrong nel 1916, nei quali, pur valendosi della grande
amplificazione ottenibile col triodo utilizzato come resistenza
negativa, si eliminava la possibilità del circuito di autoscillare.
Sul principio della resistenza negativa si idearono molti tubi e
circuiti quali il “dinatron”, il “pliodinatron”, il “negatron”,
ecc. Mentre altri circuiti si andavano perfezionando, tra i quali quelli a “neutrodina” dell’Hazeltine (1919), e mentre il collegamento di più triodi in cascata rendeva sempre più sensibili i radioricevitori (ma nel contempo nel complicava le manovre di sintonizzazione) andava sviluppandosi il sistema a
cambiamento di frequenza, solitamente detto a “supereterodina”. Questo sistema, le cui basi concettuali già si trovano in
brevetti del Meissner e del Round (1913), fu più concretamente studiato e descritto alcuni anni dopo dal Levy (1917),
dalla Siemens (1918), e dall’Armstrong (1918). Esso consiste
nel trasferimento della conversione dell’onda portante in arrivo ad una frequenza intermedia costante. In tal modo si rese
più facile la realizzazione di diversi amplificatori accoppiati con
filtri di banda, la cui curva di risonanza offre il miglior compromesso tra le esigenze di selettività e di fedeltà di riproduzione
in tutta la banda. L’invenzione del tetrodo (allora noto sotto il
nome di valvola schermata), dovuto a Hull nel 1926 e del pentodo, nel 1928, permisero di aumentare la sensibilità dei ricevitori. La successiva realizzazione di adatti tubi per la conversione di frequenza, unitamente alla risoluzione del problema
del comando unico, hanno portato, in breve, la supereterodina al più alto grado di perfezione, come radioricevitore classico sia nel campo professionale, sia in quello civile.
La radiodiffusione determinò la “rivoluzione elettronica” por-
Apparecchio telefonico campale modello 1915, in dotazione all’Esercito
Austroungarico nella Prima Guerra Mondiale. Per cortesia di: Museo di
Fisica del Dip. di Fisica e del Sistema Museale d’Ateneo dell’Università
degli Studi di Bologna. Foto di: C. Porcheddu.
41
Apparecchio
telefonico da muro
a batteria locale,
con chiamata a
generatore
mediante
manovella.
Tipo v. Bailleux.
Prodotto dalla
S.té Ind.lle des
Téléphones,
Francia, attorno al
1900. Per cortesia
di: F. e G. Govoni,
Bologna. Foto di:
C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
una chiara ricezione in pieno mezzogiorno alla distanza di
350 km con potenza inferiore ai 10 Watt. Da allora le prove
ad onde corte si susseguirono tra dilettanti dei due continenti europeo ed americano ed anche con l’Australia; mentre le
grandi compagnie radiotelegrafiche, specialmente la “Marconi” installavano grandi stazioni ad onda corta, o sostituirono
gli impianti di vecchie stazioni o vi impiantavano nuovi trasmettitori e ricevitori per onde corte, in aggiunta agli altri già
esistenti. Nel 1928, lo sfortunato volo del dirigibile “Italia” al
Polo Nord, dimostrò il valore delle onde corte, utilizzate dal
famoso radiotelegrafista Biagi, che permisero di collegare i
naufraghi sulla banchisa con i mezzi di soccorso.
e voluzione delle c omunicazioni: la s toria
Radio TV Radiomarelli.
Modello RV300 (1939).
Realizzato nella fase
iniziale e ancora
sperimentale del nuovo
mezzo audiovisivo
(analisi tramite
iconoscopio di Vladimir
Kosma Zworykin, e
sintesi mediante
cinescopio di Von
Ardenne). Tecnologia
bloccata poco dopo
dall’avvio della Seconda
Guerra Mondiale.
Per cortesia del: Museo
della Scienza e della
Tecnica di Milano.
Foto di: Museo della
Scienza e della Tecnica,
Milano.
tando, negli anni ‘20, alla comparsa dei primi radioricevitori
commerciali. L’alimentazione era affidata a batterie di accumulatori per il filamento e di pile per la tensione anodica e
l’antenna era generalmente del tipo a telaio. Vi fu poi l’avvento dell’alimentazione in alternata e si diffuse l’uso dell’altoparlante, il che favorì, senz’altro in modo cospicuo, lo sviluppo della radiodiffusione. Attorno al 1930 la tecnica costruttiva dei radioricevitori fece passi da gigante. Fu introdotto l’uso degli chassis metallici, l’alimentatore, che già da qualche tempo era in uso, venne incorporato al ricevitore, trovò
posto sul medesimo telaio così come l’altoparlante. La modulazione di ampiezza che, fino ad un certo momento, rappresentava l’unico mezzo utilizzabile in dipendenza delle radio
frequenze utilizzate, con l’avvento di onde molto corte potè
essere sostituita col sistema detto a modulazione di frequenza, con i noti vantaggi di rapporto segnale-disturbo elevato,
eliminazione delle interferenze delle stazioni adiacenti, stabilità del livello di riproduzione, grande linearità di modulazione. La modulazione di frequenza prevista già nel 1901 da Fessenden, fu attuata in pratica da Armstrong nel 1936.
LA RADIODIFFUSIONE
Tipico esempio
di cellulare.
Come all’epoca di
Marconi, un
sistema senza fili
ha sconfitto una
tecnologia diffusa
e collaudata.
Per cortesia di:
C. e G.B.
Porcheddu.
Foto di.
C. Porcheddu.
Il primo trasmettitore radiofonico a diffusione circolare, della
potenza di 2 kW fu installato nel 1914 in Belgio; i concerti
emessi con una certa regolarità, furono ricevuti da qualche
centinaio di dilettanti radioamatori. La prima guerra mondiale interruppe tale attività, finché, nel 1919, una stazione inglese, installata sulla Marconi House di Londra, iniziò l’emissione di programmi a diffusione circolare. L’idea di radiodiffondere notizie in America fu attuata nel 1920 dalla Compagnia Westinghouse che impiantò una stazione a Pittsburgh
della potenza di 100 watt ed operante su onda di 360 metri.
Essa aveva essenzialmente lo scopo di annunciare i risultati
della elezione del presidente Harding, ma poi fu impiegata
per trasmettere notizie varie. Nel 1921 la sua potenza fu aumentata a 1,5 kW ma il favore del pubblico le fu acquistato
soltanto in grazia di un’attiva campagna di stampa. Nel 1921
si è anche deciso a Londra, nella conferenza annuale della
“Wireless Society”, di impiantare una stazione di grande potenza per dare notizie circolari, e fu inaugurata all’Aia una stazione olandese, che emetteva regolari concerti settimanali
con potenza di 100 watt, aumentata successivamente a 200.
Tale stazione si potè sostenere per un certo tempo grazie alle
sovvenzioni degli amatori inglesi, che si addossarono parte
delle spese di esercizio.
Nel novembre 1921 vennero fatte trasmissioni sperimentali
anche in Francia dalla stazione della Torre Eiffel con onda di
2600 m. Verso la fine del 1921 ed il principio del 1922 in
America il broadcasting - come fu colà chiamato - già suscitava l’entusiasmo della popolazione, grandi ditte approfittavano della libertà lasciata dal governo per impiantare stazioni
ed i fabbricanti e commercianti cominciavano a fare affari d’oro per la vendita di apparecchi radioriceventi. In Inghilterra, invece le limitazioni imposte dalla legge ostacolavano ancora lo
sviluppo della radiodiffusione come del resto in tutti gli altri
Stati europei, in cui non era ancora superato il periodo restrittivo imposto dalla guerra. Ma nel 1922 le pressioni dei radioamatori riuscirono anche là a far sorgere un servizio di
broadcasting. Si costituiva la Società Radiola e poi la British
Broadcasting Company che impiantò dapprima sei stazioni
trasmittenti portate poi ad 8 alla fine del 1923. In Francia furono di grande impulso alle radiodiffusioni le emissioni della
Torre Eiffel. Nel 1923 iniziò regolari trasmissioni anche una
stazione parigina dell’Ecole Superieure des Post et Telegraphe,
con onda di 450 m e contemporaneamente venne organizzata l’emissione di concerti dalla Società Radiola con una sua
stazione parigina, adoperante onda dapprima di 1560 m e
poi di 1780 m. Nell’aprile del 1923 cominciarono a funzionare anche la stazione di Lione con onda di 3100 m e quella belga di Bruxelles con onda di 1200 m. In Germania vi fu dapprima poca liberalità nel concedere il permesso per l’impianto
di stazioni radiofoniche, tuttavia in seguito all’esempio francese ed inglese fu promosso nel 1923 un certo movimento –
specialmente da parte di ditte costruttrici – per far sorgere le
radiodiffusioni. Un certo numero di esse costituì la Rundfunk
G.m.b.H. di Berlino, cui poi si aggiunsero altre società. In Italia, come in molti altri Stati la radiodiffusione cominciò a funzionare soltanto nel 1924, quando già in America, Inghilterra
e Francia avevano assunto proporzioni grandiose. Sorsero per
volere del Governo nazionale e per impulso del Ministro delle
comunicazioni: si costituì per esse in Roma la Unione Radiofonica Italiana, che impiantò le stazioni di Milano, Roma e Napoli, e si trasformò poi nella E.I.A.R. la quale aggiunse alle stazioni precedenti quelle di Genova, Torino e Bolzano. Queste
stazioni furono l’avvio della grande rete di radiodiffusione nazionale sfociata nel Centro Radio Imperiale di Roma del 1938.
Venne poi la seconda guerra mondiale e, alla fine di essa, alla EIAR (Ente Italiano Audizioni Radiofoniche) nel 1945 si sostituì la RAI (Radio Audizioni Italiane).
LE MICROONDE
L’avvento delle onde ultracorte doveva essere ovviamente
subordinato al progresso tecnico degli apparati relativi. Marconi vi contribuì con le famose esperienze attuate a bordo
dell’“Elettra”, e a S. Margherita Ligure, dal 1932 ed anni successivi. Questo periodo è dominato da nuove affermazioni
della radio nell’ambito delle comunicazioni a breve distanza
aventi importanza nei campi marittimo, aeronautico e civile.
Si è trattato per lo più di ottenere collegamenti sicuri e segreti con potenze relativamente modeste, fino a sostituire i cavi
telefonici e telegrafici. Nell’ultimo caso, specialmente per il
traffico radiotelegrafico e telefonico ordinario, occorreva disporre di antenne di elevato rendimento che potessero concentrare ed orientare l’energia irradiata in un fascio ristretto.
42
43
Società di Fisica di Londra, il fatto che alcuni contatti raddrizzatori di galena, potevano, in certe condizioni, generare
delle correnti oscillatorie. La scoperta di Eccles destò, a quel
tempo, un grande interesse, ma tosto, essa, fu lasciata cadere in dimenticanza, specialmente quando, pochi anni dopo, vennero scoperte le proprietà dell’ “Audion” (primo nome del triodo), la valvola a tre elettrodi. Il transistore può garantire tutte le funzioni di un tubo a vuoto, amplificazione,
oscillazione, e funzioni di commutazione impulsive, è poco
costoso, più affidabile, dissipa poco e può essere, mediante
l’integrazione, ridotto a dimensioni microscopiche. Esso ha,
infatti, permesso la realizzazione dei circuiti integrati.
ET ULTRA
Dopo l’avvento della radiodiffusione, che presto si espanse
ovunque, anche le radiocomunicazioni a lunga distanza consentirono alla telegrafia e alla telefonia con onde lunghe prima, e onde corte poi, di superare le più grandi distanze. Decolla timidamente anche la televisione, e le microonde consentono di realizzare i primi ponti radio e, quindi, il radar che
si aggiunge agli altri mezzi di radioassistenza alla navigazione.
L’utilizzo di tubi elettronici si diffonde con l’elettronica in svariatissime applicazioni industriali e medicali. Ma la più eclatante realizzazione sarà quella degli elaboratori elettronici, dal
1945 in poi, che determineranno il nascere dell’informatica. Telecomunicazioni ed informatica, agli inizi della seconda metà
del secolo XX, creeranno una nuova tecnologia: la telematica.
Dalla semplice telegestione da terminali connessi ad un elaboratore locale, si passa al time-sharing, sistema col quale terminali di utenti lontani, tramite modem telefonico, si collegano ad un grande elaboratore centralizzato, a distribuzione di
tempo, che possono utilizzare come fosse al proprio servizio.
Ma il colpo di grazia viene dai personal computer diffusisi col
classico PC Apple provvisto di video. Il PC prosegue la sua corsa, ed entra, con la diffusione di Internet, nella rete mondiale
di intercomunicazione globale. La digitalizzazione della comunicazione e della trasmissione telefonica porta alla digitalizzazione di ogni tipo di informazione, basti pensare al CD e
alla fotografia elettronica e alle videocamere che soppiantano
la classica pellicola. La facile registrazione di ogni tipo di informazione crea banche dati raggiungibili con Internet. Le vie
di comunicazioni satellitari hanno reso possibile immediate
connessioni di tutti con tutti e con tutto. La telefonia cellulare non è più soltanto telefonia, ma un mezzo di comunicazione globale che, parallelamente ai sistemi GPS (che hanno
mandato in pensione i radiotelegrafisti, sì che l’SOS è divenuto un ricordo) consente di muoversi sulla faccia della terra con
facilità e sicurezza.
Tutto è ormai legato alla radio: diciamo grazie a Marconi.
e voluzione delle c omunicazioni: la s toria
Nelle comunicazioni “bilaterali” furono usate antenne che,
salvo le dimensioni, trasferivano nel campo delle onde ultracorte e cortissime i già noti concetti del riflettore, sia che fosse costituito da cortine piane di dipoli, sia che si applicassero,
come nelle esperienze effettuate da Marconi nel Golfo di Genova, dei riflettori a superficie continua come nelle esperienze del 1930 e ‘31 sul canale della Manica (Società Standard),
ed in quelle dello stesso Marconi fra Torrechiaruccia e la stazione Vaticana di Castel Gandolfo.
Da questa tecnologia nascevano i ponti radio (detti anche
“cavi hertziani”) di cui il prof. Vecchiacchi per l’Italia, fu tra i
principali studiosi (1939), e il radar, il cui nome è composto
con le iniziali dei vocaboli inglesi RA-dio, D-etecting; A-nd,
R-anging, che significa radio-localizzazione. L’antenna del radar emette segnali, impulsi brevissimi, a eguali intervalli di
tempo, successivamente, secondo tutte le direzioni, nel corso
di un rapido giro. Gli echi riflessi dagli ostacoli eventualmente incontrati in questo giro vengono raccolti e trasformati in
segnali visibili sullo schermo fluorescente di un tubo a raggi
catodici, sul quale si disegna così il profilo circostante al punto di stazione. Il primo radar venne realizzato da Watson Watt
intorno al 1936. Il difficile problema venne anche affrontato
nei laboratori della Marina Italiana per merito del Prof. Tiberio, e alcune case costruttrici realizzarono i primi modelli intorno al 1940. È nota l’importanza avuta dal radar nel corso
della seconda guerra mondiale. Sviluppi impensati deriveranno dalla realizzazione del transistor, che permetterà, fra l’altro, l’evoluzione dell’elettronica da “analogica” a “digitale”.
La radio ha trovato infatti nel transistore l’elemento componente attivo che, detronizzando i tubi elettronici, ha permesso di giungere ad un grado di miniaturizzazione e di autonomia imprevedibili. Ideato nel 1947, il transistore è il risultato di 10 anni di ricerche orientate specificamente verso
la messa a punto di un amplificatore, per linee telefoniche,
allo stato solido allo scopo di cercare di eliminare l’uso dei
tubi elettronici. Il 1° luglio del 1948 il “New York Times”
diede breve notizia che i “Bell Telephone Laboratories” avevano comunicato l’invenzione di un nuovo componente attivo allo stato solido che avrebbe potuto sostituire i tubi elettronici. Il pubblico non valutò immediatamente l’importanza
del ritrovato, mentre il mondo scientifico si rese conto subito dell’enorme valore dell’invenzione che avrebbe determinato una svolta decisiva nella radio e nella elettronica, in generale. Questo nuovo componente attivo allo stato solido
era il transistor parola risultante dalla contrazione di Transfer Resistor = resistenza di trasferimento. Erano autori della
scoperta W.H. Brattain, J.S. Bardeen e W.B. Shockley che,
nel dicembre 1947, erano riusciti a realizzare il primo transistore funzionante come amplificatore costituito da un cristallo di germanio e da due elettrodi a punta di contatto.
Questo nuovo componente attivo, che inizialmente era stato definito “triodo a cristallo”, aveva avuto una gestazione
durata circa un decennio, ad opera di William Shockley e
Alan Holden, sempre dei Bell Laboratories. L’utilizzazione di
semiconduttori a scopo di amplificatore ed anche per la generazione di correnti alternate aveva avuto dei precedenti.
Fu nell’anno 1910 che W.H. Eccles segnalò per primo, alla
La miniaturizzazione
del PC. Uno dei più
avanzati esempi di
PC palmare.
Tra l’altro, consente
la digitalizzazione
diretta di uno
scritto tradizionale
sullo schermo
senza l’uso di
tastiera.
Assieme al cellulare
rappresenta uno
dei più avanzati
modi del
comunicare. La
prossima frontiera?
La Telepatia?
B. Valotti
guglielmo marconi
(1874-1937)
In alto:
Guglielmo
Marconi
nel 1896
a Londra.
Ci sono stati tre grandiosi momenti nella mia vita di inventore. Il primo, quando i segnali radio da me inviati fecero suonare un campanello dall’altro lato della stanza in cui stavo
svolgendo i miei esperimenti; il secondo, quando i segnali trasmessi dalla mia stazione di Poldhu, in Cornovaglia, furono
captati dal ricevitore che ascoltavo a S. Giovanni di Terranova,
dall’altra parte dell’Oceano Atlantico a una distanza di circa
3000 km; il terzo è ora, ogni qualvolta posso immaginare le
possibilità future e sentire che l’attività e gli sforzi di tutta la
mia vita hanno fornito basi solide su cui si potrà continuare a
costruire. (Guglielmo Marconi, dicembre 1935)
La pacifica rivoluzione delle comunicazioni radio, o senza fili
come si diceva una volta, ha cambiato radicalmente le società del mondo contemporaneo. Guglielmo Marconi fu l’iniziatore di quella rivoluzione: il suo sistema di telegrafia senza fili realizzato nel 1895 segnò l’inizio delle radiocomunicazioni.
Grazie alla sua straordinaria capacità di combinare una singolare abilità tecnologica ed un concreto spirito imprenditoriale,
Marconi dedicò tutta la sua vita allo sviluppo della sua invenzione: fu così che, passo dopo passo, Marconi mandò messaggi radio sempre più lontano.
Dopo gli incoraggianti esperimenti realizzati nel 1895 a Villa
Griffone (la residenza della Famiglia Marconi situata nella
campagna bolognese) il giovane inventore andò in Inghilterra
(febbraio 1896), nazione nella quale poté contare sull’appoggio dei parenti irlandesi (in particolare del cugino Henry Jameson Davis) per sviluppare la sua invenzione. Tra i primi contatti, di grande importanza fu quello con William Preece, allora direttore tecnico del General Post Office. In quell’anno,
Marconi brevettò il suo sistema di telegrafia senza fili. Nel luglio del 1897 egli formò una società per sviluppare e commercializzare il suo nuovo metodo di comunicazioni senza fili. Il nome iniziale della società, The Wireless Telegraph & Signal Company, fu modificato nel 1900 e divenne Marconi’s
Wireless Telegraph Company. La Compagnia Marconi si mantenne a lungo all’avanguardia nella sperimentazione e nella
costruzione di impianti per radiocomunicazioni.
Sono convinto che il successo della radiotelegrafia transatlantica provò che la telegrafia attraverso lo spazio potesse raggiungere qualsiasi punto del piccolo pianeta in cui viviamo e che ciò
avrebbe potuto diventare un’impresa tecnologica abbastanza
semplice, sicuramente alla portata delle nostre possibilità pratiche ed economiche. (Guglielmo Marconi)
Villa Griffone
e il Mausoleo
Guglielmo Marconi.
Ricostruzione
eseguita da
M. Bigazzi del
primo apparato
in telegrafia senza
fili di Marconi.
Decisi di trasferirmi in Inghilterra con l’intento di lanciare l’invenzione su vasta scala. Scelsi l’Inghilterra per diverse ragioni,
principalmente perché avevo numerosi parenti ed amici lì e la
Gran Bretagna era a quell’epoca all’apice del proprio sviluppo
finanziario ed industriale. (Guglielmo Marconi)
Guglielmo Marconi
al tavolo della
stazione ricevente
di Signal Hill,
a S. Giovanni di
Terranova, il 12
dicembre 1901.
Secondo la fisica di fine Ottocento le onde elettromagnetiche
utilizzate da Marconi potevano propagarsi soltanto in linea
retta. Data la curvatura della terra, un’enorme montagna
d’acqua avrebbe impedito qualsiasi trasmissione tra le due
sponde dell’Atlantico. Marconi - che dava più peso ai suoi
esperimenti che alle convinzioni teoriche diffuse - tentò
ugualmente. In una giornata storica del dicembre 1901, egli
riuscì a ricevere a San Giovanni di Terranova i segnali trasmessi
da Poldhu (Cornovaglia), sull’altra sponda dell’Atlantico: per
44
Il panfilo “Elettra”,
che fu il laboratorio
galleggiante di
Guglielmo Marconi
negli anni ‘20 e ‘30.
Noi ora abbiamo raggiunto nella scienza ed arte delle radiocomunicazioni uno stadio in cui le espressioni dei nostri pensieri possono essere trasmesse e ricevute pressoché istantaneamente e simultaneamente, praticamente in ogni punto
del globo […] La radiodiffusione, tuttavia, con tutta l’importanza che ha raggiunto ed i vasti campi inesplorati che restano ancora aperti, non è - secondo me - la parte più significativa delle comunicazioni moderne, in quanto è una comunicazione a senso unico.
Un’importanza assai maggiore è legata, a mio parere, alla
possibilità fornita dalla radio di scambiare comunicazioni
ovunque i corrispondenti possano essere situati, sia nel mezzo dell’oceano, sia sul pack ghiacciato del polo, nelle piane
del deserto oppure sopra le nuvole in aeroplano! […]
La peculiarità dell’uomo, la caratteristica che segna la sua differenza da e la sua superiorità sugli altri esseri viventi, a parte
45
la divinità della sua origine e del suo fine ultimo, consiste,
penso, nella capacità di scambiare con i suoi simili pensieri,
sensazioni, desideri, ideali, preoccupazioni ed anche lamentele! Ogni cosa progettata per facilitare e sviluppare questa capacità veramente superiore deve essere - oso affermare - salutata come il mezzo per il progresso dell’umanità e la via per
potenziare la tipica peculiarità dell’uomo. Con tutti i nostri attriti, gelosie ed antagonismi (inevitabile cronica afflizione dell’umanità) e malgrado i sanguinosi sconvolgimenti che di tanto in tanto lo mettono in serio pericolo, l’ideale della pace e
della fratellanza rimane sempre vivo in noi […]
Nella radio abbiamo uno strumento che ci permette di avvicinare i popoli del mondo, di far sentire le loro voci, le loro necessità e le loro aspirazioni. Il significato di questi moderni
strumenti di comunicazione è così totalmente rivelato: un potente mezzo per il miglioramento delle nostre mutue relazioni di cui oggi possiamo usufruire; dobbiamo solo seguirne il
corso in uno spirito di tolleranza e comprensione reciproca,
solleciti nell’utilizzare le conquiste della scienza e dell’ingegno
umano per il bene comune.
Tratto da: Guglielmo Marconi, Il significato della comunicazione moderna, radiomessaggio al Chicago Tribune Forum
dell’11 marzo 1937.
e voluzione delle c omunicazioni: la s toria
la prima volta, le onde elettromagnetiche avevano attraversato un oceano. Nasceva così l’era delle radiocomunicazioni a
grande distanza. L’impresa fece grande scalpore e sebbene restasse ancora moltissimo da scoprire in merito alle leggi di
propagazione delle onde radio, essa fu il punto di partenza
del vasto sviluppo delle radiocomunicazioni e dei servizi radiomarittimi per la sicurezza in mare verificatosi nei successivi
quaranta anni. In tale sviluppo Marconi continuò a svolgere
un ruolo importante.
Nel 1919 Marconi acquistò il panfilo Elettra che diventò una
sua frequente residenza e il suo laboratorio viaggiante. I successi di Marconi nelle comunicazioni a grande distanza erano
basati all’inizio del secolo sull’uso di onde sempre più lunghe.
Ma a partire dalla prima guerra mondiale egli ricominciò a
sperimentare con le onde corte, scoprendone i vantaggi. In
particolare, esse permisero l’uso di riflettori attorno all’antenna rendendo meno intercettabile il segnale trasmesso e garantendo una maggiore potenza del segnale nella direzione
voluta. In seguito alle importanti esperienze effettuate nel
1923 tra Poldhu e la nave Elettra, si affermò il sistema di collegamenti ad onde corte a mezzo di stazioni a fascio. L’Inghilterra e la Compagnia Marconi firmarono un famoso contratto per la costruzione di una rete di stazioni ad onde corte,
del nuovo tipo a fascio dirigibile, collegante i punti principali
dell’impero britannico. Nel 1926 venne inaugurato il primo
tronco della rete Inghilterra-Canada e l’anno successivo seguirono altre stazioni.
Nel 1931 Marconi avviò le sue indagini sulle microonde. L’anno successivo egli fu incaricato dal Papa Pio XI di sistemare un
collegamento telefonico sperimentale a microonde fra Città
del Vaticano e il Palazzo Apostolico di Castel Gandolfo.
Lo sviluppo delle radiocomunicazioni a microonde è alla base
della maggior parte dei moderni sistemi radio.
Il Museo Marconi, dedicato alle origini e agli sviluppi delle radiocomunicazioni, è situato all’interno di Villa Griffone nella
campagna bolognese. Fu nel solaio di questa Villa che il giovane Guglielmo Marconi realizzò i suoi primi esperimenti di
telegrafia senza fili.
Il nuovo allestimento del Museo è caratterizzato dall’integrazione di apparati storici, ipertesti, filmati e dispositivi interattivi: attraverso questi diversi strumenti, il visitatore ha la possibilità di ripercorrere le vicende che hanno caratterizzato la formazione e la vita dell’inventore, di comprendere il funzionamento degli apparati più interessanti e di conoscere la dinamica di alcuni fondamentali sviluppi nel settore delle radiocomunicazioni.
Si ringrazia per la collaborazione Maurizio Bigazzi, Gabriele
Falciasecca, Raffaello Repossi e Tobia Repossi.
Il laboratorio del
giovane Marconi:
la celebre
“Stanza dei bachi”
di Villa Griffone.
Ricostruzione
di M. Bigazzi.
Per cortesia di:
Fondazione
Marconi.
Tutte le foto di
questo articolo
sono dovute alla
cortesia della
Fondazione
Marconi.
G.B. Porcheddu
le vie della comunicazione elettrica.
e voluzione delle c omunicazioni: la s toria
dal telefono alla radio
Apparecchio
telefonico da
tavolo modello
AC 110. Svezia;
1892; LM Ericsson.
Per cortesia di:
C. Pria, Bollate,
Milano.
Foto di:
C. Porcheddu.
In questo contributo ho voluto raccogliere una serie di considerazioni che hanno legato tra loro alcune delle sezioni espositive storiche della mostra Communication. Alcuni dei nostri
quotidiani mezzi di comunicazione, il telefono, la radio, il telefonino, grazie alle possibilità offerte dall’elettronica digitale
e dalla comunicazione telematica, hanno trovato numerosi
punti di incontro tanto da diventare sempre più frequentemente un unico strumento multimediale. Trova quindi ragione anche l’accostamento con la crittografia, una scienza antica quanto l’uomo che, in questa nostra società di comunicazione elettronica, si è trasformata da disciplina misteriosa a
diffuso strumento di sicurezza della privacy individuale.
LA TELEFONIA FISSA
Come per molte grandi invenzioni anche per il telefono esiste
una lunga, ed irrisolta, polemica riguardante la paternità della scoperta che coinvolge principalmente lo scozzese, naturalizzato americano, Alexander Graham Bell (1847-1922) e l’italiano Antonio Meucci (1808-1896), con i quali, ad onor del
vero, dovrebbero essere ricordati molti altri scienziati, tecnici
ed artigiani che, nel medesimo periodo, ma con minore fortuna postuma, diedero importanti contributi al settore.
In questo scritto ho scelto, peraltro, di non
analizzare gli aspetti tecnici dello sviluppo
del telefono, ma di dare un breve sguardo
ad alcuni aspetti legati alla sua diffusione
come mezzo di comunicazione.
A.G. Bell presentò il suo telefono, nel giugno del 1876, alla Centennial Exposition di
Philadelphia dove, malgrado l’interesse dimostrato dall’Imperatore del Brasile, ricevette una scarsa attenzione da parte del
pubblico. Le stesse grandi imprese telegrafiche, che ormai avevano creato un servizio che copriva tutta
l'America, non credendo in questo nuovo mezzo tecnologico,
rifiutarono di acquistare il brevetto loro offerto. Il telefono
venne considerato come un oggetto curioso, un giocattolo, e
solamente dopo alcuni anni, circa nel 1880, negli Stati Uniti,
la Western Electric incominciò a investire massicciamente sullo sviluppo di questo nuovo mezzo di comunicazione, pensando che potesse diventare uno strumento molto utile, soprattutto per gli uffici pubblici e per le imprese. Negli stessi
anni il telefono si diffuse anche in Europa dove presto entrò
anche nelle famiglie appartenenti alle classi più elevate determinando lo sviluppo di una nuova categoria di regole sociali;
ad esempio l'uso dell'apparecchio prevedeva il divieto, alle signore, di rispondere direttamente perché questo avrebbe potuto metterle in contatto con sconosciuti, quindi, nelle case
dotate di telefono, che all'epoca erano ancora poche centinaia, soltanto il maggiordomo era tenuto a rispondere ed a
filtrare le telefonate. All'inizio della sua diffusione, quando si
telefonava e si chiedeva al centralinista di poter parlare con un
Centrale telefonica, modello SB 20+5.
Gran Bretagna, 1930, Diag.
Per cortesia di: F. Cremona,
Collez. “Cremona”, Colleferro, Roma.
Foto di: C. Porcheddu.
abbonato era sufficiente fornire il nome dell'interlocutore,
perché gli utenti del servizio erano un numero talmente scarso da potersi conoscere singolarmente; nel momento dello
sviluppo del servizio ogni abbonato dovette essere identificato con un numero, le società telefoniche dovettero sviluppare
un intervento di pubbliche relazioni estremamente delicato,
perché gli utenti si rifiutavano di essere associati ad un numero. Fino alla fine del XIX secolo il telefono rimase comunque poco più che una curiosità; molto poco diffuso sia negli
uffici che nelle famiglie. È solo dopo il 1900 che anche i governi si posero il problema di rendere pubblico questo servizio
ritenendolo importante per lo sviluppo economico nazionale.
Particolarmente in Francia e in Italia, si svolse un interessante
dibattito parlamentare, imperniato sulle ragioni e le modalità
che permettessero allo Stato di acquistare dalle società telefoniche private le infrastrutture per poter trasformare il telefono in un servizio pubblico. In Italia, come in quasi tutte le
nazioni, solo a partire dagli anni Sessanta del XX secolo il telefono diventerà uno strumento accessibile anche ai ceti sociali meno privilegiati per poi diffondersi in maniera quasi capillare nel decennio successivo, trasformandosi in un insostituibile strumento di comunicazione che solo in questi anni,
con l’avvento del telefono cellulare, vede insidiare la sua posizione di prevalenza.
CRONOLOGIA DELLO SVILUPPO DELLA TELEFONIA PUBBLICA
IN ITALIA
1878 Prima sperimentazione ufficiale di telefonia interurbana in Italia con un collegamento tra Roma (Quirinale) e
Tivoli.
1881 Viene emanato il D.M. che approva il "capitolato per le
concessioni del servizio telefonico". Vengono accordate
37 concessioni. Gli abbonati al telefono sono circa 900.
1884 Gli abbonati al telefono sono 8.038. Il servizio interurbano è ancora praticamente inesistente, se si esclude il
tratto a brevissima distanza Genova-Sampierdarena.
Viene istituito, tra Monza e Milano, il primo servizio telefonico pubblico.
1907 L'utenza italiana del telefono cresce arrivando ad un
totale di 42.734 abbonati.
1913 A Roma viene installata la prima centrale telefonica automatica (che permette cioè di selezionare direttamente il numero desiderato senza passare per l'operatore)
con una capacità di 200 numeri.
1924 Viene fissata la ripartizione del servizio telefonico in 5
zone territoriali e vengono approvate le Concessioni alle società Stipel, Telve, Timo, Teti e Stet.
1925 Istituita l'Azienda di Stato per i Servizi Telefonici (ASST)
con il compito di gestire il servizio telefonico interurbano a grande distanza, quello internazionale e di esercitare una funzione di controllo sulle 5 Concessionarie.
Le Concessionarie iniziano la loro attività con la
seguente ripartizione territoriale:
1ª zona: (Piemonte e Lombardia) alla Società
Telefonica Piemontese che diventerà Stipel (Società
Telefonica Interregionale Piemontese e Lombarda);
2ª zona: (Tre Venezie,Friuli,Zara) alla Telve (Società
Telefonica delle tre Venezie);
3ª zona (Emilia Romagna,Umbria,Abruzzi e Molise)
alla Timo (Società Telefonica Italia Media Orientale);
4ª zona: (Liguria,Toscana,Lazio e Sardegna) alla Teti
(società Telefonica Tirrena);
5ª zona: (Italia Meridionale e Sicilia) alla Set (Società
Esercizi Telefonici).
1927 Vengono installati alla Fiera Campionaria di Milano i
primi 8 telefoni pubblici a gettone.
1929 La Teti realizza per prima in Italia il servizio automatico
celere con il quale l'abbonato può ottenere immediatamente, ma ancora tramite operatore, una conversazione interurbana. Viene effettuata dalla Stipel la prima comunicazione intercontinentale Italia-Usa (via Londra).
1931/32 Viene introdotta in Italia dalla Stipel la teleselezione con l'attivazione delle prime direttrici a breve distanza.
1933 La crisi economica mondiale del 1929/30 si ripercuote
anche sulla telefonia italiana, tanto che il Gruppo Sip
(Società Idroelettrica Piemontese), al quale fanno capo
le tre Concessionarie Stipel,Telve e Timo, si trova di
fronte a problemi finanziari. Questi problemi vengono
risolti dall'Iri con la creazione della Stet che rileva dalla
Sip le tre società telefoniche.
1940 Prima che gli eventi bellici della seconda guerra mondiale distruggano gran parte degli impianti, gli abbonati al telefono in Italia sono 512.661.
47
1940/44 La rete telefonica italiana, in precedenza una delle
più moderne del mondo, è quasi completamente distrutta. Le conseguenze della guerra si fanno sentire
anche sulla consistenza abbonati che scende a
459.000.
1946/50 L'opera di ricostruzione viene portata avanti a tempo di record. Già nel 1949 la ricostruzione è completa
per quanto riguarda sia le 5 Concessionarie che l'Asst,
la quale per l'Anno Santo del 1950 può mettere a disposizione del pubblico la rete nazionale totalmente ricostruita ed ampliata del 30% rispetto al periodo prebellico.
1957 Una apposita commissione di studio, istituita su proposta del Consiglio Superiore Tecnico delle Telecomunicazioni, redige il Piano Regolatore Telefonico Nazionale
(DM 11.12.57). Il Piano stabilisce le norme fondamentali per l'espletamento dei servizi telefonici ad uso pubblico gestiti sia dall'Asst che dalle Concessionarie. Nello stesso anno vengono stipulate nuove convenzioni
che prescrivono, tra l'altro, che il capitale azionario delle Concessionarie sia in maggioranza di proprietà dell'Iri. Stipel, Telve e Timo, già controllate da Stet, il cui
azionista di maggioranza è l'Iri, soddisfano queste condizioni. Teti e Set, invece, ottengono il rinnovo della
concessione solo dopo l'acquisto dei loro pacchetti di
maggioranza da parte dell'Iri, che li trasferisce alla Stet.
1964 Viene firmato l'atto di fusione tra Sip, Vizzola, Pce, Pinerolese di Elettricità, Stipel, Telve, Timo, Teti e Set con
incorporazione delle società nella Sip che assume la denominazione di: Sip-Società Italiana per l'Esercizio Telefonico p.a. È l'atto di nascita della Sip che, subentrando alle Concessionarie, gestisce il traffico telefonico
sull'intero territorio nazionale. Gli abbonati sono poco
più di 4 milioni con una densità di 8 abbonati ogni 100
abitanti.
1968 Viene stipulata la Convenzione aggiuntiva tra Ministero delle Poste e Telecomunicazioni e Sip, che assegna
all'Asst il traffico interurbano svolto tra 37 distretti telefonici ed a Sip il restante traffico interurbano, oltre
ovviamente, al traffico urbano che gestisce in esclusiva.
Il servizio internazionale è invece ripartito tra Asst, con
una competenza per il traffico svolto con tutti i Paesi
europei e quelli extraeuropei del bacino del Mediterraneo, ed Italcable (costituita nel 1921)
1969 Il nuovo assetto consente a Sip di completare l'automatizzazione delle centrali urbane.
1970 Il 31 ottobre viene completata la teleselezione su tutto il
territorio nazionale. L'Italia è il sesto paese nel mondo ad
avere il servizio telefonico completamente automatico
insieme con Repubblica Federale Tedesca, Repubblica
Democratica Tedesca, Olanda, Svizzera e Hong Kong.
e voluzione delle c omunicazioni: la s toria
Apparecchio telefonico campale, modello 1915.
Germania, circa 1915, Siemens & Halske.
Per cortesia di: F. e S. Govoni, Bologna.
Foto di: C. Porcheddu.
Apparecchio
telefonico campale,
modello 33.
Germania, 1933,
varie Aziende.
Per cortesia di:
F. e S. Govoni,
Bologna.
Foto di:
C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
Apparecchio
telefonico
automatico da
tavolo. Italia, circa
1936, FACE.
Per cortesia di: C.
e G.B. Porcheddu,
Bologna. Foto di:
C. Porcheddu.
1973 Attivazione, a carattere sperimentale, nell'area urbana
di Roma del Servizio Radiomobile di Conversazione.
1976 La Sip collega il 10 milionesimo abbonato ed il 15 milionesimo apparecchio telefonico.
1985 Il 30 aprile la Sip trasforma la sua denominazione in: Società Italiana per l'Esercizio delle Telecomunicazioni S.p.a.
1986/7 Attivazione di Itapac e della rete Collegamenti Diretti Numerici e offerta dei nuovi servizi di Numero Verde Teleaudioconferenza e Gruppo Chiuso di Utenti.
1988 Sip avvia un massiccio piano di investimenti, denominato "Piano Europa", destinato a portare le telecomunicazioni italiane a livello dei maggiori Paesi europei. Il Piano
prevede investimenti per 44.000 miliardi in 4 anni.
1990 A marzo diventa operativo in Italia il Servizio Radiomobile Tacs a 900 Mhz. Gli abbonati ai servizi Sip di Telefonia Mobile passano dai 66.070 del 1989 ai 265.962
di fine 1990. Parte l'offerta dei Servizi Telefonici Supplementari (avviso di chiamata, trasferimento di chiamata, conversazione a tre e telelettura dei contatori)
resi possibili dalle nuove centrali numeriche.
1991 Viene attivata da parte di Sip la rete Isdn (Integrated
Services Digital Network). Continua il processo di ammodernamento della rete telefonica, con la sostituzione delle centrali elettromeccaniche con le nuove a tecnologia numerica.
1992 Ad ottobre alla rete radiomobile analogica Tacs a 900
Mhz si affianca il sistema digitale paneuropeo Gsm
(Global System for Mobile communications).
1993 Sip inaugura la nuova rete commerciale per l'utenza
Residenziale e l'utenza Affari minori. Inizia la commercializzazione dei nuovi servizi di Rete Intelligente. Gli
abbonati al telefono sono oltre 24 milioni con una densità di 94,8 abbonati residenziali ogni 100 famiglie. Gli
abbonati al servizio Radiomobile sono 1.207.000 e la
Sip è il primo gestore di servizi di Telefonia Mobile in
Europa per numero di abbonati. Gli abbonati collegati
a centrali numeriche sono il 56,6% del totale.
1994 Il 18 agosto diventa operativa la fusione per incorporazione in Sip di Iritel, Italcable, Sirm e Telespazio. Nasce
Telecom Italia.
1995 Nasce Telecom Italia Mobile.
Riportiamo qui di seguito una sintetica scheda descrittiva degli apparati esposti in questa sezione della Mostra.
wer” in USA, “ragno” in Italia. Modello di grande successo,
rimase in produzione per circa 40 anni, e venne raffigurato,
dal 1894, anche nel marchio di fabbrica dell’Azienda.
Questo apparecchio telefonico è il capostipite della seconda
generazione di apparecchi telefonici prodotti dalla Ericsson;
uno dei primi apparati, in tutto il mondo, ad essere caratterizzato dal fatto di avere la parte ricevente (il telefono) e la
parte trasmittente (il microfono) unite tra loro a formare la
“cornetta”, un dispositivo che rese più comodo l’impiego dell’apparecchio e che l’Azienda aveva già impiegato, da alcuni
anni, esclusivamente nei centralini telefonici.
L’esemplare esposto è stato cortesemente messo a disposizione da: Carlo Pria, Bollate, Milano.
APPARECCHIO TELEFONICO DA MURO A BATTERIA LOCALE
Francia; circa 1900; S.te Ind.lle des TÉLÉPHONES, Systeme G.
Bailleux B.te S.G.D.G.
Classico esempio di apparecchio telefonico da muro che per
il funzionamento impiegava una coppia di pile a liquido contenute nella cassetta inferiore. Questo tipo di apparecchi, evoluzione dei modelli pionieristici, rimase in servizio per molti
decenni, specialmente nelle zone più disagiate dove lunghe linee telefoniche oppure il cattivo isolamento dei conduttori lo
fecero preferire al sistema a batteria centrale. Per le telefonate l’utente doveva chiamare l’operatore della centrale, impiegando il generatore a manovella, ed essere quindi messo in
comunicazione con l’abbonato desiderato; al termine della
conversazione si doveva chiamare nuovamente la centrale affinché la connessione fosse chiusa.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Franco e Susanna Govoni, Bologna.
APPARECCHIO TELEFONICO CAMPALE
Austria; circa 1915; varie Aziende
Apparecchio telefonico a batteria locale specificamente progettato per un uso militare. Modello standard impiegato dalle truppe dell’impero austro-ungarico durante la prima guerra mondiale.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Museo del Dipartimento di Fisica, Sistema Museale d’Ateneo, Università degli Studi, Bologna.
APPARECCHIO TELEFONICO CAMPALE, MOD. 1915
Germania; circa 1915; Siemens & Halske
Apparecchio telefonico a batteria locale specificamente progettato per un uso militare. Modello standard impiegato dalle truppe germaniche durante la prima guerra mondiale.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Franco e Susanna Govoni, Bologna.
APPARECCHIO TELEFONICO CAMPALE, MOD. SITI-ANZALONE
APPARECCHIO TELEFONICO DA TAVOLO MOD. AC 110
Svezia; 1892; LM Ericsson
Uno dei più famosi telefoni mai prodotti; l’aspetto particolare
lo fece ben presto identificare attraverso una serie di nomignoli : “tax” (bassotto) in Svezia, “macchina per cucire” in
Danimarca, “scheleton” (scheletro) in Australia, “Eiffel To-
Italia; circa 1915; SITI
Apparecchio telefonico a batteria locale specificamente progettato per un uso militare. Modello, tra i più diffusi, impiegato dalle truppe italiane durante la prima guerra mondiale.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Carlo Pria, Bollate, Milano.
48
Apparecchio telefonico modello ERICOFON.
Svezia, 1954, LM Ericsson.
Per cortesia di: C. e G.B. Porcheddu,
Bologna. Foto di: C. Porcheddu.
dalla FACE (oggi Alcatel). Uno dei modelli più diffusi nelle abitazioni italiane che venne sostituito, progressivamente, solo
dopo il 1959 con l’introduzione del modello “unificato”.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Carlo Pria, Bollate, Milano.
CENTRALE TELEFONICA, MOD. SB 20+5
Gran Bretagna; 1930; Diag
Le centrali telefoniche sono apparecchiature che collegano tra
loro i singoli apparecchi telefonici; il modello esposto, di tipo
manuale, permette la connessione di 20 linee a batteria locale e 5 linee a batteria centrale, consentendo fino ad 8 conversazioni contemporaneamente. L’apparecchiatura, contenuta in un armadio di legno, è costituita dal pannello degli avvisatori di chiamata e fine conversazione, dal pannello dei
connettori per le linee telefoniche, dal tavolo operatore (con i
connettori, le spine di chiamata e di risposta, le leve di commutazione) dagli organi di chiamata e di conversazione. Alimentazione : 2 pile da 1,5 V per la conversazione, 1 batteria
di accumulatori da 24 V per la chiamata centralizzata.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, Collezione
“Cremona”, Colleferro, Roma.
APPARECCHIO TELEFONICO CAMPALE, MOD. 33
Germania; 1933; varie Aziende
Apparecchio telefonico a batteria locale specificamente progettato per un uso militare. Modello standard, dal caratteristico contenitore in bakelite, impiegato dalle truppe germaniche durante la seconda guerra mondiale. Di particolare significato, la razionalizzazione della produzione attraverso la progettazione e la fornitura di sottounità intercambiabili tra loro,
anche se provenienti da Aziende diverse, e la diminuzione dei
pesi; il contenitore esterno in bakelite, dalla forma caratteristica, venne utilizzato, sempre nell’ambito della razionalizzazione della produzione e del contenimento dei costi, anche
per accogliere altre strumentazioni di comunicazione e di misura. La costruzione dell’apparecchio in subunità determina
inoltre una maggiore resistenza dell’apparato alle sollecitazioni dell’uso e una significativa diminuzione dei tempi di riparazione sul campo. Attraverso una serie di accessori poteva essere direttamente connesso a centralini telefonici, ad apparati radio funzionando come controllo a distanza, ad altri telefoni dello stesso modello consentendo anche il reciproco collegamento di linee telefoniche altrimenti indipendenti. Per
l’impiego in ambienti rumorosi o per lasciare libere le mani
dell’operatore poteva essere corredato anche da cuffia e laringofono. Caratteristiche tecniche: dimensioni: 28X10X21
cm circa; peso: 5,5 Kg circa.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Franco e Susanna Govoni, Bologna.
APPARECCHIO TELEFONICO AUTOMATICO DA TAVOLO
Italia; circa 1936; FACE
Apparecchio telefonico da tavolo prodotto, circa nel 1936,
49
Svezia; 1954; LM Ericsson
Progettato da Gösta Thames ed immesso sul mercato nel
1954 fu un modello di immediato successo che, per la sua
caratteristica forma, venne soprannominato “ Cobra”. Compatto e leggero, pesa quanto una cornetta di un telefono
dell’epoca, venne esibito al Museum of Modern Art di New
York come uno dei migliori esempi di design del XX secolo,
primo apparecchio telefonico ad essere inserito nelle esposizioni permanenti. La società Ericsson fin dalla seconda metà
degli anni ’30 stava studiando un apparecchio telefonico in
un unico pezzo; nel 1941 propose un modello verticale (progetto di Hugo Blomberg e Ralph Lysell) e nel 1944 Hans
Kraepelin sviluppò un modello orizzontale, l’Unifon. Tuttavia
questi apparecchi telefonici, anche se funzionali ed affidabili, non incontrarono il gusto del pubblico tanto da non entrare nella produzione di serie. Fu solo con l’ Ericofon che si
raggiunse il successo commerciale tanto da produrlo in oltre
2,5 milioni di esemplari, in diverse versioni tutte caratterizzate da un ampia varietà di colori. I mercati di maggiore esportazione furono, Stati Uniti, Italia, Australia, Brasile e Svizzera.
Inizialmente venne commercializzato solo per una clientela
istituzionale, tipicamente gli ospedali che, nelle intenzioni
della Società, lo avrebbero messo a disposizione dei pazienti
allettati, ma divenne ben presto un oggetto ricercato ed ambito tanto da essere posto in vendita ai privati dal 1956. Rimasto in produzione per oltre un ventennio, l’Ericofon subì
frequenti adeguamenti dei materiali alle nuove tecnologie e
leggeri restyling che però non hanno alterato il progetto originale. Inizialmente la struttura esterna era costituita da due
valve incollate tra loro, ma dal 1958, utilizzando la tecnica
dell’iniezione, venne prodotto in un’unica conchiglia, acquistando anche una maggiore curvatura del collo; circa nel
1967, venne prodotta la prima versione con il tastierino combinatore e nel 1976 una versione speciale per celebrare il
centenario della Ditta.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Carlo Pria, Bollate, Milano.
CENTRALE TELEFONICA, MODULO DIDATTICO
Italia; circa 1935; FACE
Si tratta di un apparato, funzionante, che raccoglie una sezione degli elementi costitutivi di una centrale telefonica automatica meccanica; connesso ad un apparecchio telefonico
consente di seguire i vari eventi che seguono alla composizione di un numero telefonico. Il complesso, racchiuso all’interno di una teca espositiva, venne espressamente prodotto con
finalità didattiche. L’esemplare esposto durante la mostra è
stato cortesemente messo a disposizione da: Museo del Dipartimento di Fisica, Sistema Museale d’Ateneo, Università
degli Studi, Bologna (p. 148).
e voluzione delle c omunicazioni: la s toria
APPARECCHIO TELEFONICO “ERICOFON”
LA TELEFONIA MOBILE
Apparato radio
ricetrasmittente
BC-611-F. USA,
1945, Electrical
Research
Laboratoires Inc.
Per cortesia di:
F. e S. Govoni,
Bologna.
Foto di:
C. Porcheddu.
Apparato radio
ricetrasmittente
AN/PRC-6/6.
Germania, primi
anni ’60, varie
Aziende.
Per cortesia di:
L. Liberatore,
Castel Guelfo,
Bologna. Foto di:
C. Porcheddu.
La telefonia mobile come oggi la conosciamo può essere considerata il risultato della evoluzione e della integrazione di due
mezzi tecnologici, il telefono e la radio, che, solo apparentemente, hanno percorso strade parallele per un lungo periodo
di tempo. Nella realtà questi strumenti di comunicazione sono l’uno complementare all’altro e la migliore dimostrazione
sta proprio nella diffusione che il “telefonino” ha raggiunto
trasformandosi, in pochi anni, da status simbol ad oggetto di
uso comune.
La telefonia mobile, nelle sue diverse espressioni, trova le sue
origini certamente nell'ambito della comunicazione militare
che, dopo le drammatiche esperienze del primo conflitto
mondiale, si caratterizza come uno dei maggiori motori propulsivi della ricerca in questo settore.
Nel 1921 vennero condotte, negli Stati
Uniti, alcune delle prime comunicazioni
radiomobili sperimentali, inizialmente
con collegamenti unidirezionali tra una
stazione trasmittente, fissa, e una ricevente, mobile; tra questi degne di un
certo rilievo furono quelle effettuate
presso il Dipartimento di Polizia di Detroit in cui si utilizzò frequenze vicine ai
2 MHz. Tuttavia solamente in seguito
allo scoppio della seconda guerra mondiale si determinò un ulteriore e drammatico avanzamento della ricerca nel
campo delle telecomunicazioni che portò alla realizzazione di apparecchiature
sempre più compatte ed affidabili. Tra i
vari modelli di radiotelefoni, spesso tra
loro molto simili, prodotti dalle varie
nazioni giova ricordare l’apparato americano BC-611 (v. oltre, foto a fianco)
che per il suo aspetto e le caratteristiche
di impiego può essere considerato uno dei più diretti predecessori degli attuali “cellulari”; lo stesso nomignolo con cui veniva comunemente identificato “handie-talkie”, che ne sottolinea le elevate caratteristiche di trasportabilità e di impiego,
designerà per molti anni a seguire una intera classe di apparecchi radio ricetrasmittenti portatili caratterizzati dal fatto di
essere impugnati e comandati con un’unica mano.
Agli inizi degli anni '40, sempre negli USA, furono introdotti
piccoli sistemi di telefonia mobile, estesi anche ad alcuni settori della vita civile (polizia, vigili del fuoco, trasporti, pronto
intervento). Si trattava di sistemi che utilizzavano, come stazione fissa, un singolo trasmettitore FM operante nella banda
tra i 30 e i 40 MHz e che coprivano appena il perimetro dei
centri abitati consentendo di effettuare chiamate da una automobile o da un qualsiasi altro mezzo anche durante gli spostamenti. La struttura di questi sistemi rendeva il servizio accessibile a pochissimi; le limitate frequenze disponibili, infatti,
venivano assegnate direttamente agli utenti, una frequenza
(o canale) per ogni utente, saturandone ben presto la disponibilità. Solo in un secondo tempo si introdussero sistemi, cosiddetti di tipo trunked, nei quali tutti i canali sono a disposi-
zione di tutti gli utenti che all'occorrenza ne selezionano uno
libero. Negli Stati Uniti il primo sistema di telefonia mobile disponibile ai privati venne inaugurato nel 1945 a St. Louis, Missouri; gli utenti avevano la disponibilità di tre canali operanti
sulla frequenza di 150 MHz. In questi periodi un telefono da
auto era quasi impossibile da acquistare. L’esiguo numero di
canali disponibili per i radiotelefoni, oltre a limitare il numero
globale di queste installazioni, consentiva solo poche conversazioni simultanee e se a questo aggiungiamo gli alti costi di
acquisto e di gestione è facile intuire come il telefono via radio costituisse un vero e proprio status symbol. Dopo le prime
esperienze pionieristiche, la sperimentazione proseguì fino all'inizio degli anni '80 quando, con le mutate condizioni di mercato, vennero introdotte vere e proprie reti di telefonia mobile
aperte ad un potenziale e vasto pubblico di utenti.
Nei sistemi delle moderne reti radiomobili per rendere disponibile il servizio ad un ampio numero di utenti, solitamente
molto superiore al numero delle frequenze disponibili, si impiega la tecnica del riutilizzo delle frequenze che si realizza
suddividendo il territorio in “celle”, da cui deriva il nome “cellulare”, cioè in una serie di porzioni di territorio tra loro contigue dotate di stazioni radio che trasmettono su un determinato numero di canali. Le frequenze utilizzate nelle varie celle sono diverse da quelle limitrofe, per evitare reciproche interferenze (interferenza cocanale). Il sistema funziona solo se
il trasmettitore di ciascuna cella utilizza una potenza ridotta,
in grado di coprire il territorio senza interferire con le altre.
L'ampiezza e la forma della cella non sono standard, ma dipendono dalla densità di popolazione, dalla presenza o meno
di ostacoli in grado di impedire la propagazione del segnale,
dalla posizione geografica del trasmettitore.
Quando l'utente, durante gli spostamenti, passa da una cella
all'altra, è necessario che il terminale mobile, il telefonino, si
sintonizzi su una nuova frequenza, tipicamente quella ricevuta meglio tra le frequenze della nuova cella. La procedura, oggi completamente automatizzata, con la quale si effettua il
cambio di frequenza nel passare da una cella all'altra viene
detta handover.
Quando il traffico in una cella tende ad avvicinarsi al massimo
consentito si può operare un ulteriore frazionamento del territorio, il cell-splitting, ottenendo due o più celle di minori dimensioni, ciascuna delle quali ha, almeno in linea di principio,
lo stesso numero di canali della cella originaria. In pratica una
piccola cella di un’area urbana può avere il diametro di circa
2 Km che può aumentare, nelle aree a bassa densità abitativa, fino a circa 15 Km.
Le ricerche che ci hanno portato ad usufruire di questa tec-
Apparecchio telefonico modello “Grillo”.
Italia, 1966, Siemens.
Per cortesia di: C. e G.B. Porcheddu, Bologna.
Foto di: C. Porcheddu.
50
nologia cominciarono nel 1947, quando D.H. Ring, dei Bell
Laboratories, espose per la prima volta il concetto di “cellulare” definendo i punti cardine di questo sistema: le celle, l’handover e il cell-splitting. Solamente alla fine degli anni ’70,
tuttavia, se ne iniziò la sperimentazione e l’applicazione pratica; un primo servizio commerciale venne avviato in Giappone
nel 1978. Il primo sistema di telefonia mobile analogica di una
certa rilevanza fu l’AMPS (Advanced Mobile Phone Standard)
sviluppato negli USA dai Bell Laboratories e commercializzato
nel 1979 a Chigago, poi diffuso in tutti gli Stati Uniti dal
1983. L’equivalente europeo, NMTS (Nordic Mobile Telephone System), apparve per la prima volta nel 1981 in Svezia e
poi negli altri Paesi Scandinavi.
Successivamente in Inghilterra è stato sviluppato lo standard
TACS (Total Access Communication System), una versione dell’AMPS modificata ed apparsa per la prima volta nel 1985. Le
caratteristiche iniziali (1000 canali centrati nella banda 890960 MHz) si sono evolute più tardi nello standard E-TACS (Extended TACS), che assegna 1320 canali nella banda 872-950
MHz. Questi primi sistemi cellulari vennero sviluppati indipendentemente da ogni nazione determinando una incompatibilità che ha limitato l’impiego di questi terminali mobili entro i
confini nazionali.
In Italia il primo servizio di telefonia radiomobile, proposto nel
1973 dalla Sip, era denominato RTMI (Radio Telefono Mobile
Integrato), operava nella banda dei 160 MHz con 32 canali bidirezionali, con terminali esclusivamente di tipo veicolare. L’utente che desiderava effettuare una chiamata impostava il numero dell’utente con cui voleva parlare ed in centrale un operatore provvedeva a collegarlo all’abbonato richiesto. La comunicazione in corso si interrompeva nel passaggio tra una
cella e l’altra, non essendo previsto l’handover automatico.
Pur con questi limiti operativi, dopo alcuni anni, nelle due
51
e voluzione delle c omunicazioni: la s toria
Apparato Telefonico modello
TA-1/PT. USA, 1968, Crown
Controls Corp.
Per cortesia di: F. e S. Govoni,
Bologna. Foto di: C. Porcheddu.
maggiori città italiane, Roma e Milano, il sistema venne saturato da una domanda superiore alle previsioni.
Nel 1985 venne presentato al pubblico il sistema radiomobile
RTMS (Radio Telephone Mobile System), progettato ed installato dalla Italtel per conto della Sip, operante sulla frequenza
dei 450 MHz con 200 canali radio. I terminali erano di tipo
veicolare o portatile e superavano le limitazioni tipiche del sistema RTMI; era possibile, infatti, chiamare direttamente gli
abbonati e la comunicazione non si interrompeva quando ci
si spostava da una cella all'altra. Questo sistema di telefonia
cellulare era stato progettato con l'intenzione di servire un
numero di circa 40.000 utenti fino al 1995, anno in cui si prevedeva di aderire al sistema di telefonia mobile digitale europeo, operante sulla banda di 900 MHz (identificato successivamente come GSM). Anche il sistema RTMS ebbe vita breve,
la grande richiesta di questo servizio portò, nel 1990, alla
adozione del nuovo sistema di telefonia mobile ETACS. L’impiego di terminali di tipo palmare (i primi veri telefonini) ragionevolmente economici e l’adozione di abbonamenti con
tariffe differenziate determinarono la grande diffusione della
telefonia cellulare nel nostro paese. La rete E-TACS, attualmente ancora operativa, è gestita, in Italia, solamente dalla
Tim-Italia e cesserà di esistere, secondo i dati ufficiali, nel
2008.
Nel 1982 la Conférence Européenne des Postes et des Télécommunications (CEPT), su proposta della Telecom norvegese
e della PTT olandese, formò un gruppo di studio denominato
Groupe Spécial Mobile (GSM) con lo scopo di studiare e sviluppare un sistema radiomobile cellulare digitale, di seconda
generazione, comune a tutti i paesi dell’Europa occidentale.
Un primo accordo tra i paesi aderenti, portò alla decisione di
riservare per questo sistema due bande di frequenza: 890915 e 935-960 MHz. Nel 1987 si arrivò alla stesura di un protocollo per l’introduzione coordinata del sistema GSM che sarebbe divenuto operativo il primo Luglio 1991. Nel 1989 la responsabilità del progetto GSM venne trasferita ad un Comitato Tecnico della European Telecommunication Standards Institute. In quella sede venne anche ridefinito il significato dell’acronimo GSM come Global System for Mobile Communications. Il Comitato Tecnico ha elaborato normative, standard e
specifiche tecniche che, pur lasciando spazio a flessibilità e innovazioni competitive da parte dei produttori, forniscono una
sufficiente standardizzazione per garantire l’effettiva intercomunicabilità tra le componenti del sistema. Il sistema GSM è
caratterizzato dall’impiego della tecnologia digitale grazie alla quale si possono inviare fax, scambiare dati a bassa velocità (9,6 Kbit/sec), scambiare messaggi attraverso il sistema
SMS (Short Message System) con l’unica limitazione di un
massimo di 160 caratteri. Il servizio venne commercializzato
per la prima volta verso la metà del 1991 e nel 1993 esistevano già 36 reti GSM in 22 paesi. È interessante ricordare che,
sebbene il GSM sia stato standardizzato in Europa, non è uno
standard esclusivamente europeo essendo stato progressivamente adottato in oltre 80 paesi sparsi in tutto il mondo e
continua tuttora ad espandersi.
Attualmente l’evoluzione della telefonia mobile è da un lato
orientata alla produzione di nuove tecnologie capaci di po-
e voluzione delle c omunicazioni: la s toria
Apparecchiatura radio per agenti speciali,
modello R-301. Gran Bretagna, 1944, varie
aziende. Per cortesia di: M. Moretti, Pesaro.
Foto di: C. Porcheddu.
tenziare la rete GSM, quali il WAP (Wireless Application Protocol) ed il GPRS (General Packet Radio Service), dall’altro è
già in fase avanzata di definizione un nuovo standard, l’UMTS
(Universal Mobile Telecommunication System) la cosiddetta
terza generazione dei telefoni mobili, che nelle previsioni dovrà permettere la nascita di uno strumento multimediale capace di comunicare con qualsiasi angolo del globo attraverso
la voce, le immagini, i pacchetti di dati, collegandosi direttamente ad Internet senza bisogno di passare attraverso un personal computer.
Per quanto riguarda la ricerca avanzata nel settore della telefonia mobile si stanno già studiando nuovi sistemi di comunicazione, la quarta generazione. Riportiamo qui di seguito una
sintetica scheda descrittiva degli apparati a suo tempo esposti in questa sezione della Mostra.
APPARATO RADIO RICETRASMITTENTE AN/PRC-6/6
APPARATO RADIO RICETRASMITTENTE BC- 611-F
APPARECCHIO TELEFONICO “GRILLO”
USA; 1945; Electrical Research Laboratoires Inc.
Questo apparato, a destinazione militare, venne inizialmente
sviluppato dalla Galvin Manufacturing Corporation, oggi Motorola, nei primi anni ’40 e, solo in un secondo tempo, la sua
produzione venne estesa anche ad altre Aziende. Destinato ad
essere impiegato dalle pattuglie in posizioni avanzate per mantenere i contatti con il resto delle formazioni, il nomignolo con
cui veniva comunemente identificato “handie-talkie”, ne sottolinea le elevate caratteristiche di trasportabilità e di impiego
e designerà per molti anni a seguire una intera classe di apparecchi radio ricetrasmittenti portatili caratterizzati dal fatto di
essere impugnati e comandati con un’unica mano. Per il suo
aspetto e le caratteristiche di impiego può essere considerato
uno dei più diretti predecessori degli attuali “cellulari”. Caratteristiche tecniche: copertura di frequenza: da 3,5 a 6 MHz, un
solo canale controllato a quarzo. Tipo di modulazione: AM.
Potenza di uscita del trasmettitore: circa 200 mW. Alimentazione: con batterie a secco, entrocontenute. Dimensioni: ca.
32x9x9 cm. Peso: circa 3 Kg (batterie comprese).
L’esemplare esposto è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna.
Italia; 1966; Siemens
Apparecchio telefonico molto compatto, all’epoca di design
non tradizionale, progettato da Marco Zanuso e da Richard
Sapper, premiato con il Compasso d’oro (1967). Benché non
sia, in assoluto, il primo telefono in un unico pezzo, tuttavia,
per le sue caratteristiche di maneggiabilità, di riduzione degli
ingombri, di “design” può essere considerato come il punto
di passaggio tra il telefono tradizionale ed il “telefonino” palmare. Il risultato ottenuto è ancora più notevole se si considera che tutto è stato realizzato senza la miniaturizzazione
consentita dalla tecnologia elettronica. Giova ricordare come,
a conferma della validità della soluzione, la forma a “conchiglia” (due valve tra loro incernierate con un meccanismo a
molla) caratteristica del “grillo” sia stata ripresa nell’attuale
produzione dei telefoni cellulari palmari.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Carlo Pria, Bollate, Milano
Germania; primi anni ’60; varie Aziende
Versione europea della originale produzione americana dalla
quale si differenzia principalmente per avere la possibilità di
sintonizzarsi su uno di sei canali prefissati. Per la forma arcuata venne soprannominato “banana”. Caratteristiche di
impiego simili al BC-611 (vedi scheda precedente). Caratteristiche tecniche: copertura di frequenza: da 47 a 55 MHz, sei
canali controllati a quarzo. Tipo di modulazione: FM. Potenza
di uscita del trasmettitore: circa 250 mW. Alimentazione: con
batteria a secco, entrocontenuta. Dimensioni: circa 36x12x9
cm. Peso: circa 1,5 Kg senza batterie.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Luca Liberatore, Castel Guelfo, Bologna.
APPARATO TELEFONICO MOD. TA-1/PT
USA; 1968; Crown Controls Corp.
L’apparato TA-1/PT è un telefono prodotto per le Forze Armate USA, leggero ed impermeabile è destinato all’impiego campale in aree di combattimento avanzate. Può comunicare con
qualsiasi telefono o centrale telefonica a batteria locale. Per il
funzionamento è corredato da un generatore a manovella. Caratteristiche tecniche: peso: circa 1,300 Kg. Distanza massima
raggiungibile: circa 6 Km. Alimentazione: non necessita di alimentazione in quanto fa uso di un microfono elettrodinamico.
Segnalazione di chiamata: visuale o con ronzatore (con possibilità di regolazione del volume o di esclusione).
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Franco e Susanna Govoni, Bologna.
APPARECCHIO TELEFONICO PORTATILE “CELLULARE”,
MOD. HSX-2LS
Finlandia; fine anni ‘80; NOKIA
L’esemplare esposto è uno dei primi esemplari impiegati in Italia per il sistema ETACS (Extended Total Access Communication System); di dimensioni, per l’epoca, ragionevolmente
contenute nell’aspetto ricorda ancora l’apparecchio telefoni-
Antenna goniometrica modello F-2469.
Gran Bretagna, circa 1935, G. Marconi Co.
Per cortesia di: N. Neri, Bologna.
Foto di: C. Porcheddu.
52
Apparecchiatura
radio per agenti
speciali, modello
BP 3.
Polonia-Gran
Bretagna,
circa 1941,
varie aziende.
Per cortesia di:
M. Moretti, Pesaro.
Foto di: C.
Porcheddu.
co da tavolo di produzione coeva. Caratteristiche tecniche:
Tecnologia: ETACS. Frequenza di lavoro: 900 MHz. Potenza
del trasmettitore: 4 W.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Il Telefonino TIM, Bologna.
Negli anni ’30 del XX secolo la tecnologia delle telecomunicazioni e specialmente delle radiotrasmissioni diventa molto
più affidabile e sofisticata. Nella componentistica (in particolare nei tubi elettronici) aumenta la qualità delle prestazioni e
diminuisce l’ingombro ; anche se la drastica diminuzione delle dimensioni si manifesta negli anni ’60 con l’avvento dell’elettronica a stato solido (i transistor). Si creano, quindi, le condizioni “tecnologiche” per la realizzazione di apparati per radiocomunicazioni sempre più compatti.
Il naturale sviluppo di questa tendenza è la produzione di apparati, per l’epoca, di piccole dimensioni che permettano di
comunicare via radio a persone che “vivono” (e muoiono) trasmettendo informazioni nelle più disparate e difficili situazioni, gli “agenti speciali” appunto.
Si tratta di apparecchiature poco conosciute proprio perché la
destinazione ai Servizi Speciali le ha sempre fatte considerare
come Top Secret, anche oggi, in un’epoca nella quale, in libera vendita, troviamo apparecchiature che, a parità di ingombro, offrono prestazioni infinitamente superiori.
Durante il periodo della Mostra è stata realizzata una sezione specificamente dedicata a questo settore dove sono state esposte “radio in valigia” (erano apparati compatti, ma
non troppo) prodotte a partire dagli anni ’30 (la radio italiana mod.TX0-OC3) fino ad apparati relativamente recenti
quali le stazioni di produzione russa dei primi anni’80 fornite di tutta una serie di accessori che permettono le trasmissioni ad alta velocità (più breve è il tempo di trasmissione più
è difficile localizzare la trasmittente), in codice, in telegrafia
morse anche per inesperti (con i cosiddetti “pettini”), ecc.
Sono comunque rappresentati alcuni modelli delle stazioni
radio prodotte, durante la seconda guerra mondiale in Europa e USA. A questi apparati si contrappongono i “cacciatori”, cioè gli apparati di radiolocalizzazione (o radiogoniometri), (una scena ricorrente in molti film di guerra è quella
dell’autocarro tedesco, con quelle strane antenne sul tetto,
che cerca di trovare la spia che trasmette). Di questa sezione
ricordiamo in particolare tre apparati, un radiogoniometro
campale Telefunken-OLAP (prodotto in Italia, dietro licenza,
negli anni ‘30); la stazione “IMCA 0,4 W” di produzione italiana per microonde (primi anni ’40); il Direction Finding SCR504 di produzione USA, un radiogoniometro in valigia usato
dalle spie per localizzare le spie.
Riportiamo qui di seguito una sintetica scheda descrittiva degli
apparati a suo tempo esposti in questa sezione della Mostra.
APPARECCHIATURA RADIO PER SERVIZI SPECIALI,
MODELLO TX0-OC3
Italia; 1940; varie Aziende
Apparecchiatura impiegata dal SIM (Servizio Informazioni Militari), operante nel campo delle onde corte, che permetteva
53
di effettuare comunicazioni anche su lunghe distanze sfruttando le frequenze e le condizioni di propagazione più favorevoli. Costituito da diverse subunità: complesso ricetrasmittente, alimentatore in corrente alternata e in corrente continua, cuffie, tasto telegrafico, antenna filare, una serie di bobine e quarzi per le diverse frequenze di funzionamento. Degna di nota è la tavoletta scanalata, il cosiddetto “pettine”,
che permette, impiegando un particolare puntale conduttore,
di trasmettere i numeri secondo il codice Morse anche ad un
operatore inesperto.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, Collezione
“Cremona”, Colleferro, Roma.
APPARECCHIATURA RADIO PER SERVIZI SPECIALI,
MODELLO SSTR-1
USA; circa 1940; varie Aziende
Si tratta probabilmente della più famosa radio clandestina
usata dagli agenti dell’OSS (Office of Strategic Service) statunitense durante la seconda guerra mondiale. L’apparato opera in onde corte ed era tipicamente trasportato in una valigia
di produzione comune, così da passare inosservata; a questo
proposito è risaputo come agli agenti venissero fornite le valigie acquistate dagli europei che, in quegli anni, riparavano
negli Stati Uniti. Il progetto venne sviluppato da Earl Anderson, un ricercatore dell’RCA, che definì le dimensioni dell’apparato per poterlo nascondere all’interno di una pagnotta europea; durante tutto il periodo bellico questa stazione venne
continuamente modificata sia nella parte circuitale sia nel design per renderla sempre più adatta alla sua particolare destinazione. L’apparato era noto per la deriva di frequenza che
l’operatore cercava di recuperare spostando, lentamente, lo
chassis rispetto al contenitore esterno avendo preventivamente rimosso le viti di fissaggio. Caratteristiche tecniche: RICEVITORE tipo SSR-1. Dimensioni, 9,5”x4”x3”. Peso 5 lbs. Tubi impiegati, 2/6SG7,6SA7, 6SQ7,6SN7 (prime versioni), 3/7V7,
7F7, 7Q7 (ultime versioni). MF: 2000 KHz (prime versioni),
455 KHz (ultime versioni). Copertura di frequenza da 2,7 a 17
MHz in 3 bande. TRASMETTITORE tipo SST-1. Dimensioni,
9,5”x4”x3”. Peso 4 lbs. Tubi impiegati, 6L6 nello stadio finale. Copertura di frequenza da 3 a 14 MHz in 3 bande. Potenza in uscita 8-15W. ALIMENTATORE tipo SSP-1. Dimensioni,
6”x3,5”x9,5”. Peso, 10 lbs. Tubi impiegati, 7Z4. Tipo di alimentazione richiesta, universale in c.a., 6 V in cc. Tipo SSP-2.
Dimensioni, 4”x3,5”x9,5”. Peso, 7 lbs. Tipo di alimentazione
richiesta,6 V in cc. ALIMENTATORE: tipo SSP-3. Peso, 23 lbs. Funzionamento a termocoppia. L’alimentatore SSP-3 era soprannominato YTB-1 (Yak Turd Burner). Oltre alle tensioni per il
funzionamento dell’apparato può essere utilizzato anche come carica batteria. ALIMENTATORE: tipo SSP-4. Dimensioni,
4”x3,5”x9,5”. Peso, 11 lbs. Tipo di alimentazione richiesta,
universale in c.a.
e voluzione delle c omunicazioni: la s toria
RADIO PER IMPIEGHI SPECIALI
Apparecchiatura radio per servizi speciali,
modello SSTR-1. USA; circa 1940; varie
Aziende. Per cortesia di: F. e S. Govoni,
Bologna. Foto di: C. Porcheddu.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Franco e Susanna Govoni, Bologna.
APPARECCHIATURA RADIO PER AGENTI SPECIALI, MODELLO BP 3
Polonia-Gran Bretagna; circa 1941; varie Aziende
(AM/MCW/CW). Trasmettitore: copertura di frequenza da 3 a
16 MHz in tre bande, potenza in uscita di circa 20 W.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, Collezione
“Cremona”, Colleferro, Roma.
APPARECCHIATURA RADIO PER SERVIZI SPECIALI, MOD. SST/G
USA; 1943; varie Aziende
Apparato che ha sostituito il modello SSTR-1, al quale si richiama nell’aspetto esteriore.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Marco Moretti, Pesaro.
APPARECCHIATURA RADIO PER “AGENTI SPECIALI” MOD. R-301
Gran Bretagna; 1944; varie Aziende.
Si tratta di un apparato ricevente nel quale si è data particolare importanza alla miniaturizzazione dei componenti.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Marco Moretti, Pesaro.
APPARECCHIATURA RADIO PER SERVIZI SPECIALI, MOD. RS-6
e voluzione delle c omunicazioni: la s toria
Apparecchiatura
radio per servizi
speciali, Direction
Finding Set
SCR-504. USA;
1939; varie
Aziende.
Per cortesia di:
F. Cremona,
Collezione
“Cremona”,
Colleferro, Roma.
Foto di:
C. Porcheddu.
Apparecchiatura radio progettata dai tecnici polacchi rifugiati in Gran Bretagna dopo lo scoppio della seconda guerra
mondiale, di caratteristiche molto compatte venne impiegata
prevalentemente dagli agenti del SIS (Secret Intelligence Service). Assieme al complesso radio AP 4 è uno dei più famosi
apparati prodotti da questo gruppo di progettisti. Copertura
di frequenza: da 2 a 8 MHz. Potenza in uscita: circa 30 W.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Marco Moretti, Pesaro
USA; circa 1952; varie Aziende
Stazione radio operante nel campo delle onde corte, costituita da quattro subunità. Venne fornita a diverse agenzie governative statunitensi e tra esse alla CIA (Central Intelligence
Agency) e al SAC (Strategical Air Commando) che la impiegò
come dotazione di emergenza per i piloti degli apparecchi
APPARECCHIATURA RADIO PER SERVIZI SPECIALI MOD. 3 MK II (B2)
Gran Bretagna; circa 1942; varie Aziende
Si tratta del modello di radio per agenti speciali più diffuso e
conosciuto tra quelli prodotti in Gran Bretagna durante il secondo conflitto mondiale, solitamente messo a disposizione
dei gruppi combattenti infiltrati in territorio nemico oppure
delle formazioni quali i maquis francesi o i “partigiani” italiani. Questa stazione radio fu progettata, nel 1942, da John
Brown, un ufficiale del Corpo Segnalatori dell’esercito britannico destinato, fin dal 1941, ad un laboratorio di ricerca con
il compito di realizzare nuove stazioni radio per il SOE (Special
Operations Executive); di suo progetto furono anche altre due
famose stazioni radio, la MCR Mk I (Miniature Communication Receiver), meglio conosciuta come “Biscuit Tin Radio”, e
l’apparato radio A Mk III. Caratteristiche tecniche: Dimensioni: circa 47x34x15 cm, con tutte le subunità collegate per il
funzionamento. Peso: circa 15 Kg. Alimentazione: 97-250 V
in c.a. oppure 6 V in c.c. Ricevitore: supereterodina a quattro
valvole, copertura di frequenza da 3,1 a 15,5 MHz in tre bande, tipo di segnale ricevuto telegrafia e telefonia
Apparecchiatura radio per servizi speciali,
modello RS-6. USA; circa 1952; varie
Aziende. Trasmettitore RT-6.
Per cortesia di: F. e S. Govoni, Bologna.
Foto di: C. Porcheddu.
54
Apparecchiatura radio per servizi speciali, modello R-350 M (OREL). URSS; prima metà anni
’70; varie Aziende. Per cortesia di: Traditionsverein Fernmelde-/Elektronische Aufklärung
Luftwaffe e.V., Trier, Deutschland. Foto di: C. Porcheddu.
B/RB-47E, B/47 ECM, B/RB- 52E. Il progetto venne praticamente realizzato dalla RDR (Radio Development & Research
Corp.) di New York, una società che fornì i prototipi di molte
apparecchiature dell’OSS e della CIA; la produzione di serie
venne invece affidata alla GTE di Waltham e forse ad altre
Aziende del settore. È una stazione di non facile impiego a
causa dei numerosi cavi di collegamento, di alcune macchinose procedure di funzionamento, delle scarse possibilità di
manutenzione campale; limiti, verosimilmente, da imputare
alla scelta di raggiungere la massima miniaturizzazione possibile. Caratteristiche tecniche: RICEVITORE tipo RR-6: dimensioni,
6 3/4”X5”X2 1/4”; peso 3 lbs 2 oz; tubi impiegati, 4/5899;
3/5718; copertura di frequenza da 3 a 15 MHz in 2 bande;
controllo di frequenza a VFO o tramite cristallo; corredato
inoltre di BFO e cristallo di calibrazione. TRASMETTITORE tipo RT6: dimensioni, 6 3/4”X5”X2 3/32”; peso 2 lbs 14 oz; tubi impiegati, 6AG5, 2E26; copertura di frequenza da 3 a 16,5 MHz
in 2 bande; potenza in uscita: circa 6-10 W. ALIMENTATORE tipo
RP-6: dimensioni, 8 1/16”X4”X2 3/16”; peso 5 lbs 11 oz tubi impiegati, 6X4; UNITÀ FILTRO tipo RA-6: dimensioni, 8
1/16”X4”X2; peso, 3 lbs 11 oz.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Franco e Susanna Govoni, Bologna.
APPARECCHIATURA RADIO PER SERVIZI SPECIALI
URSS; circa 1960; varie Aziende
Impiegata dagli agenti del KGB (Komitet Gosudarstvennoy
Bezopasuosti; il servizio responsabile dello spionaggio all’estero e della sicurezza interna dell’URSS) tra gli anni ’50 e ’60
nell’Europa occidentale e in Asia orientale. Caratteristicamente priva di contrassegni identificativi, nelle modalità costruttive si richiama alla coeva produzione britannica. Come tutte le
radio per servizi speciali prodotte prime della miniaturizzazio-
ne consentita dai semiconduttori l’apparecchiatura è costituita da alcune sottounità (moduli) per favorirne l’occultamento
e la trasportabilità.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, Collezione
“Cremona”, Colleferro, Roma.
URSS; 1968; varie Aziende
Stazione radio di bordo per caccia-bombardiere MiG-21-FM
(Fishbed), costituita da una serie di moduli stagni e pressurizzati connessi attraverso una serie di cavi che permettono il
posizionamento all’interno dei limitati spazi disponibili nel velivolo. Caratteristiche tecniche: l’apparato opera in due distinte bande di frequenza su venti canali, preselezionati tra i disponibili, nella banda VHF da 118 a 140 MHz (in 617 canali) e
nella banda UHF da 220 a 389,95 MHz (in 3400 canali). Potenza irradiata (con antenna filare di 5 m ed impedenza di 75
Ω) circa 15 W. Ricevitore supereterodina a tripla conversione
di frequenza. La stazione permette di comunicare sia in fonia
(A3) che in telegrafia (F1).
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e. V., Trier, Deutschland.
APPARECCHIATURA RADIO PER SERVIZI SPECIALI,
MOD. R- 350 M (OREL)
URSS; prima metà anni ’70; varie Aziende
Tipico esempio di stazione radio per servizi speciali del periodo della “guerra fredda”. Si tratta di una serie di apparec-
Apparecchiatura radio per servizi speciali, modello RS-6. USA;
circa 1952; varie Aziende. Ricevitore RR-6.
Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
55
e voluzione delle c omunicazioni: la s toria
APPARECCHIATURA RADIO, MOD. R-832-M
e voluzione delle c omunicazioni: la s toria
Apparecchiatura radio per impieghi speciali,
modello R-147. URSS, circa 1985, varie
Aziende. Per cortesia di: F. e S. Govoni,
Bologna. Foto di: C. Porcheddu.
Apparecchiatura
radio per agenti
speciali, modello
R-353 (PROTON).
URSS, circa 1975,
varie Aziende.
Per cortesia di:
M. Moretti, Pesaro.
Foto di: C.
Porcheddu.
chiature che sia nell’aspetto esteriore sia nel progetto si staccano dalla precedente produzione russa legata alle tecnologie
belliche; vengono fornite di dispositivi per la trasmissione telegrafica ad alta velocità e di sistemi di sintonia automatica
che permettono di diminuire drasticamente i tempi di trasmissione e, di conseguenza, il rischio di intercettazione e di
disturbo. Questo modello, uno dei più diffusi, venne impiegato per missioni speciali (Spetznaz) e da truppe regolari per essere usato in azioni nelle retrovie nemiche, raccoglie in un unico contenitore metallico la stazione vera e propria, il sistema
di alimentazione e gli accessori. L’apparato esposto è completo di un interessante dispositivo, molto compatto, che svolge
la funzione di tasto telegrafico, permette la trasmissione in
codice Morse ad operatori non esperti e consente la “lettura”
di pellicole fotografiche del formato 35 mm preventivamente
perforate consentendo la trasmissione, in quest’ultimo modo,
di grandi quantità di informazioni in tempi molto brevi. Caratteristiche tecniche: dimensioni circa 35x32x15 cm; peso
circa 12,5 Kg; copertura di frequenza: trasmettitore da 1,8 a
12 MHz, ricevitore da 1,8 a 7 MHz; tipo di modulazione: trasmettitore solo telegrafia (CW) ricevitore telegrafia e telefonia
(CW, MCW, AM); potenza in uscita: circa 10 W; alimentazione: 4 batterie Zn-Ag che attraverso un trasformatore-elevatore forniscono le alte tensioni per i tubi elettronici.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e. V., Trier, Deutschland.
APPARECCHIATURA RADIO PER AGENTI SPECIALI,
MODELLO R-353 (PROTON)
URSS; circa 1975; varie Aziende
Apparato molto compatto fornito di micro scale di sintonia ed
antenne separate per le sezioni trasmittente e ricevente, com-
pleto di tasto telegrafico di tipo tradizionale e di un disco combinatore meccanico per la trasmissione di soli numeri ; per le
trasmissioni ad alta velocità è fornito di un dispositivo per la registrazione di segnali in codice su nastro magnetico (burst code transmitter). Esistono due varianti una per alimentazione in
corrente continua e una per corrente alternata.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Marco Moretti, Pesaro.
APPARECCHIATURA RADIO PER IMPIEGHI SPECIALI,
MODELLO R-147
URSS; circa 1985; varie Aziende
Apparato ricetrasmittente estremamente compatto, destinato
all’impiego individuale su brevi distanze in zone avanzate di
combattimento. Completamente a stato solido, prodotto con
tecnologia a “film sottile”. Copertura di frequenza: quattro
canali, predefiniti a seconda del modello, tra 44 e 51,8 Mhz.
Tipo di modulazione: FM. Potenza del trasmettitore: circa 130
mW. Alimentazione: batterie ricaricabili (6-7,5 V), oppure con
batterie a secco (9 V). Distanze raggiungibili: fino ad un Km,
secondo il tipo di antenna impiegato (a frusta o a filo, entrambe in dotazione). Dimensioni: circa 8x12x5 cm. Peso: circa 700g (compreso accessori e borsa per il trasporto).
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Franco e Susanna Govoni, Bologna.
RADIOGONIOMETRO CAMPALE, MOD. E 393 N
Italia; 1938; Telefunken-OLAP
Apparato radio ricevente che permette la localizzazione goniometrica di una stazione trasmittente. L’apparato radiogoniometrico identifica solamente la direzione e l’origine della
stazione trasmittente, ma non la distanza; per questa ragione
la localizzazione precisa avviene impiegando almeno tre stazioni contemporaneamente, attraverso il metodo della triangolazione. L’apparato poteva essere installato, oltre che in posizione fissa, sia su veicolo sia su aeroplano. L’installazione
completa è costituita da : radio ricevitore, due antenne a quadro, una antenna a frusta, un supporto goniometrico d’antenna, una base di supporto, batterie, accessori. Copertura di
frequenza: da 0,75 a 33,3 MHz in cinque bande.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, Collezione
“Cremona”, Colleferro, Roma.
APPARECCHIATURA RADIO PER SERVIZI SPECIALI,
DIRECTION FINDING SET SCR-504
USA; 1939; varie Aziende
Radiogoniometro portatile contenuto in una valigia appositamente costruita, utilizzato per localizzare con precisione sta-
56
Apparecchiatura radio per servizi speciali,
modello TX0-OC3 Italia; 1940; varie Aziende.
Per cortesia di: F. Cremona, Collez. “Cremona”,
Colleferro, Roma. Foto di: C. Porcheddu.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Nerio Neri, Bologna.
RADIOGONIOMETRO CAMPALE A BREVE RAGGIO, MOD. P 100/2
STAZIONE RADIO PER SERVIZI SPECIALI, IMCA 0,4 W
Italia; circa 1943; Imcaradio
Stazione radio ricetrasmittente impiegata dal DICAT (Difesa
Territoriale) di caratteristiche radioelettriche molto interessanti, uno dei primissimi esempi italiani di produzione industriale
nel campo delle onde ultra corte (VHF); risulta composta da
tre sottounità: TRASMETTITORE IF 602 - copertura di frequenza :
da 59 a 64,5 MHz in un’unica frequenza preselezionabile e
controllata a quarzo. RICEVITORE IF 607 - supereterodina a 6
valvole, copertura di frequenza: continua da 58,5 a 65 MHz
in unica banda. ALIMENTATORE IF 21 S - permette il funzionamento dell’intera stazione, contiene inoltre una sezione amplificatrice di bassa frequenza che consente l’ascolto in altoparlante, anche esso contenuto in questa unità.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, Collezione
“Cremona”, Colleferro RM.
ANTENNA GONIOMETRICA, MOD. F-2469
Gran Bretagna; circa 1935; Marconi Co.
Antenna goniometrica di impiego navale, completamente in
bronzo per resistere alla corrosione dell’ambiente marino. Costituita da una base cubica sulla quale sono fissate un’antenna a telaio (costituita da due anelli concentrici ed ortogonali
tra loro, di circa 80 cm di diametro) ed una antenna a “frusta” verticale (di circa 3 metri di lunghezza) inserita, nella base, all’intersezione dei due anelli. L’impiego dei due tipi di antenna permette di definire la direzione e il verso di provenienza del segnale ricevuto. Peso: circa 20 Kg.
57
e voluzione delle c omunicazioni: la s toria
zioni radio trasmittenti clandestine in precedenza identificate
da altri apparati di radioascolto e localizzazione. Impiegato
principalmente in aree ad alta densità abitativa dove le stazioni radiogoniometriche mobili potevano essere, per le loro
grandi dimensioni, facilmente identificate. Il funzionamento
sul “campo” è previsto con valigia chiusa, dissimulando l’auricolare (del tutto simile a quelli usati per ipoudenti) tra gli abiti
e regolando le varie funzioni attraverso i comandi posizionati
alla base della maniglia di trasporto. Caratteristiche tecniche:
ricevitore supereterodina ad otto tubi; copertura di frequenza
da 0,1 a 65 MHz, in 8 bande; tipo di segnale ricevuto: AM e
CW; MF: 455 o 910 KHz; alimentazione tramite batterie a secco BB-51 e BB-52; documentazione tecnica: TM 11-862.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, Collezione
“Cremona”, Colleferro, Roma.
Germania; seconda metà anni ‘50; Telefunken
Apparato radio ricevente che permette la localizzazione goniometrica di una stazione trasmittente. L’apparato, nel design
e nelle caratteristiche radioelettriche, si richiama fortemente
alla produzione anteriore alla seconda guerra mondiale (vedi
scheda relativa all’apparato E 393 N, a p. 56) a dimostrazione
della persistenza e della validità delle soluzioni adottate.
Caratteristiche tecniche: ricevitore supereterodina con copertura di frequenza da 1,5 a 30 MHz in cinque bande; peso circa 20 Kg (solo ricevitore); dimensioni circa 50x50x50 cm.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Traditionsverein Fernmelde-/Elktronische Aufklärung Luftwaffe e. V., Trier, Deutschland.
LA CRITTOGRAFIA
L’uomo, nel corso della propria evoluzione, ha dedicato molti
sforzi, tecnici e culturali, all’impresa di comunicare, cioè di
“rendere comuni”, dati e conoscenze, idee e sentimenti, immagini e rappresentazioni, fino al punto di fare della comunicazione non solo uno strumento accessorio all’azione, ma una
vera e propria “azione comunicativa”. Altrettanto impegno è
stato profuso nel tentativo di tutelare la riservatezza del messaggio, cioè di indirizzare la comunicazione solo verso taluni
individui; se tale fine è relativamente facile in un mondo dove
la comunicazione è quasi esclusivamente orale, dove messaggio e messaggero si identificano, ben più problematico diventa proteggere la riservatezza di una forma scritta di comunicazione. Un testo scritto in un mondo di analfabeti è già un modo per codificare e rendere segreta una comunicazione, ma in
un mondo alfabetizzato il problema del controllo del messaggio si ripropone in maniera più allargata. Intuitivamente il primo modo di mantenere la riservatezza di una comunicazione
scritta può essere quello di nasconderla, di celarne l’esistenza
stessa; la steganografia (dal greco Steganós, nascosto e Gráphein, scrivere) è appunto quella disciplina che studia queste
tecniche. Esempi di steganografia sono le “scritture dissimulate” nelle quali il reale messaggio è celato all’interno di un altro dall’aspetto innocuo e differente (tipico esempio ne è l’acrostico oppure l’informazione nascosta all’interno di un’immagine digitalizzata) oppure le “scritture invisibili” nelle quali,
mediante artifici fisici o chimici, il messaggio viene reso invisibile o difficilmente individuabile (gli inchiostri simpatici, i microfilm, i messaggi occultati in micropunto). La steganografia
non possiede, però, la flessibilità, la rapidità e la sicurezza richieste a molte delle attività umane che quotidianamente impiegano il telefono, la radio e, più recentemente, la posta elettronica, mezzi di comunicazione estremamente efficienti per
superare le distanze, ma che altrettanto efficientemente distribuiscono l’informazione anche a coloro che non ne sono i legittimi destinatari. Assieme allo sviluppo delle tecniche steganografiche si è quindi sviluppata un’altra branca dei linguaggi
segreti, la crittografia (dal greco Kryptós, segreto e Gráphein,
scrivere), che non si occupa di nascondere l’esistenza del mes-
Macchina
crittografica,
modello M-209.
USA; anni ‘40;
Hagelin.
Per cortesia di:
F. Cremona, Collez.
“Cremona”,
Colleferro, Roma.
Foto di:
C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
Cifrario (disco cifrante). Italia, XVI sec.
Per cortesia di: Ist. e Museo di Storia della
Scienza, Firenze. Foto di: Ist.e Museo di
Storia della Scienza, Firenze.
Macchina
crittografica
Enigma. Germania,
1937, varie
Aziende.
Per cortesia di:
Deutsches
Museum, Münich,
Deutschland.
Foto di: Deutsches
Museum, Münich,
Deutschland.
dei messaggi. Nella maggior parte dei casi la tutela della riservatezza della comunicazione stessa è, in maniera solo apparentemente paradossale, secondaria rispetto all’esigenza fondamentale di sapere con chi realmente si sta comunicando. La
crittografia, restituendo certezza alla comunicazione, può contribuire alla realizzazione di una società civile basata sulla comunicazione digitale.
REGOLO CIFRANTE SEMPLICE
saggio, ma lo trasforma in modo da renderlo incomprensibile
(cifratura) a chi non conosca le regole per renderlo intellegibile (decifrazione). La crittografia è sempre stata una disciplina
ambigua e sottaciuta, volutamente confusa tra la scienza, l’arte e la magia; dal XIX secolo, grazie alla letteratura avventurosa prima e ai romanzi di spionaggio poi, è entrata nell’immaginario collettivo come strumento dell’armamentario delle
spie, dei cospiratori e degli agenti di oscure potenze straniere,
una visione quasi esclusivamente letteraria e romantica che
non rende ragione delle risorse umane ed economiche profuse dalle nazioni in questo settore. Negli ultimi anni la crittografia non è più considerata una tecnica misteriosa ed inavvicinabile, impiegata per scopi militari o per la sicurezza nazionale; di fatto la maggior parte di noi usa, talvolta senza saperlo, tecniche crittografiche, più o meno evolute, in alcune normali attività quotidiane: l’acquisto tramite Bancomat o carta di
credito e la telefonata di un cellulare GSM ad esempio. Con
l’avvento delle reti mondiali per la comunicazione digitale diffuse in tutto il globo, e costantemente usate anche da semplici cittadini per lavoro o per diletto, la tutela della riservatezza,
della “privacy”, può avvenire in modo certo ed efficace solamente attraverso la crittografia. In realtà lo scopo attuale della crittografia è non solo e non principalmente la protezione
delle informazioni riservate dagli sguardi indiscreti, le attuali
tecnologie consentono infatti di di impiegare le reti di comunicazione e i documenti elettronici alla stessa
stregua dei documenti cartacei tradizionali, disponendo di una serie di meccanismi che ne permettano la verifica dell’autenticità; vale la pena
di ricordare, a questo proposito, che in Italia il
“documento informatico” e la “firma digitale”,
fin dal 1997, sono entrati a far parte del nostro
ordinamento giuridico, equiparati in tutto e per
tutto al documento cartaceo. Il reale ostacolo da
superare in questa nostra società “cablata”, infatti, è costituito dalla intrinseca mancanza di sicurezza nelle reti di telecomunicazione, che si riflette in una incertezza sull’identità dei corrispondenti e, conseguentemente, sull’autenticità
Ringraziamenti
Italia; circa 1935
Strumento portatile, simile ad un regolo calcolatore, permette di crittografare un testo per sostituzione monoalfabetica
semplice. Il primo cifrario organizzato di cui si abbia precisa
notizia storica è quello attribuito a Giulio Cesare. Molto semplicemente consiste nel sostituire ogni lettera del testo chiaro
con quella che, nell’alfabeto, la segue (o la precede) di un numero convenuto di posti. Alla luce delle conoscenze di un nostro contemporaneo appassionato di cruciverba si tratta di
una tecnica rudimentale, tuttavia in un epoca di scarsa alfabetizzazione quale quella di Cesare è verosimile pensare che
questo stratagemma abbia raggiunto il suo scopo. Una ulteriore complicazione di questo tipo di cifrario è quello di impiegare, come nell’apparato a suo tempo esposto, un alfabeto cifrato nel quale l’ordine delle lettere non rispetti quello
usuale. Il punto debole resta comunque la stretta correlazione tra l’alfabeto chiaro e l’alfabeto cifrato; essendo quest’ultimo unico (sia che lo si utilizzi nella sequenza ordinaria sia in
una arbitraria) ad una determinata lettera del chiaro ne corrisponde sempre una ed una sola del cifrato. Dimensioni: circa
30x4x0,7 cm.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, collezione
“Cremona”, Colleferro, Roma.
CIFRARIO (DISCO CIFRANTE)
Italia; XVI sec.
Strumento portatile che permette di crittografare un testo
per sostituzione polialfabetica; è costituito da due dischi metallici coassiali con incisa una serie concentrica di alfabeti ed
un indice di riferimento mobile. Il disco cifrante è la prima
macchina per cifrare della quale si abbia notizia e la sua invenzione viene attribuita all’architetto e umanista italiano
Leon Battista Alberti. Pur essendo un dispositivo molto semplice facilitò in modo significativo la produzione di testi cifrati rimanendo in uso fino al XIX secolo. L’esemplare esposto è una versione più complessa e potenzialmente più sicura dello strumento utilizzato dall’Alberti. Dimensioni: diametro del disco esterno circa 10 cm.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Istituto e Museo di Storia della
Scienza, Firenze.
MACCHINA CRITTOGRAFICA ENIGMA
Germania; 1937; varie Aziende
Sicuramente l’apparato crittografico più famoso al mondo,
conosciuto anche dai non addetti ai lavori grazie ai libri e ai
film prodotti sfruttando gli aspetti più avventurosi dell’attivi-
Debbo uno speciale ringraziamento al Dott.
Filippo Sinagra che, con grande entusiasmo, ha
messo a mia disposizione le sue profonde
conoscenze in campo crittografico, offrendomi un
sostanziale aiuto per chiarire alcuni degli aspetti
più complessi di questo affascinante mondo.
58
59
Telescrivente
crittografica T
Tipo 52e (T52e).
Germania; 1944;
Siemens.
Per cortesia di:
Siemens AG SiemensForum,
Münich,
Deutschland.
Foto di:
C. Porcheddu.
il disco ha compiuto un’intera rotazione, quello immediatamente di fianco avanza di un passo ed il ciclo riprende. In pratica la macchina così concepita modifica il suo cifrario ad ogni
carattere e non riapplica la medesima trasformazione se non
dopo un numero di caratteri che è dipendente dal numero di
dischi impiegati e dal numero di passi di ogni disco. I rotori
possono essere intercambiati tra loro oppure sostituiti con altri aventi differente cablaggio interno; per aumentare il grado
di complessità della cifratura, e diminuire conseguentemente
la possibilità di decrittazione dei messaggi, in ogni disco, la reciproca posizione delle due parti coassiali che lo costituiscono
può essere variata; ciò modifica la struttura delle connessioni
interne determinando una conseguente modifica della cifratura propria del disco. Coassialmente ai rotori è inserito un
quarto disco “riflettore” (di tipo beta o di tipo gamma), non
ruotante e non visibile ad apparato operativo, che consente di
utilizzare i contatti dei tre rotori cifranti anche in un percorso di “ritorno” diverso da quello di “andata”; in alcuni modelli i riflettori beta e gamma vennero sostituiti da un altro tipo di riflettore ruotabile manualmente in fase di settaggio
della macchina. Alcuni dischi in dotazione alla Marina militare tedesca vennero modificati inserendo due “denti di arresto”. Ad altri tipi si aggiunse un “pannello perturbatore” che
inseriva una serie di sostituzioni monoalfabetiche fisse ed indipendenti dai rotori utilizzati, in altri modelli di ENIGMA venne aumentato il numero di rotori realmente cifranti (fino a 4
nei modelli in dotazione all’Abwher, il servizio segreto militare tedesco), e si previde la possibilità di impiego di un ulteriore accessorio di sopracifratura denominato ENIGMA- UHR da
connettersi al pannello perturbatore (vedi più oltre). La definizione della chiave di cifratura inizia con la scelta di quali rotori debbano essere impiegati, di quale reciproca posizione debbano assumere coassialmente l’uno rispetto all’altro, di quale
posizione debbano assumere, tra loro, le due parti coassiali di
ogni rotore e, per ultimo, quale posizione della circonferenza
di ogni disco (evidenziato da 26 lettere o coppie di numeri)
debba coincidere con la linea di riferimento posta all’esterno
del contenitore; le ulteriori possibilità prima elencate non fanno che aumentare il grado della complessità di questo meccanismo base. L’apparato ENIGMA permette anche la decifratura dei messaggi cifrati che vengono composti utilizzando la
tastiera e sono letti, in chiaro, attraverso la sequenza di lette-
Macchina crittografica
Enigma. Germania;
1937; varie Aziende.
Particolare del
“pacchetto” dei rotori
estratto dalla macchina.
Per cortesia di:
F. Cremona, Collezione
“Cremona”, Colleferro,
Roma. Foto di:
C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
tà di spionaggio durante la seconda guerra mondiale. Il ruolo
centrale dell’impiego di ENIGMA (e dei tentativi, alleati, di forzarne la cifratura con il progetto ULTRA) per gli esiti finali della seconda guerra mondiale sono stati solo recentemente
messi completamente in luce rendendo di pubblico dominio i
documenti riservati ancora esistenti ed autorizzando i superstiti protagonisti a raccontare liberamente le loro esperienze.
Negli anni a cavallo della prima guerra mondiale alcuni progettisti, l’uno indipendentemente dall’altro, si impegnarono
nella costruzione di una macchina che liberasse l’operatore da
lunghe e complesse (e potenzialmente errate) operazioni di cifratura con “carta e matita”; da questi sforzi nacquero anche
alcuni progetti accomunati dall’uso di “rotori scambiatori”,
tra i quali ricordiamo quelli dell’americano Edward Hugh Hebern del 1917, del tedesco Arthur Scherbius del 1918, dell’olandese Hugo Alexander Koch, del 1919, dello svedese Arvid
Gerhard Damm del 1919. Tali realizzazioni non ebbero immediato successo tanto che per alcuni di essi si trasformarono in
un fallimento commerciale. Solamente dopo alcuni anni, in
Germania, durante il faticoso periodo di ricostruzione della
nazione seguito alla disfatta della prima guerra mondiale, i
vertici militari si convinsero dell’importanza strategica dell’intercettazione e della crittanalisi delle comunicazioni nemiche
e ritennero quindi necessario dotarsi di apparati che automatizzassero e proteggessero in modo adeguato le proprie comunicazioni. Nel frattempo Scherbius aveva fondato (1923) la
“Chiffriermaschinen Aktiengesellschaft” mettendo in produzione una macchina crittografica, basata appunto sull’impiego dei rotori scambiatori, denominata ENIGMA che, dopo
una serie di verifiche, venne ritenuta la migliore soluzione al
problema della riservatezza delle comunicazioni e, dal 1926,
distribuita, in versione modificata, alle forze armate tedesche.
La macchina ENIGMA è uno dei molti esempi di “macchina a
rotori”, una classe di apparati che per decenni ha dominato la
scena crittografica mondiale. La struttura, relativamente semplice, si basa appunto su di una serie di “rotori” (cinque tipi
diversi, identificati da cifre romane), dischi di spessore discreto, coassiali ed affiancati l’uno all’altro; ciascun rotore è dotato di contatti elettrici (26, quante le lettere dell’alfabeto) su
entrambi i lati; nello stesso disco il contatto di un lato è connesso a quello dell’altro lato in maniera non sequenziale costituendo la cifratura propria del disco. L’impulso elettrico generato dalla composizione della lettera da cifrare (composta
attraverso una tastiera simile a quella di una macchina per
scrivere) passa attraverso la serie di contatti di vari dischi (in
numero variabile nei diversi modelli) emergendo in corrispondenza di una lettera completamente diversa, evidenziata dall’accensione di una lampadina, che ne costituisce la cifratura.
I dischi possono ruotare, attorno al proprio asse, a passi discreti, e sono collegati l’uno all’altro da un meccanismo simile
a quello dei contachilometri meccanici delle auto, grazie al
quale, non appena viene premuto un qualsiasi tasto della tastiera, il primo disco, a destra di chi scrive, ruota di una frazione di giro (1/26, quanti i contatti dei dischi) modificando la
struttura cifrante della macchina, permettendo, in pratica, di
applicare al successivo carattere una trasformazione diversa,
pseudo-casuale, e che dipende dal settaggio iniziale. Quando
Macchina crittografica Nema. Svizzera;
1947; Zellweger AG.
Per cortesia di: F. Sinagra, Mestre,
Venezia. Foto di: C. Porcheddu.
re illuminate. L’esemplare a suo tempo esposto, privo della
cassetta per il trasporto, è un modello a tre rotori e riflettore
ruotabile manualmente in fase di settaggio. Dimensioni: circa
26x28x11 cm (variabili tra i diversi modelli). Peso: circa 8 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, collezione
“Cremona”, Colleferro, Roma.
e voluzione delle c omunicazioni: la s toria
MACCHINA CRITTOGRAFICA ENIGMA
Germania; 1937; varie Aziende
Apparato crittografico simile a quello descritto nella precedente scheda, si tratta di un modello K caratterizzato dall’avere tre rotori, riflettore fisso e pannello permutatore. Dimensioni: circa 26x28x11 cm (variabili tra i diversi modelli). Peso:
circa 8 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Deutsches Museum, Münich,
Deutschland (v. p. 58).
MACCHINA CRITTOGRAFICA ENIGMA
Germania; 1940; varie Aziende
Apparato crittografico simile a quello descritto nella precedente scheda, caratterizzato dall’avere quattro veri rotori cifranti e ruotanti con movimento realmente odometro, oltre al
disco riflettore di tipo non settabile. Si tratta di un modello in
dotazione all’Abwher, il servizio segreto militare tedesco. Dimensioni: circa 26x28x11 cm. Peso: circa 8 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da un Collezionista che desidera mantenere l’anonimato.
ACCESSORIO DI SOPRACIFRATURA ENIGMA-HUR
Germania; circa 1944; varie Aziende
Si tratta di un accessorio che permette di sopracifrare (di inserire cioè una ulteriore cifratura) un testo cifrato da ENIGMA.
Il principio di funzionamento è il medesimo del pannello perturbatore presente in alcuni modelli: una serie di connessioni
elettriche, fisicamente dei ponticelli di filo metallico, che si inseriscono nel circuito di cifratura determinando una permutazione fissa di solo alcune delle lettere cifrate (impiegando il
pannello perturbatore le connessioni utilizzate vengono definite in sede di settaggio della macchina). L’accessorio ENIGMA-HUR, una volta connesso al pannello perturbatore, consente di variare questo tipo di sopracifratura, in maniera molto semplice e veloce (ogni ora, Hur in tedesco), ruotando una
manopola di comando, diminuendo i tempi di modifica ed i
possibili errori nel posizionamento delle connessioni. Prodotto in piccole serie negli ultimi mesi di guerra, sembra abbia
avuto uno scarso impiego.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da un Collezionista che desidera mantenere l’anonimato.
MACCHINA CRITTOGRAFICA ENIGMA
Svizzera; circa 1940; varie Aziende
Apparato crittografico portatile in dotazione al corpo diplomatico e alle forze armate elvetiche, tra la fine degli anni ‘30
e il termine della seconda guerra mondiale, fornito, in poche
centinaia di unità, dalla Germania. Si tratta, fondamentalmente, di versioni civili di ENIGMA, modelli D e K. Sospettando,
con giusta ragione, che tali apparati non garantissero sufficiente sicurezza, il governo svizzero provvide a modificare il cablaggio interno dei rotori e dei riflettori. Esternamente questi
modelli si differenziano, oltre che per particolari secondari, per
la presenza di un pannello ripetitore a lampadine, collegato all’unità principale tramite un cavo, che permette la trascrizione
del testo ad un secondo operatore. Questi apparati vennero
sostituiti, nel 1947, dalla macchina crittografica NEMA (vedi
scheda relativa), rimanendo peraltro in uso per traffico a basso livello di segretezza fino al 1990. Dimensioni: circa
26x28x11 cm (variabili tra i diversi modelli). Peso: circa 8 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: R. Gianni, Vimercate, Milano.
MACCHINA CRITTOGRAFICA MOD. M- 209
(CSP 1500, C-48, C-38m, C-38M)
USA; anni ‘40; Hagelin
Il più diffuso apparato crittografico portatile, completamente
meccanico, a funzionamento manuale con la possibilità di
stampa (su “zona” telegrafica) del messaggio, destinato alla
cifratura e decifratura di messaggi a basso livello di segretezza, tipicamente per un impiego tattico dove la finalità è di
mantenere la riservatezza delle informazioni per brevi lassi di
tempo (al limite per poche ore). Progettato dall’inventore ed
industriale svedese Boris Hagelin (1892-1983) nella seconda
metà degli anni ‘30, dopo un adeguamento costruttivo all’impiego militare, venne prodotto per le forze armate degli
Stati Uniti d’America ed impiegato in modo massiccio durante l’invasione dell’Africa nel Novembre del 1942 rimanendo in
produzione fino alla fine degli anni ‘60. Si tratta di un’apparecchiatura prodotta in grandi quantità (circa 140.000 esemplari durante la seconda guerra mondiale) molto apprezzata
dalle truppe USA per le dimensioni contenute, la leggerezza,
la robustezza e la relativa semplicità d’impiego. Se ne conoscono due versioni denominate M-209, destinata all’Esercito,
e CSP-1500, destinata alla Marina, che differiscono tra loro
per aspetti secondari. La stessa apparecchiatura, con alcune
modifiche e diverse denominazioni, venne impiegata, durante lo stesso arco temporale, anche da altre nazioni quali Italia
(Marina militare), Francia, Germania anche se in quantitativi
molto limitati rispetto alla produzione nord americana. Crittograficamente il principio di funzionamento è il medesimo degli apparati ENIGMA, salvo che le connessioni elettriche sono
sostituite con dispositivi meccanici permettendo di rendere
l’apparecchio più compatto, leggero e meno soggetto ad avarie. La relativa semplificazione della struttura se da un lato ne
ha permesso la produzione in grande serie dall’altro ha dimi-
60
MACCHINA CRITTOGRAFICA O.M.I. - NISTRI
Italia; circa 1939; O.M.I.
Apparato crittografico che viene considerato la risposta italiana all’ENIGMA, con la quale condivide l’impiego dei rotori di
cifratura; se ne differenzia, oltre che per l’aspetto esterno, per
il peso piuttosto rilevante, l’alimentazione da rete e in corrente continua, una maggiore complessità costruttiva dei rotori.
Consente la stampa del testo su nastro di carta accellerando
le procedure di cifratura, decifratura e di verifica del testo. Per
rendere più agevole la battitura dei testi, un motore elettrico
provvede ai movimenti dei meccanismi. Il grave limite di questo apparecchio era nei contatti elettrici, striscianti, tra i rotori: nel tempo, l’usura e l’accumulo di sporcizia determinavano
dei falsi contatti pregiudicando fortemente l’affidabilità dell’apparato; giova comunque ricordare che lo stesso problema,
anche se in misura limitata, si riscontra in tutte le apparecchiature con lo stesso principio di funzionamento. Impiegata
dalle forze armate italiane in maniera occasionale e discontinua, la sua cifratura venne forzata dall’Intelligence britannica
nel Febbraio 1940. Venne definitivamente posta fuori servizio
nel Settembre 1941, rimanendo disponibile per il mercato civile per qualche decennio. Dimensioni: sola macchina 37 x 42
x 17 cm, valigia di trasporto 43 x 48 x 23 cm. Pesi: sola macchina circa 20 Kg, con valigia ed accessori circa 27 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, collezione “Cremona”, Colleferro, Roma.
MACCHINA CRITTOGRAFICA NEMA
Svizzera; 1947; Zellweger AG
Apparato crittografico portatile progettato per sostituire gli
apparati ENIGMA in dotazione al governo svizzero (vedi scheda relativa) che non garantivano la sicurezza richiesta. La progettazione di questa nuova macchina (il nome NEMA è l’acronimo delle parole NEue MAschine) iniziò nel 1942 ed i primi due modelli funzionanti vennero sottoposti per le valutazioni tecniche nel 1945. La produzione di serie e l’assegnazione ai reparti si ebbe a partire dal 1947; si ritiene, in questi
settori il condizionale è d’obbligo, che siano state prodotti, tra
versioni operative e per addestramento, poco meno di un migliaio di esemplari. L’apparato NEMA, conosciuto anche come
“tipo T-D” (da Tasten-Drücker-Maschine), venne ritenuto tecnologicamente obsoleto e quindi declassificato nel 1992. L’aspetto esterno e le caratteristiche costruttive sono simili a
quelle degli apparati ENIGMA tanto da esserne considerato, a
torto, la versione post-bellica. La cifratura è ottenuta con il sistema di sostituzione polialfabetica attraverso l’uso di una serie di ruote e corone intercambiabili e a più denti di arresto. Il
testo in chiaro da crittare o il testo in cifra da decrittare viene
composto, lettera per lettera, sulla tastiera dell’apparato; il testo cifrato o decifrato viene prodotto, come negli apparati
ENIGMA, lettera per lettera, attraverso l’illuminazione di un
pannello a lampadine; utilizzando un connettore multipolare
posto sul fianco sinistro della macchina è possibile impiegare
o un “pannello a lampadine complementare” (in dotazione)
che permette la trascrizione del testo ad un secondo operatore oppure comandare direttamente una macchina per scrivere elettrica, un apparato telescrivente, un perforatore Creed
o un trasmettitore Hell. Dimensioni: circa 33x38x15 cm. Peso:
circa 11 Kg, compreso gli accessori.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Filippo Sinagra, Mestre, Venezia.
e voluzione delle c omunicazioni: la s toria
nuito la resistenza del testo cifrato ad un possibile tentativo di
forzatura destinando, quindi, l’apparecchiatura ad un impiego
esclusivamente tattico. Velocità operativa: circa 30 caratteri
per minuto. Dimensioni: circa 9x19x12 cm. Peso: circa 3 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Francesco Cremona, collezione “Cremona”, Colleferro, Roma.
MACCHINA CRITTOGRAFICA CX-52-M
TELESCRIVENTE CRITTOGRAFICA T Tipo 52e (T52e)
Germania; 1944; Siemens
Telescrivente crittografica “on line” prodotta dalla Siemens a
partire dal 1932 (tipo 52a) fino al 1944-45 (tipo 52e), venne
destinata alla trasmissione di messaggi tra alti comandi militari. Conosciuta dagli Alleati col nome in codice di “sturgeon”, storione. Molti esemplari, sopravvissuti agli eventi bellici (specialmente del tipo 52e), vennero revisionati e utilizzati
per molti anni a seguire e considerati ancora “classificati”
(cioè coperti da segreto) nella seconda metà degli anni ’80. Si
tratta di un’apparecchiatura on-line, il testo in chiaro viene
composto su di una normale tastiera dattilografica, automaticamente cifrato e trasmesso su di una tradizionale linea telegrafica/telefonica; solo raramente vennero impiegati in connessione con apparati radio a causa dei disturbi introdotti nella trasmissione. Crittograficamente sfrutta lo stesso principio
di funzionamento delle macchine a rotori quali l’ENIGMA, ma
ad un maggiore livello di complessità.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Siemens AG – SiemensForum, Münich, Deutschland.
61
Svizzera; 1950; Hagelin
Apparato crittografico portatile, a funzionamento meccanico,
di struttura molto compatta e robusta, può essere impiegato
sia per il ciframento che per il deciframento. L’apparato è fornito di un meccanismo che stampa contemporaneamente il
testo primario e quello secondario (Primario: il testo in chiaro
quando si cifra, il cifrato quando si decifra. Secondario: il testo cifrato quando si cifra, il testo chiaro quando si decifra)
sullo stesso nastro di carta per favorire il controllo dell’operazione di cifratura o decifratura. Di impiego relativamente semplice possiede una serie di dispositivi che favoriscono il corretto funzionamento dell’apparecchiatura. I cifrati prodotti da
Unità criptante
mod. TSEC/KW-7.
USA; circa 1960;
N.S.A.
Per cortesia di:
Traditionsverein
Fernmelde/Elektronische
Aufklärung
Luftwaffe e. V.,
Trier, Deutschland.
Foto di:
C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
questa macchina sono, dal punto di vista crittologico, di elevatissimo livello. Velocità operativa: dalle 30 alle 60 lettere al
minuto (a seconda dell’abilità dell’operatore). Dimensioni: circa 21x13x11 cm. Peso: circa 4 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Filippo Sinagra, Mestre, Venezia.
MODULO AGGIUNTIVO TASTIERA DATTILOGRAFICA MOD. B-52
(B-621), PER MACCHINA CRITTOGRAFICA MOD. CX-52-M
Svizzera; anni ‘50; Hagelin
Il progetto della macchina crittografica CX-52-M è tale che
può essere trasformata in una macchina elettrica dattilografica comandata da una tastiera a mezzo della unità elettrica addizionale B-52 (oppure B-621) e che comprende la tastiera ed
il meccanismo di settaggio (con pannello perturbatore) e guida. Quando si richiede alla macchina di operare elettricamente, viene rimosso il coperchio del contenitore della CX-52-M,
e la macchina è inserita e fissata nella base del modulo aggiuntivo B-52. Con questa costruzione si ha il vantaggio di
poter impiegare la stessa macchina indifferentemente nella
versione a funzionamento manuale oppure elettrico.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Marco Moretti, Pesaro.
MACCHINA CRITTOGRAFICA CX-52-OPT (OTT)
Svizzera; 1952; Hagelin
Apparato crittografico portatile, a funzionamento meccanico,
di struttura molto compatta e robusta, versione modificata e
migliorata del modello CX-52, reso crittograficamente più sicuro, meccanicamente più semplice ed economico, attraverso
l’eliminazione dei rotori (ruote-chiavi), sostituiti con un’unica
chiave formata da un nastro preforato da telescrivente tipo
Baudot (a 5 fori) utilizzabile solo una volta, recante la chiave
aleatoria da rinnovarsi periodicamente, che avanza ad ogni
lettera. Il mancato inserimento del nastro blocca tutto il meccanismo così da rendere impossibile il funzionamento della
macchina. Questa macchina, costruita in piccole serie, è denominata OTT (One Time Tape) od anche OTK (One Time
Key). L’impiego di un nastro perforato “usa e getta”, identico
per ogni apparecchiatura che fa parte della stessa rete di comunicazione, ne costituisce contemporaneamente il punto di
forza, ma anche l’anello debole; infatti all’esaurimento di un
nastro perforato è necessario provvedere all’invio ad ogni corrispondente di una nuova copia di nastro utilizzando un corriere fidato; l’intercettazione un unico nastro rende completamente inaffidabile tutta la rete di comunicazione.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Filippo Sinagra, Mestre, Venezia.
logare”. In un limitatissimo numero di esemplari è stata prodotta una versione particolare, denominata modello CD-55
LUX di colore bianco e con bordature dorate, per la Santa Sede. L’apparecchio è stato, in un momento successivo, modificato (mod. CD-57 RT/CD) per aumentarne il livello di sicurezza, similmente all’apparato CX-52 OTP, utilizzando un nastro
preforato con funzione di chiave di cifratura. L’apparato è rimasto in produzione fino al 1974. Velocità operativa: tra i
trenta e i quaranta caratteri al minuto. Dimensioni: circa
13x8x4 cm. Peso circa 680 g.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Filippo Sinagra, Mestre, Venezia.
UNITÀ CRIPTANTE TSEC/KW-7
USA; circa 1960; N.S.A.
Sistema criptante, conosciuto col nome in codice di “Orestes”, largamente impiegato, sia a livello tattico sia a livello
strategico, dall’esercito USA e dalle truppe della NATO fino alla fine degli anni ’70; costo, all’inizio della produzione, circa
4.500 $. Si tratta di un apparato “on line”, completamente
transistorizzato, destinato a crittare le informazioni trasmesse
attraverso apparati telescriventi sia su linee telegrafiche/telefoniche sia via radio. Composto da due sub-unità principali,
l’apparato ricetrasmittente (KWX-10/TSEC) e l’unità di cifratura (KWK-7/TSEC). Tipo di funzionamento: sincrono e asincrono. Velocità di trasmissione: 60-67-100 Baud. Dimensioni: circa 60x50x50 cm. Peso: circa 40 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e.V., Trier, Deutschland.
MACCHINA CRITTOGRAFICA ELETTRONICA HC-520
Svizzera; seconda metà anni ‘70; Crypto AG
Una delle prime macchine crittografiche elettroniche portatili;
di dimensioni molto contenute, nell’aspetto esterno ricorda
una macchina calcolatrice dell’epoca. Caratteristiche tecniche: tastiera con 26 caratteri alfabetici, 10 caratteri numerici,
14 caratteri speciali, 11 tasti di comando. Display a LCD (cristalli liquidi) delle dimensioni di 6x13 cm che permette la visualizzazione di 10 caratteri per il testo e 1 carattere per la situazione interna di servizio. Memoria: 600 caratteri per entrata di testo. Chiavi: chiave base e chiave di messaggio. Chiave base: 1,4x1014 possibilità. Chiave di messaggio: 1,4x1014
possibilità. Periodicità: circa 1053 passi. Temperatura di servizio: da 0 a +50°C. Alimentazione con batterie o carica batterie da rete (100-240 V). Dimensioni: circa 10x25x4 cm. Peso:
circa 900g.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Crypto AG, Zug, Suisse.
MACCHINA CRITTOGRAFICA STG-61 (Crypto AG mod. CD-57)
Germania; 1960; Hagelin (su licenza)
Apparato crittografico meccanico palmare, dalle dimensioni
simili a quelle di un pacchetto di sigarette. Il modello STG-61
è la versione tedesca del modello CD-57 prodotto dall’elvetica Crypto AG. Privo del sistema di scrittura per mantenere le
ridotte dimensioni, l’operatore doveva quindi ricopiare lettera
per lettera il testo. Le caratteristiche crittografiche sono comparabili a quelle dell’apparato CX-52 con la quale può “dia-
TELESCRIVENTE CRITTOGRAFICA MOD. Mi 5543
Germania; seconda metà anni ‘50; Standard Elektrik Lorenz
Telescrivente crittografica con funzionamento “on line”. Per
la cifratura impiega un nastro pre-perforato tipo Baudot, da
usarsi una sola volta, che reca la chiave aleatoria. Il testo cifrato si ottiene dalla distorsione che la chiave aleatoria produce sul messaggio in chiaro; solo chi è in possesso di un identico nastro pre-perforato può risalire al testo in chiaro elimi-
62
nando, per sottrazione, la distorsione. Dimensioni:60x90x70
cm. Peso: circa 50 Kg.
L’esemplare esposto durante la mostra è stato cortesemente
messo a disposizione da: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e.V., Trier, Deutschland.
MACCHINA STENOTIPICA “MICHELA”
Italia; circa 1976; Micromegas
Apparato elettronico a tastiera che permette la composizione
di un testo scritto attraverso l’impiego della Stenotipia (un
neologismo che deriva dal greco Stenós, stretto, scarso, poco;
e da Tupos, carattere, colpo, battuta) una tecnica di scrittura
che può essere considerata l’evoluzione in forma meccanizzata della più tradizionale Stenografia. Per un migliore inquadramento della disciplina ritengo sia necessario fornire una
breve premessa sul vasto mondo delle scritture veloci. La stenografia (sempre dal greco Stenós e da Grafé, scrittura) può
essere definita come una abbreviazione scientifica della scrittura, che permette, attraverso l’adozione di regole, di fissare,
più rapidamente della scrittura ordinaria, il pensiero, proprio
o di altri, garantendone al contempo, una uguale sicurezza e
federlà di riproduzione. Lo sviluppo e l’impiego della stenografia sono strettamente intrecciati a quelli della scrittura ordinaria. La carenza dei supporti di scrittura e la necessità di
fermare momenti altrimenti irripetibili (citiamo, solo come
esempio, i discorsi dei grandi oratori) hanno fatto sì che, specialmente in epoca classica e medioevale, il saper leggere e
scrivere si accompagnassero, usualmente, alla conoscenza
della stenografia; le due discipline hanno cominciato ad evolversi su percorsi diversi dopo l’avvento della stampa a caratteri mobili. L’aspetto misterioso delle abbreviazioni, la necessità di comunicare salvaguardando la riservatezza del messaggio fecero sì che, specialmente in epoca medioevale e rinascimentale, la stenografia sconfinasse nelle scritture segrete e
che con queste venisse, per lungo tempo, confusa; con la formazione delle lingue nazionali e di un diverso clima culturale
si crearono i primi sistemi stenografici moderni (secoli XVI e
XVII), i quali, staccandosi sempre più dall’empirismo e dall’arbitrio individuali, diedero luogo a nuove e più razionali riduzioni grafiche. Moltissimi autori, in tutte le nazioni, hanno
partecipato alla elaborazione di questi nuovi indirizzi, cercando di raggiungere un ideale metodo che coniugasse velocità
di scrittura con facile leggibilità, razionalità strutturale, facilità
di apprendimento ed estetica grafica. Tale pluralità di proposte può, semplificando, essere ricondotta a tre tendenze principali: i Sistemi Geometrici, nei quali i segni possono essere
tratti da figure geometriche; i Sistemi Corsivi derivati dalla
scrittura comune conservandone la struttura fondamentale; i
Sistemi Misti nei quali vengono impiegati segni comuni ai due
precedenti sistemi. Nei primi anni del XIX secolo, come conseguenza dello sviluppo raggiunto dalla disciplina, e come riflesso nel campo della scrittura delle ricorrenti invenzioni meccaniche, comparvero le prime macchine dirette a fissare auto-
63
maticamente le parole velocemente pronunciate, contribuendo alla nascita della stenografia meccanica o, con un termine
più attuale, stenotipia. Tali apparecchiature per il loro ingombro e per alcuni loro limiti intrinseci trovarono impiego specialmente negli Stati Uniti d’America, e quasi esclusivamente
in ambienti particolari quali le aule dei tribunali; in Italia le
macchine per stenotipia, dalla fine del XIX secolo, ebbero impiego esclusivamente per la resocontazione degli atti parlamentari. In questi ultimi anni, lo sviluppo dell’elettronica e
dell’informatica hanno dato impulso a una nuova generazione di macchine per stenotipia, di uso più affidabile e che consentono sia la stampa in caratteri stenografici, sia la trasposizione diretta su computer e la trascrizione automatica in carattere comune. Per quanto riguarda la situazione italiana, oltre che nel Parlamento, la stenotipia è stata recentemente accettata dal legislatore come mezzo per la resocontazione giudiziaria trovando inoltre diffusione anche nelle Amministrazioni locali, e in tutte quelle situazioni nelle quali sia necessario disporre di un resoconto fedele di un intervento o di una
discussione. Tra i vari sistemi italiani di stenotipia proposti degno di nota per la sua diffusione è il sistema “Michela” che
trae la sua origine dagli studi fonografici del professor Antonio Michela Zucco (1815-1886) il quale, dopo aver classificato gli elementi fonici occorrenti alla formazione di tutte le sillabe, diede ad ognuno di essi una espressione grafica, un simbolo e un valore numerico. Nel 1863 egli illustrò per la prima
volta a Milano presso un Congresso pedagogico, un sistema
di stenografia “a processo sillabico istantaneo ad uso universale, mediante piccolo e portatile apparecchio a tastiera”, che
nelle sue intenzioni era destinato ai ciechi; tale metodo parte
dallo studio dell’apparato vocale umano e cataloga tutti i suoni (fonemi) che questo può produrre stabilendo la corrispondenza con altrettanti grafemi. In tal modo è possibile trascrivere il parlato di qualunque lingua e ripeterlo fedelmente, pur
senza capirne il significato. Uno degli allievi del professor Michela Zucco, suo nipote Giovanni, presentò la nuova macchina alla Camera dei Deputati e al Senato del Regno, il quale ultimo la adottò ufficialmente per la redazione dei resoconti
stenografici nel dicembre 1880. L’apparecchiatura venne, in
seguito, presentata anche alla Esposizione Universale di Parigi
nel 1890. Il sistema Michela (macchina più metodo) ha rivelato notevoli pregi soprattutto in fatto di velocità; tuttavia, in
ambito italiano, il suo impiego è rimasto confinato all’impiego parlamentare.
L’apparecchiatura presentata in figura (v. in alto) è particolarmente significativa perché, primo esempio italiano, segna il
passaggio alle versioni computerizzate. Si tratta di un modello
di transizione, progettato dalla Micromegas nella seconda metà degli anni ‘70, nel quale accanto alla struttura tradizionale
della tastiera elettromeccanica venne affiancato un sistema
elettronico che permetteva di trasferire le informazioni ad un
computer dedicato (mod. Ulisse 32). La macchina esposta venne impiegata dalla Amministrazione Provinciale di Torino all’inizio degli anni ‘80: primo Ente italiano, dopo il Senato, a fare uso della stenotipia per la verbalizzazione delle attività Consigliari. Dimensioni: 38x38x12 cm circa. Peso: 10 Kg circa.
L’esemplare esposto è stato cortesemente messo a disposizione da: Koinè Sistemi s.r.l., Torino.
e voluzione delle c omunicazioni: la s toria
Macchina stenotipica modello Michela.
Italia; fine anni ‘70; Micromegas.
Per cortesia di: Koinè Sistemi, Torino,
grazie alla disponibilità del Dott. A. Camellini.
Foto di: C. Porcheddu.
T. Numerico
claude shannon e la teoria
dell’informazione
e voluzione delle c omunicazioni: la s toria
INTRODUZIONE
Schema 1.
La definizione di informazione come un concetto scientificamente e matematicamente determinato è fondamentale per
la costruzione del modello teorico sul quale si basa l’informatica. Tale concetto ha avuto un ruolo importante nella nascita
stessa dei computer; anche se le ricostruzioni della storia dei
calcolatori elettronici – spesso fondate sulle descrizioni dell’
hardware – non sempre hanno reso giustizia al ruolo teorico
svolto dalla teoria dell’informazione.
Questo contributo si propone di descrivere l’origine del concetto ad opera di Claude Shannon.
La nozione di informazione è il prodotto di una felice interazione di discipline lontane tra loro1 e per questo è stato difficile coglierne fino in fondo le potenzialità e i frutti. Ecco una
breve descrizione dei settori che hanno contribuito alla sua
formazione.
• La termodinamica e la meccanica statistica, con gli studi
sulla definizione matematica del concetto di entropia di
Ludwig Boltzmann e Leo Szilard.
• La nascita del controllo e della comunicazione come una
branca dell’ingegneria elettrica; risultato dell’invenzione
dei mezzi di comunicazione come il telegrafo, la radio e la
televisione.
• Gli studi sulla fisiologia e il sistema nervoso iniziati nell’800
con il lavoro di Hermann von Helmholtz e Claude Bernard
e proseguiti nel XX secolo con il lavoro di Walter Cannon
sui meccanismi di regolazione interna degli organismi viventi; tali ricerche si saldarono nella prima metà del ‘900
con la cibernetica, la disciplina che si poneva come obietti-
vo lo studio di tutti i meccanismi a retroazione (feedback)
naturali, meccanici o artificiali.
• Lo sviluppo negli anni ’30 del ‘900 della teoria della computabilità in logica matematica che doveva avere un ruolo
centrale nella definizione dei limiti teorici delle macchine
elettroniche.
La definizione di informazione fu l’effetto di uno studio integrato favorito dall’accelerazione delle ricerche e degli scambi
degli scienziati durante la II Guerra Mondiale e nell’immediato dopoguerra. La caratterizzazione matematica del concetto
maturò, però, nel contesto della trasmissione telegrafica e via
radio. Shannon sviluppò la sua teoria dell’informazione lavorando ai Bell Labs dell’AT&T e quindi si concentrò sull’aspetto
della trasmissione dati su un canale.
È molto importante chiarire il riferimento teorico-pratico di
Shannon, considerato che la sua teoria è stata poi usata per
modellare qualsiasi forma di comunicazione – perfino quella
umana. Lo studioso Walter Ong a proposito del modello postale di comunicazione dice: “Questo modello, come è ovvio,
ha qualcosa a che vedere con la comunicazione umana ma,
se lo si esamina attentamente, ciò è ben poco, esso inoltre
distorce grandemente l’atto della comunicazione.”2
L’interpretazione troppo generale della teoria di Shannon è
stata favorita dal modo in cui i risultati sono stati presentati
dal suo collaboratore, Warren Weaver.
Nell’introduzione al libro sulla teoria matematica della comunicazione pubblicato un anno dopo l’uscita dell’articolo
(1949),3 Weaver definisce il campo di applicazione della teoria affermando che: “la parola comunicazione sarà usata qui
LE DISCIPLINE CONNESSE CON L’INFORMAZIONE
Rappresentazione dell’informazione
Teoria dei linguaggi
Semeiotica
Biologia Molecolare
Genetica
Psicologia
Teoria della
comunicazione
Trasmissione delle informazioni
Ingegneria delle comunicazioni
Fisica (Termodinamica,
Meccanica quantistica)
Informatica Teorica
Statistica
Economia
Teoria della
informazione
Biologia classificatoria
Medicina
Ingegneria genetica
Elaborazione delle
informazioni
64
CLAUDE SHANNON
Il personaggio chiave nella teoria dell’informazione è Claude
Elwood Shannon (1916-2001). Laureato in matematica e ingegneria elettrica nel 1936 all’Università del Michigan, per
tutta la sua vita tenne fede al suo duplice interesse. Fu poi research assistant al MIT6 dove continuò gli studi per il PhD. Qui
fu coinvolto nelle operazioni dell’analizzatore differenziale di
Bush, uno dei calcolatori più potenti e importanti in funzione
all’epoca, in grado di risolvere equazioni differenziali fino al
sesto grado.
La sua tesi affrontò e risolse il problema della progettazione di
relè e circuiti elettronici utilizzando il parallelismo di questi con
la logica booleana. In questo periodo cominciò la sua collaborazione con i Bell Laboratories di New York, dove aveva trascorso un periodo già nell’estate del 1937.
Nella primavera del 1940, Shannon ottenne insieme il master
in ingegneria elettrica e il PhD. in matematica al MIT. Nell’anno 1940-41 all’IAS7 a Princeton cominciò a lavorare alla teoria dell’informazione e ai sistemi di comunicazione efficienti.
Nel 1941 accolse l’invito del direttore del dipartimento di matematica dei Bell Labs, T.C. Fry e si trasferì stabilmente ai Bell
Labs per lavorare ai sistemi di controllo delle armi contraeree,
dove rimase per 15 anni.
Ai Bell incontrò molti matematici e scienziati di primo piano
tra i quali: John Pierce, noto per la comunicazione satellitare,
Harry Nyquist che aveva notevolmente contribuito alla teoria
dei segnali, Hendrik Bode esperto di feedback, gli inventori
del transistor: Walter Brattain, William Shockley e John Bardeen, oltre George Stibitz che nel 1938 costruì il primo computer a relè e a molti altri.
Nel 1948 pubblicò il famoso articolo “A mathematical Theory
of Communication”.8 Nel 1957 divenne professore al MIT,
pur restando associato ai Bell Labs fino al 1972.
Shannon era un personaggio molto eclettico, e oltre alla teoria dell’informazione, si interessava, fra l’altro, di intelligenza
artificiale. Negli anni ’50 costruì, infatti,un mini topo elettronico, chiamato Teseo che si muoveva in un labirinto cercando
l’uscita con l’aiuto di un magnete (Vedi foto Shannon_Topo.jpg) e scrisse uno dei primi programmi per giocare a scacchi. Fu in contatto con Alan Turing – uno dei pionieri delle
macchine elettroniche a programma memorizzato, oltre che
inventore del concetto di Macchina Universale, interessato anche egli all’intelligenza delle macchine.
IL CONCETTO DI INFORMAZIONE SECONDO SHANNON
L’obiettivo di Shannon era la definizione di un modello matematico di informazione che potesse adattarsi a qualsiasi tipo
di trasmissione da un punto a un altro. Per ottenere il risultato era necessario trasformare l’informazione in un parametro
matematico trattabile in modo assolutamente non ambiguo.
Il lavoro di Shannon si inscriveva in una tradizione di ricerca
che prima di lui si era concentrata più sugli aspetti pratici della trasmissione dei dati, che sulla definizione di una teoria generale. Egli si dichiarò debitore nei confronti dei suoi predecessori H. Nyquist e R.V. Hartley e li citò9 definendoli la base
di partenza della sua teoria.
Per isolare il concetto di informazione era necessario compiere un passo fondamentale: separare l’informazione dal significato. Gli aspetti ingegneristici della trasmissione del messaggio erano del tutto svincolati da quelli semantici relativi all’interpretazione del messaggio. Egli quindi si concentrò sull’aspetto formale della comunicazione che era del tutto indipendente dal senso del messaggio da trasferire.
Quello che definiva il segnale relativo al messaggio sul canale
– il suo principium individuationis – era la sua distinzione da
tutti gli altri messaggi potenzialmente trasmissibili sullo stesso
canale. Maggiore era la capienza del canale, maggiore era il
contenuto informativo trasmesso, perché esso annullava la
possibilità di trasmettere su quello stesso canale una quantità
più elevata di messaggi equiprobabili e concorrenti. La scelta
di un messaggio rispetto agli altri costituisce il suo valore informativo.
Dopo aver privato l’informazione di ogni connotato semantico, Shannon si apprestò a definire l’informazione come una
variabile fisica misurabile. Egli scrisse: “Se il numero dei messaggi nell’insieme è finito allora questo numero o una qualsiasi funzione monotonica di questo numero può essere considerata una misura dell’informazione prodotta quando un
messaggio viene scelto da un insieme di scelte che sono assolutamente equiprobabili.”10
Claude Shannon con il topo elettromeccanico, chiamato Teseo,
che fu uno dei primi tentativi di insegnare a una macchina ad
apprendere e uno dei primi esperimenti di intelligenza artificiale.
Per la fonte delle immagini di questo articolo si veda il testo.
65
e voluzione delle c omunicazioni: la s toria
in un senso molto ampio per includere tutte le procedure attraverso le quali una mente può entrare in relazione con
un’altra. Questo include ovviamente non solo la parola scritta
e il discorso orale, ma anche musica, le arti della pittura, il teatro, il balletto e qualsiasi comportamento umano. In qualche
contesto potrebbe essere anche desiderabile usare una definizione ancora più ampia di comunicazione, letteralmente
una che includa anche le procedure attraverso le quali un
meccanismo entra in relazione con un altro meccanismo”.4
Nello schema 15 si possono vedere le relazioni di tutte le discipline legate in qualche misura alla teoria dell’informazione
e della comunicazione delle informazioni ad essa connessa.
e voluzione delle c omunicazioni: la s toria
IL MODELLO DI COMUNICAZIONE DI RIFERIMENTO
Schema 2.
Vedremo tra poco come si misura l’informazione, ma prima è
necessario ricostruire il contesto del modello postale di comunicazione rappresentato nello schema 2 che riproduce quello
proposto da Shannon nel 1948.11 Gli elementi del modello
sono:
• un mittente, fonte del messaggio,
• un trasmettitore o codificatore che trasforma il messaggio
in un segnale trasmissibile,
• un canale di comunicazione,
• l’eventuale rumore sul canale che disturba la comunicazione,
• un elemento ricevente o decodificatore del segnale,
• un destinatario del messaggio.
La semplicità del modello lo ha reso famoso, ma se guardiamo alle sue caratteristiche è molto improbabile che esso sia in
grado di spiegare correttamente ogni comunicazione. Il modello, infatti, ha le seguenti caratteristiche:
• è lineare: non è prevista alcuna interazione tra destinatario
e mittente del messaggio al di là della transazione monodirezionale del passaggio di informazione;
• il ricevente e il mittente svolgono ruoli assolutamente analoghi, se si esclude l’inversione delle procedure di codificadecodifica del messaggio;
• gli unici errori trattabili sono quelli meccanici dovuti a errore nella trasmissione a causa del rumore del canale: a meno
di errori sulla linea, la comunicazione ha sempre successo;
• non è prevista alcuna rilevanza per l’interpretazione del
messaggio, né in quanto foriera di errore, né in quanto
centro dell’efficienza ricettiva;
• il sistema della trasmissione-ricezione è assolutamente rigido, astratto e atemporale;
• nel modello non è rilevante il contesto in cui la comunicazione avviene o le intenzioni del mittente.12
Il paradigma in questione è, invece, perfettamente adatto a
rappresentare la struttura ingegneristica delle reti sulle quali
Information
Source
venivano e vengono trasportati i dati, da quelle del telegrafo,
al telefono, fino ad arrivare alla telefonia mobile e Internet, ai
cavi della larga banda oltre ai vari dispositivi di memorizzazione dati come i CD, i DVD – per citare solo i sistemi di trasmissione dati più famosi.
PROBABILITÀ, ENTROPIA INFORMATIVA, MISURABILITÀ
Nel modello di Shannon l’informazione viene considerata come una qualsiasi grandezza fisica, alla pari di massa o energia. Il modello adotta il linguaggio binario che consente di
avere ad ogni passo solo due possibilità tra le quali scegliere,
garantendo la massima semplicità.
Nasce in questo contesto la nuova unità di misura il BInary digiT (cifra binaria) o BIT, il più piccolo elemento di codice capace di trasmettere informazione, che tanta fortuna avrà nella scienza dei calcolatori. Shannon fu il primo ad utilizzare l’espressione, anche se la attribuì a J.W. Tukey, un professore del
MIT che collaborò anche con i Bell Labs. Come sempre quando si introduce una nuova espressione, essa è il segno che si
è alle prese con un nuovo concetto.
Come spiega Weaver nella sua introduzione: “l’informazione
nella teoria della comunicazione è relativa non tanto a quello
che veramente si dice, quanto a quello che potrebbe essere
detto”.13
La misura dell’informazione è una funzione della probabilità
che un certo messaggio venga prescelto per essere trasmesso
sui tanti potenzialmente attivabili. L’informazione è un concetto analogo all’entropia in termodinamica, rappresenta la
misura dell’ordine contrapposto al disordine di tutte le possibilità comunicative realizzabili. L’entropia informativa è il contrario dell’entropia termodinamica: quando l’informazione
cresce nel sistema, diminuisce il caos e il disordine. In questo
senso l’informazione è l’energia necessaria per non far precipitare il sistema nella confusione. L’informazione può crescere in due modi:
Transmitter
Message
Receiver
Signal
Received
Signal
Destination
Message
Noise Source
66
• quando le alternative sono tutte perfettamente equiprobabili e c’è, quindi, la massima incertezza informativa;
• quando aumenta il numero delle possibili scelte, per esempio aumentando il numero dei simboli utilizzabili nel linguaggio prescelto.
L’informazione è maggiore dove c’è maggiore incertezza comunicativa, diminuisce quando l’area di incertezza è minore
ed è assolutamente assente quando il messaggio non ha nessuna incertezza ed è completamente vincolato.
La misura dell’informazione è definita come:
H = – (p1 log2 p1 + ..... + pn log2 pn)
H = – ∑ pi log2 pi
Dove H è uguale all’Entropia informativa ed è la somma delle probabilità dei logaritmi in base due delle probabilità che si
verifichi una certa successione di scelte p1….pn.14
Tale definizione di informazione, pure molto efficace ai fini
della costruzione di un modello matematico lascia senza spiegazioni una serie di eventi comunicativi. Per esempio la successione delle cifre di P non hanno nessun valore di comunicazione, è sufficiente comunicare l’algoritmo attraverso il
quale calcolarle. Inoltre tutti i teoremi della logica diventano
completamente privi di contenuto informativo, una volta comunicate le premesse e le regole di inferenza. Tali obiezioni
vengono qui solo accennate per mancanza di spazio.
LA CODIFICA DEI MESSAGGI
E LA STRUTTURA DEI LINGUAGGI
Per trasmettere il messaggio attraverso il canale di comunicazione è necessaria una procedura di codifica che sia reversibile all’altro capo del canale. Il linguaggio è un processo stocastico, cioè una successione di simboli che si susseguono sulla
base del verificarsi di certe probabilità. Ma è uno speciale tipo
di processo stocastico, nel quale la probabilità che si verifichino certe successioni dipende in larga misura dagli eventi precedenti. Tale tipo di processo stocastico è detto catena o processo di Marcov o ergodico. Inoltre la distribuzione probabilistica dei simboli non è equiprobabile. Ci sono alcune lettere e
gruppi di lettere che sono più frequenti di altri. Per esempio
67
in italiano la “a” è molto più frequente della “z” e il gruppo
consonantico “tr” è molto più probabile di “zg”.
Sfruttando la caratteristica struttura della probabilità delle
lingue e la dipendenza di certi eventi linguistici dagli eventi
che li hanno preceduti, è possibile trovare una codifica ottimale per il linguaggio – cioè una codifica che riduca al massimo il numero di simboli necessari e quindi velocizzi la trasmissione. Per esempio per codificare una lingua come l’inglese che prevede 27 simboli di cui uno per lo spazio, sarebbe necessario un codice a 5 bit, ma sfruttando le caratteristiche statistiche della lingua si potrebbe arrivare a usare in media 3,6 bit per lettera.
Shannon lavorò molto nel campo della codifica dei linguaggi
ora meglio noto come compressione dei dati, e dimostrò che
più è efficiente la codifica, maggiore è la complessità e quindi
il tempo necessario per definirla ed implementarla nel trasmettitore. Dal punto di vista dell’efficienza pratica dei sistemi
di codifica era necessario trovare un equilibrio tra il codice migliore per la trasmissione e il suo tempo di implementazione.
IL CANALE DI TRASMISSIONE, IL RUMORE E LA
RIDONDANZA
Il linguaggio inoltre ha un’altra caratteristica molto rilevante ai
fini della trasmissione: la ridondanza. Anche levando più del
50% dei simboli le espressioni dei linguaggi naturali rimangono comprensibili. La ridondanza linguistica è in contrasto
con l’entropia dell’informazione: più un linguaggio è ridondante, meno – a parità di simboli usati – trasmette informazione. Tuttavia Shannon scoprì che questa ridondanza è utile
per opporsi al rumore che impedisce la corretta trasmissione
dei segnali sul canale. La ridondanza permette una sorta di
test sulla trasmissione che consente una maggiore sicurezza
del risultato della trasmissione.
Un canale di trasmissione, infatti, ha una capacità teorica (C)
costituita dalla quantità di segnale trasmissibile dalla fonte al
destinatario. L’unità di misura di questa grandezza sono i Bps
(Bit per secondo) che sono tuttora usati per misurare la portata di una rete, sia essa una LAN15 o il backbone che congiunge Milano con New York.
Supponiamo di essere in assenza totale di rumore sulla rete,
la capacità totale di un canale che permette di trasmettere
8 bit 16.000 volte al secondo è teoricamente di 128.000
Bps. Ma se il canale ha un tasso di errore da rumore del
10% rispetto alla trasmissione, allora la reale capacità del
canale decresce progressivamente e diventa di 67.840 Bps.
Shannon definì con un teorema il livello minimo di insicurezza nella trasmissione, qualsiasi sia la codifica di trasmissione
adottata. E questo fu uno dei suoi risultati più rilevanti e più
attuali.
CONCLUSIONI
Concludendo, gli elementi innovativi e ancora validi della teoria dell’informazione secondo Shannon sono molti.
• La concettualizzazione della nozione di informazione come
separata dal significato e caratterizzata dall’incertezza comunicativa;
• l’identificazione tra informazione e entropia informativa;
e voluzione delle c omunicazioni: la s toria
Claude Shannon
fotografato nel suo
studio.
e voluzione delle c omunicazioni: la s toria
• la creazione di due nuove unità di misura e dei relativi nuovi concetti misurabili: il Bit e il Bps;
• la tensione pratica tra codifica ottimale e il suo costo di implementazione in termini di tempo e la conseguente necessità di trovare un compromesso efficiente tra questi due
elementi;
• l’importanza della ridondanza dei linguaggi e il suo uso per
combattere la tendenza al rumore del canale di trasmissione che impedisce la corretta ricezione del messaggio;
• lo sviluppo delle tecniche per la compressione dati e in particolare quelle dei Bell Labs per la trasmissione audio-video,che
mantengono un profondo debito intellettuale con Shannon.
Nonostante tutti i fondamentali risultati non dobbiamo dimenticare che il modello di comunicazione proposto da Shannon
non è rappresentativo di qualsiasi situazione comunicativa. In
particolare non vengono adeguatamente modellate alcune caratteristiche fondamentali dell’attività comunicativa come:
• la centralità del contesto ai fini della comprensione e della
definizione del messaggio;
• l’asimmetria del processo interpretativo tra destinatario e
mittente della comunicazione.
• l’ambiguità inerente inevitabilmente ad ogni sforzo comunicativo.
• l’interattività della comunicazione che prevede un continuo
scambio di ruoli tra i due attori dell’attività comunicativa,
con conseguenze anche sul processo di comunicazione
stesso.
• la complessità della decodifica e della codifica che non sono attività simmetriche ma processi complessi.
• la trattazione dell’errore di comunicazione quando sia frutto non di cattiva trasmissione, ma di equivoco o di altri elementi intriseci e non esterni al messaggio stesso.
Questi limiti nulla tolgono all’opera di Shannon e al suo
contributo fondamentale alla definizione di un concetto
matematico di informazione trasmessa attraverso un canale di comunicazione.
BIBLIOGRAFIA
Angeleri E. (2000) Informazione significato e universalità,
(UTET, Torino).
Aspray W. (1985) The scientific conceptualization of information: A survey, Annals of Hist. Computing, vol.7, pp.117140.
Cimatti F. (1999) Fondamenti naturali della comunicazione, in
S. Gensini (a cura di) Manuale della comunicazione, Carocci, Roma, pp. 53-88
Griffin E. (1997) A first look at communication theory,
(McGraw-Hill, New York): Sito Internet: www.afirstlook.
com.
Heims S.(1991) I Cibernetici, (Editori Riuniti, Roma).
McMillan B.(1997) Scientific impact of the work of C.E. Shannon, in Proceedings of the Norbert Wiener Centenary Congress, 1994 (Providence, RI), pp. 513-523.
Ong W. (1982) Orality and literacy: the technologizing of the
word, (Methuen, London); Trad. it. Oralità e Scrittura: le
tecnologie della parola, (Il Mulino, Bologna, 1986)
Shannon C. (1948) A Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27 pp.379423, 623-656, Luglio, Ottobre, il testo dell’articolo è disponibile in rete all’indirizzo: http://cm.bell-labs.com/cm/ms/
what/shannonday/paper.html.
Shannon C. & Weaver W. (1949)The mathematical theory of
communication, (The University of Illinois Press, Urbana);
Trad. it. La teoria matematica della comunicazione, (ETAS,
Milano, 1971).
Slepian D. (1974) (Ed) Key papers in the development of information theory, (IEEE Press. New York).
Sloane N.J.A. & Wyner A.D.(1993) (Eds) Claude Elwood
Shannon: collected papers, (IEEE Press New York).
Wiener N. (1967) The Human use of Human Beings (Avon,
New York).Webliografia
Una presentazione molto interessante dell’attività di Shannon
ai Bell Labs.
http://www.lucent.com/minds/infotheory/who.html
Una biografia intellettuale interessante di Shannon.
http://www.research.att.com/~njas/doc/shannonbio.html
“Information Theory” Encyclopedia Britannica Online
http://members.eb.com/bol/topic?artcl=106012&seq_nbr=
1&page=p&isctn=1&pm=1
Il programma e alcuni articoli dello Shannon Day, organizzato
dai Bell Labs, il 18 maggio 1998. http://cm.bell-labs.com/
cm/ms/what/shannonday/program.html
NOTE
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Cfr. Aspray W. (1985), p.118.
Cfr. Ong W. (1982) p.176, Trad. It. (1986) p. 242.
Shannon C. Weaver W. (1949)
Ivi, p. 3.
Lo schema è tratto da Angeleri E. (2000) p.6 con alcune
modifiche.
MIT: Massachusetts Institute of Technology.
IAS: Institute for Advanced Studies.
Shannon C. (1948)
Shannon C. (1948)
Shannon C. (1948) p.379.
Cfr. Shannon C. (1948), p.380.
Vedi per queste osservazioni Cimatti F. (1999) pp. 54-59.
Shannon C. Weaver W. (1949), p. 8.
Il segno meno è necessario per avere H positivo, perché
qualsiasi probabilità è misurata da numeri che sono compresi tra 0 e 1 e i logaritmi dei numeri inferiori a 1 sono
in se stessi negativi.
LAN: Local Area Network.
68
A. Bugini
S. Camprini
heureka,
i l s c i e n c e c e n t re f i n l a n d e s e
e i “ n u o v i ” c e n t r i d i d i ff u s i o n e d e l l a
cultura scientifica e tecnologica
HEUREKA: LA STORIA
La storia di Heureka inizia con l’organizzazione di una mostra
di Fisica tenutasi a Helsinki nel Maggio 1982. L’esposizione fu
ideata da tre professori universitari – Tapio Markkanen, Hannu Miettinen, Heikki Oja – e fu presentata dalla Finnish Physical Society, dall’Università di Helsinki, dall’University of Technology e dall’European Laboratory for Particle Physics, CERN.
La mostra, visitata da oltre 20.000 persone, ebbe un grande
successo e fu di stimolo per i tre accademici nell’ideare un
progetto dove questo tipo di divulgazione scientifica trovasse
una sede stabile ed una propria linea di sviluppo, in altre parole un Science Centre.
Il 29 Ottobre 1982 veniva pubblicato un documento nel quale si esprimeva l’intento di creare, in Finlandia, la sede di una
esposizione permanente per la Scienza.
Scopo del progetto era quello di definire un piano d’azione,
di trovare i fondi necessari e di stabilire un luogo per la costruzione di un nuovo Science Centre.
69
Furono molte le città che si candidarono per accogliere la
nuova struttura, ma fu la città di Vantaa, a pochi chilometri da
Helsinki, ad offrirsi di coprire metà delle spese di costruzione
ed un terzo del budget operativo, con il risultato che nel Gennaio del 1985 viene stipulato un contratto tra il Finnish Science Centre Foundation e la città di Vantaa.
Sempre nel 1985 fu indetto un concorso pubblico per la progettazione dell’architettura della struttura, concorso che fu
vinto da Mikko Heikkinen, Markku Komonen e Lauri Anttila,
con un progetto di nome “Heureka”. Ora il Finnish Science
Centre aveva anche un nome!
Forti del successo delle iniziative precedentemente svolte, fu
deciso di fare intervenire, alla realizzazione del progetto, un
team di 46 esperti e più di duemila scienziati furono coinvolti
nella pianificazione dei contenuti.
L’intelaiatura della parte principale di Heureka fu completata
nel Maggio del 1986 ed il progetto del Verne Theatre (una sala a schermo emisferico utilizzata per proiezioni multimediali
e voluzione delle c omunicazioni: la s toria
Apparati e modelli
didattici interattivi
ideati e realizzati
da Heureka:
The Finnish Science
Centre, Vantaa,
Helsinki. Palazzo
del Podestà,
Bologna:
Communication
(1 set-5 nov 2000)
Foto di: G. Artusi
e voluzione delle c omunicazioni: la s toria
Centro di cultura scientifica
Heureka (interno), Vantaa,
Helsinki, Finlandia.
Per cortesia di: Heureka.
Centro di cultura
scientifica Heureka
(esterno), Vantaa,
Helsinki, Finlandia.
Per cortesia di:
Heureka.
ed adibita anche a planetario) fu completato nell’Ottobre dello stesso anno. I lavori di costruzione iniziarono ufficialmente
nel 1987 e la “prima pietra” venne deposta il 27 Ottobre del
1987. I lavori durarono circa un anno e nella primavera del
1989 l’esposizione permanente trovò posto tra le mura di
Heureka, che venne aperta al pubblico il 28 Aprile 1989.
Dall’anno di apertura ufficiale, Heureka, oltre a rinnovare ed
ampliare costantemente la propria esposizione permanente,
ha prodotto mostre temporanee, in modo tale da presentare
ai propri visitatori due o tre mostre diverse all’anno.
Gli studenti delle scuole di ogni ordine e grado rappresentano una grossa percentuale (circa un quarto) dei visitatori di
Heureka. Durante i primi tre anni di apertura, 20 000 insegnanti hanno avuto la possibilità di usufruire di un prezioso
sussidio didattico quale è il Science Centre; materiale didattico e bollettini informativi (su supporto cartaceo o su Internet)
vengono forniti ai docenti per una migliore fruizione della visita da parte delle classi. L’interesse per le mostre temporanee
organizzate da Heureka travalica i confini finlandesi e, durante gli anni Novanta, alcune di queste mostre sono state esportate in almeno dieci paesi di tre continenti diversi. Questa
struttura occupa quindi un’importante posizione nel mondo
dei Science Centre. Nel 1992, Heureka è diventato il primo
membro non-americano dell’Association of Science-Technology Centers (ASTC); inoltre ha ospitato il primo Congresso
Mondiale dei Science Centre tenutosi nel Giugno del 1996, e
che ha visto la partecipazione di 500 operatori provenienti da
48 paesi diversi.
IL SCIENCE CENTRE: LA NASCITA DI UN’IDEA
In realtà, la storia dei Science Centre è cominciata molto tempo prima.
L’idea primitiva ed originale di esposizione interattiva - priva di
una collezione storica dalla quale essere supportata - risale al
1888, anno in cui a Berlino viene inaugurata Urania, che ospita un planetario allestito e presentato come una vera e propria sala espositiva. Ma è con il Deutsches Museum (Monaco
di Baviera), aperto al pubblico nel 1925, che si realizza il primo museo della scienza e della tecnica con l’aspirazione dichiarata di rendere la scienza fruibile a tutti.
Il fondatore del Deutsches Museum, Oskar von Miller prende
ad esempio il South Kensington Museum di Londra (che più
tardi prenderà il nome di Science Museum) ed il Conservatoire des Arts et Mètiers di Parigi; il suo è un approccio didattico completamente nuovo al concetto di museo: rileva l’importanza di educare, e divertire insieme. Von Miller progetta
un museo della tecnica accessibile a tutti, una struttura che
riesca ad avvicinare alla scienza divertendo il visitatore. Una
grande attenzione viene rivolta agli strumenti e agli apparati
storici, cercando però di coinvolgere i visitatori in semplici
esperimenti e permettendo loro di poter osservare, passo dopo passo, processi fisici e naturali simulati “ad hoc”, e debitamente “frantumati” in semplici passaggi.
Sull’onda del successo del museo tedesco, a Parigi apre, nel
1937, il Palais de la Dècouverte, che diventerà famoso per le
sue coinvolgenti e a volte spettacolari dimostrazioni al pubblico. Nel progetto del fondatore, il fisico Jean Perrin (premio
Nobel per la Fisica nel 1926), vi era la volontà di “rendere evidente il fattore dominante esercitato dalla Scienza sin dall’inizio della nostra civiltà e di fare comprendere come non esista
nulla di più innovativo della ricerca e della scoperta”.
Sarà un fisico americano, Frank Oppenheimer, fratello minore
di Robert (grande fisico e studioso, celebre per avere coordinato il Progetto Manhattan per la costruzione della prima
70
Heureka, campi estivi, Vantaa,
Helsinki, Finlandia.
Per cortesia di: Heureka.
71
e voluzione delle c omunicazioni: la s toria
bomba atomica), a riunire e ad approfondire le tematiche e le
aspirazioni dei fondatori dei musei europei: nasce così l’Exploratorium nel 1969, a San Francisco.
Frank Oppenheimer comincia, e conclude, la propria carriera
come ricercatore, proprio come il fratello, ma viene oggi ricordato principalmente per le sue grandi doti di educatore.
L’idea dell’Exploratorium prende forma a seguito di un viaggio in Europa, avvenuto nel 1965, durante il quale Oppenheimer visita i più importanti musei della scienza e della tecnica
di questo continente. Ne rimane colpito poiché, rispetto alle
analoghe strutture statunitensi, questi musei hanno un più
marcato intento educativo, e lo realizzano in maniera estremamente efficace. Oppenheimer però va oltre: mette a punto una struttura che supera lo strumento del modello esplicativo che si aziona con un bottone o delle semplici simulazioni
e realizza apparati ad hoc, concepiti in modo tale da presentare fenomeni isolati, controllabili direttamente e dipendenti
dagli input stessi dei visitatori. Gli exhibit possono essere considerati dei grossi giocattoli, mediante i quali la scoperta delle leggi della natura diventa un piacevole divertimento, secondo una visione dell’apprendimento di tipo esperienziale: la
via d’accesso alle leggi e ai fenomeni della scienza deve essere l’esperienza diretta.
I Science Centre fanno molto di più che fornire informazioni
specifiche o una panoramica del progresso scientifico. Il fatto
di poter “fare esperienza” invita i visitatori a diventare “più
curiosi” e a potere familiarizzare nuovamente con i fenomeni che avevano smesso di notare o che non avevano mai
capito a scuola.
Dopo una visita ad un museo della scienza, spesso i visitatori
hanno la sensazione di “guardare” alle cose che li circondano
in maniera diversa; la dinamica attuata, e cioè, il coinvolgimento attivo del visitatore, è in grado di innescare meccanismi che vanno oltre il semplice apprendere un fatto specifico
o una singola nozione. La funzione degli exhibits, dunque,
non si esaurisce nel compito di stimolare la curiosità del visitatore. Al contrario, essi sono studiati col preciso compito di
servire all’insegnante, nel caso di scolaresche, come validi
punti di appoggio per sviluppare con la classe, in modo non
obbligante, un particolare tema di fisica, di matematica o di
scienze; all’adulto, come punto di partenza per ulteriori,
personali approfondimenti e ricerche.
L’obiettivo di Oppenheimer di avvicinare alla Scienza il grande
pubblico dei non addetti ai lavori trova nei Science Centre uno
strumento prezioso.
In questo senso, dunque, è possibile guardare ai Science Centre come ad una nuova generazione di musei scientifici e tecnologici, quasi come all’evoluzione dei musei di tipo più tradizionale.
Anche in Italia, infatti, nonostante il cronico ritardo sui tempi
americani ed europei, a parte i Science Centre tout court (si
pensi, ad esempio: al Laboratorio dell’Immaginario Scientifico
di Trieste e alla Città della Scienza di Napoli, ma anche ad altre numerose ed interessanti esperienze che si stanno consolidando), i musei della scienza e della tecnica più tradizionali
hanno avviato da tempo processi di rinnovamento che si
muovono lungo le linee guida dei Science Centre. Basti citare
il Museo della Scienza e della Tecnica di Milano e il Museo di
Storia Naturale sempre a Milano, o l’Istituto e Museo di Storia della Scienza a Firenze; anche per questi ultimi tipi di museo, ad ogni modo, i casi cominciano a moltiplicarsi.
COMMUNICATION: COMUNICHIAMO?
La mostra Communication, l’ultima mostra temporanea nata in casa Heureka, e che qui viene presentata, è appunto una
collezione di exhibit interattivi.
L’esposizione nasce dalla consapevolezza che la cosiddetta
“società dell’informazione”, con i suoi iperbolici sviluppi tecnologici, ha prodotto una rivoluzione paragonabile a quella
gutenberghiana. Il modificarsi dei modi di memorizzazione e
di trasferimento del sapere ha prodotto, e produrrà in maniera sempre più marcata e permanente, considerevoli mutamenti sociali ed economici. L’esigenza di una maggiore e più
diffusa comprensione della scienza e della tecnologia diviene
perciò sempre più pressante.
In particolare, può essere significativo il ruolo dei centri di diffusione scientifica e tecnologica in azioni di contenimento dei
fenomeni di esclusione sociale per quanto riguarda l’accesso
agli strumenti e ai processi (servizi, relazioni, etc.) basati sulle
nuove tecnologie.
Communication vuole essere quindi un contributo allo
schiudersi di alcuni di quei cancelli elettronici che rischiano,
ogni giorno, di essere sempre più dei “respingenti” per un
numero tutt’altro che trascurabile di persone.
Heureka, campi
estivi, Vantaa,
Helsinki, Finlandia.
Per cortesia di:
Heureka.
e voluzione delle c omunicazioni: la s toria
Heureka, Vantaa,
Helsinki, Finlandia.
Per cortesia di: Heureka.
L’esposizione base – gli exhibit preparati da Heureka – ha
viaggiato e viaggerà attraverso tutte le nove Città Europee
della Cultura per il 2000. La mostra parla ben 14 lingue: inglese, francese, finlandese, svedese, olandese, tedesco, spagnolo, italiano, fiammingo, ceco, polacco, islandese, norvegese, danese. Nella mostra si incontrano sei grandi aree tematiche, cui fanno riferimento gruppi di exhibit (indicate dai
relativi codici di riconoscimento, ad esempio: D204)
PRINCIPI DI COMUNICAZIONE E FATTORI CHE UNISCONO
Deutsches
Museum, Salone
aeronautico,
Monaco di Baviera,
Germania.
Per cortesia di:
Deutsches
Museum
mondo. Tuttavia la possibilità di incomprensioni rimane estremamente elevata.
La semplice pronuncia delle lettere si differenzia a parità di segno grafico, e persino il cane di un bambino inglese (o tedesco) abbaia con un “wuff” mentre quello di un italiano risponde con un “bau”!
Gli alfabeti (D103)
Tastiere europee (D104)
I proverbi – Un patrimonio comune agli europei (D107)
Comunicazione bidirezionale (D108)
GLI EUROPEI
Il tema della comunicazione viene affrontato in senso esteso.
Tra europei è possibile, infatti, comunicare più facilmente grazie alle affinità culturali nei modi di vedere e di interpretare il
PROPAGAZIONE DI UN’ONDA
Le future tecnologie per la comunicazione, come pure quelle
attuali, sono basate sulle propagazione di onde elettroma-
Deutsches Museum, veduta aerea sull’Isar, Monaco di
Baviera, Germania. Per cortesia di: Deutsches Museum
72
ANALOGICO E DIGITALE
La comunicazione tra umano e macchina e tra macchina e
umano viene raccontata a partire dal codice binario passando dalla TV, per arrivare alla riproduzione dei suoni e delle
immagini:
Trasmissione analogica o digitale dei suoni (D302)
30 copie (D303)
Il proprio nome tradotto in zeri ed uni (D304)
Digitalizzare un’immagine (D305)
Digitalizzare la propria voce (D306)
Cosa significa rappresentazione binaria (D307)
Come nasce l’immagine TV (D310)
RETI SATELLITARI, RETI MOBILI E RETI CABLATE
In quanti modi è possibile trasmettere un segnale? Vecchie
idee e nuove tecnologie:
Progettazione della rete cellulare (D403)
Satellite geostazionario (D404)
Capacità di trasmissione dati dei cavi (D406)
INTERNET: UNA GRANDE RETE MONDIALE
La parola più pronunciata dell’ultimo anno: Internet, con
qualche accenno alle più recenti proposte per portarselo in
casa:
La storia di Internet (D504)
L’importanza dell’ampiezza di banda per la qualità dell’immagine (D505)
LA SOCIETÀ DELL’INFORMAZIONE
Che cos’è la crittografia?: l’importanza della segretezza dei
dati nel villaggio globale.
Gli exhibit raccontano anche il ruolo chiave che le nuove tecnologie possono svolgere nel superare distanze e difficoltà legate alle disabilità, permettendo così l’accesso agli strumenti
informatici ad un numero sempre maggiore di persone.
Il cellulare GSM come strumento di pagamento (D604)
Sicurezza dei dati (D608)
Manutenzione a distanza dei motori delle navi (D611)
Il sintetizzatore vocale e la società dell’informazione (D612)
Il mouse funziona anche con la testa! (D616)
Gioco della voce (D807)
The Exploratorium, San Francisco,
Stati Uniti d’America. Per cortesia
di: The Exploratorium
73
LINKS
Dove trovare alcuni dei più importanti Science Centre del
mondo:
http://www.snl.org/museums/index.html
http://erewhon.ticonuno.it/galois/musei/musei.htm
http://www.ecsite.net
http://www.exploratorium.edu
http://www.deutsches-museum.de
http://www.nmsi.ac.uk
http://www.palais-decouverte.fr
e in Italia:
Istituto e Museo di Storia della Scienza (Firenze):
http://www.imss.fi.it/indice.html
Museo della Scienza e della Tecnologia “Leonardo da Vinci”
(Milano): http://www.museoscienza.org
in particolare, per reperire ulteriori link interessanti:
http://www.museoscienza.org/musei-it/link.html
Laboratorio dell’immaginario scientifico (Trieste):
http://www.lis.trieste.it
Città della Scienza (Napoli): http://www.cittàdellascienza.it
BIBLIOGRAFIA
Rifkin, Jeremy, “L’era dell’accesso, la rivoluzione della new
economy”, Mondadori, Cles (TN), 2000.
Ceccarelli, Marcello, et al., “Il bambino e la scienza”, Zanichelli, Bologna, 1981.
Driver, Rosalind, “L’allievo come scienziato?”, Zanichelli, Firenze, 1988.
e voluzione delle c omunicazioni: la s toria
gnetiche. Gli exhibit offrono un piccolo excursus in pieno ambito fisico:
Le radiazioni elettromagnetiche (D201)
Modello ondulatorio (D203)
Le antenne paraboliche (D204)
B. Cappa,
Sintesi delle
Comunicazioni
radiofoniche,
Palazzo delle
Poste,
Palermo.
Per cortesia
di: FMR.
74
ricerca nel campo
delle
telecomunicazioni
76 La Rete informatica dell’Università di Bologna
—
M. Boari, F. Delpino
78 La Rete Garr, il progetto GRID e le Reti di Ricerca INFN
82 Dynamic System Identification, CITAM
83 La Ricerca presso l’ENEA
—
—
—
A. Pascolini
R. Guidorzi
S. Gruppuso
86 Gli strumenti della memoria: informatica e diagnostica fisica
per i beni culturali — D. Biagi Maino, G. Maino
94 Le ricerche presso il Centro di Studio per l’Informatica
e i sistemi di telecomunicazioni del CNR — O. Andrisano
98 Il Radiotelescopio di Medicina
—
R. Ambrosini, S. Montebugnoli, M. Nanni
102 Il Progetto 2D, 3D, 4D, Progetto Nu.M.E.
Consorzio Università-Città, Bologna 2000, Cineca
—
F. Bocchi
105 Navigazione in 4D del NUovo Museo Elettronico della Città di Bologna
106 Prima installazione del Baby Reality Center del Cineca
—
—
A. Guidazzoli
F. Serafini
108 La Storia e la Ricerca dell’Istituto di Geologia Marina (CNR, Bologna) in Multivisione
— M. Ravaioli, F. Giglio, G. Marozzi, N. Bianchi, F. Bentivoglio, D. Martignani
110 La visualizzazione dei fondali marini in realtà virtuale
T. Diamanti, G. Stanghellini, L. Calori, A. Guidazzoli
112 Il codice a barre
75
—
R. Amato
—
G. Bortoluzzi,
M. Boari
F. Delpino
Ce.S.I.A. (Centro
Servizi Informatici
d’Ateneo) Centro
di Controllo della
rete ALMAnet.
ricerca nel campo delle telecomunicazioni
la rete
informatica
dell’università
di bologna
Traliccio per ponte
radio.
ALMAnet è la rete informatica per le applicazioni didattiche
scientifiche ed amministrative, che connette tutte le sedi universitarie nella città di Bologna e nelle sedi decentrate.
LA RETE D’ATENEO
La rete d’Ateneo connette un numero rilevante di strutture
universitarie e precisamente: Bologna 43, Cesena 10, Forlì 10,
Ravenna 7, Reggio Emilia 1, Rimini 2.
Creata nel 1980, ALMAnet è divenuta un progetto d’Ateneo
nell’ambito delle attività per il IX centenario (1988) dell’Alma
Mater Studiorum, Magnifico Rettore prof. Fabio Roversi Monaco, come un progetto di rinnovamento tecnologico, patrocinato dal pro-Rettore, prof Mario Rinaldi, e gestito da un Comitato Tecnico Scientifico.
ALMAnet 1995
In seguito la rete è andata sviluppandosi sino a collegare tutte le strutture universitarie nella città di Bologna e nelle sedi
decentrate di Cesena, Forlì, Rimini, Ravenna e Reggio Emilia.
Essa ha inoltre mutato valenza passando da una rete tipicamente scientifica, che collegava i principali Dipartimenti dell’area tecnico-scientifica, ad una rete d’Ateneo, in grado di
fornire supporto anche alle applicazioni didattiche ed amministrative. Al fine di adeguare l’infrastruttura della rete ALMAnet alle nuove ed accresciute esigenze dell’utenza, nel
1995 fu predisposto un vasto piano di rinnovamento, articolato in due distinti progetti:
• il primo, inerente all’Area Metropolitana di Bologna, preve-
deva l’inserimento di ALMAnet in una rete metropolitana a
larga banda, basata su tecnologia SMDS e gestita in convenzione dalla Telecom Italia;
• il secondo, inerente alle sedi decentrate della Romagna
prevedeva la creazione di una dorsale regionale di proprietà dell’Università, costituita da collegamenti su ponti radio.
ALMAnet 1999
La struttura della rete ALMAnet nel 1999 assume una notevole complessità, essendo costituita da una rete regionale,
che collega le varie reti metropolitane nelle città con sedi universitarie distaccate.
Inoltre la rete metropolitana di Bologna si articola:
• in una sottorete ATM, gestita dalla Telecom Italia mediante
una convenzione;
• in una sottorete CDN, che collega con linee dirette numeriche al Ce.S.I.A. tutte le altre sedi nel capoluogo e che viene gestita direttamente dal Centro Servizi Informatici d’Ateneo.
ALMAnet 2000
Il tumultuoso sviluppo di Internet e l’impatto che questo genera sulle attività di un moderno ateneo nei campi della ricerca e della didattica, unitamente alle accresciute esigenze
dell’amministrazione volta ad offrire sempre migliori servizi
agli studenti ed ai suoi uffici rendono la rete informatica
un’infrastruttura di vitale e strategica importanza. L’Università
di Bologna inoltre, articolata e compenetrata come è nel ter-
Antenna per
trasmissione dati.
ALMAnet.
Dorsale regionale.
Fascio di
fibre ottiche.
76
Ce.S.I.A.
Apparecchiature
di rete.
Apparati di
telecomunicazioni.
Postazioni di accesso alla rete nelle sale studio.
LA RICERCA SULLE TELECOMUNICAZIONI
NELL’UNIVERSITÀ DI BOLOGNA
Apparecchiature
di rete.
77
Ce.S.I.A.
Interconnessioni
di reti.
ricerca nel campo delle telecomunicazioni
ritorio urbano e regionale, sembra ritrovare nella rete e nei
servizi che essa offre quell’unità operativa, che la tirannide
della geografia sembra negarle.
Per l’anno 2000 è stato pertanto approntato un progetto di
forte rinnovamento, che farà di ALMAnet una rete a larga
banda. L’elevata velocità di tutti i collegamenti metterà a disposizione degli utenti un’infrastruttura di comunicazione telematica all’avanguardia, sulla quale potranno essere impiantati servizi innovativi per la didattica, la ricerca e l’amministrazione. Teledidattica, certificazioni in linea, laboratori informatici, colloqui con i docenti e con le segreterie, sono solo alcuni dei possibili servizi che verranno attivati e che si aggiungeranno a quelli già esistenti. Tale nuova infrastruttura diverrà
operativa nell’autunno del 2001.
• Almanet è tecnologia: le più moderne tecnologie di comunicazione, dalle fibre ottiche ai ponti radio.
• Almanet è servizi: per la didattica, la ricerca e l’amministrazione.
• Almanet è il sistema di comunicazione di un grande ateneo
con 100.000 studenti e sedi in sei diverse città.
• Almanet è gestita dal Centro Servizi Informatici d’Ateneo,
coadiuvato da un Comitato Scientifico di Sviluppo.
Sistemi di trasmissione su canale radio ed in fibra ottica. Sistemi radiomobili di nuova generazione terrestri e via satellite. Controllo ed ottimizzazione dell’uso dello spettro elettromagnetico Elaborazione del segnale. Analisi e dimensionamento delle reti di telecomunicazione. Reti fotoniche. Problematiche inerenti alla sicurezza delle reti.
Tutte le immagini di questo articolo sono
dovute al Ce.S.I.A. (Centro Servizi
Informatici d’Ateneo) che si ringrazia.
Laboratorio
informatico.
A. Pascolini
l a r e t e g a r r, i l p r o g e t t o g r i d e l e
r eti di r icerca i nfn
ricerca nel campo delle telecomunicazioni
INFN.
I laboratori
nazionali di
Legnaro.
L’ISTITUTO NAZIONALE DI FISICA NUCLEARE
L’lstituto Nazionale di Fisica Nucleare (INFN) è l’ente pubblico
italiano che promuove, coordina ed effettua ricerche sperimentali e teoriche per lo studio dei nuclei atomici, delle particelle elementari e di fisica astroparticellare, sia in Italia che
presso i grandi laboratori e centri di ricerca internazionali.
Inoltre, I’INFN ricerca e sviluppa le tecnologie necessarie per
tali sperimentazioni.
Fondato nel 1951, I’INFN è attualmente articolato in:
- 4 laboratori nazionali (i Laboratori Nazionali di Frascati, di
Legnaro, del Gran Sasso ed il Laboratorio Nazionale del Sud
a Catania),
- 19 sezioni e 11 gruppi collegati costituiti presso i dipartimenti di fisica delle principali università italiane,
- il CNAF, il centro nazionale dedicato allo sviluppo delle tecnologie informatiche e delle reti di calcolatori, a Bologna.
Metodologie, apparati e tecniche della fisica nucleare e subnucleare costituiscono potenti mezzi d’indagine anche per vari altri settori di ricerca, dalla biologia agli studi ambientali,
dalla medicina allo studio della struttura dei materiali; con le
istituzioni interessate a questi campi l’INFN cura e promuove
collaborazioni scientifiche.
La ricerca avanzata di base produce e richiede tecnologie di
avanguardia. L’INFN ha avuto sempre cura di cogliere le occasioni per trasmettere all’industria italiana il patrimonio di competenze acquisite nelle sue attività e di collaborare per nuovi
sviluppi nei campi più avanzati.
RETI DI CALCOLATORI, SUPPORTO INDISPENSABILE
PER LA RICERCA
Un carattere distintivo dell’attuale fase della ricerca fisica sono le vaste collaborazioni internazionali e l’uso comune di laboratori e risorse tecniche distribuiti in tutto il mondo. Un tale contesto ha forzato lo sviluppo negli ultimi venti anni di tecnologie avanzate di comunicazione e di collegamento dei
computer impiegati per raccolta e gestione dei dati, calcoli
numerici, e comunicazione scientifica.
Si è andata cosi creando e potenziando una famiglia di reti informatiche interconnesse dalle prestazioni sempre più evolute, che attualmente avviluppa tutto il mondo.
Tramite la rete, un ricercatore dalla sua scrivania può collegarsi, ad esempio, ad un calcolatore del Fermilab di Chicago
e lavorare come se fosse fisicamente seduto davanti a quella
macchina per controllare un apparato sperimentale; oppure,
la rete gli permette di trasferire nel suo calcolatore dati pre-
INFN. I laboratori nazionali.
a sinistra: Frascati.
sopra: Catania
78
Schema dei collegamenti della rete GARR-B: in rosso la dorsale a 155
Mbps, in viola i collegamenti internazionali (155 Mbps o 45 Mbps),
in arancione i collegamenti con i nodi di accesso locali (155 Mbps o
34 Mbps).
Statistica dell’impiego dei calcolatori
nel sistema Condor dell’INFN. Rosso:
utilizzazione locale; verde: utilizzazione
remota; blu: calcolatori non utilizzati.
senti nei calcolatori del CERN di Ginevra; per elaborare una
pubblicazione con un collega russo può scambiare messaggi
tramite la posta elettronica ed entrambi possono intervenire
contemporaneamente sul testo.
Le reti di calcolatori sono diventate un indispensabile strumento di lavoro quotidiano ed hanno ulteriormente rafforzato i vincoli della comunità scientifica internazionale. Tramite le
reti scientifiche ogni ricercatore può raggiungere ogni laboratorio mondiale per mantenere i contatti con la comunità
scientifica.
INFNet, LA RETE INFORMATICA DELL’INFN
INFNet è la rete di calcolatori dell’lNFN, nata nel 1980 per favorire le comunicazioni tra le varie sedi dell’lNFN, i laboratori
ed i centri di calcolo nazionali ed internazionali. INFNet è stata la prima rete italiana ed è andata espandendosi e potenziandosi, arricchita via via di tutti i nuovi strumenti resi disponibili per i servizi in rete. Dal 1989 è integrata nella rete GARR
(Gruppo Armonizzazione Reti per la Ricerca), che unisce tutte
le sedi universitarie italiane, i principali centri di calcolo e le sedi degli enti di ricerca. Negli ultimi anni si è assistito ad un
enorme sviluppo delle reti di calcolatori: grazie all’esperienza
ed alla competenza maturate in 20 anni, I’INFN partecipa attivamente a numerosi progetti internazionali, attuando importanti sperimentazioni di nuove tecnologie di rete. L’evoluzione della rete INFNet è, quindi, una conseguenza di queste
iniziative.
Immagine
d’ingresso del sito
WWW dell’INFN
per la divulgazione
scientifica.
79
La rete GARR (Gruppo Armonizzazione Reti per la Ricerca) unisce dal 1989 tutte le sedi universitarie italiane, i principali centri
di calcolo e le sedi degli enti di ricerca, per un totale di oltre 200
siti, ed è connessa alla rete europea a larga banda “Ten-155”.
GARR-B rappresenta la presente fase potenziata della rete: è
costituita da una dorsale di collegamenti a larga banda operante alla velocità di 155 Mbps (milioni di bit al secondo) su
cui viaggiano più protocolli di rete per garantire la connessione ad ogni tipo di calcolatore. La realizzazione e la gestione di
GARR-B è stata affidata dal Ministro per l’Università e la Ricerca Scientifica e Tecnologica all’lNFN, che ha costituito un
Network Operation Centre con sede presso il suo centro
CNAF di Bologna. GARR-B favorisce il coordinamento e la collaborazione tra le attività di ricerca, a livello nazionale ed internazionale, tramite i servizi telematici, compresi anche la ricerca e lo sviluppo nei servizi telematici stessi. GARR-B sta ora
evolvendo in GARR-G, a velocità dell’ordine dei Gbps (miliardi di bit al secondo), che confluirà nel progetto GEANT (Consorzio europeo per la nuova generazione delle reti della ricerca accademica e universitaria) sottoposto alla Comunità Europea per potenziare la rete internazionale della ricerca europea
a una banda dei Gigabit.
Si veda nelle immagini lo schema dei collegamenti della rete
GARR-B: in rosso la dorsale a 155Mbps, in viola i collegamenti
intemazionali (155 Mbps o 45 Mbps), in arancione i collegamenti con i nodi di accesso locali (155 Mbps o 34 Mbps).
ricerca nel campo delle telecomunicazioni
LA RETE GARR.B A SUPPORTO DELLA RICERCA ITALIANA
ricerca nel campo delle telecomunicazioni
Simulazione di un possibile
evento previsto dagli
esperimenti al nuovo
acceleratore LHC del CERN.
INTERNET ED IL WORLD WIDE WEB
Apparati
sperimentali
utilizzati
attualmente al
CNAF (Bologna)
per i test di
trasmissione dati
e per l’accesso
alla rete GARR-B.
Internet è la più estesa interconnessione mondiale di reti differenti, ognuna
adibita a funzioni diverse: ciascuno dei
molteplici calcolatori di ogni rete può
colloquiare in modo trasparente con
tutti gli altri indipendentemente dalla
loro collocazione geografica, grazie ad
un protocollo comune di comunicazione chiamato TCP/IP (Transmission Control Protocol/lnternet Protocol), che
permette di connettere tra di loro macchine di costruttori diversi e con sistemi
operativi e di rete differenti. Il World
Wide Web attivo su Internet è un sistema ipertestuale distribuito di ricerca e
di raccolta di informazioni. Il progetto
www ha avuto origine nel 1989 nel laboratorio europeo CERN di Ginevra allo scopo di favorire il lavoro dei fisici
delle particelle impegnati in vaste collaborazioni internazionali. L’evoluzione
del www ha caratteristiche esplosive e
la fase di rapida espansione non mostra
segni di rallentamento.
Il principio di funzionamento è fondato
su una struttura di sistema distribuito:
determinate applicazioni vengono eseguite in molteplici nodi della rete, in cui
sono attivi programmi che eseguono
specifici servizi, senza che l’utente se ne renda conto. La potenza del www sta nella sua particolare architettura, costruita su protocolli comuni e su un linguaggio base per la definizione dei documenti ipertestuali. Il testo è illustrato dalla seguente iconografia: immagine d’ingresso del sito www dell’lNFN per la divulgazione scientifica (v. p. 79).
tore scientifico, industriale o commerciale. Per affrontare questi problemi si sta elaborando una nuova strategia, chiamata
GRID (dal termine anglosassone grid per reti elettriche) in
analogia con le reti di distribuzione dell’energia elettrica. La
GRID computazionale si presenta come una risorsa mondiale
globale, in cui supercomputer, grandi batterie di PC, dischi e
altri sistemi di memorie di massa, enormi archivi di dati e di
informazioni sono uniti tra loro da una rete di trasmissione
dati ad alta velocità, diventando strumenti per il lavoro collaborativo a distanza.
Tutte queste risorse sono rese disponibili agli utenti, sparsi in
tutto il mondo, in modo trasparente, attraverso un software
di nuovissima concezione che facilita il lavoro distribuito. Le
potenzialità del Web vengono enormemente aumentate per
dar modo agli utenti non solo di reperire informazioni, ma anche di eseguire calcoli complessi e accedere a grandi archivi di
dati con semplici click. Il testo è arricchito dalla seguente immagine: simulazione di un possibile evento previsto dagli
esperimenti al nuovo acceleratore LHC del CERN (v. a fianco).
CONDOR. PER OTTIMIZZARE LE RISORSE DI CALCOLO
DISTRIBUITE
Gli esperimenti di fisica nucleare e delle particelle richiedono
enormi capacità di calcolo, e per tale esigenza storicamente si
è fatto ricorso a grandi centri di calcolo. La tendenza evolutiva dei calcolatori in questi ultimi anni è caratterizzata da una
crescita continua della potenza di calcolo dei singoli PC e
workstation e da diminuzione dei costi. Questi due fattori favoriscono la distribuzione capillare dei PC per ogni singolo
utente e una configurazione di cluster di PC o workstation per
singoli esperimenti e progetti di ricerca, tutto ciò comporta
una crescita molto consistente della capacità di calcolo complessiva dell’lNFN ma con utilizzo limitato alle esigenze individuali. Per ottimizzare l’uso delle risorse di calcolo distribuite,
all’università del Wisconsin a Madison (USA) è stato sviluppato un sistema di calcolo distribuito, chiamato Condor; il CNAF
e la sezione di Bologna dell’lNFN lo hanno quindi adattato alle esigenze dell’lNFN, configurato su rete geografica ed arricchito di nuove funzionalità.
Condor è un sistema di calcolo distribuito basato sull’utilizzo
da parte di utenti remoti di workstation in rete quando non
sono utilizzate localmente. Così si possono soddisfare le sempre crescenti esigenze di calcolo attraverso un uso più efficiente delle risorse esistenti, pur consentendo un accesso
prioritario all’utilizzo locale da parte degli utenti dei singoli
gruppi o laboratori. Le risorse dell’lNFN a disposizione del cal-
DAL WEB ALLA GRID. TRASFORMARE INTERNET IN UN
SOLO ENORME CALCOLATORE PER VINCERE LE NUOVE
SFIDE DELLA FISICA
Gli esperimenti al nuovo acceleratore LHC (Large Hadron Collider) in costruzione al CERN di Ginevra saranno condotti da
migliaia di scienziati di tutto il mondo e richiedono una potenza di calcolo, di raccolta e gestione di dati, e di collegamenti in rete mai affrontata prima d’ora in nessun altro set-
80
colo remoto mediante il sistema Condor comprendono centinaia di calcolatori in tutt’ltalia.
Alcune immagini a documentazione di queste tecnologie: statistica dell’impiego dei calcolatori nel sistema Condor dell’lNFN: rosso: utilizzazione locale, verde: utilizzazione remota,
blu: calcolatori non utilizzati (v. p. 79, in alto a destra).
IL CNAF. CENTRO NAZIONALE PER LE TECNOLOGIE
INFORMATICHE E TELEMATICHE DELL’INFN
Il CNAF è un Centro Nazionale dell’lNFN dedicato alla ricerca
ed allo sviluppo nel campo delle discipline informatiche a supporto dell’attività di ricerca. La sua sede è a Bologna.
Il CNAF ha curato la progettazione, realizzazione e gestione
della rete della ricerca italiana, prima INFNet ed ora GARR; dal
1998 sta privilegiando iniziative a più ampio spettro, che spaziano dalla sperimentazione di nuove tecnologie trasmissive
allo sviluppo di servizi ed applicazioni avanzate per gli esperimenti, oltre al coinvolgimento in progetti italiani ed europei
come DATAGRID.
La sperimentazione delle nuove applicazioni avanzate su rete
geografica viene effettuata dal CNAF in collaborazioni nazionali ed anche con altre reti della ricerca europee ed internazionali quali ESnet, la rete della ricerca americana.
Rimane comunque rilevante l’attività di servizio che il CNAF
svolge a favore di tutta la comunità dei ricercatori INFN, per il
supporto e la gestione di strumenti informatici di uso comune quali mailing list, who is, usenet news, web server, videoconferenza… Apparati sperimentali utilizzati attualmente al
CNAF per i test di trasmissione dati e per l’accesso alla rete
GARR-B documentano quanto sostenuto sopra.
IL CNAF E LE NUOVE ESIGENZE DELLA RICERCA
La ricerca in fisica nucleare e delle particelle richiede un uso
della rete che va oltre il servizio tradizionale di Internet definito best effort. Applicazioni cruciali di un esperimento, quali il
controllo remoto - su scala continentale ed intercontinentale dei rivelatori di un apparato, hanno bisogno di garanzie di funzionamento e di tempi di risposta adeguati da parte della rete.
A queste esigenze cercano di rispondere i nuovi servizi di rete
cosiddetti di QoS (Quality of service) o “a qualità garantita”
che gestiscono il trafffico in modo selettivo. A questi servizi
vengono associati nuovi strumenti di monitoraggio utilizzati
dalle stesse applicazioni per controllare il funzionamento della
rete e gestire gli eventuali malfunzionamenti. Altri aspetti di un
esperimento, quale il sistema di acquisizione e filtraggio dei
81
dati, richiedono infrastrutture trasmissive ad altissima velocità
(10 Gbps) e con un elevato numero di nodi (circa 3000). Queste esigenze richiedono uno studio di simulazione e sperimentazione di nuove topologie con tecnologie trasmissive basate
su fibra ottica e con l’uso di più lunghezze d’onda (WDM, Wave Division Multiplexing). A ciò si aggiungono le problematiche
di calcolo dei futuri esperimenti al laboratorio europeo CERN,
le cui caratteristiche principali sono costituite dall’elevato numero di dati sperimentali (dell’ordine di decine di petabyte, milioni di miliardi di byte, all’anno) e dal rilevante numero di fisici coinvolti. Tali problemi vengono affrontati con modelli gerarchici e distribuiti sulla rete a livello geografico. Il CNAF dedica la parte preponderante della sua attività a queste problematiche con progetti nazionali ed europei.
Il testo è arricchito dalle seguenti immagini: rivelatore dell’esperimento CDF, Collider Detector Facility, a Fermilab, presso
Chicago, per cui si sta sviluppando un sistema di controllo remoto operativo dall’ltalia (v. sotto); schema dell’esperimento
ATLAS in costruzione al CERN, che prevede la produzione di
immense quantità di dati, dell’ordine del petabyte all’anno (v.
sopra).
Tutte le immagini di questo articolo sono dovute all’INFN
(Istituto Nazionale di Fisica Nucleare) che si ringrazia.
Rivelatore dell’esperimento CDF a Fermilab, presso Chicago, per cui si
sta sviluppando un sistema di controllo remoto operativo dall’Italia
(foto Fermilab).
ricerca nel campo delle telecomunicazioni
Rivelatore dell’esperimento ATLAS in
costruzione al CERN, che prevede la
produzione di immense quantità di dati,
dell’ordine del petabyte all’anno.
R. Guidorzi
dynamic system identification, citam
Molte delle attività svolte presso il CITAM (Centro Interfacoltà per le Tecnologie didattico-educative teleaudiovisive “Guglielmo Marconi”) riguardano il settore delle comunicazioni.
Tra queste è possibile ricordare la produzione televisiva effettuata per conto del Consorzio Nettuno e trasmessa sui canali di RAISAT.
Il CITAM ha poi promosso il servizio AlmaNews che, dall’A.A.
1997/98, cura le riprese degli avvenimenti più significativi dell’Ateneo e l’inserzione su Internet di tali servizi.
Nel settore della applicazione delle ICT (Information and
Communication Technologies) nella teledidattica il CITAM sta
sperimentando dall’A.A. 1998/99, presso le università di Bologna e di Ferrara, il corso Dynamic System Identification, privo di lezioni frontali e basato su un tutorato remoto, l’uso di
ipertesti tecnologicamente avanzati e l’accesso a laboratori
virtuali platform-independent.
Il CITAM sta anche effettuando sperimentazioni sull’impatto
delle ICT nell’ambito della didattica tradizionale attraverso l’uso di funzionalità avanzate dei server Web e di tecniche di sincronizzazione di flussi multimediali navigabili.
Alcune immagini tratte
da AlmaNews, dal corso
in rete Dynamic System
Identification e dal
server del corso di Teoria
dei Sistemi.
82
S. Gruppuso
Centro di
lavorazione laser di
Milano della Riva
Techint: processo
di saldatura
effettuato
mediante il sistema
di comando e
controllo
sviluppato da Enea
e Oberon.
Foto per cortesia
di: Enea.
la r icerca
presso
l’enea
SOSTENIBILE DEL PAESE
L’ENEA (Ente per le Nuove tecnologie, l’Energia e l’Ambiente)
è un ente di diritto pubblico operante nei campi della ricerca
e dell’innovazione per lo sviluppo sostenibile, finalizzata a
promuovere insieme gli obiettivi di sviluppo, competitività e
occupazione e quello della salvaguardia ambientale.
L’ENEA svolge altresì funzioni di agenzia per le pubbliche amministrazioni mediante la prestazione di servizi avanzati nei
settori dell’energia, dell’ambiente e dell’innovazione tecnologica. In particolare l’Ente:
• svolge, sviluppa, valorizza e promuove la ricerca e l’innovazione, anche tramite la realizzazione di impianti dimostrativi e di progetti pilota, per le finalità e gli obiettivi dello sviluppo sostenibile, nel quadro del programma nazionale
della ricerca ed in linea con gli impegni scaturenti dalla partecipazione italiana all’Unione Europea e alle altre organizzazioni internazionali in tema di energia, ambiente e innovazione tecnologica;
• sostiene i processi di innovazione del sistema produttivo, in
particolare delle piccole e medie imprese, anche promuovendo la domanda di ricerca e di tecnologia in conformità
ai principi dello sviluppo sostenibile;
• favorisce il processo di trasferimento tecnologico e delle
esperienze positive in campo energetico ed ambientale alle
imprese, in particolare di piccola e media dimensione e alle pubbliche amministrazioni nell’ambito degli indirizzi nazionali e dell’Unione Europea;
• fornisce, a richiesta, nei settori di sua competenza e nell’ambito di accordi di programma con i Ministeri dell’Industria, del Commercio e dell’Artigianato, dell’Università e
della Ricerca Scientifica e Tecnologica e dell’Ambiente,
nonché con altre amministrazioni pubbliche, supporto tecnico specialistico ed organizzativo alle amministrazioni
competenti per le azioni pubbliche, in ambito nazionale ed
internazionale, alle regioni e agli enti locali.
L’ ENEA basa la sua attività sullo sviluppo e sull’applicazione di
tecnologie di punta e innovative, nelle quali ha raggiunto un
livello di eccellenza. Lo sviluppo di queste tecnologie viene effettuato prevalentemente nell’ambito di programmi indirizzati a obiettivi strategici. Ad esempio, nell’ambito della fusione
nucleare vengono sviluppate tecnologie avanzate di interesse
generale quali la superconduttività e la robotica. Le tecnolo-
83
gie sviluppate all’ENEA rientrano tra quelle che anche in altri
paesi vengono considerate critiche, cioè la cui padronanza è
essenziale per mantenere nel medio e lungo periodo l’efficienza e la competitività del sistema produttivo. Il patrimonio
tecnologico accumulato e la lunga esperienza di collaborazione con imprese grandi e piccole sono essenziali per il trasferimento, l’adattamento e l’applicazione delle tecnologie innovative in funzione delle necessità dell’utilizzatore finale. L’ENEA non si rivolge soltanto alle industrie ad alta tecnologia,
ma anche a quelle dei settori tradizionali, dove l’iniezione di
tecnologie avanzate nel processo produttivo può aiutare a
mantenere o a sviluppare la competitività sul mercato internazionale.
Le tecnologie sviluppate all’ENEA hanno numerose applicazioni in comparti produttivi e servizi molto diversificati. Ad
esempio, le tecnologie laser vengono applicate dall’ENEA, in
collaborazione con diversi partner, per diagnostiche ambientali (misura dell’inquinamento dell’atmosfera o delle acque
costiere, rilevazione di inquinanti metallici in campioni solidi,
attività fotosintetica di piante e alghe), per applicazioni industriali (metrologia, fotosintesi di polveri, deposizione di pellicole di semiconduttori, realizzazione di sensori per gas tossici,
taglio di lastre di metalli e di materiali plastici, saldature) e mediche (misure di concentrazione di metano nell’espirato), nel
campo dei beni culturali (indagini sull’integrità strutturale dei
monumenti e diagnostica per le opere d’arte), nell’ambito
della fusione nucleare (diagnostiche di plasmi, studi sulla fusione a confinamento inerziale).
ricerca nel campo delle telecomunicazioni
RICERCA E INNOVAZIONE PER LO SVILUPPO
TECNOLOGIE SVILUPPATE DALL’ENEA
Numerose sono le tecnologie sviluppate dall’Enea: Laser, Robotica, Criogenia, Telerilevamento, Superconduttività, Agrobiotecnologie, Materiali fotovoltaici, Tecnologie impiantistiche, Materiali ceramici avanzati, Fisica e ingegneria della com-
Sistema Lidar
fluorosensore con
laser compatto
Nd-YAG sviluppato
dall’Enea,
installabile su
container mobile
o imbarcazioni
per campagne di
monitoraggio
dell’inquinamento
delle acque e dello
stato di salute della
vegetazione
terrestre e marina.
Foto per cortesia
di: Enea.
ricerca nel campo delle telecomunicazioni
Una delle stazioni
meteorologiche
presso la base Baia
Terra Nova
progettate,
installate e gestite
dall’ENEA ed
inserite nella rete
del World
Meteorologic
Office.
Foto per cortesia
di: Enea
Stazione Baia Terra Nova, base italiana permanente in Antartide.
La legge 284 del 1985, estesa con la legge 380 del 1991, ha istituito
il Programma Nazionale di Ricerche in Antartide, affidando all’ENEA
il compito di attuarlo, d’intesa con il CNR per i contenuti scientifici,
e di integrarlo con gli obiettivi tecnologici. Il programma è svolto
sotto l’egida del MURST (ora MIUR) e include discipline quali Scienze
della Terra, Fisica dell’Atmosfera, Cosmologia, Biologia, Medicina,
Oceanografia e Scienze Ambientali. Al programma prendono parte
numerose università, altri istituti di ricerca e alcuni ministeri, primo
fra tutti il Ministero della Difesa. Foto per cortesia di: Enea.
bustione, Modelli matematici e calcolo a elevate prestazioni,
Intelligenza artificiale e sistemi esperti, Tecnologie di irraggiamento, Trattamento delle immagini, Diagnostica avanzata,
Tecnologie marine, Membrane, Film sottili, Biosensori, Plasmi.
Clima, Metrologia, Processi chimici, Radioprotezione, Fusione
nucleare, Depurazione delle acque, Uso razionale dell’energia, Industria manifatturiera, Protezione e miglioramento colture agricole, Utilizzo energetico delle biomasse, Trattamento
e recupero dei rifiuti, Caratterizzazione del territorio, Bonifica
aree a rischio, Energie rinnovabili, Ausili per disabili, Mobilità
urbana, Beni culturali, Biomedicina.
ALCUNI CAMPI DI APPLICAZIONE DELLE TECNOLOGIE
SVILUPPATE DALL’ENEA
Analisi del dipinto “Amor sacro e amor profano” di Tiziano mediante fluorescenza a raggi X.
L’adattamento e l’applicazione della tecnica, effettuati dall’ENEA, permettono l’acquisizione di
informazioni per lo studio della composizione elementale della zona in esame.
I dati sinora acquisiti (circa 7000 misure eseguite su oltre 200 manufatti) per vari organi del
Ministero dei Beni Culturali, per organismi internazionali e privati, sono stati archiviati su
supporto informatico. Foto per cortesia di: Enea.
Un altro esempio di applicazione di tecnologie sviluppate dall’Enea è quello dei calcolatori paralleli: l’ENEA sviluppa uno
dei sistemi di calcolo più potenti in ambito mondiale (di concezione e fabbricazione italiana) e sta mettendo a punto l’applicazione di questo sistema ad una serie di problemi che vanno dalla modellizzazione meteorologica e climatica sull’area
del Mediterraneo alla simulazione della fabbricazione di elementi in materiale plastico con un processo innovativo; dalla
progettazione e protezione di centrali di telecomunicazione
alla classificazione di difetti in laminati metallici.
Nell’ambito dell’Esposizione Communication, l’Ente era presente con due suoi progetti: Antartide (v. oltre) e Giano (v. D. Biagi Maino e G. Maino in questo stesso volume) nei quali si concentra in maniera significativa la funzione “comunicazione”.
ITALIA IN ANTARTIDE
Il 1 dicembre 1959, a Washington, venne stipulato tra i 12
Paesi partecipanti all’Anno Geofisico Internazionale (19571958) il Trattato Antartico che, entrato in vigore nel 1961, sospende qualsiasi rivendicazione territoriale, lo sfruttamento
delle risorse esistenti e favorisce gli usi pacifici del continente.
Il Governo italiano ha sottoscritto il Trattato Antartico il 18
Particolare fotografico scattato in una
sezione dell’Area Antartide Enea, allestita
presso la Mostra Communication. Foto di:
G. Artusi.
84
Immagine realizzata con la stazione informatica DEA
(Decorazione E Ambientazione piastrelle). Il Progetto DEA, coordinato
dall’Enea, è sviluppato da Danimarca, Spagna, Francia e Italia nell’ambito
del Programma Comunitario SPRINT (Strategic PRogramme for INnovation
and Technology transfer). Il sistema costituisce un apprezzato studio per
la progettazione di piastrelle, per la loro vendita favorita dalla simulazione
fotorealistica dell’ambiente a cui sono destinate e, infine, per la
produzione e gestione di archivi aziendali e cataloghi elettronici.
Foto per cortesia di: Enea.
marzo 1981 e il 10 giugno 1985 il Parlamento ha approvato
la legge n. 284 istitutiva del Programma Nazionale di Ricerche
in Antartide (P.N.R.A.).
Il programma, svolto sotto l’egida del Ministero dell’Università e della Ricerca Scientifica e Tecnologica (MURST, ora MIUR),
prevedeva attività di ricerca per il quinquennio 1985-1991.
L’approvazione successiva di altre leggi di finanziamento del
PNRA ha portato a svolgere finora 15 spedizioni in Antartide
e a ottobre del 2000 è partita la sedicesima. L’ENEA è l’ente
deputato all’attuazione del Programma e ne cura gli aspetti
tecnologici. Per fare questo, all’interno dell’ENEA, è stata
creata una unità di progetto dedicata al programma antartico
italiano, unità che prende il nome di Progetto Antartide.
COMUNICARE DA UN CONTINENTE NON CABLATO
IL PROGETTO GIANO
Il progetto Giano (Grafica Innovativa per il patrimonio Artistico Nazionale e per l’Occupazione giovanile) è un progetto finanziato dall’Unione Europea e dal Ministero dell’Università e
della Ricerca Scientifica e Tecnologica, con il coordinamento
della Divisione Fisica dell’Enea di Bologna. Obiettivo di questo
progetto è lo sviluppo di metodologie diagnostiche ed informatiche multimediali per lo studio, la conoscenza e la conservazione di opere d’arte. In particolare, il progetto comporta la
realizzazione di un sistema informativo in rete (Internet) per la
documentazione di archivi, fonti storiche, biblioteche, musei
Analizzatore di energia degli atomi neutri per la misura della
temperatura degli ioni in macchine sperimentali per ricerche sulla
fusione termonucleare controllata, costruito dall’Enea, per il Large
Helical Device giapponese, su contratto del National Institute for
Fusion Studies di Nagoya. Foto per cortesia di: Enea.
85
La tenuta presidenziale di Castelporziano ripresa da satelliti (immagini a destra) e in un
mosaico georeferenziato di rilevamenti aerei (a sinistra) ottenuta mediante una metodologia
di elaborazione ad alte prestazioni sviluppata dall’Enea. Le immagini sono state elaborate
per conto del Segretariato Generale della Presidenza della Repubblica Italiana, nell’ambito
del Programma di studi ambientali nell’area della tenuta. Foto per cortesia di: Enea.
ed interventi di restauro, anche virtuali. Si viene così a creare
una rete della cultura che coinvolge già molti paesi europei e
che potrà allargarsi ad ulteriori partecipazioni.
ricerca nel campo delle telecomunicazioni
Operare in area antartica o sub-antartica comporta inevitabilmente di dover fronteggiare e risolvere un problema strategico fondamentale: le telecomunicazioni. Ci si muove infatti in
un’area vasta circa 1.5 volte l’Europa , in cui molti sistemi convenzionali di telecomunicazioni sono inesistenti, irraggiungibili o utilizzabili con fortissimi condizionamenti operativi.
Il continente non è cablato; non ha a disposizione quindi tutte quelle facilities a cui siamo normalmente abituati e che fanno sì che il resto del pianeta possa essere definito, con un luogo comune oramai abusato, un grande villaggio globale.
L’ENEA, attraverso il Progetto Antartide, ha messo in campo
tutte le sue competenze per la progettazione, la realizzazione
e la gestione di un sistema integrato di telecomunicazioni che
fosse in grado di soddisfare qualsiasi esigenza di collegamento: dalle comunicazioni locali ad Internet. Tutto ciò ha comportato l’impiego di risorse umane ed economiche rilevanti e
consente oggi al nostro Paese di poter vantare, anche nel settore delle telecomunicazioni, la realizzazione, in Antartide, di
uno dei sistemi più avanzati dal punto di vista tecnologico.
D. Biagi Maino
G. Maino
gli strumenti della memoria:
informatica e diagnostica fisica per i beni culturali
IL SETTECENTO: LE ACCADEMIE NELL’ETÀ DEI LUMI
LA CORRISPONDENZA SCIENTIFICA, LA PRODUZIONE LIBRARIA
E L’ILLUSTRAZIONE COME MEZZO DI COMUNICAZIONE FRA
SCIENZIATI. L’ENCICLOPEDISMO IN EUROPA
Il logo del progetto
GIANO
(Grafica Innovativa
per il patrimonio
Artistico Nazionale
e l’Occupazione
giovanile).
Nella seconda metà del Seicento, la vita scientifica trova le forme di organizzazione che le sono mancate fino a quel momento per assicurare l’informazione e l’emulazione dei dotti. Il
fenomeno, europeo, discende dai modelli italiani,
così come accade in campo artistico. A Roma, ad
esempio, l’antica Accademia di San Luca acquista
vitalità ed importanza grazie all’opera di grandi,
eruditi, antiquari, scrittori, artisti soprattutto; di
spicco, per la storia della conservazione e del restauro, l’opera di Giovan Pietro Bellori che scrisse
in difesa del pittore Carlo Maratti, cui si debbono
significativi – quanto discussi appunto già all’epoca – interventi sulle pitture murali di Annibale Carracci (Galleria Farnese), Michelangelo (Cappella Sistina), Raffaello (Stanze Vaticane: Disputa del Sacramento, Scuola di Atene; Loggia della Farnesina), per le quali ottenne provvedimenti di tutela
ed eseguì restauri improntati al principio di reversibilità ma giudicati, dai contemporanei e nel dibattito settecentesco, troppo invasivi. Per le più urgenti operazioni di fissaggio volle accanto a sé un tecnico di provata esperienza, prefigurando così la divisione di competenze che è alla
base dalla moderna operatività nel campo del restauro, che
chiamerà a sé, di necessità, lo scienziato.
Dalla rivalutazione del ruolo delle arti meccaniche che viene
sancito, a metà del Settecento, nelle pagine di quello straordinario monumento del sapere che è l’Encyclopédie di Diderot e D’Alembert discende anche, in Francia come in Italia,
una prima distinzione professionale fra artista e restauratore;
sarà comunque all’epoca della piena diffusione delle idee dei
lumi, nella seconda metà del Settecento, l’epoca in cui il fe-
nomeno “accademia” vide la massima espansione, che si
giungerà alla collaborazione non più occasionale fra restauratori e scienziati e ad un nuovo modo di avvicinarsi alle tecniche artistiche, attraverso la definizione fisica e chimica dei materiali. Il desiderio di studiare, analizzare la natura formale come quella materiale di un’opera d’arte per arrivare alla piena
conoscenza di questa era già degli enciclopedisti francesi; l’attenzione di Denis Diderot per le arti del disegno, della quale
sono frutto i commenti delle opere esposte alle mostre organizzate a Parigi tra gli anni 1759 – 1767, i celebri Salons, lo
condusse all’adozione di un linguaggio chiaro e conciso, analogo a quelle che utilizzava per redigere le voci dell’Encyclopédie, con accurate osservazioni tecniche.
È dunque in ragione dei presupposti di questo nuovo clima
culturale che, quasi allo scadere del Settecento, viene ufficialmente ospitato nel Palazzo del Louvre uno scienziato che tenta di sfruttare le nuove tecniche fornite dalla scienza per metterle al servizio di una migliore conservazione e anche di una
più approfondita conoscenza delle opere d’arte nelle collezioni reali: il fisico Jacques Alexander César Charles. Charles inventò nel 1780 il megascopio, uno strumento rudimentale
composto da una lente convergente che, se esposta ai raggi
del sole, proiettava su uno schermo o su un muro l’immagine
ingrandita di un oggetto o, nel nostro caso specifico, di un’opera d’arte. Una sorta di proiettore, quindi, capace di ingrandire un’immagine in modo tale da poterla studiare nei minimi
particolari. Da notare come l’ambizione di inventare una macchina o uno strumento per la “perfetta” imitazione della natura sia stata fin dall’epoca rinascimentale motivo di interesse
e studio - teorico, ma soprattutto pratico - da parte di scienziati ed artisti. Si ricordi, in sintesi, che fu degli anni subito
precedenti all’invenzione di Charles l’entusiasmo dei pittori
per le scoperte sull’ottica, testimoniato dall’utilizzo, ad esempio, da parte di Canaletto della celeberrima camera oscura (o
ottica), e del Crespi a Bologna, per non citare i moltissimi dipinti che attestano, in tutta Europa, tale concreto interesse
nella pratica artistica. Charles proseguì la tradizione di studi di
ottica e di fabbricazione di strumenti per la visione, esercitata
nel secolo precedente da Galilei e proseguita da Newton e
Huygens; in definitiva è a Charles ed alle sue ricerche condotte al Louvre che siamo indirettamente debitori dell’invenzione
della macrofotografia.
Ancora, la grande occasione offerta, a fine secolo, dalla campagna d’Egitto (1798-1801), permise ad alcuni eruditi ed archeologi francesi che vi parteciparono di collaborare per la
prima volta “sul campo” con esperti di scienze naturali, di fisica e di chimica. Da questa collaborazione, che per quei tempi costituiva una sorprendente novità, nacque l’opera pubblicata nel 1805 sui Comptes Rendues dell’Accademia delle
Scienze di Parigi dal chimico e accademico francese Jean
Chaptal: La chimie peut-elle servir aux arts?, nella quale lo
Frontespizio, dedica e tavole (n.4 immagini digitali) del Dizionario
delle arti e de’ mestieri di Francesco Griselini, stampato a Venezia
nella seconda metà del Settecento. F. Griselini, Dizionario delle Arti
e de’ Mestieri, Modesto Fenzo, Venezia 1768 e 1770, tomo I e VIII
(già collezione Domenico Levera). Bologna, Biblioteca dei Frati Minori
dell’Osservanza.
86
studioso esponeva i vantaggi che la scienza poteva offrire all’arte, a partire dalle rivoluzionarie scoperte del Lavoisier, che
aveva posto le basi della moderna chimica. Negli stessi anni in
cui Charles avviava le sue ricerche in Francia, al di là della Manica e in Germania alcuni scienziati si erano dedicati per la prima volta all’analisi chimica di importanti reperti archeologici:
le antichità cominciavano ad attrarre l’attenzione di grandi ingegni tra i quali l’Alchorn, che nel 1774 a Londra - su ordine
di re Giorgio III - analizzò chimicamente due spade dell’Età del
Bronzo provenienti dall’Irlanda; ancora, Martin Heinrich Klaproth, padre della chimica analitica, colpito dallo splendore e
dalla lucentezza dei bronzi classici, iniziò a studiarne la composizione chimica. Sul finire del XVIII secolo, Klaproth, a quell’epoca primo professore di chimica dell’Università di Berlino,
esaminò antichi reperti in bronzo - soprattutto monete - ricorrendo ai metodi della chimica analitica.
L’OTTOCENTO: LA RIVOLUZIONE INDUSTRIALE
L’APPLICAZIONE SISTEMATICA DELLE DISCIPLINE SCIENTIFICHE
ALL’INDAGINE DEI MANUFATTI DI INTERESSE ARCHEOLOGICO,
STORICO ED ARTISTICO. LA NASCITA DELLA FOTOGRAFIA
E LA DOCUMENTAZIONE DELLE OPERE D’ARTE
L’Inghilterra del XIX secolo fu testimone di una svolta nel rapporto fra la ricerca scientifica e l’indagine storico-artistica. Già
ad apertura di secolo - nel colto ambiente scientifico e letterario del paese - domina la figura dello scienziato, inventore,
nonché poeta dilettante Humphry Davy, che nel 1815 pubblicò un dettagliatissimo studio tecnico sulla natura e sulla manifattura dei colori antichi, sia naturali che sintetici. L’indagine
scientifica proseguì per tutto il secolo, sui manufatti archeologici ad esempio: Percy, Gowland ed altri importanti studiosi
analizzarono antichi materiali trovati durante gli scavi archeologici delle colonie romane poste sulla costa britannica (Silchester, Wroxeter, Caerwent).
Nel contempo, in Italia, Giovanni Fraboni pubblicò uno studio,
Il bronzo ed altre leghe conosciute in antico (1810), sulla
composizione dei metalli trovati nelle tombe etrusche. Tra
breve, sarà consacrata nei fatti la professionalità del restau-
87
ratore, come attestano gli eccellenti risultati ottenuti dal bolognese Giuseppe Guizzardi che, formatosi alla scuola di Gaetano Gandolfi, scelse di trascurare la pittura per il campo nuovo e lucroso del restauro. Il Guizzardi fu uno dei consulenti di
fiducia del conte Giovanni Secco Suardo, grazie al contributo
del quale l’attività del restauratore assunse nell’Ottocento caratteri autonomi. Il conte bergamasco rispose all’esigenza di
dotare quest’attività di una propria sistematicità di metodo,
sottolineando nei suoi scritti l’importanza della formazione di
tipo interdisciplinare per chi volesse applicarsi al restauro, nella consapevolezza dell’utilità di approfondimenti conoscitivi
oltre il campo delle pratiche artigianali, per l’acquisizione delle informazioni fisico-chimiche necessarie alla conoscenza del
comportamento dei materiali, sia costitutivi che di restauro,
per poterne attuare in ciascun caso la migliore conservazione
o applicazione.
In Francia, negli anni in cui il piemontese Giovanni Bedotti editava il suo De la restauration des tableaux (1837), vennero ultimate le ricerche che condussero all’invenzione della fotografia, strumento scientifico utilizzato sin da subito anche per studi storico-artistici. I primi tentativi importanti di fissare perennemente le immagini della camera oscura furono intrapresi da
Joseph Nicéphore Niepce verso il 1816. Lo studioso sperimentò l’uso di varie sostanze fotosensibili e nel 1822 riuscì a incidere un’immagine fotografica su una lastra di rame precedentemente ricoperta con un sottile strato di asfalto ed esposta
poi alla luce. L’intento di Niepce era quello di ottenere un mezzo riproduttivo delle opere d’arte più fedele e più economico
rispetto all’incisione. Niepce giunse solo a compiere i primi tentativi in questa direzione; fu poco dopo la sua morte che il suo
collaboratore Jacques Daguerre ideò la tecnica fotografica fondata sull’insolubilizzazione di alcuni composti chimici sottoposti ad una radiazione. I risultati furono sorprendentemente brillanti. Dopo un fallito tentativo di ottenere un sostegno commerciale, l’invenzione della fotografia fu infine spettacolarmente annunciata con trionfale successo a Parigi nel 1839. La
prima macchina fotografica fu chiamata dagherrotipo così come le prime immagini - dal nome di Daguerre - e il suo primo
impiego fu la riproduzione di opere d’arte su lastre metalliche.
ricerca nel campo delle telecomunicazioni
Immagini digitali di opere del fondo settecentesco
della Biblioteca del Convento dei Frati Minori
dell’Osservanza a Bologna, dal catalogo
multimediale realizzato nell’ambito del progetto
GIANO.
ricerca nel campo delle telecomunicazioni
Fotografie digitali ad alta risoluzione di
vetrate medioevali, studiate dall’Enea
nell’ambito delle attività di ricerca del
Progetto GIANO.
Nove anni prima, nel 1830, l’ancora rudimentale invenzione
di Niepce e di Daguerre era stata presentata all’Accademia
delle Scienze con una comunicazione del grande fisico JeanFrancois Arago, introdotta dalla lapidaria formula : Messieurs,
la photographie peut-elle oui ou non servir aux Arts? Da questo fervore di studi e sperimentazioni conseguì nel 1860 la
fondazione, patrocinata da Napoleone III, della prima sede
consacrata a studi di chimica e fisica applicata alle arti presso
l’Ecole des Beaux-Arts. Fu chiamato a dirigerla il biologo Louis
Pasteur, che divenne titolare della cattedra di Scienze e Arti. Il
celebre scienziato ebbe come primo compito quello di illustrare agli artisti il contributo della scienza per una migliore
comprensione dei fenomeni legati alla luce ed ai colori, e
quindi affrontare i problemi dell’invecchiamento e della conservazione della pittura ad olio. Pasteur consacrò molti anni
della sua vita allo studio delle opere d’arte mediante metodi
di indagine fisici e chimici; amico del professor Haro, a quel
tempo restauratore al Musée du Louvre, e grande appassionato egli stesso di pittura, trascorreva molte ore nel museo.
Per due anni, dal 1860 al 1862, all’Ecole des Beaux-Arts si applicò con i mezzi messigli a disposizione dalla fisica e dalla chimica a comprendere approfonditamente le tecniche dei maestri del passato.
In Germania, nel 1869, il chimico Von Bibra registrò tutte le
ricerche effettuate fino ad allora sulle opere in bronzo, vi aggiunse le proprie e tracciò un bilancio delle conoscenze. Vide
così la luce a Berlino il primo saggio di paleometallurgia.
IL NOVECENTO E OLTRE: LA TELEMATICA
DAL CINEMATOGRAFO AD INTERNET, LE MODERNE
TECNOLOGIE PER LA DIFFUSIONE DELLE CONOSCENZE.
DAL SUPPORTO MATERIALE A QUELLO IMMATERIALE
(INFORMATICO) PER LA DOCUMENTAZIONE DELLE OPERE D’ARTE.
LE ANALISI DIAGNOSTICHE NON DISTRUTTIVE
Nel 1895, Konrad Roentgen scoprì ad Augusta i raggi X. Per
verificare sperimentalmente questa sua scoperta, scelse di
realizzare la radiografia di un quadro, prima indagine non di-
Il Crocifisso di San Damiano ad Assisi:
riproduzione digitale di un dettaglio
dell’opera ed immagini digitali di esami
diagnostici (particolari dell’opera) con
radiazione infrarossa (IR) ed ultravioletta
(UV), riflessa e di fluorescenza (nella
pagina successiva).
struttiva per le opere d’arte. La fine del XIX secolo e l’inizio del
XX sono caratterizzate dall’attenzione in tutta Europa per i
metodi di analisi e di restauro di opere d’arte, che condussero anche alla creazione di laboratori scientifici per la conservazione e lo studio delle opere d’arte. Il primo istituito all’interno di un museo fu quello del Koenigliche Museum di Berlino, voluto da Friedrich Rathgen nel 1888. Le analisi chimiche, gli esami a raggi X, le indagini basate sull’utilizzo dei raggi ultravioletti e infrarossi cominciarono ad essere condotte
con regolarità all’interno dei laboratori di restauro dei musei.
La proprietà dei raggi X di attraversare in misura diversa i materiali costituenti l’opera, sia in funzione della loro natura chimica che del loro spessore, consente di ottenere un’immagine
per trasparenza dell’oggetto indagato e in particolare di ciò
che si trova al suo interno, impressionando quindi una pellicola di opportuna sensibilità in funzione della radio-opacità dei
materiali, cioè della loro capacità di assorbire le radiazioni. La
lettura e l’interpretazione dei segni di un’immagine radiografica costituiscono un’operazione piuttosto complessa che necessita di continui riferimenti con l’opera originale. La radiografia può essere paragonata ad una sovrapposizione di immagini, le cui trasparenza, traslucidità e opacità variano a seconda della densità e lo spessore dei materiali radiografati. In
radiografia, l’originale è sempre in scala uno a uno; per dipinti di grandi dimensioni si ricorre il più delle volte ad opportuni
montaggi di più radiografie, convenzionalmente denominati
mosaici radiografici. I colori a base di piombo sono quelli più
radio-opachi (la biacca ad esempio); le terre, l’oltremare e i pigmenti organici, invece, lo sono poco e non compaiono nei radiogrammi. I tessuti non sono radio-opachi; la tela si vede in
radiografia solamente per il gesso o la biacca che ne riempiono la tessitura. I disegni preparatori non sono evidenziati dalla
radiografia, che può dare invece buoni risultati con i tratti incisi e riempiti da pigmenti o materiali dell’imprimitura. In Francia, dove nel 1931 fu creato il laboratorio scientifico del Louvre,
le prime radiografie di opere d’arte vennero effettuate durante
la Prima Guerra Mondiale da Ledaux Lebart, un medico appassionato di pittura. Nel 1920 Cheron, un altro medico, realizzò,
in presenza dei conservatori del museo, la prima radiografia di
un dipinto delle collezioni. È in questi stessi anni che i raggi ultravioletti e quelli infrarossi vengono utilizzati per la prima volta nei laboratori di restauro.
Ministero dei Beni Culturali, Enti locali e operatori del settore
sia pubblici sia privati. Un esempio di rilievo è rappresentato
dal progetto internazionale di ricerca GIANO, coordinato dall’ENEA di Bologna.
METODOLOGIE INFORMATICHE PER I BENI CULTURALI
STRUMENTI INFORMATICI PER LA CATALOGAZIONE
Le applicazioni informatiche e telematiche innovative ai beni
culturali rappresentano un campo del tutto nuovo, dove solo
da pochissimi anni ci si è cominciati a muovere a livello internazionale: il nostro Paese, privilegiato dal poter disporre della
più significativa quota del patrimonio storico ed artistico mondiale, può divenire riferimento d’avanguardia. In questo senso, un progetto di ricerca nazionale volto alla realizzazione di
una rete scientifica informatica per i beni culturali svolge un
ruolo di importanza non solo nell’introduzione di tecnologie
innovative, ma anche nella definizione dei relativi standard in
difesa di imprescindibili principi-guida, garantendo un indiscutibile vantaggio alle aziende italiane del settore.
Si sottolinea il significato della realizzazione in atto di strutture e lo sviluppo di metodologie matematiche ed informatiche
in ragione di:
• applicazioni alla diagnostica e alla datazione di opere d’arte
e manufatti storici e artistici;
• archiviazione multimediale;
• sperimentazione di metodologie innovative nel campo dell’elaborazione di immagini;
• definizione di standard in collaborazione con le industrie del
settore;
• formazione professionale e didattica, nel settore della conservazione e tutela dei beni culturali.
Questi obiettivi possono essere conseguiti solo grazie alla collaborazione fra Enti nazionali di ricerca, Università e Istituti del
E LA DOCUMENTAZIONE. IL PROGETTO GIANO
Il progetto GIANO (Grafica Innovativa per il patrimonio Artistico Nazionale e per l’Occupazione giovanile) si propone di
realizzare un sistema informatico prototipale, accessibile in rete, per l’archiviazione multimediale ed ipertestuale di opere
d’arte (dipinti, disegni, stampe, sculture, epigrafi, mosaici, testi manoscritti e a stampa, ecc.) e di interventi di restauro
(comprensivi delle immagini diagnostiche e delle varie fasi dell’intervento stesso), mediante l’utilizzo di tecniche matematiche ed informatiche innovative, nonché di metodologie di elaborazione di immagini e di simulazioni di realtà virtuale.
Le metodologie informatiche e grafiche innovative (dalla
computer graphics alle simulazioni di realtà virtuale) cui si intende fare ricorso, insieme alle tecniche di realizzazione e gestione di data base multimediali con strutture ad ipertesto, e
le applicazioni telematiche su WEB, rappresentano lo stato
dell’arte per le odierne tecnologie informatiche; il loro utilizzo in un campo strategico per il nostro Paese, quale quello
dei beni culturali, rappresenta una opportunità e una sfida
imprescindibile.
GIANO ha come principali obiettivi la progettazione, realizzazione e validazione di software applicativo (grafica innovativa,
simulazioni di realtà virtuale, banche dati relazionali) per l’archiviazione e la documentazione dei beni culturali di particolare rilevanza storica e artistica con metodologie ipertestuali e
multimediali. Nell’ambito del progetto sono state individuate
– a scopo dimostrativo - tre applicazioni principali, ciascuna
delle quali ha caratteristiche tipiche di una vasta classe di beni culturali:
• biblioteche ed archivi storici, in particolare nelle Regioni Calabria e Sicilia, di significato per la presenza di documenti
inediti relativi alla presenza di Bisanzio in Italia Meridionale
ed Insulare;
• imaging diagnostico e relazioni di restauro - incluse documentazioni scritte e fotografiche - relative a beni storici ed
artistici dislocati principalmente nel Meridione;
• mosaici parietali dell’area mediterranea dal IV al XIV secolo.
Il progetto internazionale GIANO è finanziato dall’Unione Europea e dal Ministero dell’Università e della Ricerca Scientifica e Tecnologica (ora MIUR); è coordinato dalla Divisione Fisica dell’ENEA di Bologna, con la partecipazione di numerosi
Particolare del Crocifisso di San Damiano
con sovrapposta un’immagine radiografica
digitale.
v. pagina precedente.
ricerca nel campo delle telecomunicazioni
Attualmente queste tecniche di indagine, associate all’uso del
computer, consentono l’acquisizione in tempo reale di immagini
utili alla diagnostica, in formato digitale, permettendo la visualizzazione delle informazioni durante l’esame dell’opera stessa.
ricerca nel campo delle telecomunicazioni
Alcuni esempi della parte testuale con i
collegamenti alle immagini della base di dati
del fondo settecentesco della Biblioteca dei
Frati Minori Osservanti.
istituti universitari, enti di ricerca ed imprese industriali in Italia, fra cui:
• Facoltà di Conservazione dei Beni Culturali dell’Università di
Bologna (sede di Ravenna)
• Dipartimento di Fisica dell’Università di Ferrara
• Dipartimento di Fisica dell’Università di Messina
• Dipartimento Patrimonio Architettonico e Urbanistico della
Facoltà di Architettura dell’Università di Reggio Calabria
• Istituto di Tecniche Spettroscopiche del CNR (ITS) di Messina
• Consorzio Ferrara Ricerche
• Franco Maria Ricci Editore, Parma - Milano
• Società di restauro COO.BE.C. e TECNIRECO di Spoleto
Collaborano al progetto GIANO:
per l’ENEA
Giuseppe Maino (responsabile del progetto; coordinatore)
Massimo Berico, Stefania Bruni, Roberta Chiarini, Francesco
Cichetti, Stefano Cini, Riccardo D’Orazi, Stefano Ferriani,
Marcello Galli, Roberto Giampieri, Lorenzo Moretti, Alfio Musumeci, Carlo Petrella, Carlo Maria Porceddu Cilione, Elio Sabia, Daniele Visparelli, Alberto Zucchini
per la Facoltà di Conservazione dei Beni Culturali
dell’Università di Bologna
Donatella Biagi Maino (coordinatore)
Silvia Berardi, Luca Ciancabilla, Luigi Colaiacomo, Ilaria Francia, Giulia Gandolfi, Roberta Gollini, Emanuela Grimaldi, Silvia
Guidi, Elena Manservigi, Simona Mazzotti, Barbara Menghi
Sartorio, Marta Mineo, Giuseppina Radicchi, Lorenza Roversi, Manuela Savioli
Laboratorio SIGMA per la ricerca sui manufatti
storici ed artistici nella sede ENEA di Bologna –
Progetto GIANO
∑ = Sistema Integrato di Grafica, Microscopia ed Analisi;
Gs (GAMMAS) Grafica Avanzata Modellistica, Matematica
Applicata e Simulazione numerica;
D (DELTA) Datazioni ed Elaborazioni informatiche per Lavorazioni e Tecnologie Antiche;
L (LAMBDA) Laboratorio per le Applicazioni della Microscopia
alle Biotecnologie e alla Diagnostica Artistica.
Le principali
collaborazioni
internazionali del
progetto GIANO.
Una banca dati rappresenta sostanzialmente un modo efficiente di organizzare dati strutturati sulla memoria di massa
di un elaboratore elettronico e di sfruttare quindi le potenzialità di questo strumento per effettuare operazioni di indicizzazione, ricerca e recupero di informazioni, aggiornamento dei dati bibliografici, trasferimento delle informazioni su
propri files, modificabili ad esempio grazie ad opportuni programmi applicativi di elaborazione di testi. È stato sviluppato
un sistema informatico per la creazione e gestione di una
banca dati bibliografica, riferita alla catalogazione del libro
antico. Questo software è stato sperimentato su una particolare, significativa applicazione rappresentata dal fondo settecentesco della biblioteca dei Minori Osservanti di Bologna.
Si è scelto il sistema operativo WINDOWS, poiché disponibile su qualsiasi personal computer e quindi tale da consentire
l’elaborazione dei dati anche locale. Il programma prevede la
possibilità di continui aggiornamenti in maniera estremamente semplice, mediante la compilazione di schede preformate (workforms). È anche possibile aggiungere nuove voci
a quelle originariamente previste che, nella versione attuale
mostrata in figura, rappresentano un conveniente sottoinsieme di quello definito dalla normativa Isbd(a). Il programma si
articola in campi e sottocampi, anche ripetibili e, a differenza di altri software per la creazione di database disponibili in
commercio, dà la possibilità di stabilire un legame (link) con
siti web sia locali sia in rete, oltre che con archivi fotografici,
bibliografici e diagnostici.
DIAGNOSTICA NON DISTRUTTIVA PER LE OPERE D’ARTE:
ALCUNI RISULTATI DEL PROGETTO GIANO
Indispensabile complemento della ripresa fotografica nel visibile alla conoscenza di opere d’arte, utile anche alla conservazione, è l’acquisizione di immagini nelle bande dell’infrarosso e dell’ultravioletto, che consentono di ricavare informazioni sugli strati nascosti del dipinto senza comportare prelievi di campioni della materia pittorica. Fra i mezzi di indagine
non-distruttiva di superficie più comunemente usati si hanno
la lampada di Wood e la fotografia all’ultravioletto che ne deriva. La fluorescenza ultravioletta permette di evidenziare co-
90
me macchie scure le ridipinture. Molti dei materiali pittorici,
antichi e moderni, hanno la proprietà di essere fluorescenti,
cioè emettono luce visibile, quando sono stimolati da radiazione ultravioletta. La fluorescenza inoltre cambia, di solito
aumenta, con l’invecchiamento; di conseguenza, sostanze simili anche dal punto di vista fisico-chimico ma utilizzate in
tempi successivi possono presentare sotto la luce di Wood intensità e tonalità di fluorescenze molto diverse, consentendone una migliore individuazione e, in alcuni casi, l’identificazione, in fase preventiva al restauro. I raggi infrarossi cominciarono ad essere usati nel campo del restauro solamente a
partire dal 1930, con lo scopo di evidenziare, grazie alla loro
capacità di penetrare attraverso la pellicola pittorica, eventuali disegni preparatori sottostanti alla pittura. Negli anni ‘60 fu
sperimentata la tecnica della riflettografia, che individua appunto, ed in maniera molto chiara, eventuali disegni sottostanti la pittura. Queste tecniche, sia pure imperfette, sono da
considerare indispensabili per la documentazione dello stato
di conservazione dell’opera d’arte presa in esame preventivamente ad ogni intervento di restauro e quindi degli interventi
cui è sottoposta durante le varie fasi d’intervento. Con la tecnologia informatica è finalmente possibile sopperire ai difetti
inevitabili all’attrezzatura, ottenendo la documentazione di
immagini il più fedele possibile all’originale: soprattutto, confrontabile in tempo reale con esso.
Le indagini sulla tavola di Giorgio Vasari Gesù in casa di Marta, insieme con quelle effettuate sul Crocifisso di San Damiano, sono state eseguite con una speciale apparecchiatura portatile tipo MuSIS 2007, corredata di un sistema di imaging diagnostico non invasivo, che opera in tempo reale sulle bande
del visibile, del vicino infrarosso e dell’ultravioletto, riflesso e di
fluorescenza, consentendo di verificare direttamente sullo
schermo del computer collegato la qualità delle riprese e valutare i risultati dell’indagine mentre viene effettuata. Un’ottica
molto sofisticata, combinata all’uso di efficienti sensori e ad algoritmi di elaborazione delle immagini digitali che ne migliorano la qualità e la leggibilità, permette di effettuare le misure
con sorgenti luminose fredde e di bassa intensità, non danneggiando minimamente l’opera. L’intera superficie di questa
in ciascuna banda spettrale può quindi essere ricostruita attra-
Ricostruzione
‘a mosaico’ delle
riprese digitali in luce
visibile sulla tavola
del Vasari.
91
verso una procedura informatica di ricomposizione a mosaico
delle singole riprese, garantendo immagini globali finali di eccellente qualità ed elevatissima risoluzione e precisione. Dettagli difficilmente visibili, anche con lenti di ingrandimento, in luce visibile, appaiono evidenti dopo l’elaborazione digitale, consentendo di ottenere informazioni sulla tecnica esecutiva e sullo stato di conservazione del dipinto.
La tavola del Vasari, in fase di restauro a cura del laboratorio
Marco Sarti di Bologna, si presentava in buone condizioni in
ciò che attiene il supporto ligneo. Sullo strato pittorico, invece, erano presenti delle microfratture e delle piccole cadute di
colore; di particolare rilievo era l’ossidazione degli incarnati
delle figure, dovuta probabilmente a cause intrinseche al dipinto stesso, e la presenza di tracce di ritocchi nelle zone che
avevano subito cadute di colore. Si è scelto di procedere anche al prelievo dalla tavola di alcuni campioni che, dopo essere stati preparati adottando le procedure di preparazione definite presso i laboratori della National Gallery di Londra, nell’ambito della collaborazione esistente con i laboratori dell’ENEA di Bologna, sono stati destinati a due tipi di indagini:
• analisi qualitative (microscopia ottica): stabilire quale sia la
struttura stratigrafica del dipinto;
• analisi chimiche semiquantitative (microanalisi chimiche col
microscopio elettronico a scansione, SEM): determinare quale sia la composizione specifica dei materiali usati dal pittore.
L’immagine ingrandita ottenuta con il SEM può essere registrata fotograficamente in maniera digitale, consentendo successive elaborazioni. Le analisi qualitative, microanalitiche e
mediante test istochimico-colorimetrico, condotte su di un
frammento prelevato dalla tavola del Vasari hanno evidenziato sia il fatto che nella preparazione il Vasari abbia usato colla di coniglio, sia la presenza di tre distinti strati di gesso sovrapposti all’interno della preparazione pittorica stessa. Secondo la metodica standardizzata presso i laboratori scientifi-
Alcuni dettagli della tavola in luce visibile e, a confronto,
nella banda IR, che evidenziano differenze rispetto alla
stesura finale.
ricerca nel campo delle telecomunicazioni
Sezioni stratigrafiche al microscopio ottico
ed elettronico di campioni prelevati dalla
tavola del Vasari.
ricerca nel campo delle telecomunicazioni
ci dell’ENEA di Bologna e Faenza, le stesse sezioni che erano
state precedentemente osservate al microscopio ottico sono
state analizzate al SEM, ottenendo risultati che illustrano l’analisi elementale del vermiglione; appare evidente la composizione di solfuro di mercurio (HgS), che consente anche una
determinazione semi-quantitativa delle sostanze presenti, e
quindi una possibile caratterizzazione di provenienza dei pigmenti. In ultimo, tramite la strumentazione digitale tipo MUSIS 2007, è stato eseguito un rilevamento completo dell’opera, tale da garantire una documentazione inalterabile e permanente dello stato della tavola alla data di conclusione dell’intervento di restauro. Tale operazione consentirà, in futuro,
un monitoraggio efficace e preciso, il più oggettivo possibile,
dello stato di conservazione dell’opera. I risultati ottenuti dall’elaborazione delle immagini digitali, soprattutto nelle tre
bande del vicino infrarosso, hanno permesso di evidenziare il
disegno preparatorio sottostante il dipinto e, in alcuni casi,
pentimenti e modifiche effettuate dal Vasari.
ACQUISIZIONE ED ELABORAZIONE DI IMMAGINI DIGITALI.
IL RESTAURO VIRTUALE
METODI DI ELABORAZIONE DI IMMAGINI PER L’ANALISI
DI INTERVENTI DI RESTAURO SU DIPINTI
Oggetto dei primi studi sperimentali svolti nell’ambito del progetto GIANO in collaborazione con i laboratori scientifici della National Gallery di Londra è stata la piccola tavola con la
Vergine e il Bambino di Jan Gossaert, grande artista fiammin-
go del Cinquecento. Fino al 1996 si riteneva che questo dipinto, acquisito dalle raccolte inglesi nel gennaio del 1860,
fosse una copia, risalente forse all'inizio del XVII secolo, di una
tavola, andata perduta, del Gossaert, nota attraverso stampe.
In particolare, due varianti sostanziali nella resa della mano
del Bambino e del velo della Vergine lo distinguevano da altre
versioni note e soprattutto dall’incisione del 1589 di Crispijn
de Passe il Vecchio, così da rendere impossibile l'identificazione con l’originale del Gossaert. In fase di restauro, presso i laboratori della National Gallery, è stato invece possibile riconoscere la tavoletta quale prototipo delle successive versioni del
tema gossaertiano. Dalle indagini radiografiche condotte sul
dipinto si è evinta la perfetta corrispondenza con l'incisione
del 1589, mascherata da interventi successivi alla stesura dell’opera che ne avevano in parte mutato l’assetto. Anche l'analisi dendrocronologica del supporto ligneo ha confermato
la datazione anticipata proposta per via stilistica.
Gli studi sperimentali, compiuti nell’ambito di GIANO presso i
laboratori scientifici della galleria inglese, hanno avuto come
scopo di rendere visibili distintamente in un'unica immagine
in digitale, grazie al confronto delle immagini digitali prima e
dopo la pulitura del dipinto, le ridipinture ottocentesche e la
versione originale del dipinto fiammingo. Il laboratorio VASARI della National Gallery - dedicato all’elaborazione delle immagini - conserva in archivio informatico le immagini digitali
delle opere ospitate nel museo, documentazione dello stato
prima, durante e dopo interventi di restauro. La disponibilità
delle immagini digitali ha permesso di sviluppare un metodo
matematico per evidenziare le differenze prima e dopo la pulitura del dipinto. È stato quindi predisposto con i colleghi della National Gallery un software, opportunamente adattato
presso il laboratorio GAMMAS del Centro ENEA di Bologna,
per l'elaborazione delle immagini, a partire dalla libreria VIPS
(Vasari Image Processing Software), sviluppata dai ricercatori
inglesi a partire dall'inizio degli anni ‘90. Le immagini riprese
prima e dopo la pulitura sono state sovrapposte osservando
una evidente differenza di tipo cromatico: il restauro ha rimosso la patina di vernice ingiallita, restituendo ai colori brillantezza e luminosità. Poiché questa differenza macroscopica
rende impossibile confrontare le due immagini, per rilevarne
le variazioni morfologiche dovute ai rimaneggiamenti, è stato
necessario elaborarle con opportuni algoritmi matematici. È
stato così possibile distinguere due tipi di differenze:
• “positive” (di colore celeste): mettono in rilievo le parti del
dipinto assenti nella versione antecedente al restauro e riportate alla luce dalla pulitura;
• “negative” (di colore giallo): mostrano i rifacimenti arbitrariamente introdotti dal restauro ottocentesco.
Questo metodo ha confermato in maniera quantitativa, le
analisi condotte in precedenza. La procedura matematica così definita costituisce un primo passo per la messa a punto di
una più sofisticata metodologia di confronto, che può rappresentare un valido strumento diagnostico per la verifica,
dunque la più obiettiva, degli interventi di restauro.
La tavola di Jan Gossaert (National Gallery di
Londra) durante la pulitura, con evidenziate
le zone di interesse in falsi colori.
92
Restauro virtuale
di uno dei ritratti
ad acquerello
della Pinacotheca
Bassiana.
Nella seconda metà del Settecento, il custode dell’Orto Botanico di Bologna, Ferdinando Bassi, fece eseguire, dai pittori
dell’Accademia Clementina dell’Istituto delle Scienze, una serie di ritratti a tema, scelta raccolta che ancor oggi si impone
per eccezionalità nel novero pur ricco delle iconoteche settecentesche. Il botanico volle celebrare la disciplina da lui tanto
amata creando un percorso ideale dei progressi di questa attraverso la memoria delle effigi di quanti, prima di lui e al suo
tempo, di essa scrissero, e creò una collezione che da lui prese il nome di Pinacotheca Bassiana, che per cronologia si colloca nel settimo decennio del secolo. Gli acquerelli, sebbene
molto apprezzati nel Settecento, furono obliati col mutare del
gusto nell’Ottocento e recuperati agli studi in tempi recentissimi ad opera di Donatella Biagi Maino, nel corso di ricerche
relative all’estetica perseguita nell’ambito dell’Istituto delle
Scienze e sui pittori Gandolfi, tra gli autori dei ritratti, con
conseguente giusta collocazione nel processo di riqualificazione della cultura artistica accademica del secolo dei lumi. Da
segnalare, che le opere sono di proprietà dell’Università degli
Studi di Bologna.
La campagna di acquisizione delle immagini ha avuto un duplice scopo: la realizzazione di una versione digitale ad alta risoluzione dell’intera collezione (75 CD-rom), che concede di
disporre di un archivio permanente, di facile consultazione,
che restituisce lo stato delle opere al giugno 1999, utile quindi alla verifica della conservazione delle stesse nel tempo, e la
Dettagli dell’analisi informatica condotta
sulla tavola del Gossaert alla National
Gallery di Londra.
93
elaborazione delle immagini digitali acquisite, al fine di sperimentare un restauro virtuale dei disegni stessi, utile al riconoscimento di uno stato presumibilmente vicino al primitivo. A
differenza del restauro manuale, che agisce direttamente sull’opera d’arte, il restauro virtuale è connesso alla manipolazione dell’immagine digitale dell’opera avendo come fine ultimo la conservazione materiale di tutte le parti fisiche costituenti l’opera d’arte quindi che viene affiancata in digitale, secondo un’interpretazione attualizzata delle proposte di
G.B.Cavalcaselle, da una copia che restituisce al pubblico l’assetto ottimale.
Gli interventi di restauro virtuale condotti sulle immagini dei
botanici possono essere classificati in due categorie principali:
• interventi globali: riguardano gli aspetti colorimetrici delle
immagini, ovvero le correzioni che si applicano all’intera immagine al fine di diminuire l’ingiallimento delle carte;
• interventi puntuali: riferiti a zone circoscritte delle singole
immagini, hanno lo scopo di eliminare le imperfezioni locali, quali ad esempio macchie, piccole lacune ecc.
Le due diverse tipologie di intervento, locale e globale, sono
compendiate nell’illustrazione, in cui le diverse operazioni di
elaborazione di immagine concorrono a ripristinarne, nei limiti del possibile consentito dalle conoscenze sullo stato del degrado della materia cartacea e del pigmento, e soprattutto
dal raffronto stilistico con opere coerenti e dall’analisi filologica, il presumibile aspetto in antico e, in ogni caso, una migliore leggibilità dell’opera stessa.
ricerca nel campo delle telecomunicazioni
“PINACOTHECA BASSIANA” DELL’UNIVERSITÀ DI BOLOGNA
O. Andrisano
le ricerche presso il centro di studio
per l’informatica e i sistemi di telecomunicazioni del cnr
LE TELECOMUNICAZIONI MULTIMEDIALI E LA RICERCA
SCIENTIFICA SUI SISTEMI WIRELESS
Le telecomunicazioni
multimediali e la
ricerca scientifica sui
sistemi radio dalle
reti radiomobili
terrestri alle missioni
spaziali.
(in basso)
L’evoluzione dei
sistemi radiomobili
cellulari.
Gli anni recenti sono stati caratterizzati da un vertiginoso sviluppo delle Telecomunicazioni che, attraverso l’evoluzione dei
sistemi e la loro integrazione, mettono a disposizione dell’utente servizi sempre più sofisticati, secondo una tendenza che
pone l’enfasi sull’aspetto del put technology to work.
Va sottolineata, a questo riguardo, la convergenza che si sta
delineando tra il mondo delle comunicazioni mobili e internet, secondo la quale l’utente mobile, supportato da una tecnologia sempre più efficiente e veloce, potrà usufruire di servizi multimediali avanzati, indipendentemente dalla propria
posizione su aree sempre più estese.
Con il termine “telecomunicazioni multimediali” ci si riferisce
al processo di generazione, elaborazione e trasferimento di
immagini fisse e in movimento, di suoni, di grafica e di dati in
generale, processo che si pone l’obiettivo primario di un’efficiente interattività delle comunicazioni tra le sorgenti di informazione e i destinatari.
Il settore delle telecomunicazioni multimediali, attraverso lo
sviluppo delle tecnologie, siano esse fotoniche o wireless (terrestri e satellitari), tenderà a moltiplicare i servizi per quanto
attiene a svariati campi di attività, dalle applicazioni commerciali e di assistenza al cittadino, all’intrattenimento, al telelavoro, alla teledidattica, alla telemedicina, al trasporto intelligente, basato cioè su sistemi di gestione e comunicazione
multimediali, ed altro.
I sistemi multimediali interattivi pongono l’utente, fisso o mobile, in condizioni di gestire a distanza il proprio rapporto con
un fornitore di servizi o prodotti, consentono di svolgere il
proprio lavoro da casa o in viaggio, permettono allo studente
di beneficiare a distanza dell’azione didattica di un docente
nel modo più completo o di accedere ad un banco di misura
per la verifica delle prestazioni di sistemi e circuiti da programmare opportunamente. Tutto ciò con un livello crescente di rapidità e di efficienza.
Come già accennato, un’enfasi particolare va attribuita ai sistemi radiomobili in tutti i paesi europei, nell’evoluzione verso i sistemi di terza generazione, che potranno offrire applicazioni di velocità e qualità diversificata, secondo gli standard
che si stanno affermando a livello internazionale: UMTS (Universal Mobile Telecommunication System), e più in generale
IMT 2000 (International Mobile Telecommunications).
Particolare attenzione merita poi un settore, quello del trasporto intelligente (ITS), ancora in fase emergente nelle applicazioni, anche a fronte di un’intensa attività di ricerca sviluppata a livello internazionale sin dalla fine degli anni ’80. I servizi ITS basati sulle Telecomunicazioni trarranno sicuramente
grande beneficio dalla realizzazione dei sistemi radiomobili di
terza generazione, con riferimento a varie classi di servizio,
quali, ad esempio: pagamento del pedaggio automatico, supporto alla guida (consistono nel fornire al guidatore informa-
Temi di ricerca affrontati presso CSITE-CNR, Research field at CSITE-CNR
• Gestione dell’utilizzo delle risorse
radio, Radio resource Management
• Protocolli di Accesso multiplo,
Multiple Access Protocols
• Caratterizzazione degli effetti non
lineari, Nonlinear effects
characterization
• Handover
• Trasmissione digitale, Digital
Transmission
• Controllo di potenza, Power Control
• Stima del canale di trasmissione
94
Attività di ricerca
sviluppata presso
CSITE e CNIT in
collaborazione
con diversi Enti
e Industrie.
Progetto 5% multimedialità MURST-CNR:
convergenza fra reti mobili e internet.
zioni meteo, legate al traffico, ecc.), controllo del traffico (mirano a minimizzare i problemi dovuti alla congestione del traffico), sicurezza alla guida (devono fornire al guidatore informazioni in tempo reale su possibili situazioni di emergenza,
dovute a nebbia, incidenti, ed altro).
Il percorso organizzato a suo tempo nella Mostra sulle comunicazioni radio multimediali (wireless multimedia communications), offriva una visione sintetica, e non certamente completa, delle ricerche che si stanno svolgendo presso l’Università di Bologna (Centro di studio per l’Informatica e i Sistemi di
Telecomunicazioni, del Consiglio Nazionale delle Ricerche,
CSITE-CNR, ed Unità di Ricerca del Consorzio Nazionale Interuniversitario per le Telecomunicazioni, CNIT) anche in collaborazione con aziende ed altri enti del settore. Nei limiti del
possibile si è cercato anche di fornire una visione didattica del
mondo delle Telecomunicazioni, facendo intravvedere anche
al visitatore inesperto, cosa ci sia “dietro al terminale”.
Si è voluto dunque fornire un’idea delle potenzialità delle telecomunicazioni attraverso le seguenti applicazioni:
• Sistemi di telecomunicazioni per il trasporto intelligente (ITS)
• Sistemi di telemisura
• Reti wireless multimediali
• Sistemi di trasmissioni digitali ad alta velocità
• Sistemi radiomobili di terza generazione (UMTS)
• Rete di laboratori
• Sistemi via satellite
• Sistemi GPRS
• Antenne intelligenti
• Teledidattica
• Sistemi informativi multimediali
Lo scenario descrive le ricerche che sono in corso di svolgimento, con risultati pubblicati a livello internazionale, molte
delle quali sono condotte nell’ambito del progetto 5% Multi-
Telemisure di sistemi di
telecomunicazioni.
Laboratorio Nazionale di comunicazioni
multimediali: laboratorio di telemisura.
Progetto 5% multimedialità MURST-CNR:
GPRS (General Packet Radio Service). Sistema di trasmissione dati
e commutazione di pacchetto su rete cellulare GSM.
❮❮ (v. pag. precedente)
Progetto 5% multimedialità MURST-CNR: sistemi radiomobili
multimediali nell’evoluzione verso UMTS.
95
ricerca nel campo delle telecomunicazioni
Progetto pluriennale
finanziato dall’Ateneo
di Bologna: Reti radio
multimediali.
NODO GPRS
Field Trial
WAP LAB
Siemens
GPRS – General Packet Radio Service
Oggi testiamo il futuro – Aprile 2000: Trial
Project a Roma • Sistema completo: parte
radio + rete a pacchetto • Laboratorio WAP
dedicato • Copertura radio di un edificio e
di un centro espositivo • Prove di laboratorio • Prove in campo con utenza amica.
Terminal
GPRS
Server WAP
Radio Base
ROMA
Siemens Information and
Communication Networks S.p.A.
Stazione Base B
Base Station B
Stazione Base A
Base Station A
Utente B
User B
Antenne Adattative –
La funzione di direttività
dell’antenna si adatta
automaticamente alla
posizione geografica
dei mobili attivi.
Tale funzione è
massimizzata nella
direzione dell’utente
servito (linee rosse)
e minimizzata nelle
direzioni degli utenti
interferenti (linee blu),
che utilizzano le stesse
risorse in aree
adiacenti.
Stazione Base C
Base Station C
Utente C
User C
Utente A
User A
Siemens Information and
Communication Networks S.p.A.
96
Laboratorio Nazionale di
comunicazioni
multimediali: LABNET,
rete di laboratori per
telemisura del CNIT.
Missioni
scientifiche
dell’Agenzia
Spaziale Italiana
(ASI): Progetto
David.
Ricerca basata
sul contenuto
nelle basi di dati
multimediali.
97
ricerca nel campo delle telecomunicazioni
medialità, finanziato da MURST e CNR, e del progetto pluriennale finanziato dall’Ateneo di Bologna nel settore delle reti radio multimediali. Per un maggior approfondimento si rinvia al sito CSITE, ai seguenti indirizzi: http://wwwcsite.deis.unibo.it, http://www-csite.deis.unibo.it/ht5pc/.
La presentazione è infine completata dai contributi proposti
da Agilent Technologies, Agenzia Spaziale Italiana, ComSat,
Eutelsat, Laboratorio di Comunicazioni Multimediali del CNIT
(Napoli), Siemens ICN, Sinform.
Le telecomunicazioni multimediali costituiscono, in conclusione, una delle aree di rilevante interesse, sia scientifico, sia industriale nello scenario attuale della ricerca del settore. È
quindi auspicabile un maggior impegno del Governo nel finanziamento della ricerca nelle aree strategiche dei sistemi di
telecomunicazioni a larga banda, fissi e mobili, per l’incremento della conoscenza, quindi della tecnologia e dei servizi
disponibili, e per un indubbio impulso allo sviluppo e all’economia del Paese.
R. Ambrosini
S. Montebugnoli
M. Nanni
il radiotelescopio di medicina
RADIOASTRONOMIA
Immagine radio
ottenuta con il
Very Large Array.
Emissione radio
della Galassia
ellittica NGC 326.
L'astronomia tradizionale è essenzialmente la storia delle stelle in quanto esse producono quasi tutta la luce visibile che ci
raggiunge dallo spazio. La radioastronomia ci dà una prospettiva radicalmente diversa. Le stelle normali praticamente
non producono onde radio; il cielo radio invece è dominato
dall'emissione della nostra Galassia ed è punteggiato da nubi
brillanti: le radiosorgenti. Alcune delle più grandi e brillanti
sono nebulose galattiche, ma la maggioranza si trova molto
più lontano della nostra Galassia. Queste radiosorgenti extragalattiche sono associate a galassie distanti e a quasar.
La radioastronomia studia l'universo alle lunghezze d'onda radio, nella banda dello spettro elettromagnetico che va dalla
decina di metri ai millimetri di lunghezza d'onda. Il primo strumento che ha rivelato onde radio provenienti dalla nostra Galassia fu costruito da Karl Jansky intorno al 1930. Le prime osservazioni radioastronomiche si proponevano di disegnare una mappa del
cielo radio e i radioastronomi hanno
classificato le radiosorgenti assegnando
ad ognuna di esse nome, posizione ed
intensità di emissione nella banda radio. I cataloghi prodotti contengono
decine di migliaia di oggetti.
La costruzione di radiotelescopi sempre
più sensibili ha permesso di scoprire e
studiare in dettaglio la struttura di un
gran numero di radiosorgenti. Le radiosorgenti più numerose nello spazio sono sorgenti come la nostra Galassia,
nelle quali le onde radio provengono
dalle braccia a spirale e da altre regioni contenenti stelle giovani e massicce. Le onde radio sono prodotte nel gas interstellare quando è violentemente perturbato dalle esplosioni di
supernova. La figura in alto a sinistra mostra l'immagine radio
ottenuta con il “Very Large Array” della galassia M81, lontana circa 11 milioni di anni luce dalla Terra. L'immagine mostra
l'intensità dell'emissione di idrogeno neutro; il rosso indica l'emissione radio più forte e il blu quella più debole. Il 99% delle radiosorgenti più potenti del cielo è costituito dalle "radiosorgenti classiche". Qui l'emissione è dovuta a elettroni relativistici intrappolati in campi magnetici. Queste radiosorgenti
sono costituite da una componente compatta chiamata nucleo e coincidente con la galassia o quasar e da due getti che
vanno ad alimentare due regioni molto lontane situate ben
fuori della galassia visibile otticamente. L'energia che alimenta l’intera radiosorgente viene prodotta nel nucleo, in una regione di dimensione di qualche anno luce e viene trasportata
attraverso i getti a distanze di centinaia di migliaia di anni luce. La figura qui a sinistra mostra la radiosorgente associata
Radiotelescopio Croce del Nord. Vista sul
ramo est-ovest e parte del ramo nord-sud.
Grafico sottostante:
Spettro elettromagnetico: a sin. sono
indicate le radiazioni a bassa frequenza
(onde radio), procedendo verso dx,
all’aumento della frequenza, si hanno le
radiazioni infrarosse, visibili, ultraviolette,
X e Gamma (γ).
alla galassia ellittica NGC326. Per saperne di più:
http://www.ira.bo.cnr.it
Il radiotelescopio è lo strumento usato dai radioastronomi per
ricevere la debolissima emissione di onde radio da parte di
sorgenti celesti. La ricezione è resa possibile per via dell’uso di
grandi antenne, di ricevitori particolarmente sensibili ma soprattutto perché alcune porzioni dello spettro elettromagnetico, dalle VHF alle micro-onde, sono state riservate alla radioastronomia: tali bande debbono essere mantenute prive di
emissioni terrestri che, se presenti, “accecherebbero” il radiotelescopio.
I radiotelescopi dell’Istituto di Radioastronomia del CNR di Bologna attualmente operano su diverse bande di frequenza
comprese tra 300MHz e 48GHz. I problemi legati alla presenza di interferenze-radio si riscontrano maggiormente nelle
bande UHF ed SHF, non lontano dalle fortissime emissioni radiofoniche FM, televisive, radar, telefoniche/cellulari, ponti-radio ecc. che usano apparati di trasmissione con potenze molto elevate e non sempre prive di componenti armoniche o
spurie che ricadono nelle bande radioastronomiche, compromettendone gravemente l’uso. Si consideri il confronto tra un
segnale radio FM ed uno celeste. Il rapporto fra le loro intensità vale 1015 (un milione di miliardi)!
Presso la Stazione Radioastronomica di Medicina (Bologna) è
operativo un centro per il controllo delle interferenze, dove
quotidianamente viene verificata la pulizia delle bande radioastronomiche comprese tra 300MHz e 2500MHz. Il sistema ricevente è costituito da un insieme di antenne direttive,
fissate su un supporto rotante, posto sulla sommità di una
torre alta 22 m. Il segnale interferente ricevuto, dopo una amplificazione ed un filtraggio, viene trasferito nel sottostante
centro di ascolto, dotato di strumentazione di misura, che
permette di rilevarne la direzione di provenienza e quindi la
identificazione. Le emissioni indebite vengono poi segnalate
all’Ispettorato Regionale del Ministero delle Comunicazioni
che provvede a termini di legge. Quando l’identificazione del
segnale non è possibile da una singola postazione fissa, si rende necessario l’impiego dello speciale furgone attrezzato per
rilievi radio-elettrici, col quale il gruppo tecnico si sposta nei
luoghi più idonei per completare l’accertamento. Tale veicolo
dispone di un sistema di alimentazione elettrica completamente autonomo che permette di avere la strumentazione attiva anche in condizioni di marcia. Esso è inoltre dotato di un
palo estensibile fino all’altezza di 12 m., orientabile manualmente, sul quale si installa il sistema ricevente. L’indicazione
della direzione del puntamento dell’antenna è resa possibile
utilizzando sia un sistema di lettura digitale (AD encoder), sia
98
Mappa dei siti
dei principali
Radiotelescopi
nel mondo.
un sistema visivo, tramite una bussola di precisione. L’esatta
localizzazione del segnale interferente può richiedere diversi
rilevamenti radiogoniometrici.
ASTROFISICA E GEODESIA CON IL VLBI
Sala di controllo
del correlatore
europeo EVN
(European VLBI
Network)
Dwingeloo, Olanda
99
Immagine radio del Quasar 3C 216.
SISTEMI DI ANALISI DATI PER RADIOASTRONOMIA
L’evoluzione della radioastronomia è legata allo sviluppo di nuove tecnologie in vari campi della fisica. In questi anni l’Istituto di
Radioastronomia di Bologna ha realizzato, in collaborazione
con i maggiori enti radioastronomici mondiali, il più potente
correlatore VLBI esistente, cioè un nuovo super-calcolatore dedicato alla elaborazione contemporanea dei dati registrati su
nastro in 16 radiotelescopi distribuiti sulla superficie terrestre.
Nell’immagine (v. sotto a sinistra) si può vedere la sala di controllo del correlatore europeo EVN (European VLBI Network) a
Dwingeloo-Olanda: si possono notare le 16 unità nastro per
la lettura dei dati registrati presso i vari radiotelescopi. I dati
letti vengono poi, previa sincronizzazione, inviati alla unità di
correlazione (situata in un apposito locale opportunamente
refrigerato) che effettua l’elaborazione matematica che permette di estrarre le mappe radio della zona di cielo osservata.
Nell’eseguire la correlazione questo super-computer ha una
potenza di calcolo comparabile ad un migliaio di computer di
tipo Pentium III.
A dimostrazione dell’attività di ricerca a Bologna si veda la
scheda SUIM (Station Unit Interface Module): È una delle diverse schede elettroniche del correlatore, progettate e realizzate dall’Istituto di Radioastronomia. I dati letti da ciascuna
unità nastro (1536 Megabits al secondo), vengono elaborati
da una SUIM che, dopo avere effettuato un primo controllo
sulla qualità dei dati, li invia all’unità di correlazione vera e
propria. La necessità di integrare numerose funzioni all’interno della scheda, la grossa mole dei dati da gestire e l’alta velocità di elaborazione, hanno richiesto l’uso delle più moderne tecnologie ed in particolare di circuiti programmabili, tecnologie a montaggio superficiale e schede a circuito stampato a 8 strati. Oltre alle 16 schede usate nel correlatore EVN,
ne sono state prodotte altre 32 che verranno usate in 2 correlatori attualmente in costruzione negli USA.
Come primo risultato scientifico ottenuto con il “Correlatore
EVN MKIV” (foto in alto a destra) si può citare il seguente. È
stata rivelata per la prima volta la presenza di atomi di idro-
Primo risultato
scientifico ottenuto
con il “Correlatore
EVN MKIV”
ricerca nel campo delle telecomunicazioni
L'interferometria radio a lunghissima base (VLBI, Very Long
Base Interferometer) è una sofisticata tecnica di osservazione
grazie alla quale è possibile simulare un radiotelescopio grande come tutta la Terra. Utilizzando il principio fisico dell'interferometria e la rotazione terrestre, con un insieme di radiotelescopi distribuiti su tutta la Terra è possibile "vedere" le regioni nucleari di galassie e quasar lontanissimi da noi e determinarne la posizione con una accuratezza migliore del millesimo di secondo d'arco. A questo proposito si veda la mappa
del mondo con indicati i radiotelescopi. In questa immagine
(in alto a sinistra) del planisfero sono stati indicati i siti dove si
trovano le antenne radioastronomiche che fanno parte della
rete mondiale di VLBI e i principali centri di elaborazione dati.
Durante una osservazione VLBI un certo numero di radiotelescopi (di solito da 10 a 20) osservano simultaneamente lo
stesso oggetto extragalattico. In ciascun osservatorio, il segnale radioastronomico viene registrato su nastri magnetici e
successivamente viene correlato in appositi centri.
Per fornire un esempio si veda l’immagine radio di 3C 216.
Questa immagine (in alto al centro), un quasar che dista da
noi circa dieci miliardi di anni luce è un tipico esempio del risultato di una osservazione VLBI: riusciamo a vedere dettagli
di una regione vicinissima a quella in cui viene prodotta gran
parte dell'energia in tutta la banda dello spettro elettromagnetico. Da questa immagine siamo in grado di dire che l'emissione radio viene prodotta in una zona nucleare e che si
propaga nello spazio circostante con velocità assai prossima a
quella della luce sotto forma di "getto". Vediamo inoltre che
questo getto piega bruscamente a circa 150 anni luce dalla
regione in cui è stato prodotto, e questo, unitamente ad altre
grandezze derivabili dalle osservazioni radioastronomiche, ha
portato ad ipotizzare una interazione tra gli elettroni radioemittenti ed il gas e campo magnetico interni al quasar.
Altra importante applicazione è quella che consente di rilevare i moti delle placche terrestri. Infatti attraverso la tecnica
VLBI è stato determinato un insieme di quasar lontani da utilizzare come sistema di riferimento inerziale. Diventa possibile allora misurare i moti relativi tra diversi punti sulla superficie terrestre. Questo è estremamente importante per seguire
i movimenti delle placche terrestri (tettonica). Con questa tecnica è possibile ottenere risultati, espressi vettorialmente, dopo una serie di campagne osservative. La lunghezza di ogni
vettore è proporzionale alla velocità di spostamento, e la direzione del vettore indica la direzione dello spostamento stesso. Per saperne di più: http://www.ira.bo.cnr.it
Scheda SUIM
(Station Unit
Interface Module)
Amplificatore
criogenico.
MODELLO AGLI ELEMENTI FINITI (FEA) DELLA STRUTTURA
MECCANICA DELL’ANTENNA
Schema di
funzionamento
di un riflettore
parabolico.
geno a 20 anni luce dal buco nero presente all’interno del nucleo della galassia NGC 4261, distante dalla terra 100 milioni
di anni luce. L’immagine mostra la sovrapposizione della foto
ripresa con il telescopio spaziale (Hubble), con l’immagine radio del nucleo, ed il grafico che evidenzia la riga di assorbimento alla frequenza dell’idrogeno, ottenute con la tecnica
“VLBI” della zona adiacente al nucleo. Le osservazioni sono
state effettuate con i radiotelescopi di Medicina-Bo e Noto-SR
(Italia), Westerbork (Olanda), Effelsberg (Germania), Torun
(Polonia) e Jodrell Bank (Gran Bretagna). I dati registrati su nastro nei suddetti radiotelescopi sono quindi stati correlati ed
analizzati con il nuovo correlatore europeo. Per saperne di più:
• http://www.ira.bo.cnr.it CNR Istituto di Radioastronomia Stazione VLBI di Medicina-Bo
• http://www-radiotelescopio.bo.cnr.it CNR Istituto di
Radioastronomia - Radiotelescopio di Medicina-Bo
• http://www.jive.nl The Joint Institute for VLBI in Europe
(JIVE) Dwingeloo-Olanda.
SRT - SARDINIA RADIO TELESCOPE
Ampolla di un
orologio atomico.
Radiotelescopio di
Medicina
(Bologna).
Il più grande radiotelescopio italiano verrà installato in Sardegna, 35Km a Nord di Cagliari. Il diametro di 64 metri, le tecniche avanzate di progettazione e la capacità di ricevere segnali radio compresi fra 300MHz e 100GHz ne faranno uno
degli strumenti europei più sensibili, efficienti e versatili.
Oltre alle ricerche di Radioastronomia, SRT contribuirà all’esplorazione del nostro sistema solare ed a misure di Radio
Scienza, tramite l’inseguimento di sonde interplanetarie ESA
(EU) e NASA(USA).
Per saperne di più:
•http://www.ira.bo.cnr.it/srt/index.html
•http://www.nrao.edu
•http://www.jpl.nasa.gov/cassini/
•http://www.jpl.nasa.gov/cassini/Science/MAPS/RSSt.html
Il modello matematico permette anche di calcolare le flessioni (elastiche) della struttura, dovute al suo stesso peso, quando l’antenna ruota in elevazione, per inseguire il moto nel cielo delle sorgenti radio. Per compensare questo effetto, vengono aggiustati in tempo reale i 1116 attuatori elettromeccanici, a cui sono fissati i pannelli di alluminio che costituiscono
la superficie dello specchio primario.
Il modello teorico non è tuttavia sufficientemente accurato
per operare fino a 100GHz (λ=3mm). Si prevede di utilizzare
un sistema di metrologia Laser e di altri sensori per conoscere, in tempo reale, la posizione relativa dei singoli pannelli entro 50µ e rispetto a dei riferimenti fissi a terra, per avere la
massima efficienza di riflessione dello specchio e conoscere la
reale direzione di puntamento dell’antenna.
COME LE SUPERFICI RADIO-RIFLETTENTI
CONCENTRANO IN TRE ZONE FOCALI L’ENERGIA
DELLA RADIAZIONE INCIDENTE
A questo riguardo si veda lo schema in basso, a destra.
I raggi della sorgente (paralleli, perchè provenienti da distanza praticamente infinita) sono riflessi dal primario in un unico
punto (F1). Da qui, se non intercettati da un ricevitore per le
bande di frequenza più basse, proseguono verso il subriflettore, che li ridirige verso (F2), il fuoco Gregoriano, dove una
torretta rotante può inserire uno dei ricevitori a frequenze più
elevate. Infine un sistema di rifocalizzazione con due specchi
più piccoli viene utilizzato dai ricevitori a bande intermedie e
dal sistema di trasmissione per le sonde interplanetarie. Il grafico in bianco e nero mostra come una semplice rotazione dello specchio centrale (inclinato) permette di “puntare” uno dei
quattro ricevitori della terza zona focale.
RIFERIMENTI ATOMICI LOCALI PER TEMPO E FREQUENZA
Programmi di ricerca con risoluzioni di misura estremamente
elevate come il VLBI radioastronomico e geodinamico oppure,
nel campo spaziale, la ricerca di una evidenza sperimentale di
Onde Gravitazionali, test di relatività generale o lo studio della struttura degli anelli di Saturno, richiedono l’utilizzo di un
campione di frequenza e di tempo con caratteristiche assolutamente eccezionali.
SRT utilizzerà due campioni Maser ad Idrogeno a cui si deve
asservire un Oscillatore Criogenico a Zaffiro, per migliorarne la
Schema di funzionamento
delle superfici radio-riflettenti
di un radiotelescopio.
Modello agli elementi finiti (FEA)
della struttura meccanica dell’antenna.
Tutte le immagini di questo articolo
sono dovute alla cortesia dell’Istituto di
Radioastronomia del CNR di Bologna.
100
stabilità a corto termine. La duplicazione dei campioni atomici mira a garantire la continuità della scala di tempo locale anche in occasione di eventi unici, come gli esperimenti spaziali, o di particolari fenomeni cosmologici. Inoltre il confronto
diretto fra loro è anche l’unico metodo per verificare, in tempo reale, il loro corretto funzionamento. Questa strumentazione è già stata sviluppata presso i laboratori bolognesi, e si
affiancherà a quella dei principali istituti di metrologia europei
ed internazionali. La scala di tempo locale sarà mantenuta sincronizzata con quella del Tempo Coordinato Universale (UTC)
con tecniche GPS e distribuita a tutti i possessori di un calcolatore (anche da casa) via Internet.
ANALISI DEL SITO COME TRASPARENZA ATMOSFERICA
A MICROONDE
Un sito radioastronomico deve essere caratterizzato da un
basso livello di interferenze da emittenti locali e da una buona trasparenza dell’atmosfera nelle bande delle frequenze utilizzate dal radiotelescopio. Per tutto il 1999 un radiometro “a
vapor d’acqua” (WVR water vapor radiometer) ha effettuato
continue scansioni del cielo dall’Osservatorio di Cagliari (vedi
Foto), non lontano quindi dal sito scelto per SRT. Il grafico mostra come per periodi di tempo considerevoli, in mesi quasi invernali, l’attenuazione sul segnale radioastronomico può
mantenersi al disotto di qualche percento, anche a 31GHz.
Il progetto della misura, raccolta e analisi dei dati è una collaborazione fra IRA-Bologna, FUB-Roma, e SAC-Cagliari.
Per saperne di più:
• http://www.accessone.com/~thinkman/dimension4
Programma di sincronizzazione automatica per PC
• Utclock.bo.infn.it Riferimento di Tempo UTC primario
disponibile anche ora
• M. Sandri, R. Ambrosini, "Probabilità cumulative e serie
temporali di opacità con radiometro WVR da Cagliari per
l'anno 1999", Rapporto Int. IRA 296/00, Gennaio 2000.
“SIAMO SOLI NELL’ UNIVERSO?”: IL PROGRAMMA SETI
La scoperta di nuovi pianeti extrasolari e di molecole prebiotiche negli spazi interstellari, induce a pensare che la vita, come
noi la intendiamo, possa essere un fenomeno non unico.
Il SETI (Search for Extraterrestrial Intelligence) è un programma
internazionale che si propone di indagare, con l’ uso di grandi radiotelescopi, la banda delle microonde alla ricerca di segnali radio provenienti da eventuali civiltà extraterrestri. Nato
alla NASA negli anni 60 e sospeso nell’ Ottobre 93, è ora gestito dal SETI Institute che opera in base a donazioni private.
Attraverso quale finestra dello spettro elettromagnetico è più
vantaggioso osservare? Per osservazioni basate a terra la banda dello spettro elettromagnetico più adatta è quella radio. In
particolare le frequenze comprese tra 1 e 10 GHz sono le meno “disturbate“ dal rumore di origine cosmica. Le onde radio,
inoltre, sono caratterizzate dal fatto di potere attraversare regioni dello spazio opache ad emissioni presenti in altre bande
dello spettro elettromagnetico. Per questo tipo di ricerca vengono impiegate le grandi antenne dei radiotelescopi perché
un eventuale segnale, emesso da una ipotetica civiltà extraterrestre, arriverebbe sulla nostra terra con una intensità incredibilmente bassa.
Fino a che distanza l’attuale tecnologia permette di indagare?
Una ipotetica civiltà extraterrestre ad appena 100 anni luce
che decidesse di inviare un segnale radio in tutte le direzioni
per farsi sentire, dovrebbe trasmettere con una potenza di
66.000.000.000 watt per rendere possibile, sulla Terra, la ricezione con una antenna di 300 m di diametro collegata ad
un sensibilissimo ricevitore/analizzatore di spettro. Se la stessa
civiltà fosse a conoscenza della nostra presenza (cosa estremamente improbabile), le basterebbe puntare verso la Terra
un’antenna parabolica di 300 m di diametro ed inviare un segnale di appena 3.300 watt per essere rivelato con le stesse
apparecchiature del caso precedente. Noi, da terra, non sapremmo comunque a che frequenza sintonizzarci, dove puntare le antenne, in che modo ed in quale momento osservare.
In base alle considerazioni precedenti, non sarebbe plausibile
chiedere costoso “tempo antenna” per una osservazione di
cui non se ne conoscono le modalità operative. L’approccio
migliore (a basso costo) al programma è quello basato sulla
“filosofia” dell’ osservazione SETI, effettuata in parallelo alle
normali attività in corso alla antenna parabolica VLBI della Stazione Radioastronomica di Medicina-Bo. Una parte del segnale radioastronomico viene “convogliata” verso il sistema
Serendip IV (15 MHz BW @ 24.000.000 di canali) che cerca,
in quelle condizioni osservative, la presenza di un segnale monocromatico che, per considerazioni di varia natura, sembra
essere il più adatto ad essere impiegato per questo scopo. Lo
stesso sistema, inoltre, fornisce preziose informazioni sulla situazione delle interferenze radio che gettano ombre sul futuro della radioastronomia.
Per saperne di più:
• http://medvlbi.ira.bo.cnr.it CNR Istituto di Radioastronomia
- Stazione Radioastronomica di Medicina-Bo
• http://www.seti.org
• http://www.seti-inst.edu/game/Welcome.html
• “Seti in Italia”, “Le Scienze”- Aprile 97.
• “Siamo Soli nell’Universo?”, “Newton” - Giugno 98
a sinistra:
Radiometro a
vapor d’acqua.
a destra:
Grafico ottenuto
con un Radiometro
a vapor d’acqua a
Cagliari.
101
ricerca nel campo delle telecomunicazioni
Schema a blocchi
(semplificato) per
osservazioni SETI, Search for
Extra Terrestrial Intelligence.
Ricevitore 43 GHz,
dispositivo che
converte la debole
energia
elettromagnetica in
segnale elettrico, e
lo amplifica.
Interno della
camera focale
dell’Antenna
Parabolica di
Medicina
(Bologna).
F. Bocchi
il p rogetto 2D,3D,4D, p rogetto Nu.M.E.
consorzio università-citta, bologna 2000, cineca
ricerca nel campo delle telecomunicazioni
LE TRE DIMENSIONI DELLO SPAZIO E QUELLA DEL TEMPO
Oggi le nuove tecnologie informatiche e telematiche permettono di trasferire i risultati delle ricerche non solo per mezzo
della stampa, ma anche con veicoli diversi dai libri (CD-rom,
pagine web). Inoltre permettono di raggiungere risultati che
non si sarebbe mai pensato di raggiungere fino a pochi anni
fa. Mi riferisco non solo alle applicazioni di base di dati e alla
loro elaborazione mediante programmi di gestione ormai capillarmente diffusi, cui si è accennato in precedenza, ma a
quella che ritengo essere la nuova frontiera della ricerca sulla
storia della città, che è data dalla ricostruzione elettronica tridimensionale dell’habitat urbano e delle sue trasformazioni
storiche. Il risultato sarà una città in quattro dimensioni, dove,
alle tre dimensioni dello spazio, si aggiunge quella del tempo.
Prima di tutto è necessario dare qualche esempio di quello
che si intende per “ricostruzione elettronica tridimensionale”
e quello che se ne può fare dal punto di vista storico.
Il primo elemento da illustrare è la necessità di invertire la
marcia cronologica della ricerca: non più dai tempi più lontani a quelli più vicini, ma è necessario procedere a ritroso nel
tempo. Infatti, trattandosi di un sistema visuale che non consente lacune, che non permette di abbandonare nell’oblio
qualche parte e che non può lasciare spazio all’immaginazione, è opportuno partire dalla realtà attuale, che possiamo cogliere nel suo complesso e nella sua interezza, grazie alla possibilità di “girare” attorno agli edifici e magari di penetrare
anche all’interno, se ci sono le fonti e le risorse per farlo. Così, ottenuta la base geometrica che costituisce lo scheletro del
modello tridimensionale vettoriale, è possibile mantenere come riferimento spaziale e strutturale la realtà nota e a passo
a passo modificare gli oggetti urbani testimoniati dalle fonti,
sempre tenendo come base fissa e inalterabile il principio che
si ricostruisce solo quello che le fonti permettono di ricostruire e se lo storico vuole proporre qualche ipotesi, lo può ovviamente fare, ma solo a condizione che sia in grado di se-
gnalare nella maniera più inequivocabile possibile che si tratta di ipotesi e non di elementi documentati.
La costruzione di un modello tridimensionale vettoriale quindi richiede di per se stessa una ricerca estremamente approfondita, pena l’insuccesso dell’operazione: la necessità di
chiudere ogni tassello, di fornire un’immagine complessiva,
ma con tutti i dettagli al loro posto, anche quelli ambientali,
costringe lo studioso ad indagare in tutti i settori, a mettere in
campo tutte le metodologie e le risorse umane e culturali
disponibili, dai rilievi architettonici ai componenti edili, dalle
informazioni sugli andamenti meteorologici ai disastri sismici,
dalle condizioni dell’illuminazione alle strutture dei materiali e
alla loro reazione all’umidità e all’irraggiamento solare, per
non parlare delle ricerche storiche vere e proprie che ovviamente sono alla base di tutto.
Queste nuove metodologie consentono anche di raggiungere
un risultato che di solito la ricerca storica non riesce a conseguire: la verifica delle ipotesi di lavoro. Valga questo esempio.
Uno dei momenti più significativi della storia della città è rappresentato dagli sviluppi realizzati nel Medioevo e dalla sistemazione che ogni città ha saputo dare ai servizi. Uno dei temi
delle ricerche su Bologna, che ha richiamato l’attenzione degli
studiosi, è quello relativo al sistema idrologico. Nel Duecento
era stato messo a punto un sistema di pulizia delle strade urbane che, come dicono gli statuti del 1250 e del 1288, consentiva di dare l’acqua ad ogni strada per il lavaggio una volta
ogni 15 giorni. Si trattava ovviamente di un sistema molto
complesso che era condizionato non solo dalle risorse idriche,
ma anche dalla giacitura del terreno urbano, quindi dalle quote altimetriche delle singole strade, nonché dalla qualità della
pavimentazione. A progetto ultimato forse si potrà simulare il
funzionamento, cosa che consentirà di dare validità alle ipotesi che lo storico avrà proposto nella ricostruzione del modello.
Se però l’esperimento darà esito negativo, si dovranno percorrere nuove strade, fare nuovi tentativi, fintanto che i risultati
non saranno soddisfacenti. A quel punto si sarà ottenuto un
prodotto che la comunità scientifica osserverà considerando
che ha superato un test che è tipico delle scienze esatte.
La validità di queste ricerche inoltre non si misurerà solo sul
piano della conoscenza, ma potrà avere anche interessanti ricadute su quello didattico. Continuando l’esempio precedente, se il prodotto realizzato sarà opportunamente trattato, l’eventuale “visitatore” della città virtuale potrà intervenire direttamente per simulare la destinazione delle acque in un
quartiere della città o in un altro, con conseguente valutazione delle linee di massima pendenza, delle necessità di far scavalcare con sistemi idraulici corsi d’acqua da altri corsi d’acqua, tenendo conto dei periodi di siccità e del regime delle
piogge. Si tratta di forme “laboratoriali” di attività didattica
che possono avere molto successo, facendo accettare, insieme agli aspetti “ludici” di questo lavoro anche i contenuti
Immagini dalle Demo Mu.V.I.,
Museo Virtuale della vita quotidiana
a Bologna nel XX secolo.
102
complessi della Storia. Sempre per l’età medievale, ma anche
per l’età moderna e contemporanea, i settori che virtualmente possono essere indagati potrebbero essere molti (sistema
delle zonizzazioni industriali per garantire la qualità delle acque e dell’aria; sistema di smaltimento dei rifiuti urbani e industriali; servizi pubblici messi in atto dai governi locali o dagli enti ecclesiastici: mulini, scuole, ospedali, illuminazione,
bandi, fogne, selciati). È però evidente che tutti questi temi lo
storico non li può affrontare da solo, ma ha bisogno di essere affiancato da specialisti di altre discipline, anche molto lontane dalla storia, come per esempio l’idraulica, la geologia, la
petrografia.
Nu.M.E.: IL MUSEO VIRTUALE DELLA CITTÀ DI BOLOGNA
Un esempio applicativo delle metodologie di ricostruzione tridimensionale di una città, a cui sono aggiunte le trasformazioni avvenute nel tempo, è quello che si sta realizzando a Bologna. Infatti è in via di approntamento il museo virtuale della
città, noto con l’acronimo Nu.M.E., Nuovo Museo Elettronico.
Tutte le città, grandi o piccole, soprattutto all’estero, hanno
organizzato un “museo della città”, nel quale vengono raccolti gli oggetti che si ritiene possano illustrare la storia della
comunità e le trasformazioni che la struttura urbana ha subito. Mettere in un museo una città è però molto difficile: di solito si espongono documenti cartacei e mappe, insieme con
modellini di edifici e quegli oggetti urbani o quegli arredi architettonici che possono essere contenuti in un ambiente
chiuso. Si tratta di oggetti e di strumenti che servono a far avvicinare solo idealmente il visitatore alla città, ma la città nel
suo complesso resta fuori dal museo. Il museo elettronico ha
lo scopo di mettere a disposizione del visitatore l’intera città
attuale, ricostruendola nelle tre dimensioni dello spazio. Se ne
ottiene un ambiente in cui, utilizzando la cloche di manovra,
è possibile passeggiare a terra o volare a mezz’aria o sui tetti,
per cogliere l’insieme o un particolare. Questa è già una città
"virtuale", perché ne sono state cancellate le superfetazioni
(insegne, cartelli stradali, cassonetti, auto in sosta e in movimento, ecc.), in modo da restituire al visitatore la vera essenza urbana. Diventa un museo nel momento in cui alle tre dimensioni dello spazio si aggiunge la quarta dimensione, quella del tempo. La modellazione che ha permesso la ricostruzione degli edifici non più esistenti e il sistema di navigazione
consentono di far emergere in un ambiente storicizzato quanto del passato è stato distrutto o di far scomparire quanto ancora non c’era nella fase storica che viene visualizzata.
Una “macchina del tempo”, presente nella barra degli strumenti, permette al visitatore di scegliere il momento storico in
cui desidera fare la sua passeggiata elettronica nella città: sono già disponibili Piazza di Porta Ravegnana con le torri Asinelli e Garisenda e le vie circostanti, dove possono essere evocate dalla storia la Cappella della Croce (IV-XVIII secolo) e tre
torri medievali abbattute all’inizio di questo secolo, nonché le
mura di selenite che circondavano Bologna a partire dal V secolo d.C.
103
Quello che si vedrà è solo la parte emergente di un grande lavoro scientifico e di applicazioni informatiche sofisticatissime
che non sono percepite dal "visitatore", ma che sono la base
dei risultati conseguiti: ogni sia pur minimo segno, disegno e
movimento deriva da ricerche storiche molto approfondite,
perché è proprio la qualità della ricerca storica, prima ancora
delle elaborazioni informatiche, che fa la differenza fra un
prodotto multimediale a larga diffusione, come tanti ce ne sono attualmente in commercio, e il progetto Nu.M.E.
Anche la ricerca storica, nel senso più strettamente scientifico
di "attività per addetti ai lavori", riceve un impulso formidabile da questo tipo di applicazioni. Infatti la necessità di ricostruire graficamente un edificio o un comparto urbano non
più esistenti porta di conseguenza lo storico ad approfondire
sempre più le sue ricerche, se vuole evitare lacune nelle ricostruzioni. Così, mentre se si scrive o si dice: "in piazza di Porta Ravegnana alla fine del Duecento c’erano le case con il portico di legno", può essere sufficiente, invece quando si disegna bisogna avere notizia anche delle altezze degli edifici, del
numero delle colonne, delle aperture nei muri, del tipo di materiali. Se poi si ricostruisce tridimensionalmente bisogna anche conoscere la forma dei tetti, le parti interne e quelle cortilive, le altezze dei portici e la forma degli intradossi. Tutte
queste esigenze contribuiscono in maniera determinante ad
acuire la ricerca, perché costringono lo storico ad individuare
nuove fonti, a cercare confronti. Ma se alla fine non sarà stato possibile ottenere le notizie che si vorrebbero avere, onestamente sarà lasciata una traccia inequivocabile che indichi
chiaramente quello che è testimoniato dalle fonti e quello che
è frutto di ricostruzione ipotetica.
Nella parte di ricostruzione eseguita fino ad ora è presente anche lo stato di piazza di Porta Ravegnana al 1294, data in cui
fu redatto uno dei Libri terminorum conservati presso l’Archivio di Stato di Bologna, cioè la misurazione di tutti i fronti
stradali e delle parti aeree che sporgevano oltre i paletti (termini) che indicavano la linea di confine fra lo spazio pubblico
della piazza e quello privato delle case. Sono pervenute diverse redazioni dei Libri terminorum effettuate durante il XIII secolo, rese necessarie dalle periodiche ricognizioni che venivano effettuate per verificare che i termini non fossero stati abusivamente spostati. Tali ricognizioni riguardavano gli spazi
pubblici delle piazze del mercato e delle mura della città. Per
necessità di cose il documento riporta misure e indicazioni
strutturali degli edifici, segnalando con precisione se il termine era collocato presso il gesso su cui era impostata la colonna del portico, di quanto sporgeva il "lignamine grosso", cioè
la trave portante il solaio del primo piano, e di quanto sporgeva la gronda, se c’erano panche addossate alle pareti o
banchi di attività commerciali.
Si tratta di un documento di grande rilevanza storica, perché
da un punto di vista politico segna il grande impegno che
l’amministrazione pubblica metteva nel difendere gli spazi
pubblici dagli abusi, tanto che non si è lontani dal vero ipotizzando che si tratti di un vero e proprio condono edilizio,
ricerca nel campo delle telecomunicazioni
nella pagina:
Immagini dalle
Demo del Reality
Center del Cineca,
Bologna
ricerca nel campo delle telecomunicazioni
perché, registrando la situazione di fatto, che in quel momento era già considerata “storica”, si chiudeva la partita con
il passato, ma erano stati messi in atto gli strumenti per non
consentire più nel futuro incongrue invasioni di spazi pubblici. Dal punto di vista delle trasformazioni storiche di quella
parte della città il Liber consente di individuare sufficienti elementi per realizzare una ricostruzione per ora solo schematica, ma che permette, nel confronto con la situazione dei tempi successivi già disponibile, di valutare la misura e la dimensione dell’edilizia medievale. Però, per ora, le case della piazza di Porta Ravegnana della fine del Duecento non hanno né
porte, né finestre, né comignoli, perché nessuna fonte è stata reperita che consenta di fare una ricostruzione certa dei
particolari, mentre è certissimo il posizionamento degli edifici
e la loro struttura complessiva. La ricostruzione degli edifici è
georeferenziata (coordinate spaziali: latitudine, longitudine,
altitudine) e si avvale dei controlli incrociati con l’applicazione
delle metodologie GIS.
Proprio per garantire il fruitore di questo prodotto sul rigore
scientifico che c’è alla base di tutto, ogni edificio, ogni comparto urbano, ogni singolo elemento è accompagnato dal
complesso delle fonti su cui è costruito il modello vettoriale
che consente la navigazione tridimensionale, e che può essere richiamato in ogni momento del percorso. Tutto il complesso delle fonti storiche accompagna la ricostruzione sia
sotto forma di struttura ipertestuale, sia sotto forma di richiamo diretto che può essere effettuato da ogni singolo edificio,
collegato con database relazionali, nell’ambito delle metodologie GIS. Però il pregio di questo museo virtuale - o per lo
meno questo è l’obbiettivo di tutti coloro che ci lavorano e di
quanti ne permettono la realizzazione - è quello di essere accessibile a tutti i livelli di competenza e di preparazione, perché tutti vi possano svolgere la propria personale chiave di lettura. Infatti oltre ad essere un nuovo strumento di ricerca, è
anche un utile e nuovo mezzo al passo con i tempi, per divulgare la cultura scientifica (nella fattispecie quella storica e dei
beni culturali) e al contempo per stimolare, attraverso i risultati delle elaborazioni informatiche, sempre più l'interesse verso l’applicazione di tecnologie che rappresentano e rappresenteranno sempre di più un ambito di lavoro in pieno sviluppo, come dimostrano tutte le ricerche nell’ambito economico
sullo “sviluppo sostenibile”. Inoltre, essendo ogni edificio
georeferenziato ed essendo ricostruito con quel rigore nei rilievi architettonici e nell’analisi delle fonti storiche di cui si è
detto, può consentire anche elaborazioni di tipo diverso da
quelle della fruizione “culturale”. Sul modello vettoriale delle
Due Torri - cioè lo scheletro geometrico su cui sono state applicate le foto degli edifici o è stata ricostruita la superficie possono essere effettuati i calcoli della staticità, si possono simulare le condizioni di tensione e di tenuta dei materiali in caso di terremoto o di passaggio di mezzi pesanti nelle immediate vicinanze, si può valutare l’impatto del traffico o definire i percorsi delle reti tecnologiche. Tutti questi elementi non
potranno che essere validi strumenti per gli amministratori
pubblici quando sono chiamati a fare delle scelte che riguardano gli interventi sul centro storico della città.
Il mondo del terzo millennio sarà collegato con reti a larga
banda che permetteranno ad un “visitatore virtuale”, seduto
davanti al suo video non importa dove, di percorrere, grazie a
Nu.M.E., le strade medievali di Bologna, di ammirare di sotto
in su, come fece Dante, la torre Garisenda e di restare impressionato dalle nubi incombenti, potrà salire sull’Asinelli, ammirare Piazza Maggiore com’è oggi e come era nel Duecento,
potrà vedere il contesto in cui ha preso vita l’Università più antica del mondo, potrà passeggiare sotto i portici di oggi o sotto quelli del passato; sceglierà la propria strada e la propria
epoca a suo piacimento, sperando di vedere, prima o poi, la
città reale.
Il museo virtuale non è ancora disponibile attraverso Internet,
poiché nessuna rete per ora è in grado di veicolare i ‘pesanti’
contenuti informatici del progetto. Nu.M.E. è sviluppato per
la parte dell’hardware e del software di navigazione virtuale
presso il Cineca (Centro di Calcolo Interuniversitario). Gli studi preparatori sono condotti nel quadro delle ricerche promosse dal CNR, Progetto Finalizzato Beni Culturali e dall’Università di Bologna. La modellazione degli edifici non più esistenti è effettuata dal Centro Ricerche di Carpi (Modena). Tutte le attività sono sostenute dal Consorzio Università-Città,
dalla Fondazione della Cassa di Risparmio in Bologna e da Bologna 2000. La metodologia del progetto e i riferimenti bibliografici sono reperibili alla pagina di Nu.M.E. del portale
www.storiaeinformatica.it.
Immagini dalle Demo di Nu.M.E.,
Nuovo Museo Elettronico della
città di Bologna.
La Piazza di Porta Ravegnana nel
tempo: 1) oggi; 2) nel XIX secolo;
3) nell’età moderna, fino alla fine del
Settecento; 4) alla fine del Duecento.
104
A. Guidazzoli
navigazione in 4D del nuovo
museo elettronico della città di
bologna
LA CITTÀ IN 4D COME SPAZIO DI SIMULAZIONE
Le immagini sono un’interfaccia percettiva. Le tecniche di
realtà virtuale permettono la rappresentazione di scenari artificiali, scenari reali e di una loro eventuale integrazione. A tale scopo la ricostruzione tridimensionale della città attuale e
delle sue trasformazioni storiche deve essere accompagnata
da strumenti, come la console della macchina del tempo realizzata per il dimostratore di Nu.M.E. (Nuovo Museo Elettronico) della Città di Bologna, per renderne intuiva ed efficace la
navigazione e l’orientazione.
La fruizione multimediale del museo della città di Bologna avviene nello spazio e nel tempo, attraverso le quattro dimensioni. Il mondo virtuale della città diviene così un vero e proprio spazio di simulazione. Il visitatore può essere, se lo desidera, liberato dal vincolo della gravità, raggiungere punti di vista impossibili nella realtà, godere di viste da edifici inaccessibili ed essere immerso, durante il viaggio nel tempo, nelle atmosfere musicali di epoche diverse od ascoltare i versi di Dante ai piedi della torre Garisenda. In futuro lo stesso navigatore virtuale della città, sempre attraverso questo spazio, potrà
avere accesso a dati di tipo territoriale, cosa già in parte possibile nel dimostratore attuale, lanciare simulazioni per valutazioni di impatto ambientale,visualizzare previsioni meteorologiche e flussi di traffico, valutare il comportamento di flussi di
folla attraverso la rappresentazione dei risultati di simulazioni
remote all’interno dell’ambiente ricostruito, il “mondo”.
Nu.M.E., il Nuovo Museo Elettronico della Città di Bologna, è
stato infatti pensato per essere anche un “cancello”, se si
vuole, un’interfaccia cognitiva che apre l’accesso ad altri dati
105
sulla città che ne arricchiscono la comprensione: è così possibile costruire una città virtuale capace di raggiungere e visualizzare i diversi spazi informativi (dimensioni del “mondo”) di
interesse per l’esploratore stesso.
La costruzione di questa complessa città, per ora quadridimensionale, deve perciò compiersi in modo modulare e a diversi livelli di dettaglio per consentire diversi tipi di fruizione: locale (al mondo virtuale) o remota, utilizzando le reti telematiche. Tale fruizione deve poi soddisfare diversi profili di utenti:
il ricercatore, l’insegnante, il turista culturale… È per questo
motivo che gli elementi che compongono Nu.M.E., modelli
geometrici, immagini, suoni sono memorizzati a risoluzioni diverse. Si tratta quindi, in ultima analisi, di modelli simili fra loro della città in 4 dimensioni; modelli che propongono, in funzione della capacità di fruizione dell’utente, livelli di approfondimento diversi, ma pur sempre validati dalla ricerca storica.
La città quadridimensionale può essere visitata sia in modo semi
immersivo (desktop virtual reality) via Internet (come nel modello leggero visibile www.cineca.it/v/nume), oppure attraverso una
modalità completamente immersiva all’interno di un teatro virtuale. L’alta risoluzione infatti, sia nella modellazione geometrica sia nella preparazione delle texture dei modelli, cioè delle immagini digitali che ricoprono lo scheletro del modello tridimensionale, consentirebbe la fruizione del museo della Città anche
in un vero e proprio spazio teatrale virtuale, che avvolge completamente il visitatore. Tale opportunità, oggi possibile attraverso tecnologie tipo Virtual Theatre, consente di proporre un
vero e proprio spazio fisico in cui un gruppo persone (visitatori,
cittadini, ricercatori, amministratori, tecnici…) possono navigare
fisicamente nel tempo e nello spazio della città in 4 dimensioni.
Ampia veduta
aerea della città di
Bologna.
ricerca nel campo delle telecomunicazioni
PROGETTARE LA FRUIZIONE VIRTUALE:
F. Serafini
ricerca nel campo delle telecomunicazioni
prima i nstallazione del b aby reality
center del cineca
Il laboratorio Vis.I.T. del CINECA di Bologna, in collaborazione con il Consorzio Università-Città e l’Università degli Studi
di Bologna, ha realizzato la prima installazione di un Teatro
Virtuale al di fuori della propria struttura nel corso della mostra “Communication”, tenutasi ad ottobre 2000 a Palazzo
Re Enzo, in pieno centro a Bologna.
La presenza di un Baby Reality Center - così come è stato denominato il piccolo Teatro Virtuale allestito nell’ambito della
mostra - è stata pensata non tanto per offrire una dimostrazione sensazionalistica sulla computer grafica, quanto per portare alcuni esempi di possibili applicazioni di visualizzazione
computerizzata immersiva in campo scientifico ed umanistico.
Non sono stati presentati, infatti, videogiochi o filmati ad effetto, ma dimostrazioni di applicazioni (demo) impiegate abitualmente presso i laboratori del CINECA per lo sviluppo di
progetti che utilizzano la grafica immersiva come mezzo di studio. Questi progetti spaziano in diversi campi dello scibile umano: dalla bioingegneria ai Beni Culturali, passando per l’astrofisica, la meteorologia, la chimica, la fisica e l’oceanografia. In
particolare, sono state presentate demo sui progetti Nu.M.E.
(Nuovo Museo Elettronico della città di Bologna), Mu.Vi. (Museo Virtuale della vita quotidiana a Bologna nel ventesimo secolo), Progetto Mummia (ricostruzione virtuale della testa di
una mummia partendo da dati Tac della stessa), AstroMD (visualizzazione Multi Dimensionale e processi analitici applicati
all’Astrofisica), HipOp (Sistema virtuale di pianificazione di intervento di sostituzione Hip) ed altre applicazioni, come la ricostruzione e visualizzazione del suolo sottomarino della parte
sud-est del mar Tirreno, la simulazione di un tornado, la simulazione della dinamica di una molecola di un farmaco e la simulazione dei legami fisici degli elettroni nel cristallo di ghiaccio in situazioni fisiche particolari (ICE10). Le demo, rispetto a
quanto presentato fino a quel momento nel Teatro Virtuale del
CINECA, sono state elaborate in modo che fossero rispondenti alle caratteristiche di un pubblico non specialistico ed eterogeneo, aggiungendo dell’audio di spiegazione e della musica
di sottofondo diversa per ciascuna demo.
Le modalità di visualizzazione sono state due: esecuzione in
automatico o navigazione in tempo reale. Ciascuna di queste
modalità presenta propri limiti e pregi. L’esecuzione automatica evita errori tecnici imputabili all’operatore e consente una
migliore gestione ed un totale controllo della demo - con la
possibilità di realizzare percorsi, sequenze e punti di vista predefiniti - e la gestione ottimale e sincronizzata dell’audio, sia
di sottofondo sia di commento. Tuttavia la demo, presentata
in questo modo, rischia di sembrare un semplice filmato, caratterizzato per di più da una qualità e da un livello di coinvolgimento non paragonabili a quelli a cui è abituato il pubblico dei documentari televisivi. La navigazione manuale, pur
con i suoi limiti rispetto alla versione automatica, mostra meglio la potenza di calcolo e la mole di lavoro che stanno alla
base di queste realizzazioni, permettendo di interagire in tempo reale con l’applicazione. In questo modo, la demo è anche
più flessibile rispetto alle curiosità e agli interessi specifici del
pubblico, adattandosi con maggiore facilità al background
culturale e all’età degli spettatori.
Immagini dalle
Demo HipOp.
Immagini dalle
Demo Mummia.
106
Immagini dalle
Demo AstroMD.
pianto audio sono collegati l’elaboratore che consente la gestione dell’audio nella scena ed altri apparati esterni come un
radiomicrofono e un lettore CD e MC.
L’esperienza accumulata in occasione della mostra viene oggi
impiegata nella realizzazione di nuovi progetti sull’applicazioni della realtà virtuale, sviluppati al CINECA. Si sta cercando,
infatti, di integrare i due tipi di navigazione e di rendere il tutto più coinvolgente, con una prima parte eseguita in automatico, con un percorso predefinito, ed una seconda parte
con navigazione manuale per consentire una spiegazione ad
hoc da parte dell’operatore. Si sta studiando anche la possibilità di usufruire in tempo reale dei database specifici che saranno realizzati per i diversi progetti.
Schema di costruzione dell’immagine 3D.
Immagini dalle
Demo Integrina.
107
ricerca nel campo delle telecomunicazioni
Il Baby Reality Center realizzato era costituito principalmente
da un super computer grafico Onyx 2 Infinite Reality della Silicon Graphics dotato di quattro processori e da 1GB di RAM
e schede grafiche ad alta accelerazione, basato su sistema
operativo IRIX. Un sistema informatico ad alte prestazioni è
fondamentale per calcolare e visualizzare, in tempo reale, ad
ogni cambio di scena, la nuova disposizione.
Il sistema di visualizzazione 3D della Barco (3D Digital Video
Package) è formato da due proiettori LCD BarcoReality SIM 6
e uno schermo passivo non depolarizzante. Ognuno di questi
due proiettori, appositamente allineati, riproduce la stessa
scena sfasata di un angolo di convergenza prestabilito dall’elaboratore. Questo sfasamento, grazie anche ad un sistema di
filtri polarizzati è in grado di ricreare la profondità della terza
dimensione. Infatti, ogni proiettore visualizza l’immagine per
un singolo occhio e monta nel sistema di lenti un filtro polarizzatore lineare. Inserendo in un proiettore un filtro con piano di polarizzazione verticale e nell’altro un filtro con piano di
polarizzazione orizzontale, e dotando gli spettatori di speciali
occhiali con lenti polarizzate linearmente, una con piano di
polarizzazione orizzontale ed una verticale, il cervello dello
spettatore riceve due immagini distinte e sfasate di un angolo di convergenza prestabilito, che gli permettono di ricostruire la profondità per la terza dimensione. Le immagini proiettate hanno una risoluzione di 1280 x 1024 pixels.
Il Baby Reality Center era costituito anche da un PC collegato
in remoto per il controllo in caso di blocco sistema e da un impianto audio stereo con mixer, amplificatore e casse. All’im-
M. Ravaioli
F. Giglio
G. Marozzi
N. Bianchi
F. Bentivoglio
D. Martignani
ricerca nel campo delle telecomunicazioni
la storia e la ricerca dell’istituto di
geologia marina del cnr in multivisione
L’Istituto di Geologia Marina del CNR, che da oltre trent’anni
si occupa dei mari italiani e delle aree oceaniche, ha come attività primaria lo studio dell’ambiente marino al fine di comprendere come funziona il “sistema Terra” e gli equilibri del
suo ecosistema.
In occasione del Trentennio della sua fondazione, la storia dell’Istituto è stata illustrata attraverso un esperimento multivisivo dando un esempio di comunicazione intensa ed emozionale, mediante un prodotto integrato tra la storia della ricerca scientifica e tecnologica, la fotografia, l’informatica, la musica e la poesia, amalgamati da una regia unica intesa a fornire un prodotto di divulgazione e informazione rivolto all’ambiente scientifico e di massa.
La multivisione si inserisce tra le ultime frontiere della multimedialità. Le potenzialità di questi spettacoli è enorme, già
molti musei stanno sviluppando “aree multivisionali”, che
permettono di immergere un visitatore in diversi ambienti,
consentendo suggestivi “viaggi virtuali”.
L’Istituto di Geologia Marina, che ha sede a Bologna, è stato
fondato nel 1968 dal Prof. R. Selli ed attualmente è diretto dal
Prof. Enrico Bonatti e dalla Dr.ssa Mariangela Ravaioli. L’Istituto si avvale di numerosi laboratori e una Base Operativa in
Area portuale presso la Darsena S. Vitale a Marina di Ravenna, ma la grossa parte dell’attività viene svolta in mare a bordo di Navi Oceanografiche.
L’esplorazione della geologia degli oceani negli ultimi 30 anni
ha costituto una grande avventura intellettuale che ha portato ad una rivoluzione scientifica culminata con una teoria che
spiega processi quali la deriva dei continenti, la distribuzione
della sismicità e del vulcanesimo, il sollevamento di catene
montuose (Alpi, Himalaia, Ande) ecc.
Le ricerche di geologia marina non solo aumentano le nostre
conoscenze di base, ma hanno un’importante valenza applicativa. Ad esempio, gli studi sulla geologia, sul vulcanesimo e
sulla sismicità del Tirreno hanno importanti ricadute per capire la geologia delle terre emerse, la distribuzione dei terremoti, l’origine dei tsunami, il cambiamento climatico e l’inquinamento marino.
L’Istituto di geologia marina sta tentando di formare una nuova generazione di studiosi che possano continuare lo sviluppo
di questa disciplina in Italia e mantenerla al livello di quella dei
maggiori paesi europei. Le linee di ricerca storicamente condotte dall’Istituto sono la geologia oceanica, la geologia delle
aree mediterranee, la stratigrafia ed il paleoclima del quaterna-
Istituto di Geologia
Marina, CNR,
Bologna.
Foto di: IGM.
Tutte le immagini
in questo articolo
sono dovute alla
cortesia di IGM.
108
Carotiere a gravità per la campionatura
dei fondali marini (N/O Urania, CNR).
Campionatura di sedimenti superficiali con
box-corer in Antartide (N/O Italica/P.MRA).
109
Sperimentazione con sismica multicanale.
Sorgenti sismiche Air-gun.
ricerca nel campo delle telecomunicazioni
rio, la geologia ambientale e costiera e lo sviluppo tecnologico.
La conoscenza dei processi fisici, chimici e biologici che regolano l’evoluzione del nostro Pianeta sarà fondamentale nel futuro per assicurare lo sviluppo e la continuazione della vita
sulla Terra. Questa conoscenza dovrà quindi sempre più condizionare ed ispirare, tra le diverse nazioni, politiche ambientali comuni. Poiché le aree emerse rappresentano soltanto un
terzo dell’intera superficie terrestre, è ovvio come lo studio
dell’ambiente marino sia essenziale per capire come funziona
il pianeta Terra. Negli ultimi anni è apparso chiaro che la ricerca nel campo delle scienze della Terra avrà un senso pratico, e un futuro, se saprà offrire un approccio olistico agli sforzi che la società dovrà fare sempre più seriamente per raggiungere un uso sostenibile delle risorse, una definizione dei
rischi ambientali e delle loro condizioni evolutive.
Per illustrare tale attività si è creato un percorso fotografico
che si sviluppa documentando la vita e l’attività all’interno
dell’Istituto e delle navi oceanografiche, riferendo dei risultati
della ricerca e documentando gli ambienti marini fino ad arrivare al lontano Antartide.
La preparazione di una multivisione in ambito scientifico è
complessa e richiede un approccio interdisciplinare e l’incontro di varie competenze: lo scienziato, il fotografo, l’informatico, l’esperto di musica e l’artista.
In questo modo si possono raccontare e documentare i contenuti scientifici e la storia percorsa con sequenze di immagini in diapositive sincronizzate su diversi proiettori accompagnate da brani musicali che permettono di penetrare il contenuto della rappresentazione con intense emozioni. Il raccordo
tra immagine, musica e colori richiede una sincronia perfetta
che è ottenuta mediante un supporto informatico che collega
e temporizza cadenze musicali, immagini e testo.
G. Bortoluzzi
T. Diamanti
G. Stanghellini
L. Calori
A. Guidazzoli
la visualizzazione dei fondali marini
in realtà virtuale
LA VISUALIZZAZIONE DEI FONDALI MARINI IN AMBIENTI
ricerca nel campo delle telecomunicazioni
DI REALTA’ VIRTUALE
Se immaginassimo di eliminare completamente l’acqua dagli
oceani avremmo una visione di un paesaggio fatto di montagne, valli, canali, estese piattaforme, in generale più dolce di
quello delle terre emerse, ma anche, in certe zone, più corrugato e con salti topografici ancora più ampi. Ciò è vero specialmente nelle zone di frattura oceaniche, dove si incontrano
pareti e montagne che si elevano anche di 8000 m dal fondo.
Solo la fantasia e l’immaginazione, oppure misure precise della topografia dei fondali marini e sistemi raffinati di simulazione e visualizzazione, ci permettono di effettuare tale operazione, e di “navigare” in un mondo di realtà virtuale.
La misura accurata della topografia dei fondali comporta lunghe campagne di ricerca con navi adeguatamente attrezzate
per la prospezione con onde sonore e ultrasonore, che sono
le uniche in grado di penetrare la colonna d’acqua ed essere
riflesse dal fondo. La registrazione dei tempi impiegati da
queste onde, in relazione anche ad accurati studi oceanografici che ne determinano la velocità di trasmissione, fornisce una misura dell’altezza del fondo dal livello medio del
mare. Strumenti più sofisticati ed accurati (multibeam) sono
in grado di fornire misure contemporanee su ampie fasce di
fondale, permettendo ad un tempo una migliore copertura
spaziale e una riduzione dei tempi di lavoro.
L’Istituto per la Geologia Marina del CNR di Bologna ha
esperienza ormai pluriennale di acquisizione ed elaborazione di dati multibeam, in Oceano Atlantico ed in Mediterraneo. In particolare, esso ha effettuato un rilievo del Mar Tirreno, condiderato un piccolo oceano in apertura, ed estremamente interessante per le sue fenomenologie vulcaniche.
La fase di acquisizione è durata circa 4 mesi di operazioni in
nave, mentre la fase di elaborazione ha comportato circa 6
mesi, e, per alcune zone, non è ancora terminata.
Uno dei prodotti di tale elaborazione, effettuata dai colleghi
dell’IGM D. Penitenti, G. Carrara e P. Fabretti, è stata la creazione di un Modello Digitale del Terreno (DTM) del mar Tirreno. Con una procedura di visualizzazione di DTM sviluppata all’IGM, sfruttando strumenti hardware e software
molto potenti (fra cui le workstations grafiche e i ‘Teatri Virtuali’ del CINECA) è possibile effettuare un ‘volo sul Tirreno’,
in cui si possono ammirare grandi vulcani sottomarini, im-
Tutte le immagini in questo articolo
sono dovute alla cortesia di IGM.
Il fondo del Mar Tirreno.
110
Il vulcano Marsili, Mar Tirreno.
mense pareti franate, lunghissimi canyons che da terra portano nelle zone
più profonde materiale di origine continentale, che viene sepolto o rielaborato. Le figure di seguito riportate sono tratte da uno di questi voli. In particolare, si può ammirare il grande apparato geologico del vulcano Marsili,
fra la Sicilia e Napoli.
Un paesaggio così rivelato non può
che rendere ancora più evidente la natura in continua modificazione della
Terra e contribuire alla conoscenza di
processi geologici fondamentali che
modellano la superficie del pianeta.
Oltre alla presentazione grafica, il software e le attrezzature di visualizzazione
saranno utilizzate per altre applicazioni,
fra cui la simulazione e la guida di veicoli sottomarini in tempo reale.
Il vulcano Vavilov, Mar Tirreno.
111
ricerca nel campo delle telecomunicazioni
Carta batimetrica del Mar Tirreno da rilievi
multibeam. SNG/GNV/
Progetto strategico CNR “Dorsali e bacini di
retroarco”.
R. Amato
il codice a barre
ricerca nel campo delle telecomunicazioni
DATALOGIC: CAPTURE COMPUTE COMMUNICATE
Le tecnologie su cui Datalogic ha basato il suo sviluppo sono
quelle della Identificazione Automatica e della Raccolta Dati
(AIDC, Automatic Identification and Data Capture): il codice a
barre è sicuramente la forma più nota e popolare al grande
pubblico per il suo uso sui prodotti di largo consumo. Datalogic però non si occupa più solo di capture (la cattura, la raccolta dei dati), ma anche di computing (elaborazione dei dati) e communication (trasmissione dei dati): lo sviluppo delle
tecnologie dell’hand-held computing (elaborazione dati tramite dispositivi palmari) e della comunicazione dati wireless
(senza filo, tipicamente a radiofrequenza) sono oggi centrali
nella strategia di Datalogic.
SHOPEVOLUTION™
LA SPESA VELOCE, PIACEVOLE E SENZA CODE
dosi nell’utilizzo di svariate soluzioni applicative.
Attuare il One-to-One marketing con strumenti efficaci risulta fondamentale: nell’ambito del CRM esso svolge un ruolo
chiave in quanto trasforma le informazioni raccolte sulle abitudini d’acquisto di un singolo cliente, in un efficace piano di
marketing con azioni dirette e personalizzate. Consente di
veicolare informazioni utili, proporre promozioni su misura,
comunicare eventuali miglioramenti nel servizio sollecitati dal
cliente stesso e così via, spostando il fattore discriminante dalla mera valutazione di prezzo ai benefici legati alla fruizione
di servizi tempestivi, efficaci e, soprattutto, plasmati in base
alle proprie esigenze ed abitudini.
Shopevolution™, grazie alla sofisticata gestione delle informazioni legate alla Customer Category, dà ora la possibilità
ad ogni cliente di vivere una esperienza di shopping unica e
personalizzata sin dal momento in cui entra al supermercato.
Quanto tempo si perde in coda al supermercato? Quanto
tempo si perde poi a svuotare il carrello alla cassa? Troppo!
Il sistema di Self-Scanning Shopevolution™, al contrario, richiede semplicemente di:
• Prelevare il pratico terminale.
• Leggere il codice a barre di ogni articolo che si desidera acquistare prima di riporlo nel carrello.
• Consegnare il terminale alla cassiera che emetterà immediatamente lo scontrino sulla base dei dati memorizzati durante la spesa.
Nient’altro!
In più il terminale permette di ricevere promozioni personalizzate, di leggere informazioni di vario genere su quel determinato prodotto e di tenere costantemente sotto controllo
quanto si sta spendendo. Shopevolution™ significa quindi
anche più qualità della vita.
La fidelizzazione del consumatore assume oggi, ancor più che
in passato, un valore decisivo nell’ambito
della vendita al dettaglio (Retail) dei prodotti di largo consumo (FMCG – Fast Moving Consumer Goods), vista la pluralità di
alternative d’acquisto offerte dall’espansione della grande distribuzione e dall’emergere dello shopping on-line.
In questo senso per gli operatori della
grande distribuzione, è strategica l’attuazione di politiche volte alla creazione di
valore per il consumatore, di politiche di
marketing personalizzate per il singolo individuo (Customer Specific Marketing) ed
in generale di una logica che ponga il
cliente al centro del business. Ciò al fine di
costruire e mantenere un distinto vantaggio competitivo.
Il Customer Relationship Management
(CRM) interpreta appieno questa filosofia
centrata sul consumatore, concretizzan-
112
@NYWHERE™: I TUOI ACQUISTI COME VUOI, QUANDO
VUOI E DA DOVE VUOI
Utilizzando un telefonino WAP o un PDA, è possibile collegarsi al sistema Shopevolution™ presente nel supermercato ed effettuare gli acquisti on-line, in qualsiasi momento della giornata, senza stress, senza affollamento, senza fretta, senza code. Analogamente, restando comodamente a casa, si può inviare la propria lista della spesa utilizzando un lettore di codice
a barre collegato a PC. Inoltre, con questa modalità, è possibile richiamare qualsiasi documento Internet senza digitare alcun indirizzo bensì leggendo semplicemente uno speciale bar
code presente su quotidiani o pubblicazioni specializzate.
SMARTACCESS™: LA TECNOLOGIA AL SERVIZIO DEL
CITTADINO
Niente più code! Pagamenti automatizzati! Possibilità di accedere con lo stesso sistema identificativo a città, parcheggi,
manifestazioni, eventi!
Tutto questo oggi è possibile grazie alla tecnologia Datalogic
basata sulla comunicazione a Radio Frequenza. Non è più necessario introdurre la tessera in appositi lettori: con un sistema di comunicazione dati a onde radio, il sistema di controllo accessi è in grado di rilevare persone, oggetti, automezzi in
maniera automatica, senza errori e istantaneamente.
Questa tecnologia permette anche di realizzare sistemi di sicurezza per persone e oggetti. Le stazioni di rilevamento pos-
113
Tutte le
immagini
di questo
articolo
sono
dovute alla
cortesia di
Datalogic,
Bologna.
ricerca nel campo delle telecomunicazioni
Nel momento in cui il cliente si avvicina al sistema di Self-scanning Shopevolution™ per prelevare il proprio terminale da utilizzare per lo shopping, sul monitor multimediale gli viene
presentata una videata personalizzata e un messaggio di benvenuto con il suo nome, un banner gli propone le offerte promozionali del giorno a lui più indicate ed inoltre gli viene
stampato un coupon personalizzato che può essere, ad esempio, un biglietto per la lotteria di Capodanno, la promozione
di un prodotto private label, un buono sconto, etc.
Shopevolution™ raggiunge il cliente anche quando si trova tra
gli scaffali e sta facendo la spesa. Offre infatti la possibilità di
proporre in diretta, sul display dell’ergonomico terminale di
Self-scanning, azioni di marketing One-to-One come promozioni e consigli per gli acquisti basati sul comportamento d’acquisto del cliente, che Shopevolution™ conosce perfettamente in quanto memorizzato nel proprio database.
Alla fine dello shopping, il cliente non desidera altro che eliminare il passaggio che tutti vorrebbero saltare quando sono
al supermercato: la coda alla cassa. Shopevolution™ annulla
infatti i tempi di attesa al check-out consentendo al cliente di
pagare senza dover togliere la spesa dal carrello e senza dover riutilizzare la propria loyalty card in cassa.
sono identificare ad esempio autovetture che escono da parcheggi senza autorizzazioni o bambini che si allontanano dai
genitori. In ambito produttivo inoltre questi sistemi consentono di inserire in oggetti quali Personal Computer, telefoni cellulari ecc. tutte le informazioni sul prodotto (data di fabbricazione, manutenzione effettuata ecc.) e sul proprietario (nome,
indirizzo ecc.) garantendo la massima qualità di servizio e
maggiore sicurezza.
B. Cappa,
Sintesi delle
Comunicazioni
telegrafiche e
telefoniche,
Palazzo delle
Poste,
Palermo.
Per cortesia
di: FMR.
114
comunicazione
e ricerca nelle
scienze della vita
116 Il Progetto Genoma
—
G. Della Valle, V. Politi, R. Bernardoni, G. Perini,
D. Grifoni
119 Comunicazione e orientamento nelle api
—
124 Parlarsi con le molecole disciolte negli oceani
G. Celli
—
P. Cortesi, O. Cattani,
G. Isani, G. Vitali, S. Sintoni
130 Il linguaggio degli ultrasuoni dei delfini
—
R. Lenzi, L. Bartoletti,
S. Sintoni, P. Cortesi
134 Impatto ambientale dei sistemi
di comunicazione — P. Bernardi, M. Cavagnaro,
136 Internet e net-culture
115
—
F. Berardi
S. Pisa, E. Piuzzi
G. Della Valle
V. Politi
R. Bernardoni
G. Perini
D. Grifoni
c omunicazione e r icerca nelle s cienze della v ita
il progetto genoma
Il Progetto Genoma è probabilmente il progetto più ambizioso intrapreso dall’uomo: lo scopo è quello di conoscere la
sequenza completa di tutto il genoma umano. Il genoma è
organizzato, all’interno del nucleo di ogni cellula, in strutture denominate cromosomi, che nell’uomo sono 23 coppie.
Nei cromosomi risiedono i geni, che a loro volta sono costituiti da DNA (acido desossiribonucleico). Il DNA è una molecola composta di sole quattro basi nucleotidiche (Adenina,
Guanina, Timina e Citosina) organizzate in sequenze differenti, così formando i diversi geni. Se pensiamo che la lunghezza totale del DNA contenuto nei 23 cromosomi è di circa 3 miliardi di paia di basi, possiamo immaginare come que-
sta sfida sia stata difficile e, allo stesso tempo, molto stimolante. È parso chiaro fin dall’inizio che un progetto di così
grandi dimensioni poteva essere portato a termine solamente attraverso sforzi coordinati tra i vari enti di ricerca del pianeta. Infatti, è con un adeguato grado di sinergia tra i ricercatori che si è potuta elaborare la grande massa di dati che
giorno dopo giorno aumentava costantemente. Alla partenza del Progetto Genoma Umano (lanciato dagli Stati Uniti nel
1988) si pensava che la decifrazione integrale del genoma
umano non potesse terminare prima del 2005; tuttavia, grazie alle continue innovazioni biotecnologiche e informatiche,
la data è stata anticipata al 2001. Quello che ci si aspetta dai
PROGETTO GENOMA
Determinazione dell’intera sequenza di nucleotidi
contenuti nei 46 cromosomi umani.
La sequenza è letta e organizzata dal computer.
Le sequenze del DNA di un individuo sano e uno malato
sono immesse nel computer e confrontate
al fine di identificare il gene responsabile della malattia.
Individuazione
del gene
responsabile
della malattia.
116
Struttura di una cellula animale
Struttura di un frammento
di DNA contenuto
nel nucleo cellulare
Cambiamenti nella struttura della beta-globina
diminuiscono la sua capacità di legare
l’ossigeno e portano alla comparsa di eritrociti
anomali con la tipica forma a falce
117
gli organismi superiori; una di queste è sicuramente la discontinuità dei geni; con tale termine si evidenzia che le porzioni codificanti per le proteine, chiamate esoni, sono interrotte da sequenze non codificanti, gli introni. Tali sequenze
vengono “tagliate” via nel processo della trascrizione e quindi, di fatto, ancora non si conoscono tutte le funzioni della loro presenza nel nostro patrimonio genetico.
Oltre agli introni, nel genoma esiste un’elevata quantità di
DNA, spesso costituito da sequenze ripetute, che non viene
utilizzato né per la sintesi proteica né per la regolazione dell’espressione genica. Il significato di queste regioni non è stato ancora chiarito: secondo alcune ipotesi accreditabili, le se-
Meccanismo di trasferimento della
informazione genetica dal DNA ad un
altro acido nucleico -RNA- (Trascrizione)
e da quest’ultimo alla proteina (Traduzione)
Mutazioni di un singolo
nucleotide nella
sequenza della
beta-globina possono
alterarne la struttura
e causare l’Anemia
Falciforme
Codice che converte
triplette di basi in
aminoacidi, i mattoni
delle proteine
c omunicazione e r icerca nelle s cienze della v ita
risultati del Progetto Genoma è di scoprire l’origine di tante
malattie genetiche ereditarie, di poter fare progressi nel campo della diagnostica molecolare e della terapia genica. Conoscere la sequenza e la localizzazione dei geni permetterà
inoltre di agire in maniera selettiva e mirata anche contro
malattie come il cancro e l’Aids.
L’ultimo livello di questa indagine biomolecolare è l’analisi delle sequenze ottenute; si cercherà cioè di capire se il frammento che è stato analizzato fa parte di particolari regioni regolatrici del gene oppure se rappresenta una parte codificante del prodotto proteico finale. A complicare questo tipo di interpretazioni intervengono alcune peculiarità del genoma de-
c omunicazione e r icerca nelle s cienze della v ita
quenze ripetute potrebbero avere un ruolo, o averlo avuto,
nel corso dell’evoluzione. Quindi, oltre alle linee di studio concernenti la terapia genica, la lotta contro le malattie genetiche
e tumorali e il perfezionamento di test diagnostici molecolari,
un’ulteriore e affascinante branca della biologia che trarrà importanti informazioni dai risultati ottenuti sarà lo studio evolutivo dei genomi di differenti organismi. Se pensiamo che le
differenze nucleotidiche tra il genoma umano e quello di alcune scimmie antropomorfe sono dell’ordine dell’1-2%, sarà
di estremo interesse capire in che cosa consistano e a carico
di quali geni siano.
Il grande progresso tecnologico nel campo dell’informatica ha
infine permesso un’ottimale rielaborazione dei dati ottenuti e
Un essere umano è
costituito circa da
10.000 mld di cellule
un più efficace interscambio tra i vari ricercatori e scienziati
impegnati nel progetto; le banche dati ora disponibili in rete
permettono l’identificazione di sequenze fra loro correlate e
possono offrire così un indizio per determinare la funzione dei
geni. In estrema sintesi, il sequenziamento del genoma umano consiste nel punto di partenza fondamentale per lo studio
e l’interpretazione di un codice antico e non più segreto; pochi elementi di base in grado di dare una varietà quasi infinita di combinazioni che ora conosciamo e di cui possiamo finalmente iniziare a comprendere il significato.
Ogni cellula contiene 46 cromosomi per un totale di
100.000 geni distribuiti in 2 m circa di informazione
genetica (Acido Desossiribonucleico -DNA-).
Ogni cromosoma, lungo circa 2 millesimi di millimetro, contiene in media
150 milioni di coppie di nucleotidi
(A=Adenina, C=Citosina, T=Timina,
G=Guanina)
Tutte le immagini di questo articolo sono
dovute alla cortesia degli Autori del testo.
118
G. Celli
Il 9 maggio del 1963, il professor Karl von Frisch, vincitore,
nello stesso anno, del premio Balzan per la biologia generale,
e che dieci anni dopo riceverà il Nobel insieme a Konrad Lorenz e a Niko Tinbergen, tenne una conferenza a Roma presso l’Accademia Nazionale dei Lincei. L’argomento era “Il linguaggio delle api”, ai confini, secondo alcuni, che separano
la scienza dalla fantascienza, e che ha costituito per von Frisch
la scoperta più importante, anche se non la sola, dalla sua
lunga vita di ricercatore.
Da sempre si era autorizzati a pensare che gli animali, faccio
un po’ di semiologia selvaggia, si scambiassero soltanto dei segnali, dotati di una intensa valenza emotiva. In un gruppo di
uccelli alla pastura, quello che ha intravisto nel cielo il volo circolare di un falco, lancia un grido. Quel grido non significa falco, ma piuttosto comunica la paura che il falco evoca in chi lo
ha visto, e la trasmissione di questa emozione mette in allarme
i compagni della improvvisata sentinella, che volano via. Se al
contrario, un uomo grida leopardo, sicuramente la parola avrà
una sua aura emozionale, ma nel contempo informerà più precisamente i compagni, che sanno, per convenzione, come a
quel suono corrisponda un leopardo, e non, mettiamo, un’aquila, e che il pericolo ha quattro zampe e non le ali. L’uomo,
aveva scritto Cassirer, è un animale simbolico; von Frisch si peritava di aggiungere: anche l’ape, in una certa misura, lo è. In
che senso? Vengo subito al nocciolo della questione: fin dai
tempi di Aristotele, che ne fa per l’appunto menzione nelle sue
opere, si sapeva che le api di ritorno all’alveare, dopo avere
raccolto sui fiori del nettare e del polline, mettono in atto delle curiose giravolte, che sembrano interessare molto le compagne. Che funzione assolvevano? Chissà!
Qualche millennio dopo, nel 1788, Ernst Spitzner, che aveva
pensato di studiare l’alveare impiegando un’arnia “a finestra”, e cioè con le pareti di vetro, nota la curiosa danza, e
pensa che serva all’ape per meglio diffondere in giro l’odore
dei fiori visitati, sollecitando così le compagne a seguirla sul
luogo del bottino. Nel 1901, guarda guarda, entra in scena un
poeta drammaturgo belga, Maurice Maeterlinck, dilettante di
apicoltura, che decide di scrivere un libro sulle api e i loro costumi, “La vie des abeilles”. Diventerà un best-seller mondiale, e contribuirà non poco al prestigio di Maeterlinck, che vincerà il Nobel per la letteratura dieci anni dopo. Le api portano fortuna, insomma! Lo scrittore, pensate un po’, sfiora la
grande scoperta. Ha osservato a sua volta le danze, e ha subodorato che costituiscano una sorta di linguaggio gestuale.
Capisce al volo come affrontare il problema: mette una coppella di miele sul davanzale della finestra del suo studio, e
aspetta che un’ape dell’alveare posto negli immediati dintorni, venga a far bottino. Mentre sugge il miele, Maeterlinck la
marca con una macchiolina di colore, e lascia che ritorni a ca-
119
sa. Qui, attraverso il vetro a parete della sua arnia, la osserva
mentre danza a suo piacimento, seguita dalle compagne, e la
cattura quando sta per involarsi di nuovo. Se le altre api giungeranno numerose a bottinare la coppella di miele, senza essere state guidate dalla danzatrice sul posto, significa che
quest’ultima ha comunicato loro la direzione e la distanza del
tesoro zuccherino. N’est pas? Ahimé, solo un’ape si fa viva, e
Maeterlinck non sa se attribuire la sua presenza al caso. Per
cui, i poeti sono volubili, abbandona la ricerca sul campo, e
preferisce speculare sui misteri, e su quello “spirito dell’alveare” che darebbe ragione di ogni cosa.
La persona che entra in scena a questo punto, Karl von Frisch,
è di ben altra tempra. Il suo motto potrebbe essere non solo
provando e riprovando... ma riprovando ancora! Giovane assistente presso l’Università di Vienna, comincia la sua carriera
scontrandosi frontalmente con un “barone” della facoltà di
Medicina, il professor Karl von Hess, illustre oftalmologo.
Questo scienziato aveva decretato che le api non vedono affatto il colore dei fiori, che pure frequentano così attivamente. Il nostro von Hess si era convinto di questo in forza di una
sua esperienza, che ora vi racconto. Gli oftalmologi sanno bene che quando si scompone la luce bianca nello spettro cromatico, la banda gialla, per un uomo normale, risulta la più
luminosa. Invece, per un daltonico, appare tale quella che va
dal giallo-verde al verde. Bene, mettendo delle api in ambiente confinato, von Hess aveva constatato che era proprio verso questa banda cromatica che si dirigevano di preferenza.
Era lecito concludere, così, che fossero anche loro cieche ai
colori. Ma se per un uomo di laboratorio, come von Hess, la
cosa pareva plausibile, per un naturalista era difficile da mandar giù. Difatti, i colori dei fiori sarebbero, dunque, non delle
esche percettive per attirare le api, ma un semplice lusus naturae? Incurante dei rischi di contraddire un “barone”, il giovane von Frisch si mette all’opera. Pone, tra cartoncini di diversi colori, un cartoncino, per esempio blu, con sopra una
ciotolina di acqua zuccherata. Le api, per caso, scoprono la
manna, e a poco a poco, associano il colore blu all’offerta di
cibo. Si sposti, allora, la posizione del cartoncino colorato sulla scacchiera: l’ape non esita, e punta dritta sul blu. Dunque,
lo vede, se no come farebbe? Vede i colori, ma è cieca al rosso - finisce per mettere in luce von Frisch - e percepisce l’ultravioletto, al quale noi siamo del tutto ciechi. A ogni modo,
Davide ha battuto Golia, dimostrando che se tutto il reale non
è razionale, come voleva Hegel, tende, se perdura nel tempo,
a diventarlo. Possibile che i colori dei fiori, così vari e splendenti, non servissero a nulla?
E quelle danze, allora? Mediante l’impiego di un arnia a vetri,
e ideando una tecnica di addestramento progressivo delle api,
il nostro von Frisch scopre ben presto che esistono due diver-
c omunicazione e r icerca nelle s cienze della v ita
comunicazione e orientamento
nelle api
c omunicazione e r icerca nelle s cienze della v ita
si modi di danzare. Difatti, l’ape che rientra con il suo carico
di nettare o di polline, si mette a danzare “in tondo”, oppure compie un percorso a forma di otto rovesciato sul fianco,
costituito, in parole povere, da due semicerchi collegati da un
tratto rettilineo. Mentre la bottinatrice percorre questo segmento muove l’addome pendolarmente a destra e a sinistra,
per cui la danza viene detta dell’addome, o scodinzolante,
oppure “a otto”, come si preferisce. Mentre percorre il tratto
rettilineo, l’ape, contraendo i muscoli alari, emette delle sequenze sonore. In principio, von Frisch si sbaglia, pensa che la
danza “in tondo” venga messa in atto dalle api che raccolgono il nettare, mentre quella scodinzolante dalle api che raccolgono il polline. Ci sono voluti due decenni di prove e controprove perché la faccenda venisse chiarita definitivamente.
Il nettare e il polline non c’entrano per niente! Vedremo più
avanti come le api danzino “in tondo” quando il cibo è più vicino all’alveare, e scodinzolino quando è più lontano, e von
Frisch, che le allettava con delle soluzioni zuccherine, equivalenti del nettare, sistemava sempre le coppelle in prossimità
dell’alveare, per cui tutte le api che le bottinavano, al rientro
danzavano “in tondo” e non “a otto”.
Nel 1946, von Frisch comunica al perplesso mondo scientifico
di aver del tutto decifrato “il linguaggio delle api”. Quando
l’ape danza “in tondo” sul favo, il messaggio per la compagna potrebbe suonare così: “c’è del cibo qui attorno: cercatelo!”. Per la danza dell’addome le cose si complicano, per-
Fig. 1- La spiegazione è nel testo
chè l’ape che ha trovato dei fiori ricchi di nettare o di polline
comunica alle compagne la direzione, e la distanza del bottino. Dobbiamo premettere che il nostro insetto si orienta nei
suoi spostamenti sul territorio impiegando il sole, di cui sa
compensare gli spostamenti giornalieri, come una bussola
astronomica. In poche parole, quando l’ape che ha fatto bottino rientra, danza sul favo secondo diverse modalità:
- se i fiori si trovano su di una linea retta immaginaria che collega l’alveare al punto a terra corrispondente alla posizione
del sole, il coreogramma avrà il tratto rettilineo sul favo perpendicolare al suolo, e cioè nella direzione della gravità, e l’ape danzerà sempre con la testa “verso l’alto”;
- se è l’alveare a trovarsi tra i fiori e il punto a terra del sole, il
coreogramma sarà lo stesso, ma l’ape danzerà con la testa
“verso il basso”;
- se i fiori si trovano spostati a destra, o a sinistra dell’alveare,
il tratto rettilineo della danza dell’addome risulterà inclinato
sulla perpendicolare di un angolo uguale a quello formato
dalle due rette immaginarie che collegano l’alveare ai fiori e
l’alveare al punto a terra del sole (Fig. 1).
Questo per la direzione. E per la distanza? Beh, l’ape danza
tanto più rapidamente quanto più è vicina la sorgente zuccherina, e viceversa. Per cui, in una unità di tempo convenzionale, per esempio quindici secondi, il numero di rivoluzioni totali della danza a otto presenterà una buona correlazione con la distanza dei fiori, e del pari il numero di scodinzolamenti, o quello dei percorsi rettilinei. Possiamo considerare legittimamente queste danze come un linguaggio? Si direbbe
proprio di sì, perché la comunicazione avviene attraverso un
insieme di gesti convenzionali. La comprensione del loro significato deve essere condivisa dall’ape che danza e dalle
compagne che la seguono sul favo, una condizione essenziale per ogni comunicazione segnica. Hockett e Altmann hanno
stilato alcuni anni fa una sorta di decalogo dei caratteri peculiari del linguaggio umano, consentendo un paragone con
quello delle api. Su sedici caratteri nostri, almeno sei sono attribuibili anche all’insetto: l’intercambiabilità, la specializzazione, la semanticità, l’arbitrarietà, la traslatività, il feed-back
completo. Altri caratteri sono da considerare con il beneficio
del dubbio. Per esempio, sembra che le bottinatrici giovani, rispetto alle anziane, danzino peggio, per cui non sarebbe
escluso un certo apprendimento. Inoltre, gli scodinzolamenti
non potrebbero venir considerati come degli elementi discreti del messaggio? Infine, le api possono contraddirsi, e perfino mentire? In senso latissimo, forse sì, e lo vedremo in seguito. Il passaggio dalla danza “in tondo” a quella dell’addome, come si è accennato, si verifica quando la distanza della
sorgente di cibo supera una certa soglia metrica. In tal senso,
le razze delle api presentano delle differenze, paragonabili a
dei dialetti. Se poi tali differenze sono riferibili alle diverse specie del genere, è forse legittimo affermare che si tratti non più
solo di dialetti, ma di lingue vere e proprie. Evidentemente
parliamo per analogie, se non per metafore, ma si consulti a
riguardo la figura 2 (Fig. 2).
Il fatto che l’ape sia il solo essere che, in natura, abbia elaborato un linguaggio segnico, non era cosa da venir accettata
dai biologi facilmente. Increduli, molti ricercatori, Wells e
120
semplici, detti ocelli, sensibili alla luce e basta, per cui se vengono verniciati le api rientrano in anticipo nell’alveare la sera
ed escono più tardi al mattino. Aggiungiamo che le bottinatrici in presenza del sole o di una lampadina orientano il tratto
rettilineo della danza direttamente verso la luce. Che cosa ha
pensato di fare Gould? Di verniciare gli ocelli di alcune bottinatrici, e di porre all’interno dell’alveare un “punto-luce”, d’intensità così debole da essere percepito dalle api con gli occhi
normali, ma non da quelle con gli ocelli resi sperimentalmente
opachi. Che cosa è successo? Dato che il cibo si trovava sulla
linea che collega l’alveare al punto a terra del sole, le danzatrici cieche alla luce delle lampadine hanno danzato sulla verticale, mentre le altre, che erano in grado di percepirla, hanno
pensato, in senso latissimo: che la compagna mentisse, e hanno interpretato il tratto rettilineo del coreogramma non come
posto sulla direzione della gravità, ma inclinato di un angolo
pari a quello formato tra la verticale e la linea che puntava alla sorgente luminosa. E si sono recate, per l’appunto, dove c’era la coppella vuota e dove le aspettava lo sperimentatore.
Dunque, non possono più esistere dei dubbi che la danza dell’ape assolva una funzione di comunicazione, e proprio secondo la semantica messa in luce da von Frisch! (Fig. 3).
Ma non possiamo fare a meno, ora che ci siamo convinti che
le api, per dir così, “parlino danzando”, di chiederci quando, e
come abbia avuto origine questa gestualità prodigiosa. Evidentemente, per i comportamenti, non possono esistere dei
reperti paleontologici, per cui si deve congetturare sul presente, ricorrendo all’osservazione di specie vicine, preferibilmente
più primitive, oppure sconfinando perigliosamente per cogliere qualche analogia etologica in insetti anche sistematicamente lontani. Per esempio, alcuni anni fa, Dethier e i suoi collaboratori hanno osservato in un dittero calliforide, si trattava di
Fig. 2- Dialetti e lingue nelle diverse
specie del genere Apis, e nelle razze di
A. mellifera. La spiegazione è nel testo.
c omunicazione e r icerca nelle s cienze della v ita
Wenner in testa, si sono messi, dagli anni Sessanta in poi, a
sparare a zero su von Frisch. Nessuno poteva negare che le api
danzassero, ma quelle loro giravolte non potevano essere delle manifestazioni di esultanza, senza alcuna funzione comunicativa? Rifaceva capolino, come nel caso dei colori, l’idea di
un lusus naturae, e anche questa volta von Frisch era destinato, come vedremo, a vincere la partita. Però, era pur vero che
le api trovavano abbastanza facilmente le coppette sperimentali, e se non era una indicazione “via danza”, che cosa le faceva giungere sul luogo del bottino così puntualmente? Insomma, qualcosa doveva pure guidarle! Bisogna sapere, allora, che le api sono dotate di una grossa ghiandola a erogazione di profumo, la cosiddetta ghiandola di Nassonov, per
cui, spesso, quando frequentano delle sorgenti di cibo, lasciano dei marchi olfattivi. Non sarà, allora, cominciarono a insinuare i detrattori di von Frisch, che siano stati semplicemente
degli odori, e non delle danze, a orientare le api in cerca di cibo sul territorio? Talune esperienze di von Frisch sembravano
non aver tenuto conto di questa eventualità e mostravano il
fianco al dubbio.
Non è qui la sede, vista la brevità del mio intervento, per descrivere le esperienze “a botta e risposta” che per più di due
decenni hanno contrassegnato il dibattito tra von Frisch e i
suoi avversari scientifici. Alla fine, Gould, un etologo americano, ha ideato l’esperienza cruciale, che ora vi descrivo. Di recente, Richard Dawkins, in un suo libro sull’evoluzione, purtroppo mal tradotto in italiano, ne ha sottolineato la genialità.
Le api, dobbiamo premettere, sono provviste di due occhi
composti, formati da tanti elementi singoli, detti ommatidi,
che consentono loro di percepire, oltre a certi colori, le forme
un po’ grossolane dei fiori, e delle cose del mondo in genere.
Inoltre, sulla testa mostrano, disposti a triangolo, tre occhi
c omunicazione e r icerca nelle s cienze della v ita
Fig.3- Esperienza
di Gould:
la spiegazione
è nel testo.
una Phormia, un comportamento davvero strano. Offrite ad
un adulto di questa mosca una gocciolina di miele, aspettate
che l’assaggi a piacimento, e fatela sparire. L’insetto comincerà a girare in tondo, tanto più velocemente quanto più di suo
gusto era il cibo. Si tratta delle manifestazioni di entusiasmo
per quel premio or ora scomparso? Non vi fa venire in mente
la “danza in tondo” delle api? Tra l’altro, se un’altra mosca si
avvicina, e tocca con la sua la proboscide della danzatrice, lei
non esita a rigurgitarle un po’ del suo miele.
Le Phormia non sono di certo sociali, eppure questi scambi di
cibo non potrebbero essere i primordi di una tendenza alla vita di gruppo? E non si può congetturare che, all’inizio, certe
specie abbiano imboccato la via della socialità cominciando a
spartire tra di loro un po’ dell’alimento rinvenuto? Altro fatto
singolare: quando la mosca succitata, danzando in circolo,
viene investita da un fascio luminoso, il suo percorso si fa ellittico, dimostrando una reattività alla luce, che entra, come
abbiamo visto, nel repertorio comportamentale della nostre
api. Ma per esplorare le origini della danza dell’addome scomponiamo i coreogrammi nei loro morfemi, anche se non è per
nulla legittimo, ma di comodo, considerarli tali. Prendiamo in
esame, subito, la trasposizione della danza da orizzontale a
perpendicolare, e, in seguito, il tratto rettilineo tra i due emicicli. Come si sa, il genere Apis è formato da quattro specie,
Apis florea, la cosiddetta ape nana, A. dorsata, o ape gigante, A.cerana, o ape indiana, e per questo indicata un tempo
come indica, e l’A. mellifera, che ci riguarda più da vicino. L’ape nana sarebbe comparsa, probabilmente, più di dieci milioni di anni fa, e risulterebbe la più antica. L’ape gigante sarebbe invece più recente, risalendo a cinque milioni di anni, e le
altre due specie la cerana e la mellifera avrebbero visto la luce circa centomila anni fa, o giù di lì, e dunque risulterebbero, per dir così, giovanissime. Secondo un punto di vista evolutivo, non si sa se del tutto legittimo, le specie più antiche
presenterebbero dei comportamenti più primitivi, e ci consentirebbero di risalire alle origini di quelli più complessi. Sarà vero? Beh, diamo per buona questa ipotesi e vediamo dove ci
porta. L’ape nana costruisce un nido composto da un solo favo appeso al ramo di un albero, en plain air, con un’ampia
piattaforma superiore. La sua danza dell’addome viene eseguita su questa piattaforma, e dunque in orizzontale, e il trat-
to rettilineo indicherebbe direttamente la sorgente di cibo.
L’ape gigante edificherebbe, a sua volta, un grosso favo appeso a un robusto ramo, o a uno spuntone di roccia, senza alcuna pista di danza superiore, ed eseguirebbe le sue evoluzioni “a otto” trasponendole, come fanno A.cerana e A. mellifera, sulla verticale del favo. Come si sa anche quest’ape
danza nella piena luce del sole.
A proposito di questa conversione del tratto rettilineo della
danza dall’orizzontale alla verticale, possiamo, come per la “
danza in tondo “ ricorrere a una analogia, e cioè a un comportamento osservato non più nei ditteri calliforidi, ma questa
volta nei coleotteri coccinellidi. Prendiamo, per esempio, Hippodamia convergens: questa coccinella, se viene fatta deambulare su di una superficie orizzontale, il suo percorso si svolge secondo un certo angolo rispetto al sole, o a un’ altra sorgente di luce. Se l’illuminazione cessa, e la superficie su cui si
muove viene posta verticalmente, la coccinella continua a
camminare mantenendo lo stesso angolo, indifferentemente
a destra e a sinistra. Perchè lo fa? Non si sa proprio; però questa sua performance mostra una curiosa predisposizione di
trasporre il proprio percorso mantenendo costante l’angolo,
un fatto che nell’ape assume, come si è già visto, una particolare pregnanza semantica. Le quattro specie di api, tra l’altro, impiegano o no un rinforzo sonoro della gestualità della
danza. Le api che danzano all’aperto, come la nana o la gigante, restano, durante il percorso rettilineo, pressoché silenziose. Le altre due specie, l’ape cerana e la mellifera, che danzano nel buio del nido, quando percorrono il tratto tra i due
emicicli emettono delle scariche di suoni, come se nelle tenebre non fosse sufficiente il movimento, ma servisse anche il
rumore, per attirare l’attenzione delle compagne.
A dire il vero, anche A. florea si vale di una, per dir così, punteggiatura sonora, ma non paragonabile a quella delle due
specie succitate, perchè quasi impercettibile. L’origine dell’altro morfema, il tratto rettilineo, è apparentabile, forse, al consolidamento specifico di un movimento di intenzione. Si sa
che gli animali esibiscono spesso delle posture ritualizzate, per
usare la terminologia di Julian Huxley. Un ragno, durante il
corteggiamento, compie attorno alla femmina un percorso
circolare, che fa parte ormai del repertorio della sua specie. Al
principio, si può supporre che gli antenati di quel ragno fossero posseduti da due pulsioni contrastanti, il desiderio di avvicinarsi alla femmina e la paura di venire divorati. Per cui, la
componente cinematica era un movimento di avanti-indietro,
che, sottoposto al vaglio della selezione naturale, ha finito per
entrare a far parte dei modelli motori ereditari della specie, diventando un elemento caratteristico del suo etogramma. Il
tratto rettilineo della danza in A. florea sarebbe stato, all’inizio, la corsa per decollare, diretta verso la sorgente di cibo, e
diventata, nel succedersi delle generazioni, il percorso tra i
due emicicli dell’intera evoluzione della danza. Sembra intuitivo supporre che i due emicicli stessi siano il relitto di una
doppia “corsa in tondo” e così via. Sicuramente, porre tutto
questo puzzle di movimenti come la base per il manifestarsi di
un linguaggio gestuale così raffinato come quello che abbiamo descritto, sfiora il ridicolo, e va considerato, come una indagine poliziesca, alla stregua di un insieme di indizi ancora
122
ben lontani dalla soluzione del problema. A ogni modo, degli
indizi sono sempre meglio di niente: perlomeno ci suggeriscono la pista da seguire.
Volevo parlarvi, non solo dei sistemi di comunicazione delle
api, ma anche di come si orientano sul territorio, e temo di
poter trattare questa seconda parte solo sommariamente. Le
api si orientano con il sole quando il cielo è sereno, e se è parzialmente coperto, mediante la luce polarizzata visibile attraverso qualche squarcio di nuvola. Si sa, infatti, che la polarizzazione del cielo varia secondo la distanza dal sole, e anche
se la controversia sul come è ancora in corso, sembra accertato che le api siano in grado di valutare tale diversità e di tenerne conto nell’orientarsi. Quando il cielo è totalmente coperto, i punti di riferimento nel paesaggio, alberi, campanili,
così via, diventano prioritari.
Ma per concludere vorrei trattare con qualche dettaglio una
ipotesi che io e la mia équipe abbiamo di recente sottoposto
a esperienza. L’ipotesi si colloca nell’ambito di quella nuova
etologia, l’etologia cognitiva, di ascendenza piagetiana, ma
che ha trovato in Griffin un illustre capofila. Questa etologia,
che sta, a poco a poco, spiazzando quella classica, si ripromette di verificare sperimentalmente se gli animali abbiano, o
no, uno “spazio mentale”, se in qualche misura siano abilitati a pensare, e perfino se siano in possesso di un barlume di
coscienza. Si tratta di una questione suscettibile di venire sottoposta a esperimento? Ma sì, perché se tra la percezione e
l’azione si può mettere in luce una elaborazione, significa che
l’animale ha compiuto delle operazioni mentali. Ma quando si
pensa, si rappresenta, e la rappresentazione, per gli etologi
cognitivi, è la chiave di volta per entrare nella stanza di Barbablù del pensiero animale. Nel caso delle api, ci si è chiesto
se siano dotate di una mappa cognitiva del territorio che frequentano. Come accertarlo? Semplice, per lo meno a dirsi: se
sono capaci di elaborare delle scorciatoie significa che hanno
la possibilità di progettare un percorso nuovo, e di progettar-
lo, in senso lato, mentalmente. In parole povere, la ricetta
sperimentale è questa: si colloca un alveare in un certo territorio, e si lascia che per qualche giorno, le bottinatrici lo percorrano in lungo e in largo (Fig. 4).
Dopo si addestrano alcune, debitamente marcate con colori e
numeri, a bottinare una coppetta di soluzione di miele posta
su di una piattaforma a diversa distanza dall’alveare. In seguito, catturate all’uscita dall’arnia o direttamente, prima che si
alimentino, sulla piattaforma suddetta, le api marcate vengono poste in un tubo oscurato, e celermente trasferite in un
punto del territorio da cui, per la presenza di alti alberi, non
sia possibile vedere direttamente nè l’alveare, nè il luogo dove si trova le soluzione di miele. L’aspettativa sperimentale è
questa: se le api, orientandosi con il sole, rientrano all’alveare
per poi ripartire verso la piattaforma, significa che non sono
provviste di alcuna mappa cognitiva. Al contrario, se si dirigono direttamente verso l’offerta di miele significa che sono state capaci di progettare una vera e propria scorciatoia, e di percorrerla fino alla meta. Attualmente, la faccenda sta più o meno così: Gould, secondo le sue esperienze, afferma che le api
sono in possesso di una mappa cognitiva, e Wehner in forza
delle sue, lo nega. I nostri risultati sono ancora in corso di elaborazione, e tuttavia propendiamo per convalidare Gould e
per dare torto a Wehner. E’ pur vero che abbiamo notato una
certa variabilità nel comportamento; alcune api, insomma, sarebbero più sollecite di altre a elaborare e a imboccare delle
scorciatoie. Ma il dibattito attuale tra gli sperimentatori sembra sia su che cosa si debba intendere per mappa cognitiva.
Per qualche verso la controversia appare più teorica che empirica, più filosofica che sperimentale, e noi siamo un poco
sgomenti.
BIBLIOGRAFIA SOMMARIA
Alcook J., Etologia. Un approccio evolutivo, Zanichelli, Bologna, 1995.
Dawkins R., Il fiume della vita, Rizzoli, Milano, 1996.
De Ceccaty M., La vie de la cellule a l’homme, Seuil, Paris, 1962.
Free J.B., L’organizzazione sociale delle api, Edagricole, Bologna, 1982.
Gervet J., Livet P., Tete A., La représentation animale, Presses Universitaires de Nancy, 1992.
Griffin R.D., L’animale consapevole, Boringhieri, Torino, 1979.
Khalifman J., Les abeilles, Ed. langue francaise, Moscou, 1953.
Lindauer M., Il linguaggio delle api sociali, Zanichelli, Bologna, 1975.
Maeterlinck M., La vie des abeilles, Bibl. Charpentier, Paris, 1923.
Vauclair J., L’intelligenza degli animali, Rededizioni, Como, 1996.
von Frisch K., Vie et moeurs des abeilles, Albin Michel, 1959 (Esiste anche una traduzione italiana, Nel mondo delle api, Edagricole, Bologna, 1951)
Il linguaggio delle api, Boringhieri, Torino, 1976.
Memoire d’un biologiste, von Frisch, (1886-1982), Berlin, Paris, 1987.
Wilson E. G. - Le società degli insetti, Einaudi, Torino, 1976.
Zoosemiotica, a cura di T.A. Sebeok, Bompiani, Milano, 1973.
Fig. 4- Mappa cognitiva:
la spiegazione è nel testo.
Tutte le immagini di questo articolo sono
dovute alla cortesia dell’Autore.
123
c omunicazione e r icerca nelle s cienze della v ita
Gould J., Gould C.G., Les abeilles, Pour la Science, Paris, 1993.
P. Cortesi
O. Cattani
G. Isani
G. Vitali
S. Sintoni
parlarsi con le molecole disciolte
negli oceani
INTRODUZIONE
c omunicazione e r icerca nelle s cienze della v ita
La capacità di percepire segnali da biomolecole rilasciate nell’ambiente viene chiamata chemorecezione. I sistemi chemosensoriali, gustativi ed olfattori, nei pesci sono molto bene sviluppati e servono a provocare molti comportamenti di importanza fondamentale come la ricerca del cibo, la ricognizione
e localizzazione di habitat familiari e/o preferiti, la fuga da
predatori, e la comunicazione intraspecifica (esempio di riunione in sciame, fig. 1).
L’evoluzione ha favorito nei pesci lo sviluppo di questi sistemi
per due principali ragioni:
1. Processi biologici negli animali acquatici: rilascio di molecole “segnale” negli oceani
- osmoregolazione
- metabolismo
- ferite, morte e degragazione
2. Recettori di biomolecole “segnale”
Evoluzione
Lenta e tardiva
Recettori
Poco complessi
Molto complessi
Uniformi
Miscele molto complesse
Scarso
Elevato
Biomolecole “segnale”
Contenuto di informazione
Molto precoce
Nei pesci predomina
questa linea evolutiva
Fig. 1 - Sepo
(Severo Pozzati)
“Migrazione di
pesci”, tempera,
1929 (riproduzione).
Un felice esempio
di complementarietà
tra scienza e arte.
I recettori di natura proteica sembrano di una struttura simile
tra loro, pur essendo specifici per ciascuna sostanza odorosa;
attualmente sono stati identificati nei Pesci circa un centinaio
di recettori ma, essendo questi studi solamente allo stadio iniziale, si pensa che potrebbero ammontare fino a una decina
di migliaia (fig. 2). Un analogo sistema ancora più complesso
sembra funzionare per la produzione di anticorpi.
Come tutti i Vertebrati, i pesci hanno due sistemi che captano segnali chimici ben definiti: gusto ed olfatto. Il sistema del
gusto è costituito da gemme del gusto (fig. 3), da nervi con le
loro proiezioni medullari e da cellule chemosensoriali solitarie
sparse nell’epidermide (queste ultime cellule risultano assenti
negli altri Vertebrati). Il sistema dell’olfatto è costituito da un
organo olfattorio, da un epitelio olfattorio, da un bulbo olfattorio e dal prosencefalo. Infine, pare che abbiano capacità
chemorecettive anche i sistemi del trigemino e della linea laterale. Alcune notevoli differenze sono state evidenziate tra
pesci e tetrapodi nei sistemi gustativi e olfattori (v. tabella).
PESCI
TETRAPODI
- sistema gustativo esteso
anche alla superficie
corporea esterna
- sistema gustativo ristretto
unicamente alla cavità
buccale
- un unico sistema
olfattorio che riunisce le
due componenti dei
Tetrapodi
- due distinti sistemi
olfattori (principale ed
accessorio)
- il sistema olfattorio
distingue circa un
centinaio di biomolecole
“segnale"
- il sistema olfattorio
distingue un numero
molto più elevato di
biomolecole “segnale”
- questo minor numero di
biomolecole “segnale” e la
relativa facilità della
sperimentazione fanno
prediligere i pesci come
modelli nello studio della
chemorecezione.
Importanti modelli delle funzioni chemosensoriali sono stati
finora il pesce gatto, il pesce rosso ed il salmone. Poco ancora si sa sulle capacità chemosensoriali delle oltre 24.000 specie di pesci che potrebbero presentare differenti capacità e
specificità chimiche a causa della diversa natura del loro habitat e della tassonomia.
Fig. 2 - Il recettore del “segnale” è una proteina inserita nella
membrana cellulare e contiene sette avvolgimenti ad α-elica.
Le eliche transmembrana sono rappresentate dai “grappoli”
di cerchietti (da Stryer, Biochimica, Zanichelli, 1996).
124
Fig. 6
Fig. 4
Fig. 3 - Particolare di un apparato del sistema del gusto: gemme tra
le scaglie di Poecilia reticulata; si vedono due cavità rotonde che
interrompono la continuità delle scaglie, ciascuna cavità rappresenta
il poro di una gemma del gusto. Le piccole strutture simili a un
bulbo, visibili dentro la cavità, corrispondono all’estremità del
microvillo che caratterizza la porzione libera di una cellula del gusto
(ingrandimento di 9600 volte; da P. Graziadei in “Chemoreception
of fishes”, ed. Grant e Mackie, Academic Press, 1974).
BIOMOLECOLE STIMOLANTI L’OLFATTO E IL GUSTO
I composti che funzionano da stimolanti dell’olfatto e del gusto dei pesci sono tendenzialmente piccole molecole tipiche
dei processi metabolici che vengono disperse negli oceani, solubili in acqua. Sono state descritte per molte specie di pesci
quattro principali classi di molecole “segnali”:
1) amminoacidi
2) acidi biliari
3) ormoni sessuali steroidei e derivati
4) prostaglandine
Inoltre possono avere attività olfattiva e/o gustativa anche vari alcooli, ammine, acidi carbossilici, piccoli peptidi, nucleotidi
e idrocarburi aromatici.
AMMINOACIDI
ACIDI
BASICI
NON POLARI
A CORTA CATENA
NON POLARI
A LUNGA CATENA
R–COO-
R–NH+3
R–CH3
R–(CH2)n–CH3
Struttura generale di un L-amminoacido:
COOH
NH2 – Cα – H
R
I pesci ricevono stimoli olfattivi e gustativi dagli L-amminoacidi (es. L-serina, fig. 4), i componenti delle proteine, per il reperimento del cibo e per relazioni sociali. Ad eccezione della
lampreda, Petromyzon marinus, che capta segnali solo dalla
L-arginina, tutti gli altri pesci esaminati sono in grado di percepire, disciolta nel mare, la maggior parte degli L-amminoacidi naturali.
Gli L-isomeri risultano molto più potenti dei D-isomeri e sia il
gruppo α-amminico sia il gruppo α-carbossilico sono importanti per potenziare la suddetta attività (Fig. 5). Tali composti
125
agiscono in concentrazioni nanomolari sull’olfatto e in concentrazioni millimolari-micromolari sul gusto in dipendenza delle singole specie. Il gusto dei Pesci è generalmente insensibile a moderate concentrazioni degli stimolanti classici del gusto di altri Vertebrati (sali, zuccheri e acidi).
Recentemente sono stati caratterizzati almeno
quattro siti recettori indipendenti per altrettanti quattro tipi di amminoacidi (v. tabella).
Studi recenti hanno evidenziato che esistono
altri recettori addizionali in grado di discriminare miscele di amminoacidi. Nel pesce gatto è stata messa in evidenza una differente
sensibilità delle fibre del gusto ai vari amminoacidi:
Analizzando il sistema del gusto in 27 specie
di pesci sono stati identificati due differenti
gruppi:
• nel primo gruppo, comprendente dieci specie, tale sistema risponde a molti differenti
amminoacidi (“ampia gamma di risposta”),
es. il pesce gatto;
• nel secondo gruppo, comprendente 17 specie molto più selettive, lo stesso sistema viene stimolato solo da pochi amminoacidi (“limitata gamma di risposta”), es. i salmonidi.
Fig. 8
ACIDI BILIARI
Questi composti steroidei che intervengono nei processi digestivi solubilizzando i grassi ingeriti con il cibo, possono essere
riassorbiti o rilasciati nell’ambiente funzionando così da biomolecole attive nella chemorecezione (Fig. 6). A tal riguardo i
salmonidi allo stadio giovanile nel tratto di fiume nativo più vicino alla fonte possono svolgere la funzione di attraenti migratori per il ritorno dall’oceano degli adulti nella risalita del
fiume di origine (Fig. 7). Con una soglia di 10-11 M tali com-
Fig. 7 - Risalita di
salmoni nel fiume
di origine.
Fig. 5 - Configurazioni
assolute degli
stereisomeri L- e Ddegli amminoacidi.
R indica la catena
laterale.
Fig. 4, 6, 8 Le spiegazioni
sono contenute
nel testo.
Fig. 9 Riferimenti
nel testo.
posti stimolano l’olfatto di molte specie (pesce rosso, suckers,
pesce gatto, salmone, zebrafish).
Nella lampreda di mare agiscono quattro classi di acidi biliari
con specificità e sensibilità estreme. Questi composti possono
rivestire molte funzioni nella chemorecezione perché possono
essere prodotti da specie più o meno affini tra loro.
ORMONI STEROIDEI
c omunicazione e r icerca nelle s cienze della v ita
Tali composti agiscono come feromoni a concentrazioni inferiori alla nanomolare. Tutte le classi di questi ormoni (A) (C18,
C19, C21) ed i loro coniugati (B) (solfati e glucuronidati) risultano attive (Fig. 8).
Lo studio di tali composti nella chemorecezione è appena alle fasi iniziali, tuttavia emerge che differenze nel numero e
nella natura dei composti identificati siano frequenti tra i taxa
di ordine più elevato (es. sottofamiglie) e più rari tra i generi.
I feromoni steroidei potrebbero essere specie-specifici soprattutto sotto forma di specifiche miscele come avviene negli insetti.
PROSTAGLANDINE
Tali composti, derivati dagli acidi grassi, sono “tradizionalmente” associati ad una varietà di funzioni autocrine e paracrine nel corpo dei Vertebrati. In molti pesci, tuttavia, la prostaglandina F agisce anche come ormone che stimola il comportamento sessuale delle femmine. È stato inoltre chiarito
che questi composti “ormonali” funzionano anche come potenti stimolanti olfattori con attività feromonale per molte
specie di pesci. Ad esempio nel pesce rosso il maschio è sensibile in modo acuto e specifico sia alla prostaglandina F2α
(PGF2α) sia ad un suo metabolita (Fig. 9), mentre la femmina
risulta meno sensibile ad entrambi i composti. Molti membri
di Gimnotiformi, Siluriformi, Cipriniformi, Caraciformi e Salmoniformi si sono anch’essi mostrati in grado di captare il segnale della PGF2α e del suo metabolita. Non è attualmente
ancora bene chiarita la produzione e il metabolismo della
PGF2α nei Pesci tanto che potrebbero essere in futuro messe
in evidenza differenze tra le varie specie in questo tipo di segnale feromonale.
In tutte le figure delle strutture precedentemente indicate i vari atomi sono rappresentati con i seguenti simboli:
Atomi
di carbonio,
Atomi di ossigeno,
Atomi di zolfo,
Atomi di idrogeno. A conclusione della suddivisione in quattro
gruppi principali delle biomolecole “segnale” è sorprendente
citare che due molecole così estremamente differenti come
complessità strutturale, anidride carbonica (CO2) e tetrodotossina (Fig.11), risultano entrambe potenti stimolanti del gusto nella trota.
TRASDUZIONE DI SEGNALE NELLE CELLULE RECETTRICI
OLFATTORIE E GUSTATIVE
La capacità delle cellule di captare un segnale chimico (primo
messaggero) esterno all’animale e di scatenare una successione di processi biochimici, con la formazione di secondi messaggeri all’interno della cellula, in grado di suscitare una risposta della cellula o dell’intero animale, viene chiamata trasduzione del “segnale”. La successione concatenata dei processi
biochimici è la seguente: molecola “segnale” (primo messaggero) - recettore di membrana - proteine G - enzima di membrana - secondo messaggero - risposta cellulare. Come negli altri Vertebrati, per la trasduzione del segnale anche nei Pesci esistono almeno due sistemi indipendenti di secondi messaggeri:
• il sistema adenilato ciclasi (AC) (Fig. 10)
• il sistema fosfolipasi C (PLC) (Fig. 12)
Tossine che bloccano il canale per il Na+ in uno stato di chiusura.
Fig. 10 - La sostanza odorosa segnale disciolta nell’oceano (primo messaggero) si lega al
recettore olfattivo di membrana dei pesci che agisce sulle proteine G (α, β, γ), la subunità a
si lega al GTP e va ad attivare l’enzima di membrana adenilato ciclasi (AC) che scinde l’ATP
in AMPc (secondo messaggero) che determina l’apertura del canale ionico
(da Rawn, Biochimica, McGraw-Hill, 1990).
Fig. 11 - La tetrodotossina è prodotta dal pesce palla, che in
Giappone è una apprezzata specialità alimentare, chiamata fugu.
126
L’inositolo trifosfato apre i canali del calcio, il diacilglicerolo
(DG), l’altro secondo messaggero, andrà ad attivare la proteina cinasi C, enzima di membrana, che fosforila i recettori
dell’olfatto, dando il segnale di terminazione del segnale. È
stato definito che, per i neuroni recettori olfattori del pesce
gatto, il sistema PLC sembra importante nel generare la risposta fasica iniziale mentre il sistema AC provoca risposte
più lente (toniche o adattate). Il rapporto tra questi sistemi
non è ancora chiarito. Inoltre anche lo ione calcio può funzionare come 3° segnale. È anche possibile che il complesso
che si forma tra sostanza odorosa e recettore possa provocare direttamente l’apertura di un canale ionico per un effetto allosterico (variazione strutturale della conformazione
della proteina recettrice).
In entrambi i sistemi di trasduzione di segnale qui descritti,
un ruolo importante viene svolto dalle proteine G costituite
da tre differenti subunità (α, β, γ; la subunità α diventa attiva quando si lega al GTP). L’importanza delle proteine G nello scatenare processi fisiologici è messa ancor più in evidenza dalla Tab.1 in cui sono descritte sei differenti proteine G,
inclusa la Gs/Golf che svolge appunto la sua funzione a livello del sistema olfattorio dei Pesci.
A partire dalle molecole “segnale” disciolte negli oceani il
meccanismo biochimico della trasduzione del segnale per i
sistemi dell’olfatto e del gusto dei Pesci è analogo a quello
dei segnali ormonali circolanti nei fluidi corporei per le cellule di organi “bersaglio” o a quello delle cellule vegetali fotorecettrici. L’efficacia delle biomolecole “segnale” nel suscitare risposte nei Pesci a livello dei recettori del gusto e
dell’olfatto può essere fortemente diminuita e in alcuni casi
del tutto annullata in presenza di elevate concentrazioni di
inquinanti o di imponenti fenomeni naturali quali i processi
di eutrofizzazione (eccessiva esplosione algale) e la presenza
massiva di mucillaggini. Pertanto in molte zone di mare, pesantemente soggette a questi fattori, potrebbero essere attualmente messe in pericolo importanti attività fisiologiche
dei pesci, collegate alla chemorecezione come ad esempio le
attività sociali e riproduttive, la capacità di orientamento. La
perdita di quest’ultima capacità potrebbe essere una delle
cause del disorientamento e del conseguente spiaggiamento di Cetacei.
RUOLI DI GUSTO E OLFATTO NELLA CHEMORECEZIONE
COMPORTAMENTI PER IL CIBO E PER ATTIVITÀ SOCIALI
Per la limitata utilità della vista anche nelle acque più chiare
tropicali vengono utilizzati dai pesci principalmente due organi di senso:
ORGANI DI SENSO IMPLICATI
FUNZIONI STIMOLATE
Gusto
Ricerca di cibo
Il gusto è l’unico organo di senso
negli anosmatici. Nel pesce gatto
agisce da stimolante un’ampia
gamma di amminoacidi mentre nei
Salmonidi risulta sufficiente un numero molto più ristretto di questi
composti.
Olfatto
Ricerca di cibo
Sull’olfatto agiscono generalmente da stimolanti miscele di amminoacidi; in alcune specie di pesci risultano attivi anche nucleotidi e
betaina.
Il tonno Thunnus albacores se allenato può cambiare le preferenze di
cibo in poche settimane, riconoscendo la miscela di amminoacidi
che caratterizza la nuova preda.
L’identificazione delle biomolecole
“attive” presenta utili applicazioni
nelle attività umane per l’acquacultura e per l’individuazione delle
zone di mare in quel momento più
pescose.
Pericolo in vista
Interazione sociale
non sessuale
Orientamento
Sincronia riproduttiva
Fig. 12 - La sostanza
odorosa disciolta
nell’oceano agisce da
primo messaggero,
legandosi al recettore di
membrana dei Pesci,
attivando la proteina G
che a sua volta attiva la
fosfolipasi C (PLC) che
scinde il lipide polare di
membrana,
fosfatidilinositolo
difosfato (PIP2),
portando alla
formazione dei secondi
messaggeri, inositolo
trifosfato (IP3) che apre i
canali del calcio e
diacilglicerolo (DG)
(da Rawn, Biochimica,
McGraw-Hill, 1990).
Tab.1
PROCESSI FISIOLOGICI MEDIATI DA PROTEINE G
Stimolo
Recettore
Proteina G
Effettore
Risposta fisiologica
Adrenalina
Serotonina
Recettore β adrenergico
Recettore della serotonina
Gs
Gs
Adenilato ciclasi
Adenilato ciclasi
Luce
Odorifero
Peptide fMet
Acetilcolina
Rodopsina
Recettori olfattori
Recettore chemiotattico
Recettore muscarinico
Translucina
Golf
Gq
Gi
Fosfodiesterasi cGMP
Adenilato ciclasi
Fosfolipasi C
Canale del potassio
Scissione del glicogeno
Sensibilizzazione e
apprendimento in Aplysia
Eccitazione visiva
Olfattiva
Cemiotassi
Diminuzione di attività di
pacemaker
Da L. Stryer e H.R. Bourne, Ann. Rev. Cell Biol. 2(1986):393.
127
c omunicazione e r icerca nelle s cienze della v ita
Fig. 13 Mammifero
predatore.
CAPTAZIONE DI STIMOLI ASSOCIATI AL PERICOLO
Molte specie di pesci, se feriti, rilasciano composti dalla loro
pelle che servono come feromoni di allarme, causando nei
conspecifici fuga o ricerca di un nascondiglio.
L’asportazione dell’olfatto fa perdere la capacità di captazione. Questa capacità si pensava fosse esclusiva degli Ostariofisi mentre attualmente è stata estesa a molti gruppi di pesci
come i Percidi.
Differenti tipi di cellule e di biomolecole sono implicati nei diversi gruppi di pesci. Le risposte all’odore del pesce ferito possono essere apprese anche da specie di pesci che non sono
tassonomicamente collegate ad esso.
Alcune specie di pesci riconoscono i potenziali predatori dal
loro odore, reagendo o con la ricerca di un nascondiglio (a) o
con la fuga (b):
a - Ricerca di un nascondiglio
Dopo aver captato l’odore di un pesce estraneo predatore, i
due pesci gatto più piccoli si riparano terrorizzati nel tubo, sul
fondo di un acquario, solitamente occupato solo dal pesce
più grande(da J.H. Todd, “Le Scienze”, pag. 90, 1970).
b - Fuga
L-serina disciolta nell’acqua.
Il salmone migratore del Pacifico (Oncorhyncus) evita la L-serina in conseguenza della sua associazione con l’odore della
pelle dei mammiferi predatori (Fig.13).
INTERAZIONI SOCIALI NON SESSUALI
Alcuni di questi ruoli sono certamente dovuti all’azione di feromoni ed altri sono probabilmente appresi attraverso la memorizzazione di segnali (imprinting). Tra i ruoli non riproduttivi associati alla funzione olfattiva c’è la ricognizione di individui della stessa specie:
a) in una gerarchia di dominanza (Fig. 14)
b) con lo scopo di aggregazione (Fig. 15)
Il riconoscimento della famiglia è importante in molte specie di
pesci durante l’apprendimento; quando salmonidi strettamente imparentati sono “radunati” insieme, essi hanno la capacità di riconoscere la propria specie sulla base del solo odore.
L’individuazione di molecole “segnale” per l’aggregazione in
sciami di pesci della stessa specie può presentare, inoltre, notevoli interessi applicativi e commerciali per quanto riguarda la
pesca. A tal riguardo vengono
qui illustrati due esempi di pescosità collegati alla chemorecezione: il primo relativo al Mare
Adriatico (Fig. 16), il secondo all’Oceano Atlantico. È noto che
tra i mari italiani quello Adriatico
presenta di gran lunga la quantità più elevata di pescato per
quanto riguarda i Clupeiformi
(“pesce azzurro”, sardina, alice o
acciuga, spratto o “saraghina”)
Per quanto riguarda la pesca nell’Oceano Atlantico nel 1970 sono
state raccolte da Paolo Cortesi
curiose testimonianze di pescato-
ri di navi oceaniche di San Benedetto del Tronto che, seguendo analoghe flotte giapponesi, effettuavano abbondanti pescate in una data zona di mare ed improvvisamente vedevano
allontanarsi velocemente le navi giapponesi chiedendosi il
perché di questo abbandono. I pescatori italiani scoprivano
amaramente a loro spese che in quella zona di mare diminuiva nelle ore immediatamente successive la pescosità mentre le
navi giapponesi con sofisticate analisi di molecole “segnale”
nei campioni di acqua di mare avevano già identificato nuove
zone pescosissime.
MIGRAZIONE ED ORIENTAMENTO
Sono stati messi in evidenza due tipi di orientamento dei pesci, dipendenti dalla chemorecezione:
1) Ritorno ad un luogo geografico specifico, generalmente il
posto dove sono nati (homing).
Nei Salmonidi avviene l’imprinting (memorizzazione) del loro
corso d’acqua natale durante l’età giovanile. Tale processo sarebbe dovuto ad una complessa miscela di composti che include sia composti organici di origine vegetale sia odoranti
della stessa specie. La vita del salmone si può riassumere in tre
fasi (Tab.2):
Tab.2
PRIMA FASE
Giovane
Nel fiume di
origine
memorizza il suo
corso d’acqua.
SECONDA FASE
Adulto
Si riversa
nell’oceano
(sorprendente
adattamento
fisiologico nel
passaggio da
acqua dolce ad
acqua di mare).
TERZA FASE
Adulto più maturo
Riconosce le
molecole del suo
fiume di origine
e lo risale a
scopo
riproduttivo.
Per il forte
duplice stress
l’adulto stremato
morirà poco
dopo.
2) Ritrovamento di un luogo con particolari caratteristiche (ad
esempio, un buon habitat per la sopravvivenza delle larve).
La lampreda di mare, Petromyzon marinus, seleziona un corso d’acqua con un ampio numero di larve della stessa specie
per la deposizione di gameti (riproduzione). Si pensa che ciò
sia dovuto ad acidi biliari rilasciati esclusivamente da esemplari di questa specie allo stato larvale. Il ruolo di acidi biliari,
come molecole “segnale”, deve essere ancora dimostrato nei
pesci Teleostei. C’è inoltre la possibilità che odori “terrestri”
(composti originati da microrganismi terrestri o di acqua dolce) possano avere un ruolo nel riconoscimento istintivo di acqua dolce da parte di anguille e di altre specie catadrome.
SINCRONIA RIPRODUTTIVA
Tutte le specie di pesci esaminate, quando sono sessualmente mature, producono biomolecole (feromoni) che segnalano
la loro condizione agli esemplari della stessa specie. La produzione di feromoni è associata generalmente alle femmine,
Fig. 14 - Esempio di chemorecezione relativa al riconoscimento di biomolecole rilasciate
nell’acqua tra individui della stessa specie. Nell’acquario sperimentale, la madre si orienta
unicamente verso l’imbuto collegato con la vaschetta contenente giovani esemplari di Ciclidi
(cure parentali) (da Kuhme, 1963 in “Chemoreception of fishes”, ed. Grant e Mackie,
Academic Press, 1974).
128
ma esistono anche casi in cui maschi, che fanno la guardia al
“nido”, rilasciano biomolecole che attraggono le femmine. I
feromoni sessuali sono recepiti dal sistema olfattorio, sono
rappresentati da ormoni e dai loro metaboliti anche se alcune
specie possono usare composti non ormonali o miscele di entrambi. Ad esempio, la molva amara (Rhodeus ocellatus), che
depone gameti per la riproduzione in molluschi bivalvi, utilizza un amminoacido rilasciato dal bivalve stesso che provoca il
rilascio di sperma del pesce. Lo spettro olfattorio di singole
specie è ristretto da 1 fino a 5 composti stimolanti. Le differenze nella composizione delle biomolecole “segnale” sono
rilevabili, in senso tassonomico, a livello delle subfamiglie o di
suddivisioni più elevate. Tali biomolecole possono essere classificate in due gruppi:
• primers che evocano principalmente risposte
endocrinologiche
• releasers che stimolano variazioni comportamentali
A tal riguardo un esempio efficace della perfetta sincronia tra
maschi e femmine, necessaria per il momento riproduttivo, è
fornito dal pesce rosso che ovula in primavera in risposta all’
“ondata” di gonadotropina (GtH) stimolata dall’aumento di
temperatura, dalla vegetazione acquatica e dai feromoni. Poiché le femmine depongono i gameti in acque torbide alla fine del giorno, la fisiologia riproduttiva e il comportamento tra
il maschio e la femmina devono essere rigidamente sincronizzati. Questa sincronia è mediata da almeno due segnali derivati da ormoni con azioni ed identità distintamente differenti.
Queste biomolecole sono captate da differenti meccanismi recettori dell’olfatto e la sensibilità ad esse è sessualmente dimorfica (Tab. 3).
Fig. 16 - Enormi banchi di sardine
evidenziati su un registratore con
l’ecoscandaglio nel mare Adriatico
a 40 Km al largo della costa di Cesenatico
(profondità del mare: 45 m; i tre banchi
di sardine, Sardina pilchardus, occupano
globalmente un’area di 33 m x 24 m).
La registrazione è stata effettuata durante
una notte di estate degli ultimi anni ’60
a bordo del peschereccio “Ad Novas”
(Capitano Augusto Pompei, detto
“baffietta”) durante la pesca a “lampara”.
Tale figura vuole essere un affettuoso
ricordo del Prof. Romano Viviani,
recentemente scomparso, direttore della
Sezione Veterinaria del Dipartimento di
Biochimica dell’Università di Bologna, e
fondatore del Centro Ricerche Marine di
Cesenatico. Il Prof. Viviani, assieme all’allora
suo giovane assistente Paolo Cortesi, ha
partecipato attivamente a queste prime
uscite notturne con pescherecci, all’inizio di
una ricerca triennale svolta sui Clupeiformi
Adriatici (pesce azzurro) con fondi del CNR.
esempio, deve essere ancora determinata la complessità delle
miscele di biomolecole “segnale” e come esse vengono discriminate. È ancora largamente inesplorata l’interazione tra il
gusto, l’olfatto e forse altri sensi chimici (singole cellule chemosensoriali e il trigemino). Il ruolo di sensi chimici deve essere ancora definito per molte specie di pesci. Le risposte a
queste domande non solo promettono di essere stupefacenti, ma serviranno alla ricerca per ottimizzare la gestione dei
pesci in mare aperto e in acquacultura, ed offriranno importanti contributi per la comprensione delle basi neurali della
chemorecezione per quanto riguarda i Vertebrati in generale.
Tutte le immagini
di questo articolo
sono dovute
alla cortesia degli
Autori.
BIBLIOGRAFIA
“Chemoreception of fishes”, ed. Grant e Mackie, Academic
Press, 1974.
D.W. Sorensen, J. Caprio-Chemoreception-“Physiology of fishes”,1998, CRC Press.
FEROMONE
Primo feromone
Secondo
feromone
FASE
RIPRODUTTIVA DI
RILASCIO
Rilasciato da
femmine prima
della
deposizione.
Rilasciato da
femmine dopo
l’ovulazione.
EFFETTO
Stimola in
maschi la
produzione di
sperma e la
competitività tra
loro.
Provoca nelle
femmine un
aumento nel
sangue della
prostaglandina
PGF2a,
influenzando il
comportamento
sessuale.
c omunicazione e r icerca nelle s cienze della v ita
Tab. 3 - Fasi di rilascio nell’acqua ed effetti di due feromoni
del pesce rosso.
PROBLEMATICHE FUTURE DELLA CHEMORECEZIONE DEI PESCI
Pur essendoci stati in anni recentissimi enormi e rapidi progressi nello studio dell’attività di molecole “segnale” sulla
funzione gustativa ed olfattoria di molte specie di pesci, una
grande quantità di problemi rimane ancora da risolvere. Ad
Fig. 15 - Esemplari di pesci “vetro” riuniti in sciame per effetto
di biomolecole rilasciate da individui della stessa specie e captate
come segnale di attività sociale. Il gruppo si dispone in maniera da
assumere la forma di un unico, grosso pesce. Serve per spaventare
gli eventuali predatori. La perfetta sincronia dei movimenti garantisce
al superpesce composito un aspetto molto compatto (da “Focus”,
1998).
129
R. Lenzi
L. Bartoletti
S. Sintoni
P. Cortesi
il linguaggio degli ultrasuoni dei
delfini
c omunicazione e r icerca nelle s cienze della v ita
ORIGINE DEL NOME E SUDDIVISIONE DEI CETACEI
Fig. 1 - Sezione
della testa di
un delfino che
mostra le varie
strutture associate
con la produzione
e la ricezione del
suono.
Il nome cetaceo deriva dal latino “cetus” e dal greco “ketos”
che significa “mostro marino”, “balena”. Questi Mammiferi
acquatici hanno, come i terrestri, respirazione polmonare, sono omeotermi e allattano la prole con le ghiandole mammarie. Le dimensioni sono abbastanza varie e vanno dalla Balenottera azzurra (Balenoptera musculus di 30 m di lunghezza)
alla piccola Pontoporia (P. blainville di circa 1,5 m). Nella mitologia greca i Cetacei erano immaginati come eroi marini. Si
dividono in due grandi gruppi: Misticeti (es. balene) che si nutrono di plancton filtrando grandi masse d’acqua con i fanoni che hanno sostituito i denti, e gli Odontoceti (es. delfini, focene, ecc.) che, al contrario, sono carnivori e provvisti di dentatura. La famiglia dei Delfinidi è costituita da circa 30 specie.
centrale del melone si trova un tessuto adiposo a bassa densità che sembra implicato nei meccanismi di emissione degli
ultrasuoni. Infine, si può ricordare che l’emissione di ultrasuoni da parte dei delfini può rappresentare per essi anche un pericolo perché possono essere captati da Cetacei più grandi
predatori dei delfini stessi.
DIREZIONALITÀ DEGLI ULTRASUONI
I suoni emessi dai delfini sono divisi in fischi, suoni impulsivi e
“clicks”, impulsi sonori costituiti prevalentemente da ultrasuoni e implicati nell’uso del biosonar per la ecolocalizzazione
di prede, di ostacoli, ecc. I primi due suoni sono utilizzati per
la comunicazione sociale. Verranno qui considerati solo i
“clicks” che sono suoni brevi, a banda larga e prodotti con
una velocità di ripetizione variabile. La loro frequenza presenta una banda che va da 30 KHz fino a 200 KHz, con durata
singola di impulso da 10 a 100 microsecondi (µs).
Una caratteristica molto evidente nelle emissioni sonore dei
delfini è la spiccata direzionalità. Il campo di emissione acustica viene designato col nome di “cono di emissione”. Il “cono
di emissione” che può assumere forme diverse nelle varie specie (Fig. 2) è in correlazione col tipo di preda di cui si nutre l’animale. Per esempio, Delfinidi che si nutrono di crostacei e pesci bentonici avranno il cono di emissione più inclinato verso
il basso. L’animale mostra numerosi movimenti della testa durante le emissioni dei “clicks”; egli infatti sembra voler colpire il bersaglio da diverse angolazioni, in modo da ottenere il
maggior numero possibile di informazioni. Una volta ottenuto dall’eco le informazioni acustiche, egli rielabora e modifica
lo spettro delle frequenze dei “clicks” successivi, in modo da
ottenere ulteriori e più dettagliate informazioni riguardanti: la
distanza dal bersaglio, la velocità di spostamento, la sua direzione, le sue dimensioni, la composizione, ed il numero dei
bersagli presenti.
ECOLOCALIZZAZIONE
CAPTAZIONE DEGLI ULTRASUONI
PRODUZIONE DEGLI ULTRASUONI
L’area deputata per questa funzione sembra essere la regione
circostante l’orifizio del meato uditivo esterno (Fig. 3). Successivamente gli ultrasuoni attraverserebbero una struttura
cava della mandibola ripiena di sostanze lipidiche, entrando in
questo canale attraverso una zona in cui l’osso è molto sottile, chiamata pan bone, anch’essa ricca di particolari lipidi a
bassa densità che favoriscono la diffusione (Fig. 4). L’importanza della mandibola nella ricezione sonora è stata confer-
SONORITÀ DEI DELFINI
Questi suoni, come anche i fischi, sono prodotti a livello dei
tappi nasali e del loro complesso sistema di sacche e l’intero
sistema è imperniato su meccanismi pneumatici: l’aria compressa passa dalla sacca premascellare a quella dorsale attraverso i tappi nasali che ne regolano il passaggio (Fig. 1).
La propagazione dei suoni avviene successivamente attraverso le strutture contenute nel melone e nel rostro. Nella parte
Fig. 2 Rappresentazione
schematica dei
campi di emissione
del sonar di alcuni
Odontoceti.
A) Lipotes vexillifer (delfino comune cinese);
B) Inia geoffrensis (delfino del Rio delle Amazzoni);
C) Tursiops truncatus (tursiope); D) Cephalorhyncus commersonii;
E) Neophocaena phocaenoides; F) Monodon monoceros (narvalo);
G) Delphinapterus leucas (beluga); H) Pontoporia blainvillei;
I) Platanista indi (delfino di fiume indiano).
130
Fig. 3 - L’area punteggiata
rappresenta la regione della
testa che si è dimostrata più
sensibile alle stimolazioni
sonore.
RICERCA E CATTURA DEL CIBO
Nelle attività di ricerca e cattura del cibo, i delfini utilizzano il
biosonar in maniera diversa a seconda delle specie di appartenenza, in base al tipo di socializzazione ed alle caratteristiche delle prede. Nel filmato proposto dal National Geographic
vengono descritte le principali strategie adottate da questi
animali nel procacciarsi il cibo.
Alcune specie di delfini riescono con il loro biosonar ad individuare grossi banchi di pesci, che saranno le loro prede, fino
ad 1 km di distanza. L’utilizzo del biosonar risulta particolarmente utile ai delfini durante la “caccia” in sostituzione della
vista limitata dalla diminuzione della luce con l’aumento della profondità e durante la notte.
I delfini sarebbero in grado di scegliere la loro specie preferita
elaborando il suono risultante dall’integrazione degli impulsi
emessi con l’eco di ritorno. Sembra che l’informazione più
dettagliata sulle dimensioni e sulla natura della preda (bersaglio) sia la struttura spettrale dell’eco (target signature), cioè
una sorta di firma acustica esclusiva per ogni preda (bersaglio), che viene confrontata con quelle memorizzate in precedenza nel cervello dei delfini (Fig. 6).
Fig. 5 - Esemplare
di Tursiops
truncatus isolato
acusticamente
attraverso l’uso
di un’apposita
museruola che
copre
completamente
la mandibola.
131
Delfinario di
Cattolica.
PARTE SPERIMENTALE
DELFINI UTILIZZATI
Di seguito si riporta la ricerca sperimentale condotta sullo studio degli ultrasuoni emessi da una comunità di delfini (padre,
madre, piccola) ospitati dall’Acquatic World di Cattolica (ora
Nursery del Delfinario di Riccione) dentro una vasca di forma
ellissoidale di 19x15m con una capacità complessiva di 1000
m3 di acqua di mare.
I delfini, oggetto di studio, fanno parte della specie Tursiops
truncatus e in particolare si tratta della femmina Bonnie, di
circa 20 anni, proveniente dall’Oceano Atlantico, e del maschio Clyde, di circa 24 anni, proveniente dal Mare Adriatico,
e della piccola Daphne, nata durante il periodo della sperimentazione. Il nome di questa specie deriva dal latino “tursio” che significa delfino, e dal greco “ops” che significa faccia, a cui si aggiunge il termine truncatus per indicare il muso
appunto troncato e cioè corto e tozzo. Analogamente in inglese questa specie viene chiamata bottlenose dolphin cioè
delfino “a naso di bottiglia”.
APPARECCHIATURE UTILIZZATE
La parte sperimentale è stata condotta da Renato Lenzi (nella
foto di Fig. 7) e da Luca Bartoletti.
Per simulare situazioni vissute dai delfini in mare aperto nell’utilizzo del biosonar, è stato introdotto nella vasca un bersaglio/target artificiale appeso ad un idrofono in grado di captare i “clicks” emessi dal delfino. Attraverso l’utilizzo di una
serie di apparecchiature (amplificatore, convertitore, ecc., fig.
c omunicazione e r icerca nelle s cienze della v ita
mata da esperimenti condotti da Bril nel 1988 su un tursiope
al quale era stata applicata una museruola che copriva completamente la mandibola fino alla base delle pinne pettorali;
in questo caso era stata osservata una drastica riduzione nella capacità di captare gli ultrasuoni e di riconoscere un bersaglio (Fig. 5).
Fig. 4
c omunicazione e r icerca nelle s cienze della v ita
Fig. 6 - Il delfino emette un segnale (SL)
che si propaga nell’acqua e raggiunge
il bersaglio, qui parte del segnale viene
assorbito e parte viene riflesso (EL) per
poi tornare al delfino.
Fig. 7 - Renato
Lenzi mentre
esegue
un’ecografia
su Bonnie.
8) le immagini video e gli impulsi sonori sono stati registrati e
portati in laboratorio per analizzare il comportamento sociale
(tramite immagini video) ed acustico (tramite registrazioni sonore) della comunità di delfini.
RISULTATI
L’osservazione della comunità dei delfini (padre, madre, piccola) è cominciata a partire dagli ultimi mesi di gravidanza di
Bonnie e si è conclusa quando la piccola nata Daphne aveva
sei mesi. La nascita di un piccolo di delfino in cattività, in Italia è un evento ancora abbastanza singolare.
Scopo della ricerca è stato analizzare il rapporto madre-piccola sia dal punto di vista comportamentale che acustico.
Per quanto riguarda l’aspetto etologico, i principali comportamenti evidenziati sono schematizzati nella figura 9. Per
quanto riguarda il comportamento acustico all’interno del
rapporto madre-piccola si è evidenziata un’intensa comunicazione sonora tra loro ed un apprendimento della piccola
nell’emettere e captare ultrasuoni (“messa a punto del proprio biosonar”).
I “clicks” dei delfini sono stati analizzati nel laboratorio del
CNR di Ancona, sotto la guida dell’Ing. Massimo Azzali, utilizzando il software MATLAB che ha permesso di gestire ed
elaborare una grandissima quantità di dati.
L’analisi dei suoni nel dominio del tempo, ha permesso di
identificare i sonogrammi caratteristici di ogni delfino (Fig.10).
Dai sonogrammi sono state calcolate le caratteristiche principali dei suoni dei delfini: pressione di emissione sonora
(espressa in decibel), durata dell’impulso (espressa in microsec.), frequenze medie utilizzate (espressa in kHz) e l’intervallo di frequenze più usate (banda passante, espressa in kHz).
Ciò ha permesso di affermare che la madre, Bonnie, ha un
ruolo determinante nell’apprendimento e nell’utilizzo del
“biosonar”, da parte della piccola Daphne. Bonnie mostra alla piccola come interrogare con gli ultrasuoni ed analizzare
con l’eco di ritorno gli oggetti presenti in vasca.
La piccola Daphne presenta dei parametri molto variabili; durante il primo mese le sue emissioni hanno una lunga durata
con frequenze generalmente basse, intorno ai 50 kHz.
La piccola emette anche impulsi brevi con alte frequenze, ma
la banda passante è molto stretta ed il segnale poco intenso.
Le sue emissioni sonore si vanno gradatamente regolarizzando, fino ad arrivare al sesto mese dove si evidenzia una
evoluzione per quanto riguarda le frequenze, la durata e la
banda passante, avvicinandosi alle caratteristiche sonore di
Bonnie (Fig.11).
Lo sviluppo della piccola, sia fisiologico che educativo, non
è ancora completo all’età di sei mesi e risulta, quindi, difficile affermare con precisione quali possano essere le caratteristiche delle emissioni sonore una volta raggiunta l’età
dello svezzamento e adulta. Occorre sottolineare, inoltre,
che i primi impulsi sonori di Daphne non possono considerarsi veri e propri “clicks”, ma piuttosto dei tentativi di emissione ad intensità molto elevate (come la “lallazione” nei
neonati). La piccola ha acquisito, infatti, solo parzialmente il
controllo e l’uso dello strumento “sonar” in suo possesso.
Bonnie assume un ruolo decisamente attivo nello sviluppo
delle capacità di utilizzo del biosonar da parte di Daphne. La
madre ha cominciato a stimolare la piccola subito dopo la nascita, continuando poi a seguirla insegnandole i modelli di
comportamento tipici dell’ecolocalizzazione.
BIBLIOGRAFIA
Tesi di Laurea in Scienze Biologiche di Renato Lenzi (Relatore:
Prof. Paolo Cortesi, Correlatore: Ing. Massimo Azzali), Marzo
2000, Bologna: “Modificazioni del comportamento e della
Fig. 8 - Schema
del sistema
audio-video
utilizzato per
le registrazioni.
132
Fig. 9
Fig. 10
La madre Bonnie con la piccola Daphne
vocalizzazione tra madre e figlio nel delfino Tursiops truncatus (Montagu, 1821) nei primi mesi dopo il parto”.
Tesi di Laurea in Scienze Naturali di Luca Bartoletti (Relatore:
Prof. Alessandro Poli, Correlatore: Ing. Massimo Azzali e Prof.
Sergio Frugis) Dicembre 1996, Bologna: “Studio dell’evoluzione del comportamento sociale ed acustico in una comunità di Tursiopi (padre, madre, piccola), in cattività, utilizzando
un analizzatore di impulsi”.
Tutte le immagini di questo articolo sono dovute
alla cortesia degli Autori.
Fig. 11
133
P. Bernardi
M. Cavagnaro
S. Pisa
E. Piuzzi
impatto ambientale dei sistemi di
comunicazione
Uomo posto su
un balcone di un
palazzo a 30 m
da una stazione
radio-base
(frequenza 947.5
MHz; potenza
radiata: 30 W;
guadagno: 14.7
dBi): distribuzione
di campo elettrico
in assenza (a) ed
in presenza (b)
dell’uomo;
c) distribuzione
di SAR. A lato in
basso è illustrata
la geometria del
problema.
Già a cominciare dalla fine del secolo scorso erano stati individuati i possibili effetti benefici dei campi elettromagnetici sui
sistemi biologici, effetti utilizzati principalmente in medicina.
E' stato pertanto naturale chiedersi se, accanto ad effetti positivi per l'organismo, non si potessero avere anche effetti negativi, associati ad esposizioni involontarie ai campi elettromagnetici.
I primi studi relativi a possibili effetti non voluti dei campi elettromagnetici sui sistemi biologici sono stati effettuati nel periodo delle due guerre mondiali e riguardavano lo studio dell'esposizione ai campi elettromagnetici delle persone addette
ai radar. A partire da una tale "esposizione localizzata", con
riferimento al numero di persone coinvolte, si è passati al coinvolgimento di gruppi di persone molto più numerosi con l'esposizione a campi a bassa frequenza (50, 60 Hz) associati alle linee di distribuzione dell'energia elettrica, ai campi a radiofrequenza dovuti ai ripetitori radiotelevisivi e, in modo più
capillare, ai campi a radiofrequenza emessi dai sistemi di telefonia mobile. Inoltre, gli sviluppi futuri relativi alle reti locali
senza fili prospettano ulteriori situazioni di esposizione.
I sistemi che più di recente hanno contribuito alla crescita dei
livelli di campo elettromagnetico a radiofrequenza nell'ambiente, e che forse più di ogni altro sono stati oggetto di
preoccupazione da parte della popolazione, sono i nuovi sistemi di telecomunicazione come la telefonia cellulare mobile. In questi ultimi sistemi, il collegamento avviene tra una stazione radio base fissa ed un terminale mobile d'utente che
può sia ricevere che trasmettere informazioni.
Nei sistemi di telefonia mobile, il territorio da servire viene
suddiviso in celle elementari non sovrapponentesi, ognuna
coperta da una propria stazione radio base che lavora a frequenze diverse da quelle delle stazioni adiacenti al fine di evitare interferenze (copertura cellulare). L'aumento degli utenti
richiede l'aumento dei canali a disposizione e questa esigenza può essere soddisfatta solo aumentando il numero delle
celle, riducendone le dimensioni. Conseguentemente, la potenza emessa dai trasmettitori di una stazione radio base si riduce a valori dell'ordine delle decine di Watt per singolo trasmettitore, come nei sistemi di classe 5 adottati in Italia. L'esigenza di operare con celle di dimensioni ridotte rende necessaria la presenza di stazioni radio base anche in zone urbane ad alta concentrazione abitativa. In questi casi, volendo
limitare i livelli di esposizione della popolazione, è necessario
individuare intorno alle antenne una opportuna zona di rispetto le cui dimensioni dipendono dalle caratteristiche radiative delle antenne stesse e dai limiti di esposizione fissati dalle normative di protezione. Tale zona di rispetto non deve essere accessibile alla popolazione; questo può essere ottenuto
installando le antenne su tralicci elevati ovvero ponendo un
recinto di guardia attorno alle antenne.
Diversa è la problematica derivante dall'utilizzo dei terminali
mobili. I telefoni cellulari, infatti, irradiano potenze medie decisamente più basse (comprese tra 125 e 600 mW a seconda
del sistema utilizzato) rispetto a quelle delle antenne delle stazioni radio base ma, durante una conversazione, il telefono è
posto a diretto contatto con la testa dell'utilizzatore. Si pone
134
(a)
c omunicazione e r icerca nelle s cienze della v ita
quindi il problema di valutare l'assorbimento e la distribuzione di potenza a radiofrequenza all'interno della testa, per verificare se questo assorbimento può dar luogo a rischi per la
salute degli utilizzatori. Una notevole mole di studi è stata
svolta a livello internazionale per stabilire i livelli di campo ai
quali un soggetto può essere esposto senza che insorgano effetti biologici significativi per la salute. Sulla base di questi studi sono state proposte da diverse organizzazioni internazionali delle norme di sicurezza. Tuttavia, l'esposizione al campo
irradiato da un telefono cellulare presenta delle caratteristiche
particolari a causa dell'estrema vicinanza della sorgente al
corpo esposto. Nuovi e più accurati studi si sono quindi resi
necessari per valutare la distribuzione della potenza assorbita
(dosimetria) all'interno della testa di un utilizzatore. Nel caso
dei telefoni cellulari, infatti, è la potenza assorbita per unità di
massa (SAR) il parametro su cui basare la valutazione del rischio per la salute umana. Infine, poiché gli effetti biologici,
derivanti dall'esposizione ai campi elettromagnetici a radio
frequenza, scientificamente documentati ed universalmente
riconosciuti sono di natura termica, è importante condurre,
accanto all'analisi dosimetrica, anche un'analisi termica al fine di valutare gli aumenti di temperatura indotti dall'esposizione.
In figura sono riportate, a titolo di esempio, la distribuzione di
SAR e la corrispondente distribuzione degli incrementi di temperatura valutate, attraverso un codice numerico, nella testa
di un utilizzatore di telefono cellulare.
Tra le numerose iniziative di ricerca nel settore si citano due
particolari progetti: il CEPHOS, progetto di ricerca europeo, e
il progetto Salvaguardia dell'uomo e dell'ambiente dalle emissioni elettromagnetiche. Il progetto CEPHOS (CEllular PHOnes
Standard) ha avuto inizio nell'Ottobre del 1997 nell'ambito
del IV Programma Quadro, ed è stato completato nel Dicembre del 1999. Scopo del progetto, al quale hanno partecipato
15 unità di ricerca tra università e enti di ricerca pubblici e privati provenienti da 6 Paesi Europei, è stata la definizione di
una procedura unificata per verificare la conformità dei nuovi
telefoni cellulari alle normative di protezione. Invece il progetto Salvaguardia dell'uomo e dell'ambiente dalle emissioni
elettromagnetiche è un progetto interamente italiano finanziato dal MURST (ora MIUR) e coordinato congiuntamente da
ENEA e CNR, a cui partecipano 59 unità operative tra università, enti pubblici ed industrie.
BIBLIOGRAFIA
P. Bernardi, M. Cavagnaro, S. Pisa, and E. Piuzzi, "Specific Absorption Rate and Temperature Increases in the Head of a
Cellular Phone User", IEEE Trans. Microwave Theory Tech.,
vol.48, n°7, pp.1118-1126, July 2000.
P. Bernardi, M. Cavagnaro, S. Pisa, E. Piuzzi, "Esposizione dell'uomo ai campi elettromagnetici prodotti dai sistemi di telefonia cellulare", in Alta Frequenza, vol. 11, n° 3, pp.4-8,
1999.
Telefono
equipaggiato
con antenna whip
(frequenza 900
MHz; potenza
radiata: 600 mW):
a) distribuzione di
SAR,
b) distribuzione
dell’incremento
di temperatura
nella testa di un
utilizzatore di
telefono cellulare.
(b)
Immagini dovute alla cortesia degli autori.
135
F. Berardi
c omunicazione e r icerca nelle s cienze della v ita
inter net e net-culture
Che Internet costituisca un fattore di trasformazione decisivo
della comunicazione sociale, dell’economia e della stessa vita
quotidiana, è cosa nota.
In generale però si crede che Internet costituisca semplicemente un nuovo strumento di comunicazione, mentre occorre forse considerarlo qualcosa di differente, una vera e propria
sfera pubblica.
Nata alla fine degli anni Sessanta all’interno del sistema militare (con il nome di ARPANET) la rete telematica si è poi sviluppata, nel corso dei decenni settanta e ottanta, nell’ambiente accademico, come strumento per la collaborazione a
distanza tra ricercatori. Solo all’inizio degli anni Novanta, però, la rete è diventata uno strumento accessibile al grande
pubblico, e ha cominciato a rendersi disponibile e utilizzabile
per finalità diverse da quelle di ricerca scientifica o di archiviazione distribuita dell’informazione.
Il passaggio decisivo per la diffusione della rete al di là dei
confini di una utenza specialistica è stata la ideazione e la costruzione del world wide web, e dei motori di ricerca, strumenti utili all’orientamento, alla ricerca, e, come suol dirsi nel
metaforico linguaggio della rete, alla navigazione.
La crescita di Internet nel corso degli anni novanta è stata rapidissima e differenziata. Tanto differenziata, potremmo dire,
quanto è differenziato il mondo dello scambio economico,
dell’organizzazione politica e civile, della produzione e del
consumo culturale.
Il commercio elettronico, le reti civiche o gli spazi di discussione tematica online, il fiorire dei musei virtuali o delle librerie
virtuali, sono forme attraverso le quali si manifesta questa pluralità di applicazioni dello strumento telematico. Ma la Rete
non è solo uno strumento. La Rete non costituisce soltanto il
mezzo attraverso cui è possibile veicolare qualcosa che già esiste nel mondo fisico, territoriale (le merci scambiate grazie al-
l’e-commerce, o i quadri di Velasquez che possiamo andare a
visitare in qualche museo virtuale).
La Rete è anche una Sfera pubblica, cioè un luogo infinitamente espandibile nel quale si creano nuove merci, che non
esistevano prima, nel mondo fisico, e nel quale si producono
immaginari e costruzioni teoriche che fanno della rete stessa
il loro oggetto, il loro ambiente e la loro finalità.
Quando parliamo di net-culture (o cultura di rete) possiamo come spesso accade, anzi come generalmente accade - credere che si tratti di un trasferimento degli oggetti culturali sul
supporto elettronico: informazione culturale, informazione
sulla cultura, sull’arte, sulla musica o sul pensiero che sono
prodotti nella tradizionale sfera dell’accademia, o del museo.
Questa convinzione è legittimata dal fiorire di musei online, o
di librerie e biblioteche virtuali, ed è una convinzione che, naturalmente, corrisponde in parte alla realtà. Ma l’essenziale
non è questo. La rete non è un luogo di informazione, o non
è soltanto questo. È soprattutto un luogo di creazione: quando parliamo di net-culture non parliamo soltanto della possibilità di usare la rete per raccontare quel che la cultura produce nei suoi luoghi tradizionali, bensì anche e soprattutto
della creazione artistica, filosofica, politica che nasce all’interno dela rete, e che là dentro trova la sua sfera pubblica, il suo
mercato, il suo campo di verifica.
Il discorso corrente su Internet non coglie a pieno quello che
è il nucleo più profondo e innovativo che si manifesta in questa sfera. I giornali e le televisioni presentano Internet come
strumento di informazione, oppure come strumento di arricchimento economico. Le aziende, le banche, e i consumatori sono attenti alle possibilità dell’e-commerce. Ed è giusto
che sia così, dal momento che è inevitabile. Ma alcuni ambiti della rete, minoritari ma non marginali, svolgono un’attività che non ha niente a che vedere con l’informazione, nien-
136
te a che vedere con il commercio, niente a che vedere con
l’intrattenimento. Svolgono ad esempio un’attività di creazione artistica che utilizza le potenzialità di programmi grafici e di tecnologie interattive che talvolta sono complesse e
costose, ma talvolta sono invece low-tech e low-budget, e
sono finalizzate a far emergere (spesso criticamente) la formazione di una sensibilità virtualizzata, fredda, mediata. Oppure svolgono una attività di critica filosofica della comunicazione, in un ambito che possiamo caratterizzare come meta-comunicativo. Oppure svolgono un’attività di agitazione e
di organizzazione politica di tipo nuovo, che nulla ha a che
fare con il goffo tentativo della politica tradizionale di utilizzare Internet, e molto ha a che fare con la creazione di una
sfera pubblica deterritorializzata, non gerarchica, di democrazia non rappresentativa ma diretta.
Per avere un’idea di questa dimensione in cui la Rete si sottrae allo spettacolo e alla commercializzazione, occorre entrare in quegli ambienti che sono meno pubblicizzati, che
meno hanno a che fare con la navigazione protetta e precotta dei portali usuali.
137
SITOGRAFIA
http://www.nettime.org
http://www.ccru.demon.co.uk/syzygy.htm
http://www.kode.demon.co.uk/map.htm
http://adbusters.org/ www.etoy.com, www.rtmark.org/
www.indymedia.org/ www.Ctheory.org/ www.wired.com/
www.HRC.westminster.edu
Per quanto riguarda la cultura di rete italiana:
net institute http://net-i.zkm.de/list rekombinant
http://net-i.zkm.de/rekombinant www.deriveapprodi.org/
www.decoder.org/
BIBLIOGRAFIA
Kevin Kelly: Out of control
Clifford Stoll: Sylicon Snake oil, San Francisco, 1994
Arthur Kroker: Data trash, The theory of the virtual class, New
York, 1994
Pierre Levy: Le tecnologie dell’intelligenza, Bologna, 1992
Pierre Levy: Ciberculture, Milano, 1999
Janet Murray: Hamlet on the Holodek Cambridge, Ma, 1998
Sherry Turkle: La vita nello schermo, Milano, 1997
c omunicazione e r icerca nelle s cienze della v ita
Per le immagini si veda la Sitografia.
Per cortesia dell’Autore.